[Paper Review] Text Understanding with the Attention Sum Reader Network
Text Understanding with the Attention Sum Reader Network Introduction CNN, Daily mail news data 및 Children’s Book Test 와 같은 대규모 Cloze-style 의 컨텍스트 질문-대답 데이...
Text Understanding with the Attention Sum Reader Network Introduction CNN, Daily mail news data 및 Children’s Book Test 와 같은 대규모 Cloze-style 의 컨텍스트 질문-대답 데이...
Seq2Seq with Attention
Seq2Seq Seq2Seq는 용어 그대로 sequence가 input으로 들어가서 모델을 거친 후 sequence가 반환되는 것을 지칭하는 것으로, NLP에서는 주로 Neural Machine Translation (NMT) 분야에 많이 활용되고 있다. 일단 sequential...
RNN / LSTM details
RNN RNN은 대표적인 recurrent deep learning 모델 중 하나이다. 이번 포스팅에서는 recurrent 모델의 대표격인 RNN, LSTM, GRU 에 대해 알아보고, 좀 더 구체적으로 Bidirectional / Stacked LSTM은 무엇인지, Backpr...