[Paper Review] What does BERT look at? An analysis of BERT’s attention
What does BERT look at? An analysis of BERT’s attention
What does BERT look at? An analysis of BERT’s attention
Machine Reading Comprehension 이번 포스팅에서는 NLP에서 빠질 수 없는 Task 중 하나인 Machine Reading Comprehension (MRC) 에 대해 알아보겠습니다. MRC란 간단히 표현하면 ‘기계’ (Machine) 가 글을 ‘읽고’ (R...
Text classification 이번 포스팅에서는 GLUE 벤치마크에 포함된 데이터셋과 관련 tasks를 중심으로 NLP 분야에서 논의되는 여러 Text classification challenge에 대한 overview를 살펴보도록 하겠다. GLUE benchmark ...
Attention is all you need (2017) 이번 포스팅에서는 NLP를 비롯한 분야의 판도를 뒤집어놓은 유명한 논문, Attention is all you need (2017) 에 대한 Paper review를 해보도록 하겠습니다. 필자가 생각하기에 중요하다고 여겨...
Global vs. Local Attention 이번 포스팅에서는 Global Attention과 Local Attention에 대해 알아보도록 하자. Global Attention Global Attention은 Encoder에 있는 모든 hidden state를 고려하여 ...