논문리뷰 - Attention Is All You Need
·
공부/논문
처음으로 논문을 읽고 복기하며 정리해보려고 한다. "Attention Is All You Need"는 Google 소속 과학자 8명이 2017년에 작성한 연구논문이다. 기존 RNN,CNN의 병렬 처리가 불가능했던 문제를 본 논문에서 트랜스포머(Transformer) 아키텍처를 제안하여 화제가 되었고 이를 활용하여 머신러닝 분야에서 정말 많은 것이 바뀌었다고 한다.  우선, 어텐션과 셀프 어텐션의 개념을 이해하는데 생각보다 힘들었어서, 정리해놓고 틈틈히 확인해보려고 먼저 정리해보았다. Attention vs. Self-Attention위 예시 문장에서, "Who is the singer?" 라는 질문을 하게 된다면, 단어 하나하나 주어진 정보들을 조합하여 'singer'와의 관련성을 확인해야 할 것이다. ..