0. Introduction 다른 글에서 Attention Mechanism에 대해서 알아보았습니다. Attention Mechanism에 대해서 자세히 알아보시려면 아래 글을 읽어보시기를 추천드립니다. https://moonlight314.tistory.com/entry/Transformer-1-Attention-Mechanism Transformer #1 - Attention Mechanism 0. Background Attention Mechanism이 나오기 전에는 Seq2Seq Model이 주로 사용되었습니다. Seq2Seq Model은 당시에는 훌륭한 Idea였지만, 치명적인 문제점을 가지고 있었습니다. 그 어떤 입력값이 들어 moonlight314.tistory.com ..