NLP1 'Attention Is All You Need' Attention Is All You Need The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new arxiv.org NLP 분야에 막대한 영향을 준 이 논문은 자연어처리 뿐만 아니라 비전 태스크에도 Transformer가 활용되며 피인용수는 6만회를 넘게 되었습니다. 해당 논문을 다시 한번 읽고 번역하는 .. 이전 1 다음