5分で分かる! ? 有名論文ナナメ読み:Ashish Vaswani et al. : Attention Is All You Need

Bibliographic Information

Other Title
  • 5フン デ ワカル!? ユウメイ ロンブン ナナメ ヨミ Ashish Vaswani et al. : Attention Is All You Need

Search this article

Abstract

本項では2017年に発表された,attention機構だけで構成されたニューラル機械翻訳モデルであるTransformerについて,特にself-attentionに焦点を当てて解説する.またTransformerモデルが革新的であることを説明するために,それ以前に提案されたニューラル機械翻訳のモデルを順に説明する.

Journal

  • 情報処理

    情報処理 59 (11), 1040-1042, 2018-10-15

    東京 : 情報処理学会 ; 1960-

Keywords

Details 詳細情報について

Report a problem

Back to top