Bibliographic Information
- Other Title
-
- 5フン デ ワカル!? ユウメイ ロンブン ナナメ ヨミ Ashish Vaswani et al. : Attention Is All You Need
Search this article
Abstract
本項では2017年に発表された,attention機構だけで構成されたニューラル機械翻訳モデルであるTransformerについて,特にself-attentionに焦点を当てて解説する.またTransformerモデルが革新的であることを説明するために,それ以前に提案されたニューラル機械翻訳のモデルを順に説明する.
Journal
-
- 情報処理
-
情報処理 59 (11), 1040-1042, 2018-10-15
東京 : 情報処理学会 ; 1960-
- Tweet
Keywords
Details 詳細情報について
-
- CRID
- 1050845762839862272
-
- NII Article ID
- 40021708104
-
- NII Book ID
- AN00116625
-
- ISSN
- 04478053
-
- NDL BIB ID
- 029313166
-
- Text Lang
- ja
-
- Article Type
- departmental bulletin paper
-
- Data Source
-
- IRDB
- NDL
- CiNii Articles