5分で分かる!? 有名論文ナナメ読み:Jacob Devlin et al. : BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding
説明
自然言語処理のさまざまなタスクで精度向上を達成した「BERT: Pre-training ofDeep Bidirectional Transformers for Language Understanding」の概要を説明する.背景,BERTを支えるいくつかのポイント,BERTの事前学習とファインチューニング,BERTのその後について解説する.
収録刊行物
-
- 情報処理
-
情報処理 61 (3), 294-295, 2020-02-15
情報処理学会
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1050002213396988160
-
- NII論文ID
- 170000181657
-
- 本文言語コード
- ja
-
- 資料種別
- article
-
- データソース種別
-
- IRDB
- CiNii Articles