5分で分かる!? 有名論文ナナメ読み:Jacob Devlin et al. : BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding
Description
自然言語処理のさまざまなタスクで精度向上を達成した「BERT: Pre-training ofDeep Bidirectional Transformers for Language Understanding」の概要を説明する.背景,BERTを支えるいくつかのポイント,BERTの事前学習とファインチューニング,BERTのその後について解説する.
Journal
-
- 情報処理
-
情報処理 61 (3), 294-295, 2020-02-15
情報処理学会
- Tweet
Keywords
Details 詳細情報について
-
- CRID
- 1050002213396988160
-
- NII Article ID
- 170000181657
-
- Text Lang
- ja
-
- Article Type
- article
-
- Data Source
-
- IRDB
- CiNii Articles