5分で分かる!? 有名論文ナナメ読み:Jacob Devlin et al. : BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding

説明

自然言語処理のさまざまなタスクで精度向上を達成した「BERT: Pre-training ofDeep Bidirectional Transformers for Language Understanding」の概要を説明する.背景,BERTを支えるいくつかのポイント,BERTの事前学習とファインチューニング,BERTのその後について解説する.

収録刊行物

  • 情報処理

    情報処理 61 (3), 294-295, 2020-02-15

    情報処理学会

キーワード

詳細情報 詳細情報について

問題の指摘

ページトップへ