5分で分かる!? 有名論文ナナメ読み:Jacob Devlin et al. : BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding

Description

自然言語処理のさまざまなタスクで精度向上を達成した「BERT: Pre-training ofDeep Bidirectional Transformers for Language Understanding」の概要を説明する.背景,BERTを支えるいくつかのポイント,BERTの事前学習とファインチューニング,BERTのその後について解説する.

Journal

  • 情報処理

    情報処理 61 (3), 294-295, 2020-02-15

    情報処理学会

Keywords

Details 詳細情報について

Report a problem

Back to top