BERTにおけるWeightとActivationの3値化の検討

  • 加来 宗一郎
    日本電信電話株式会社 NTTメディアインテリジェンス研究所
  • 西田 京介
    日本電信電話株式会社 NTTメディアインテリジェンス研究所
  • 吉田 仙
    日本電信電話株式会社 NTTメディアインテリジェンス研究所

書誌事項

タイトル別名
  • Weight and Activation Ternarization in BERT

説明

<p>事前学習済み言語モデルであるBERTの軽量化・高速化に向けてfloat値を少ないbit数表現で近似する量子化技術が注目を集めている.従来技術ではモデルのweight パラメータを3値や2値にする研究が行われているが,一方でactivationの量子化は8bit化が主流であり,8bit未満での近似は精度維持が困難であることが経験的に知られている.本研究ではBERTの中間表現における外れ値が課題であると考察し,事前学習済みのBERTを基に各層のactivationの外れ値に対応可能な3値化手法を提案する.評価実験により,weightとactivationを3値化したモデルが言語モデリングおよびダウンストリームタスクにおいて従来手法で3値化した場合に比べて精度低下を抑えたことを示す.</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390006895525108864
  • NII論文ID
    130008051823
  • DOI
    10.11517/pjsai.jsai2021.0_3j4gs6c01
  • ISSN
    27587347
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ