償却推論にもとづいた継続学習

書誌事項

タイトル別名
  • Continual Learning Based on Amortized Inference

説明

<p>継続学習において,逐次的に複数のタスクを学習した際に過去のタスクの精度が著しく下がる破滅的忘却を防ぎながら,かつタスクの増加に対応できる手法の研究が盛んに行われている.本研究では,過去のタスクのネットワークの保存,訓練データを追加した学習を行うことのない新たな手法として,Neural Processの構造を基にしたAmortized Continual Learning Model(CALM)を提案する.CALMはタスク固有の重みを算出するTask Weight Encoder(TE)および入力データの特徴量抽出を行うFeature Extractor(FE)の2つのニューラルネットから構成される.入力画像の特徴量にタスク固有の重みを適用することで,全タスクで共通のネットワークを用いながら,タスク固有の出力を可能とする.実験ではSplit-MNISTのタスク増分学習に取り組み,提案手法を用いた際に逐次的に学習した場合もタスクの精度が保たれることを検証した.</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390566775142828800
  • NII論文ID
    130007856955
  • DOI
    10.11517/pjsai.jsai2020.0_2j5gs202
  • ISSN
    27587347
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ