モデルベース・モデルフリー強化学習の調停について
-
- 内部 英治
- 国際電気通信基礎技術研究所
書誌事項
- タイトル別名
-
- Coordination of model-based and model-free reinforcement learning
抄録
<p>強化学習は環境のモデルを陽に推定し学習に利用するモデルベース法と,実際または仮想的に得られた状態行動遷移対から学習するモデルフリー法に大別できる.我々はこれまでに性質の異なる複数のモデルフリー強化学習器とモデルベース強化学習器を並列に学習させつつ,性能に応じて学習器を非同期に切り替える手法を提案し,単純なアルゴリズムが複雑なアルゴリズムの学習に貢献することを示した.しかしモジュールの切り替え条件は価値関数の値に応じて確率的に決定され,モデルベースとモデルフリーの切り替えそのものを学習することは検討していなかった.また状態の予測誤差や報酬予測誤差など重要な要素を考慮していなかった.そこで本研究では価値関数に応じて切り替える方法、状態や価値の予測誤差に応じて切り替える方法,両者の重みづけで切り替える方法,さらに両者の重みを学習する方法を比較検討し、学習効率,環境の変化に対する追従能力,さらに神経科学の観点からの考察を行う.</p>
収録刊行物
-
- 人工知能学会全国大会論文集
-
人工知能学会全国大会論文集 JSAI2022 (0), 2M4OS19b03-2M4OS19b03, 2022
一般社団法人 人工知能学会
- Tweet
キーワード
詳細情報 詳細情報について
-
- CRID
- 1390855656055894784
-
- 本文言語コード
- ja
-
- データソース種別
-
- JaLC
-
- 抄録ライセンスフラグ
- 使用不可