偽発見率を保証したコンセプトによる説明可能モデルの学習

DOI
  • 徐 楷文
    筑波大学 理化学研究所 革新知能統合研究センター
  • 福地 一斗
    筑波大学 理化学研究所 革新知能統合研究センター
  • 秋本 洋平
    筑波大学 理化学研究所 革新知能統合研究センター
  • 佐久間 淳
    筑波大学 理化学研究所 革新知能統合研究センター

書誌事項

タイトル別名
  • Learning Concept-based Explainable Model that Guarantees the False Discovery Rate

抄録

<p>近年,深層学習モデルに解釈性を与える研究が近年盛んに行われている.コンセプトボトルネックモデル(CBM)は,画像入力から人間が直感的に理解できるコンセプトへ,そしてコンセプトから目標値へ線形モデルでマッピングする説明可能なモデルである.人間はモデルの予測したコンセプトを参照することで,モデルの判断根拠を理解することができるため,解釈性の高い手法だと考えられている.CBMは解釈性に優れるが,サンプルの識別において,あるコンセプトが本当に予測に重要かどうかは統計的な裏付けがない.そこで本研究では,CBMで予測をするとき,予測に重要なコンセプトを一定の偽発見率の下でコントロールする手法を提案する.本手法ではコンセプトの表現に変分オートエンコーダーによって獲得される潜在変数を利用し,ノックオフ(Knockoff)と呼ばれる特徴選択のツールを用いて,提案モデルにおける識別に重要なコンセプトの偽発見率を一定以下に保証される.実験では,複数のデータセットを用いて,提案手法で選択したコンセプトが高い解釈性を持し,かつ,選択したコンセプトだけを用いて予測を行うときでも高い予測精度に達成できることを示す.</p>

収録刊行物

詳細情報 詳細情報について

問題の指摘

ページトップへ