AIに不適合なアルゴリズム回避論:

DOI

書誌事項

タイトル別名
  • Algorithm Aversion or Automation Bias in AI Hiring:
  • Officer K or Lt. Col. Stanislav Petrov
  • 機械的な人事採用選別と自動化バイアス

抄録

<p>本稿は先ず、旧ソ連軍スタニスラフ・ペトロフ中佐が、アメリカからの核攻撃警報を鵜吞うのみにせず、直観的にこれを疑い、無事に核戦争を回避できた事例紹介を通じて、〈自動化バイアス〉に抗あらがう〈意味のあるヒトの監視・決定等〉の重要性について読者の理解を促している。</p><p>続く第一章に於いては、広い射程を包含する概念として「AI」という文言を使いながら、AIの予測・決定・推奨等を信頼し過ぎる(over-trustな)ヒトの偏見としての自動化バイアスと、これに類する認知上の誤謬である〈確証バイアス〉等々を解説。その上で、これ等の誤謬に対する対策案を、総務省「AI利活用原則の各論点に対する詳説」、EU『AI規則案』、及びホワイト・ハウス『AI権利章典の青写真』から例示・紹介している。</p><p>そして第二章では、自動化バイアスとは真逆の、AIの予測の方がヒトより正しくても、ヒトはヒトによる意思決定を好みがちであるという、AIに対する信頼不足(under-trust)な偏見が、社会的損失を生むと主張する〈アルゴリズム回避〉を紹介。加えて、これに類する幾つかの、ヒトの意思決定尊重主義に対する批判的指摘の代表例―筆者はこれ等をまとめて「アルゴリズム回避論」と呼んでいる―に言及した上で、それ等アルゴリズム回避論に対する筆者の反論を展開している。</p><p>第三章に於いては、たとえヒトには〈アルゴリズム回避〉という偏見がはたらく場合があるとしても、それでも人事採用選別や被用者の評価等に於けるAI利用には慎重であるべき理由として、「AIによる予測がヒトよりも正しい」という前提/停止条件が満たされていない場合があること、AIの特性的にAI利用が妥当ではない場合があること、及び前提/停止条件が満たされてもAI利用には謙抑的であるべき倫理上の理由があること、を説明している。</p><p>その上で、「おわりに」に於いて筆者は、AI利用はその適した業務に限り、ヒトが適する業務との協働が望ましいと示唆している。</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390581070839149824
  • DOI
    10.24798/jicp.7.2_1
  • ISSN
    24329177
    24336254
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ