Deep Emotion:感情理解へ向けた深層感情モデルの開発

DOI IR HANDLE Web Site Open Access

Bibliographic Information

Other Title
  • Deep Emotion : カンジョウ リカイ エ ムケタ シンソウ カンジョウ モデル ノ カイハツ

Search this article

Abstract

人工知能における感情の研究は近年注目を集めている.著者は 2019 年より人工知能学会全国大会にて「感情と AI」というセッションを企画し,開催してきたが,2 年連続で参加者が 100 名を超え,セッション会場に入りきらないほどであった.解説記事として執筆した「OS 18 感情と AI」[日永田 19] にも,多くの反響があり,感情と AI というコンテンツが非常に注目度が高いことを確信した.人工物における感情の研究は,人工知能という言葉が多くの人々に広く認知される前から,数多く推進されてきた.代表的なのは 2000 年頃の Picard による Affective Computing [Picard 97] や Breazeal の kismet という感情ロボットである [Breazeal 02].日本でも尾形が情動ロボットに関する研究を行っていた [Ogata 00].当時はaibo [Hornby 00] の発売時期とも重なり,aibo に触発されるように人工物における感情・情動の研究は活発化していく.しかしそれも,日本では2008年頃から停滞する.Google scholar では 2008 年頃にそれまで増加傾向だった感情と人工物に関する国内論文が減少する.英文誌ではそのような傾向はないため,日本特有であったのかもしれないが,2006 年の第一世代 aibo の終焉に合わせるような形で一度ブームが去っているように見える.それがなぜ今になって注目度が上がっているのだろうか.著者の主観としては,人工知能への注目の高まりと収束にあるように思う.2007 年頃から始まる第三次人工知能ブームにより,広く人工知能という言葉が知られ,あらゆる場所で人工知能という言葉を聞く機会が増えた.しかし 10 年を経て,そのブームも落ち着いてきているように感じる.ある意味ふるいにかけられているのかもしれない.その中で,人工知能の次の一手を期待している人が多いのではないだろうか.オンライン開催となった 2020 年の人工知能学会全国大会では,「説明性AI」のセッションが非常に多くの聴講を集めたと話題になった.説明性 AI も人工知能の次の一手といえるし,参加者が人工知能の行く先を期待し,模索しているように感じる.人工物は感情をもたない.これは現在非常に一般的な考え方だろう.では,自分自身が感情をもつ,あるいは目の前にいる他者が感情をもつというのはどのように証明できるのだろうか.感情は自分自身の中にある現象のはずだが,その実態は自分自身でもうまく捉えることができない.ひどく曖昧に感じて,自身が「怒っている」と感じているときですら,その理由を捉えることができなかったり,「怒っている」という状態を他者に詳細に説明することは,いくら言葉を尽くしても完全にはできないだろう.こうした強い実感(素朴心理学)が感情についての研究活動の阻害となっている側面がある.そこで,感情という言葉にとらわれず,少し視点を変え,物事の理解について考える.記号創発ロボティクスでは,経験によって得ることのできるマルチモーダルな情報をカテゴリー分類し,その分類を通した予測によって物事を理解する,つまりこの自己組織的に行われる「マルチモーダルカテゴリゼーション」によって形成された概念が,物事を理解するための基盤として重要な役割を果たすと述べている [長井 12].このように,理解が個人の経験を通して形成される概念に基づいているとするならば,各自の置かれた環境や身体性によって異なることになり,同一の個体であっても,経験とともに動的に変化する.このように考えると,「理解」が人によって異なることや,ダイナミックに変化すること,一方で理解が身体性に基づいていることが人間どうしの共通の理解を支えていることが納得できる.この考えのもと,長井らは視覚や聴覚,触覚情報といった複数のモダリティの情報を統合し,物体や動作の概念形成に取り組んでいる [長井 12].感情もこの物体や動作の概念形成と同様の考え方ができる.感情の心理学的・生理学的知見として,サスペンションブリッジ効果 [Dutton 74] や感情の二要因理論[Schachter 62] があるが,これらの理論では感情が身体反応だけでなく,そのときの外的状況に影響されるとしている.すなわち,身体の外から得られる五感情報,いわゆる外受容感覚と,臓器などの身体内部の感覚,いわゆる内受容感覚が情報として統合され,感情概念が獲得されると考えられる.つまり,ペットボトルなどの物体も我々が複雑怪奇だと考える感情も,概念形成の観点からいけばそれほど大きな違いはないと考えることができるということである.我々は互いに感情があるということをインタラクションを介して外側から観測している.そして,観測されることによって,共通の概念として形成されていく.したがって,感情を捉えるためには,自己による身体内部の観測だけでなく他者による外側からの観測が重要な要素となる.そこで,本研究では,外部からの観測の例として,養育者と幼児のインタラクションを題材とし,養育者との社会的なやり取りの中で,感情分化を行うことのできる統合的な感情モデルの構築を目指す.具体的な方法として,既存の統合的な概念モデルをもとに,感情モデルを構築し,それを深層学習で実装する.そのモデルを用いて,養育者とのインタラクションを模したミラーリングタスクを行い,感情分化のシミュレーションを行う.すなわち本研究は,感情メカニズムの理解へ向けた構成的アプローチであると捉えることができる.神経科学や心理学では,いくつかの統合的な概念モデルが提案されているものの,それらは大人のデータにより,発達後を切り取って見ている.また,工学的なアプローチとして,強化学習を中心とした感情の計算モデルの研究も存在するが [Moerland 18],これらの研究の多くも感情が発達するということは考えられていない.しかしながら,基本感情にも文化差があることが示唆されているように,感情は初めから出来上がっているとは考えにくく,幼児から徐々に感情が発達すると考えるのが自然である.このような考えの一つとして,Bridges やLewis などの感情分化の研究があげられる [Bridges 32, Lewis 00].これらの研究では幼児の振舞いの観察などにより,カテゴリカルな感情が徐々に分化する様子をモデル化している.このようなカテゴリカルな感情は他者から見たときのカテゴリーであり,養育者との社会的なやり取りの中で,概念として固定化していくと考えられる.よって,本研究では,発達の要素を加味して,感情モデルを構築する.本取組みは,感情メカニズム解明への第一歩に過ぎないが,最終的に感情の仕組みが解明されれば,人間の本質的な理解に近づくことができるだろう.また,本研究の重要な点は,他者とのインタラクションによって感情概念が形成される点にある.他者と共通の概念の形成によって人工物による共感の実現や他者に合わせた感情表出や認識といった有用性が考えられる.従来の手動でつくり込む方法と異なり,つくり手が想定しない行動がHuman-Robot Interaction を活性化させる可能性もあるだろう.

Journal

Related Projects

See more

Details 詳細情報について

Report a problem

Back to top