発語行為レベルの情報をユーザ発話の解釈に用いる音声対話システム

Bibliographic Information

Other Title
  • ハツゴ コウイ レベル ノ ジョウホウ オ ユーザ ハツワ ノ カイシャク ニ モチイル オンセイ タイワ システム
  • Spoken Dialogue System that Uses Information on Locutionary Acts to Interpret User Utterances

Search this article

Abstract

本稿では,発話タイミングや発話後の沈黙のような,ユーザ発話の発語行為レベルの情報に着目して解釈を行う音声対話システムについて述べる.本研究では,実環境下でのヒューマノイドロボットとのインタラクションなど,音声認識が困難な状況での音声インタラクションの実現を目指している.具体的には,必要な場合に,音声認識結果に加えて,発話タイミングや発話後の沈黙などの情報を併用する部分対話へと対話を切り替える.この手法をシステムに実装し,31名のユーザによる評価実験を行った.この結果,音声認識結果のみを用いる手法と比較して,音声認識率が低い状況でも,高いタスク達成率が得られることを確認した.

We constructed a spoken dialogue system that interprets user utterances by exploiting information on the locutionary act level such as the utterance timing and absence of an utterance. This study is useful for enabling spoken human-robot interaction under situations where automatic speech recognition (ASR) performance may be poor. In particular, our system can enter to dialogues when necessary in which the timing and absence of an utterance are used as well as the ASR results to interpret user utterances. We conducted an experiment with 31 participants. The result showed that our system achieved a higher task completion rate than a baseline system that uses only the ASR results when the ASR performance was not high.

Journal

Citations (1)*help

See more

Related Projects

See more

Details 詳細情報について

Report a problem

Back to top