発語行為レベルの情報をユーザ発話の解釈に用いる音声対話システム

書誌事項

タイトル別名
  • ハツゴ コウイ レベル ノ ジョウホウ オ ユーザ ハツワ ノ カイシャク ニ モチイル オンセイ タイワ システム
  • Spoken Dialogue System that Uses Information on Locutionary Acts to Interpret User Utterances

この論文をさがす

抄録

本稿では,発話タイミングや発話後の沈黙のような,ユーザ発話の発語行為レベルの情報に着目して解釈を行う音声対話システムについて述べる.本研究では,実環境下でのヒューマノイドロボットとのインタラクションなど,音声認識が困難な状況での音声インタラクションの実現を目指している.具体的には,必要な場合に,音声認識結果に加えて,発話タイミングや発話後の沈黙などの情報を併用する部分対話へと対話を切り替える.この手法をシステムに実装し,31名のユーザによる評価実験を行った.この結果,音声認識結果のみを用いる手法と比較して,音声認識率が低い状況でも,高いタスク達成率が得られることを確認した.

We constructed a spoken dialogue system that interprets user utterances by exploiting information on the locutionary act level such as the utterance timing and absence of an utterance. This study is useful for enabling spoken human-robot interaction under situations where automatic speech recognition (ASR) performance may be poor. In particular, our system can enter to dialogues when necessary in which the timing and absence of an utterance are used as well as the ASR results to interpret user utterances. We conducted an experiment with 31 participants. The result showed that our system achieved a higher task completion rate than a baseline system that uses only the ASR results when the ASR performance was not high.

収録刊行物

被引用文献 (1)*注記

もっと見る

関連プロジェクト

もっと見る

詳細情報 詳細情報について

問題の指摘

ページトップへ