ロボットによる環境の自律的探索と言語命令解釈の相互作用

Search this article

Abstract

本稿では、ロボットがいかにユーザーからの言語命令を解釈し、実行するかについて議論する。解釈の基本は認識文の構文解析であるが、環境への依存性や曖昧性、音声認識の誤りなど様々な要因でロボットがユーザーの自然発話による命令を正しく実行することは容易ではない。ユーザーの曖昧な言語命令をロボットが正しく解釈するための手がかりの一つは、環境情報である。しかし、ロボットが物や家具がどこにあるかといった環境情報の収集を完全に自律的に行うことは困難であり、環境情報の取得には、ユーザーとのインタラクションが有用である。例えば、未知の物体の名前を覚えるためには、ユーザーから名前を聞く必要があるが、この名前をユーザーの言語命令から推測することが可能となる場合がある。つまり、環境情報の収集と命令の解釈を相互に精緻化させることが可能であると思われる。そこで本稿ではまず、ロボットが室内を事前に探索し、環境(家具や物体の種類や位置)の情報を自律的に取得しデータベースとして保持することから始める。これにより得られた情報は、ユーザーの曖昧な発話や音声認識の誤りを解消する手がかりとなる。さらに、ユーザーからの言語命令を実行するための可能な解釈の中で、取得できなかった情報を収集し、それを新たな命令の解釈に利用する手法を検討する。これにより、ユーザーの命令をロボットが実行できる可能性が向上することを実機の実験を通して示す。

Journal

Details 詳細情報について

Report a problem

Back to top