Search Results 1-18 of 18

  • Development of Open-source Multi-modal Interaction Platform for Social Experiment of Conversational User Interface  [in Japanese]

    LEE Akinobu

    <p>本研究では,音声言語インタラクションの多様な社会実験の実践のための基盤となるプラットフォームの開発について報告する.音声対話を含む音声言語インタラクションの応用が広がりつつあるが,一般モーダルとして広く用いられるようになるためには様々な要素を量的に解明していく必要があり,そのためには,実際的・現実的システムが多様に構築され,それを大量の一般ユーザが使用し,多くの実インタラクション …

    Proceedings of the Annual Conference of JSAI JSAI2019(0), 3N3J1002-3N3J1002, 2019

    J-STAGE 

  • Estimation of Tongue Motion and Vowels of Silent Speech Based on EMG from Suprahyoid Muscles using CNN  [in Japanese]

    Watanabe Taisei , Oyama Tadahiro , Fukumi Minoru

    … <p>In this paper, we propose a method to estimate the tongue motion direction and silent speech based on convolutional neural network (CNN) using the surface electromyogram (EMG) from the suprahyoid muscles. … Conventional human machine interface (HMI) is difficult to use for users who are unable to freely move the muscles below the neck due to nerve damage or the like. …

    IEEJ Transactions on Electronics, Information and Systems 138(7), 828-837, 2018

    J-STAGE 

  • A robot control system using voice processing  [in Japanese]

    MOROHASHI Kazuho , OISHI Shuji , MIURA Jun

    … <p>This paper describes a speech-based interface for a human support robot. … We model a transition of the robot state based on human voice commands and camera images using a finite state machine (FSM). … For recognizing human voice,we use HARK and Google Speech API. …

    The Proceedings of JSME annual Conference on Robotics and Mechatronics (Robomec) 2017(0), 2P2-F11, 2017

    J-STAGE 

  • Analysis of Acoustic Feature of Command Speech Towards a Mobile Robot Under the Robot's Unintended Behavior  [in Japanese]

    TOTSUKA Noriko , ITO Akinori

    音声操作インタフェースが移動機構を持つロボットなどに搭載されると,ユーザが音声によってロボットをリアルタイムで動作させるという状況が考えられる.しかしこのような場合,ユーザの言い間違えやシステムの誤認識などによってロボットがユーザの意図しない動作をする可能性がある.我々は,そのような動作を迅速に修正するために,ユーザの意図しないロボット動作が発生した際のユーザ発話の音響的特徴に着目し,これらをロボ …

    IEICE technical report. Speech 113(161), 57-62, 2013-07-25

  • Direct Manipulation Interface for 3D Agents Based on Stretched Word-end Voice Commands  [in Japanese]

    Kawasaki Tomohisa , Shinozaki Takahiro , Furui Sadaoki

    … In order to control 3D objects such as an avatar or a moving camera in a virtual space, speech interface has a potential to be a more natural and powerful alternative to a mouse. … We propose speech based direct manipulation interface based on stretched word-end voice that controls continuous movements of 3D objects. …

    IEEJ Transactions on Electronics, Information and Systems 133(12), 2257-2263, 2013

    J-STAGE 

  • Discrimination of User's Internal State using Non-verbal Information before the First User Utterance  [in Japanese]

    CHIBA Yuya , HAHM Seongjun , ITO Akinori

    対話型のインターフェースでは,多様なユーザの挙動にも柔軟に応対できることが望まれる.音声対話システムはハンズフリーで操作でき,訓練も必要ない反面,そういった要求の重要性はさらに大きいものと思われる.これまで,入力された言語情報から適応的に応対を生成する研究は盛んに行われてきたが,ユーザが発話を行う前の情報からシステムの対話制御を決定する研究はあまりなされていない.本研究では,対話中のユーザの非言語 …

    IEICE technical report 111(153), 23-28, 2011-07-14

    References (17)

  • Operating a Public Spoken Guidance System in Real Environment

    Ryuichi Nisimura , Akinobu Lee , Masashi Yamada , Kiyohiro Shikano

    … Takemaru-kun system is a practical speech-oriented guidance system developed to examine spoken interface through long-term operation in a public place that collected natural human-machine interaction data. … In (2)004 the following advances improving reliability of the system were introduced, which conduced acquiring positive increase of access from users: (1) Rejection of unintended speech based on Gaussian Mixture Models (GMMs); …

    2005-09

    IR 

  • Linguistic and Acoustic Features Depending on Different Situations and Speech Recognition Rate  [in Japanese]

    ITOH Toshihiko , YAMADA Shinya , ARAKI Kenji

    人間同士または人間と機械との音声対話において, タスク遂行役の音声認識率、対話状況や対話相手の違いによって生じる言語・音響的な特徴の差異に関して実音声対話データの分析結果から明らかにする.機械との対話を扱うため, 比較的単純な状況設定としてカーナビゲーションシステムにおける目的地検索・設定タスクを想定し, その音声インタフェースという具体的な状況設定においてユーザ発話に現れる言語・音響的な特徴の差 …

    IPSJ SIG Notes 167, 101-106, 2005-05-26

    References (17)

  • Speech User Interface System for Form-based Web Information Retrieval Services and Its Usability Evaluation  [in Japanese]

    KAI ATSUHIKO , MORI HIROKAZU , NAKANO TAKAHIRO , NAKAGAWA SEIICHI

    … 現在,インターネットにおいてWebブラウザで利用できる情報検索サービスが数多く提供されているが,それらはほとんどWebブラウザのGUI(Graphical User Interface)環境での利用を想定している.最近では,音声インタフェースによるWebへのアクセスも検討されているが,既存のWebページへの汎用的なアクセスを提供するものではない.本研究では,Webページ内の選択メニュー型フォームに対して音声UIを提供する仕組みを, …

    IPSJ journal 46(5), 1318-1329, 2005-05-15

    IPSJ  References (28) Cited by (7)

  • An Approach to Deepen Understanding of Foreign Students in University-level Education : Effectiveness of Intensive Listening far Vocabulary Building in Japanese Language  [in Japanese]

    TSUKADA Taeko

    … Yet in that case students might have difficulty catching the sound when it comes to speech-based interface. …

    Journal of Poole Gakuin University (45), 71-84, 2005

  • Linguistic and Acoustic Features Depending on Different Situations and Speech Recognition Rate  [in Japanese]

    ITOH Toshihiko , YAMADA Shinya , ARAKI Kenji

    人間同士または人間と機械との音声対話において, タスク遂行役の音声認識率、対話状況や対話相手の違いによって生じる言語・音響的な特徴の差異に関して実音声対話データの分析結果から明らかにする.機械との対話を扱うため, 比較的単純な状況設定としてカーナビゲーションシステムにおける目的地検索・設定タスクを想定し, その音声インタフェースという具体的な状況設定においてユーザ発話に現れる言語・音響的な特徴の差 …

    IPSJ SIG Notes 2005-SLP-56, 101-106, 2005

    Cited by (9)

  • A Study of the Navigation-Terminal Device for Walking in City Areas through Non-Audio and Visual Methods  [in Japanese]

    NAKANISHI Yoshitaka , MASUDA Taisuke , TAKASHIMA Tatsuki , SHIRAMOTO Yasuo , HIGAKI Hidehiko

    … The method widely used for communication has been speech-based interface. …

    Journal of Life Support Engineering 16(2), 72-80, 2004-08-30

    J-STAGE  Ichushi Web  References (18)

  • Evaluating the Safety of Verbal Interface Use while Driving (Special Issue: Speech-Based Interfaces in Vehicles)

    小島 真一 , 内山 祐司 , 星野 博之 [他]

    豊田中央研究所R&Dレビュ- 39(1), 23-28, 2004-03

  • Voice Information System that Adapts to Driver's Mental Workload (Special Issue: Speech-Based Interfaces in Vehicles)

    内山 祐司 , 小島 真一 , 本郷 武朗 [他]

    豊田中央研究所R&Dレビュ- 39(1), 16-22, 2004-03

  • Comparison of Linguistic and Acoustic Features Caused by Different Dialogue Situations in a Landmark-input Task  [in Japanese]

    ITO Toshihiko , KAI Atsuhiko , IWAMOTO Yoshiyuki , MIZUTANI Makoto , YUASA Hiroki , KONISHI Tatsuhiro , ITOH Yukihiro

    … We compare the acoustic andlinguistic features of the user's dialogue speech both for a spokendialogue system and an actual human-operator service in severallandmark-setting tasks for a car navigation system. … It is known thatspeech-based interaction has the potential to distract drivers anddegrade safety. … On the other hand, it is not clear whether a differentdialogue situation causes some acoustic or linguistic differences ontheir utterances in a speech interface system. …

    Transactions of Information Processing Society of Japan 43(7), 2118-2129, 2002-07-15

    IPSJ  IR  References (30) Cited by (8)

  • Does a speech-based interface for an invehicle computer distract drivers?

    LEE J. D.

    Proc. World Congress on Intelligent Transport System (2000), 2000

    Cited by (2)

  • Clinical Neuropsychology and Working Memory.  [in Japanese]

    Yamashita Hikari

    A. D. Baddeleyによって提唱された (Baddeleyら 1974) ,ワーキングメモリー・モデルの成立と発展の過程と,臨床神経心理学との関係について論じた。Baddeleyがワーキングメモリーの3項モデル (ワーキングメモリーが,言語情報の一時的保持を行う音韻ループ,視空間情報の一時保持を行う視空間スケッチパッド,それらをコントロールする中央制御部の3つの下位システムから構成されてい …

    Higher Brain Function Research 17(2), 140-148, 1997

    J-STAGE 

  • Control Method for Automatic Synthesis of Moving Facial Images and Speech Based on Text  [in Japanese]

    KANEKO Masahide , KOIKE Atsushi , HATORI Yoshinori

    … Conversion from input texts to moving facial images and speech has gained attention as a basic technique to realize new types of communication services and human interface. …

    Proceedings of The ITE Annual Convention 29(0), 389-390, 1993

    J-STAGE 

Page Top