Peripheral Vision Annotation:拡張現実感環境のための視線計測による周辺視野領域情報提示手法

書誌事項

タイトル別名
  • Peripheral Vision Annotation : カクチョウ ゲン ジッカン カンキョウ ノ タメ ノ シセン ケイソク ニ ヨル シュウヘン シヤ リョウイキ ジョウホウ テイジ シュホウ
  • Peripheral Vision Annotation: Noninterference Information Presentation Method by Using Gaze Information

この論文をさがす

抄録

人間の持つ視覚特性,特に周辺視野と中心視野における特性の違いを利用し,拡張現実感環境における歩行や作業などの行動を阻害することなく情報を提示することが可能な手法,“Peripheral Vision Annotation”を提案する.拡張現実感技術を用いてユーザに仮想物体を提示する場合,現実空間に重畳描画した仮想物体が視界を塞いでしまう場合がある.注視点に近い中心視野領域は詳細な情報を得られることから,歩行や作業などの動作中は重要である.そこで本論文では視線認識装置を用い拡張現実空間において,注視点を塞がずユーザの行動を阻害しない表示手法を提案する.視線方向を実時間で計測し,注視位置から視野を中心視野と周辺視野に分割する.この2つの視覚特性の違いを利用し,注視点を塞がず情報の概要をユーザに知らせ,注視により詳細情報に切り替える.これによりユーザは作業を継続しながらも提示される情報の概要を把握することが可能になる.

Augmented-reality (AR) systems present information about a user's surrounding environment by overlaying it on the user's real-world view. However, such overlaid information tends to obscure a user's field of view and thus impedes a user's real world activities. This problem is especially critical when a user is wearing a head-mounted display. In this paper, we propose an information presentation mechanism for mobile AR systems by focusing on the user's gaze information and peripheral vision field. The gaze information is used to control the positions and the level-of-detail of the information overlaid on the user's field of view. We also propose a method for switching displayed information based on the difference in human visual perception between the peripheral and central visual fields. We develop a mobile AR system to test our proposed method consisting of a gaze-tracking system and a retinal imaging display.

収録刊行物

関連プロジェクト

もっと見る

詳細情報 詳細情報について

問題の指摘

ページトップへ