ユーザの位置の拘束のないジェスチャによるヒューマンインタフェース

書誌事項

タイトル別名
  • ユーザ ノ イチ ノ コウソク ノ ナイ ジェスチャ ニ ヨル ヒューマンインタフェース
  • Position - free Human Interface by Pointing Gestures
  • ジェスチャインタフェース

この論文をさがす

抄録

本論文では 画像から抽出した上半身の3つの特徴点を基準とし 手の3次元位置 方向を計測する手法を提案する. 著者らが先に発表した手法では 3次元情報を計算する際に基準となるアフィン座標系を作るための4つの特徴点をユーザの体から抽出していた. このとき 4点は同一平面上にあってはならないので ユーザの姿勢は大きな拘束を受けていた. 本論文では アフィン座標系を作る特徴点のうちの3点を体上にとり その3点が作る平面の法線上の1点を仮想的な4点目とする. このようにすれば3つの特徴点でアフィン座標系が作れるので ユーザの姿勢を拘束しないヒューマンインタフェースを構築できる. 実験として シミュレーションによって仮想基準点を求める手法を検証する. また 応用例として本手法を用いたプレゼンテーションシステムを構築し ヒューマンインタフェースとして有効であることを示す.

This paper describes a method to measure the user's 3D hand position and orientation using 3 features on the upper body of the user. The method proposed by the authors before used 4 feature points attached on the user's body. The user's pose was restricted because these 4 features must not be coplanar. Thus, we propose to use a virtual feature as the 4th feature, which is calculated by using the normal direction of the plane made by the 3 features. This method allows the user to move freely. The experimental results show that the proposed method is useful for the interface of presentation systems.

収録刊行物

被引用文献 (9)*注記

もっと見る

参考文献 (12)*注記

もっと見る

詳細情報 詳細情報について

問題の指摘

ページトップへ