JP6343718B2 - ジェスチャインタフェース - Google Patents

ジェスチャインタフェース Download PDF

Info

Publication number
JP6343718B2
JP6343718B2 JP2017533050A JP2017533050A JP6343718B2 JP 6343718 B2 JP6343718 B2 JP 6343718B2 JP 2017533050 A JP2017533050 A JP 2017533050A JP 2017533050 A JP2017533050 A JP 2017533050A JP 6343718 B2 JP6343718 B2 JP 6343718B2
Authority
JP
Japan
Prior art keywords
user
display screen
hand
user interface
interface device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017533050A
Other languages
English (en)
Other versions
JP2017539035A (ja
Inventor
ロレント アシ,
ロレント アシ,
ケン プレピン,
ケン プレピン,
セシリア レジェン,
セシリア レジェン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Publication of JP2017539035A publication Critical patent/JP2017539035A/ja
Application granted granted Critical
Publication of JP6343718B2 publication Critical patent/JP6343718B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明はユーザインタフェースに関し、より具体的は、表示画面に表示される選択可能対象を選択するためのユーザインタフェース装置に関する。
従来から、ユーザは、ユーザの動き及び動作を表示画面上の動き及び動作に変換可能な、マウス、ジョイスティック、ゲームコントローラ、キーボードなどといった装置を物理的に操作することにより、コンピュータ又は他の処理システムのユーザインタフェースを対話操作することができる。そのようなシステムでは、通常はマウスポインタなどのポインタが表示画面に表示されることで、ユーザは自分が表示のどの部分を対話操作しているのかを知ることができる。
マイクロソフト(商標)キネクト(商標)などの他のユーザインタフェース、いわゆる「ナチュラルユーザインタフェース」は、例えば画像処理技術と共にカメラなどのセンサを用いて、ユーザの体の動きを追跡することでユーザがユーザインタフェースを対話操作できるようにすることを可能にする技術を利用する。一般にそのようなインタフェースでは、上記のマウス技術に似て、ユーザの手が追跡され、ポインタの動きが、追跡された手の動きと関連付けられる。しかし、これらのインタフェースは直感的なものでなく、ユーザにとって操作するのが難しい。さらに、ユーザがポインタを見つけるためにまず腕を移動させ、目標に向かってポインタを移動させ、そして目標に正確に到達するために動きの速度及び幅を調整しなければならないので、これらのインタフェースは非効率的であり且つユーザを疲れさせる可能性があり、特に、より大きい表示画面の場合にそうである。
本発明の第1の態様によれば、表示画面上の選択可能対象を選択するためのユーザインタフェース装置で使用するための方法であって、表示画面が1以上の選択可能対象を表示するように構成されており、ユーザの第1の手の位置である第1の追跡位置に関する第1の情報を取得するステップと、ユーザの頭又は目の位置である第2の追跡位置に関する第2の情報を取得するステップと、表示画面上の1以上の選択可能対象の1以上の対象位置を判定するステップと、選択可能対象が第1の画面位置にあるかどうかを、第1の情報と、第2の情報と、判定した1以上の対象位置とに基づいて判定するステップであり、第1の画面位置が、選択可能対象に対するユーザの視界を第1の手が少なくとも部分的に遮るような表示画面上の位置である、該ステップと、選択可能対象が第1の画面位置にあると判定された場合に、選択可能対象が選択されると判定するステップとを含む方法が提供される。
本発明の更なる特徴及び利点が、添付の図面を参照しつつなされる、例としてのみ与えられる本発明の好ましい実施形態についての以下の説明から明らかになるであろう。
例示的な実施形態におけるユーザインタフェース装置の構成要素の概要図である。 例示的な実施形態に係るユーザインタフェース装置の構成要素の概要図である。 実施形態に係るユーザにより使用中の例示的なユーザインタフェース装置を示す図である。 深さ情報を検知する例示的な方法の概要図である。 深さ情報を検知する例示的な方法で取得される情報の概要図である。 深さ情報を検知する例示的な方法の概要図である。 仮想3次元空間でのユーザのレンダリングを示す図である。 仮想3次元空間での生成されたユーザの仮想表現を示す図である。 実施形態に係るユーザにより使用中のユーザインタフェース装置を示す図である。 例示的な実施形態に係る頭−手線及び目−手線の定義を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 実施形態に係るユーザにより使用中のユーザインタフェース装置を示す図である。 例示的な実施形態に係る、ユーザの視点からの表示画面を示す図である。 実施形態に係る較正処理の一部を示す図である。 2直線の近接交差の概要図である。 実施形態に係るユーザインタフェース装置により行われる方法を示すフロー図である。
図1aは、いくつかの例示的な実施形態に係るユーザインタフェース装置100の構成要素の概要図である。ユーザインタフェース装置100は、ユーザの位置を追跡するためのセンサ構成要素102と、プロセッサ104と、メモリ106と、ユーザに情報を表示するための表示画面108とを備える。
プロセッサ104は、メモリ106に記憶されているソフトウェアを用いて、プロセッサ104に入力される情報を処理し、プロセッサ104から出力される情報を生成する。例えば、センサ構成要素102により取得されるユーザインタフェース装置100のユーザの位置に関する情報が処理のためにプロセッサ104に送られてもよく、表示画面106でユーザに視覚情報を表示する際に使用するための情報がプロセッサ104から表示画面106に送られてもよい。
表示画面108は、ユーザインタフェース装置100のユーザに情報を表示するための任意の手段を含んでもよく、ユーザインタフェース、例えばグラフィカルユーザインタフェースをユーザに表示してもよい。表示画面108はプロジェクタスクリーン108でもよく、ユーザが視覚情報を見ることができるように視覚情報がプロジェクタスクリーン108にプロジェクタ(図示せず)により投影されてもよい。プロジェクタスクリーン108は、そこに投影されるグラフィカルユーザインタフェースなどをユーザが見ることを可能にするための任意の適切な表面でもよい。
センサ構成要素102は、特定のセンサが位置する局所環境の属性を検知するための、より具体的はユーザインタフェース機器のユーザの属性を検知するための、任意の数のセンサを含んでもよい。例えば、センサ構成要素は、ユーザ又はユーザの一部の画像を取得するためのカメラを含んでもよい。カメラは、例えば、ユーザ及びユーザ環境のカラー画像を取得するための「赤−緑−青」(RGB)「電荷結合素子」(CCD)カメラでもよい。カメラは、ユーザ及びユーザ環境の動画像を取得するために複数のそのような画像を時間の関数として取得し、これによりユーザ又はユーザの一部の動きに関する情報を取得してもよい。以下に詳細に示すように、センサ構成要素102は、3次元空間でのユーザ又はユーザの部分の位置の3次元追跡を可能にするために深さ情報を時間の関数として取得するためのセンサを含んでもよい。深さ検知は、例えばセンサから対象までの距離を判定する「飛行時間」センサ又は「構造化光」センサを使用して達成されてもよい。センサ構成要素102は、処理のためにプロセッサ104に、例えばユーザの属性及び/又は位置に関する検知情報を供給する。ユーザインタフェース装置100は必ずしもセンサ構成要素102を備える必要はなく、その代わりにセンサ構成要素がユーザインタフェース装置100から離れていてもよい。そのような場合には、センサ構成要素102は、ユーザインタフェース装置100の通信インタフェース(図示せず)により、例えば固定又はワイヤレス接続を介してユーザインタフェース装置100に通信可能に接続されてもよい。この接続を介して、センサ構成要素102からユーザインタフェース装置100に、例えばユーザの部分の追跡位置に関する情報を伝えてもよい。
一実施形態において、ユーザインタフェース装置100は、ユーザインタフェース装置のユーザが見ている方向を追跡するための視線センサ構成要素110を備える。例えば、視線センサ構成要素は、ユーザの目が向けられる表示画面108上の位置を追跡してもよい。視線センサ構成要素110は、ユーザの視線方向を追跡することに適する任意の数のセンサを含んでもよい。視線センサ構成要素は、ユーザ200に取り付けられるセンサ、例えばユーザの目の画像を取得するためのカメラ、及び、例えば、固定磁界に対してユーザの頭が向いている方向を検知するための磁力計、又は、顔認識ソフトウェアを利用してユーザの頭が表示画面108に関して向いている方向を判定する画像処理システムを含んでもよい。しかし、ユーザの視線方向を追跡することに適する任意の他のセンサ又はセンサの組合せが使用されてもよい。例えば、視線センサ構成要素110は、マイクロプロジェクタに対する目の位置、ひいては目の視線方向を判定するために、ユーザに近赤外パターンを投影しユーザの目から反射してきた投影パターンを撮像することでユーザの視線方向を追跡する遠隔視線センサを含んでもよい。この実施形態では、いずれの場合でも、視線センサ構成要素110はユーザの視線方向に関する情報をプロセッサ104に提供する。
図1bは、いくつかの例示的な実施形態に係るユーザインタフェース装置100の構成要素の概要図である。これらの実施形態において、ユーザインタフェース装置は、検知モジュール120、視線検知モジュール150、処理モジュール130、及び表示モジュール140を備える。処理モジュールは、検知モジュール120により取得される、例えばユーザ若しくはユーザの部分の位置に関する情報、及び/又は視線検知モジュール150により取得されるユーザの視線方向に関する情報を受信し、プロセッサ114を用いて、メモリ112を利用しつつ情報を処理する。検知モジュール120は、センサ構成要素102、プロセッサ104、及びメモリ106を備える。プロセッサ104は、例えば、センサ構成要素102により生成される情報を処理し、処理モジュール130により認識可能な形式で、例えばユーザ又はユーザの部分の位置又は属性に関して、処理モジュール130に情報を提供するためにある。視線検知モジュール150は、上記のように視線センサ構成要素110を備えてもよい。表示モジュール140は表示画面108を備える。処理モジュール130は、例えば、表示モジュール140が表示画面108を用いてユーザに表示する情報に関して、表示モジュール140に情報を提供する。処理モジュール130は、必ずしも他のモジュールのいずれかと同じ場所に位置する必要はない。例えば、処理モジュール130は、例えばインターネット内にあるサーバに位置してもよい。処理モジュール130は、例えばインターネットを通じて検知モジュール120及び/又は視線検知モジュール120からユーザの部分の位置に関する情報を取得してもよい。また、処理モジュール130はインターネットを通じてユーザに表示するために表示モジュール140に情報を提供してもよい。このように、ユーザインタフェース装置100は専ら処理モジュール130上で具体化されてもよく、処理モジュールは上記のようにインターネットのサーバに位置してもよい。
いくつかの実施形態では、ユーザインタフェース装置100は視線検知モジュール150又は視線検知構成要素110を備えない。
具体例では、検知モジュール120はマイクロソフト(商標)キネクト(商標)でもよく、処理モジュール130はパーソナルコンピュータ又はマイクロソフト(商標)エックスボックス(Xbox)(商標)でもよく、表示モジュールはプロジェクタスクリーンに投影するプロジェクタを備えてもよい。
図1cは、ユーザ200により使用中のユーザインタフェース装置100の例示的な実施形態を示す図である。図1cに示すのはセンサ構成要素106であり、ユーザ200の方へ向けられるセンサ106a,106b,106cを含む。表示画面108も示され、ユーザ200は表示画面の方を向いている。以下に詳しく示すように、ユーザ200の部分の位置及び/又は形状を判定することにより、ユーザインタフェース装置100は、ユーザ200が、単に自身の体の動きにより、表示画面に表示される選択可能対象108a及び/又は108bを対話操作できるようにしてもよい。
深さ情報、ひいてはユーザの3次元位置情報をユーザインタフェース装置100により取得し判定するための方法を、図2a及び図2bを参照しつつ記載する。
図2aは、背景506に対して対象504の3次元位置を検知する、ユーザインタフェース装置100の例示的なセンサ構成要素106の平面視(すなわち図2aに示されるようにz−y平面)の概要図である。対象504はユーザ200又はユーザ200の一部でもよい。センサ構成要素106は二つのセンサ106a及び106bから成り、センサは各センサの主軸に対して垂直な平面において互いに離れている。センサ106bは、対象504及び背景502に放たれる構造化パターンの光502を発生する発光素子である。センサ106aは、構造化光パターン502が対象504及び背景506に放たれる際に構造化光パターンの画像を取得するためのセンサである。光502は、例えば赤外放射でもよく、且つセンサ106aは赤外線センサでもよく、赤外線センサは、構造化光パターン502が対象504及び背景506に放たれる際に構造化光パターン502の捕捉効率を上昇させるように構造化光502の周波数を中心とする帯域通過フィルタを含んでもよい。
構造化光502は、例えば2次元格子の光502の形態でもよい。格子502の各要素508は、例えば一意の識別子を備えることで、格子502での他の要素508から識別可能でもよい。そのような一意の識別子は、例えばランダム又は疑似ランダムパターンの一部、例えばレーザにより発生するスペックルパターンの一部でもよい。疑似ランダムパターンはまた、例えば、疑似ランダムパターンの穴を備えるマスクにより発光が妨げられる1以上のLEDで生成されてもよい。ランダム又は疑似ランダムパターンのそのような一部は、スペックルパターンの一群の高輝度範囲又は点群でもよい。点群のランダム分布のため、特定の点群内の隣接する点の配置は該点群で一意である蓋然性がかなり高く、したがって、スペックルパターンの特定の領域、又は特定の領域が対応する格子要素508は、他の領域又は格子要素508の中で一意に識別され得る。
図2bは、図2aに示す状況でセンサ106aにより取得される画像を概略的に示す。センサ106aは、光源センサ106bからわずかにオフセットされる視点から、対象504及び背景506に当たる構造化光パターン502を撮像する。図2bにおいて、構造化光パターン502は格子要素508を備える格子502で表現され、格子要素のそれぞれは格子502の他の要素508から一意に識別できる。例えば、各格子要素508は、上記のように一意に識別され得るスペックルパターンの領域(図示せず)を含んでもよい。一意の識別子は図2bでは格子番号1,2,3,…,12として表現される。センサ106aが発光センサ106bからオフセットされるので、よりセンサ構成要素106に近い対象504に当たる格子パターン502のセンサ106aからの格子パターンの画像は、センサ構成要素106からより遠く離れた背景506に当たる格子パターン502からオフセットされるように見えるであろう。このことは、図2bでは、格子要素5〜8がx及びy両方向に格子要素1〜4及び9〜12からオフセットされるように見ることができる。センサ106aにより撮像される格子要素の位置が所定の背景距離で予め定められれば、所定位置に対する要素のオフセットから、三角法を使用することにより、所定の背景距離に対するオフセットされた要素での対象の距離を計算できる。例えば、所定の距離での同じ格子の基準画像に対する要素5〜8のオフセットから、図2bの画像からは、要素5〜8の座標に対応するx−y位置に対象(すなわち図2aの対象504)があることと、対象がセンサ構成要素106から距離zであることとを判定できる。
そのような方法で、深さ情報、すなわちセンサ構成要素106に対する対象504、例えばユーザ200又はユーザ200の一部の3次元座標が求められてもよい。
ユーザインタフェース装置100が深さ情報を判定できる代わりの例示的な方法を図3に示す。図2aと同様に、図3は、対象504及び背景506の3次元位置を検知する例示的なセンサ構成要素106の平面視(z−y平面)を示す。この場合には、センサ構成要素106は、光検出器と実質的に同じ場所に位置する光源を備える単一のセンサ106cを含む。この方法では、光源から発せられる光線が対象ではね返って検出器に戻ってくるのに掛かる時間の長さが、x−y平面における異なる複数の位置について記録される(すなわち「飛行時間」測定)。そのような測定では、往復のための所定の時間はセンサ構成要素106からの対象の所定の距離を意味する。例えば図3において、背景506への光経路602及び背景506からの光経路604についての時間の和と、対象504への光経路606及び対象504からの光経路608についての時間の和とは、所定のx−y位置での背景506の距離と所定のx−y位置での対象504とをそれぞれ推測するために用いることができる。そのような方法で、センサ構成要素106に対する対象504、例えばユーザ又はユーザの一部の3次元座標が求められてもよい。
対象の3次元座標を判定する任意の適切な方法又は手段が用いられてもよく、上記の方法が例に過ぎないことがわかるであろう。
いくつかの実施形態では、図4aに示すように、ユーザインタフェース装置100は、求めた3次元座標から、仮想3次元空間702においてセンサ構成要素106で検知した環境の算出済み3次元座標をマッピングする。この例示的な実施形態において、ユーザ200は、センサ構成要素106の視点から見えるユーザ200全体の3次元座標がユーザインタフェース装置100により仮想3次元空間702にマッピングされるように、センサ構成要素106に対して位置付けられる。図4aには示さないが、深さ情報(すなわちz座標)を判定する上記の方法によれば、仮想3次元空間でのセンサ構成要素106の視点から見ると、ユーザ後方に情報の影があるであろうことに留意されたい。このことは、例えば、センサ構成要素106に直角の第2のセンサ構成要素106により修正されてもよいが、一般的には、この修正はユーザ200の一部の3次元位置を正確に判定するのに必要でない。
仮想空間702でマッピングしたユーザ200の3次元座標の解析から、ユーザインタフェース装置100は、図4bに示すような仮想3次元空間702でのユーザ200の仮想表現704を生成してもよい。仮想表現704は、ユーザ200のものに対応する関節(例えば股関節706)及び延長部(例えば前腕708)を備える。ユーザインタフェース装置100により生成される仮想表現704は、実際のユーザ200の各関節及び各延長部の寸法、位置、及び形状に一致する確率が高くなるように求められる表現である。これは例えば、マッピングしたユーザ200の3次元座標に、考えられる仮想表現704をフィットさせる3次元制約付きフィッティング法を用いて実現されてもよい。いくつかの実施形態では、いくつかの考えられる仮想表現704が、実際のユーザ200を最も表現しそうであることの候補として求められてもよい。これらの候補表現704はそれぞれ、実際のユーザの忠実な表現であるように予め定められたユーザの仮想表現のデータベースと比較されてもよい。所定の忠実な表現の集合は、無数の異なる位置及び形状における無数のユーザの異なる寸法から成り、したがって実質的に、ユーザ200に採用されそうな表現の景観をマッピングしていてもよい。最大数の所定の忠実な表現に最も厳密に一致する候補表現704が、実際のユーザ200を最も忠実に表現しそうな表現704に選ばれてもよい。そのような比較は、例えば、決定樹法、例えば「ランダムフォレスト」機械学習法を使用することで達成されてもよい。同様に、ユーザの体の一部の形状、例えばユーザの手が開いた形状にあるか又は閉じた拳状の形状にあるかが、マッピングされたユーザの手部分の3次元座標を多数の所定の手の形状と比較することにより判定されてもよい。この方法で、ユーザのものを最も忠実に表現しそうな手の形状が求められてもよい。これには、上記と同様に、例えば「ランダムフォレスト」機械学習法を利用してもよい。例として、ウィンドウズ(商標)ソフトウェア開発キット(SDK)1.7用のキネクト(商標)は、手の形状の変化の認識、例えばいわゆる「握り及び開き」認識をサポートする。
ユーザ200のおそらく最も忠実な仮想表現704を判定することは、ユーザインタフェース装置100がユーザ200又はユーザ200の任意の部分又は部分の集合の寸法、位置、及び/又は形状を判定することを可能にする。上述した処理は、例えば1秒につき30回繰り返されて、ユーザインタフェース装置が準リアルタイムでユーザ又はユーザ200の一部の位置を追跡するようにしてもよい。例えば、ユーザインタフェース装置100はしたがって、準リアルタイムで、ユーザの手の上の点やユーザの頭の中心及び/又は目の位置などのユーザの体の1以上の点の3次元位置と、ユーザの手の形状などの形状とを追跡してもよい。以下により詳細に示すように、これによりユーザは、該ユーザが単に自由空間で自分の体の部分を移動させることで、表示画面108に表示される選択可能対象を対話操作することができる。
図5aは、例示的なユーザ200により使用中の例示的な実施形態に係るユーザインタフェース装置100を示す概略図である。
図5aに示す、実施形態に係るユーザインタフェース装置100は、表示画面108及び検知構成要素106を備える。
ユーザ200は手200a、目200c、及び頭200bを有する。ユーザは表示画面108に向いているように位置付けられ、手200aはユーザの体から表示画面108の方向に伸ばされる。
検知構成要素106は、ユーザの手の位置と、ユーザの頭200b及び/又は目200cの位置とを追跡し、ユーザの手100aの形状、例えば手100aが開いた形状又は閉じた形状にあるかを判定する三つのセンサ106a,106b,106cを含む。
表示画面108は、ユーザ200により選択可能である選択可能対象108a及び108bを表示する。
ユーザ200は手200aを使ってユーザインタフェース装置100を対話操作する。ユーザ200は手200aを使って、自分が対話操作したい表示画面108上の位置202を自分自身の視界から遮る。
図5aでは、ユーザ200の手200aは、表示画面108の領域202がユーザ200の視界を遮るように位置する。
ユーザインタフェース装置100は、ユーザの第1の手(すなわち手200a)の位置である第1の追跡位置に関する情報を取得する。ユーザインタフェース装置100は、ユーザ200の頭200b又は目200cの位置である第2の追跡位置に関する情報も取得する。
ユーザの手200aの位置(すなわち「第1の追跡位置」)及びユーザの目200cの位置(「第2の追跡位置」の例)は、本明細書で目−手線204とも称される直線204の二つの点を定めてもよい。
ユーザ200の目200cの位置は、ユーザの両目間の位置(例えばユーザの両目間の中間点)、又はユーザの目若しくは目の瞳孔の中心の位置を指してもよい。例えば、ユーザの手200aの中心及びユーザの目200cの中心の位置が、目−手線204を定めるために使用されてもよい。目200cは、例えばユーザの利き目、すなわち視覚入力が強い又は好ましい方のユーザの目でもよい。利き目200cは、例えばユーザによる適切な入力でユーザインタフェース装置に識別されてもよい。
上記のように第1の追跡位置(例えばユーザの手200aの追跡位置)及び第2の追跡位置(例えばユーザの目200cの追跡位置)に関する情報を取得することから、ユーザインタフェース装置はその仮想3次元空間702での目−手線204を計算してもよい。
図5aにおいて、目−手線204は点206で表示画面108と交差し、その点206は、ユーザの手200aによりユーザ200の視界から遮られる表示画面108の領域202内に含まれる。表示画面108の位置及び寸法が例えば下記の較正処理によりユーザインタフェース装置100により求められれば、ユーザインタフェース装置100は、ユーザの仮想表現704が表現される同じ仮想3次元空間702に表示画面を表現してもよく、したがって、その空間に目−手線204が仮想的に表現される。この場合には、ユーザインタフェース装置100は、仮想の目−手線が仮想空間702での表示画面と交差する仮想空間702での表示画面上の点を判定してもよい。そのような方法で、ユーザインタフェース装置100はユーザ200が対話操作したい実際の表示画面108上の位置を推測してもよい。
ユーザ200の目200cの位置以外の代わりの位置が第2の追跡位置を定めるために用いられてもよいが、それでも、ユーザ200の視界から遮られる表示画面108の領域202で目−手線204が表示画面108と交差するという結果になるであろう。例えば、ユーザ200の二つの目200cの中間点が使用されてもよい。このことは有利であり得、その理由は、これにより、ユーザ200のどちらの目200cがより強いまたは好ましいか、あるいは、そうでなければ頭−手線204を定める際に用いられるべきかについての知識を必要とすることなく、頭−手線204とユーザの視野から遮られる領域202に含まれる表示画面108との交点206を判定できるからである。
あるいは、第2の追跡位置はユーザの頭200b、例えばユーザの頭200bの中心の位置でもよい。
ユーザの手200aの位置(すなわち「第1の追跡位置」)及びユーザ200の頭200bの位置(「第2の追跡位置」の例)は、この場合には頭−手線204と称される直線204の二つの点を定めてもよい。用語「目−手線」が以下様々な考察で用いられるとはいえ、いくつかの実施形態では頭−手線が代わりに使用される。
ユーザ200の目は、一般にユーザの頭200bの垂直長さに沿ってほぼ中間に位置し、且つユーザの頭の中に向かって十分な深さに設定される。この場合には、それでも、第2の追跡位置を定める際のユーザの頭200bの中心の位置を使用することで、ユーザ200の視界から遮られる表示画面108の領域202で頭−手線204が表示画面108と交差するという結果になってもよい。この場合には、ユーザが対話操作したい表示画面の部分を判定するときに、頭−手線204が目−手線204の代わりにユーザインタフェース装置100により使用されてもよい。
第2の追跡位置としてユーザの頭の位置を使用することは、ユーザの両方の目若しくは片方の目の位置を検出することが困難である状況で、又はユーザの頭200bの中心を追跡することがユーザ200の片方の目200c若しくは両方の目の位置を追跡することと比較してより効率的である状況で、有利であろう。
手200aは、ユーザ200のどちらの手でもよく、且つ例えば表示画面108に最も近いと判定されるユーザの手でも、又は代替的に若しくは付加的にユーザ200の二つの手のうち上にある方の手でもよい。
センサ106a,106b,106cのうちの1以上を使って、3次元空間においてユーザの手200aの位置(すなわち第1の追跡位置)及びユーザの頭200b又は目200cの位置(すなわち第2の追跡位置)を追跡することにより、ユーザインタフェース装置100は目−手線204(又は適宜頭−手線204)を求め、これにより、ユーザの手200aでユーザの視界から遮られる表示画面の領域202内に含まれる表示画面108と線204との交点206を判定することができる。そのような方法で、ユーザインタフェース装置100は、ユーザ200が対話操作するべき表示画面108上の位置を判定することができる。
第2の追跡位置が目の位置よりもむしろユーザの頭200bの位置、例えばユーザの頭200bの中心の位置であれば、ユーザの目がユーザの頭の中心から物理的に離れているため、ユーザインタフェース装置100により判定される頭−手線204の交点206とユーザの視野から遮られる領域202(すなわちユーザが選択するつもりである領域)の中心との間の不一致があることに留意すべきである。図5bは、一例における、(ユーザの頭200bの中心200eを用いて定められる)頭−手線204aの交点206aと、(ユーザの目200cの位置を用いて定められる)目−手線204bの交点206bとの間の考え得るオフセットDを概略的に示す。この例では、両交点206a及び206bは、ユーザの視野から遮られる領域202内に含まれる。しかし、(ユーザの目の位置を用いて求められる)交点206bは、(ユーザの頭の位置を用いて求められる)交点206aよりも、ユーザの視野から遮られる領域202の中心に近い。したがって、頭−手線204bを用いて求められる交点は、選択されようとしている対象を正しく選択するという結果に常に至るわけではない。
したがって、頭の位置(例えばユーザの頭200bの中心200e)とは対照的に第2の追跡位置として目の位置(例えばユーザの目200cの位置)を用いることで、ユーザインタフェース装置100が、ユーザ200が対話操作したい表示画面108上の位置をより正確に且つ一貫して判定することができ、これにより、例えば誤ったユーザインタフェースの対話操作の発生が減少する可能性がある。このことは、ユーザインタフェースとのより直感的な対話操作を可能にする。
ユーザインタフェース装置100は、表示画面108上の選択可能対象の現在の位置に関する情報を記憶してもよい。ユーザインタフェース装置100は、表示画面108に表示される選択可能対象108bが目−手線204交点206を含むと判定して(これは、選択可能対象108bがユーザの視界から少なくとも部分的に遮られることを意味する)、したがって、選択可能対象108bが選択されるべき対象であると判定してもよい。反対に、選択可能対象108aは交点206を含まず、したがって、選択可能対象108aは選択される対象又はそうでなければユーザ200が現在興味を持つものとは判定されない。
以下に詳細に示すように、ユーザは、ユーザの手200aの形状を変化させることにより、ユーザ200の視界から少なくとも部分的に遮られる対象108bを選択してもよい。ユーザインタフェース装置100が、選択可能対象108bが交点206を含む間にそのようなユーザの手200aの形状の変化が発生したと判定すれば、選択可能対象108bが選択されると判定される。以下に詳細に示すように、更なる操作が、選択された選択可能対象に対して実行され得る。
上記のような判定は、例えば、ユーザインタフェース装置100のプロセッサ104(図5a又は5bには図示せず)及びメモリ106(図5a又は5bには図示せず)を使用してなされてもよい。
上記のようなユーザインタフェース装置100により、ユーザ200は、自分200が自然に対象を対話操作できるときに、すなわち一般には対象を選択する(すなわち選び出す)ときに、ユーザが自分の手でその対象を少なくとも部分的に覆い、これにより自分の視界からその対象を少なくとも部分的に遮る方法で、表示される対象(例えば選択可能対象108a,108b)を対話操作してもよい。さらに、そのような対話操作は、手の位置と画面に表示される対象の位置とが自分自身の視点から直接に且つ視覚的に推測され得るので、ユーザは表示画面に表示されるポインタを目標に向かって移動させる必要がない。したがって、そのような直感的なインタフェースはポインタの表示を不要にし、ユーザがまずポインタを見つけるために腕を移動させて目標に向かってポインタを移動させ、次いで目標に正確に到達するために動きの速度及び幅を調整しなければならないポインタを使用するインタフェースと比較して、ユーザの疲労を軽減する。
図6aは、ユーザ200(図6には図示せず)の視点からのユーザインタフェース装置100の表示画面108を示す。表示画面108には6個の選択可能対象106a〜108fが表示される。例えば、表示画面108に表示される画像がユーザインタフェース装置100のプロセッサ104により生成される情報から導かれるので、表示画面上の選択可能対象106a〜106fの位置はユーザインタフェース装置100により判定される。この例では、ユーザ200は選択可能対象108bを選択しようとしている。したがって、ユーザは自分の視界から対象108bを遮るように自分の手200aを位置付ける。図6aにおいて、ユーザの手は実質的に開いた形状に広げられる。図5から明らかに見て取れるように、ユーザの手200aは必ずしも画面108に接触したり表示画面108から任意の特定の距離であったりする必要はなく、手200aはユーザ200の視界から対象108bの少なくとも一部を遮る必要があるだけでよいことに留意されたい。ユーザの手200aの中心は点300で表現される。この例では、目−手線204(図6aには図示せず)はユーザの手の中心を含む。したがって、ユーザの目−手線204(図6aには図示せず)が表示画面108と交差する表示画面108上の位置206は、ユーザの視点から見ると、ユーザの手の中心300と一直線に合わせられる。ユーザインタフェース装置100は選択可能対象108bが交点206を含むと判定してもよく、例えば、対象108bをユーザ200による選択の候補対象として判定してもよい。いくつかの実施形態では、ユーザインタフェース装置100は、選択可能対象108bが交点206を含むという判定に専ら基づいて、対象108bを選択された対象として判定してもよい。
いくつかの例示的な実施形態において、対象108bがユーザ200による選択の候補対象であるとユーザインタフェース装置100が判定すれば、ユーザインタフェース装置100は対象108bが異なって表示されるようにしてもよい。
図6bは、選択可能対象108bに対する例示的な変化を示し、ここでは、選択可能対象108bの寸法が、選択の候補対象として判定された前のものと比べて拡大される。選択の候補対象と判定された対象に、他の変更、例えば、色の変更、対象の表現、例えば対象の形の変更、又は対象を象徴する画像の全面的な変更などがなされてもよい。同様に、そのような判定がなされたときに、表示画面108の背景302が変化しても、例えば色又は輝度が変化してもよい。付加的に又は代替的に、選択の可能性がある対象の判定を受けて、スピーカなどの音生成手段により音が生成されてもよく、その音は、例えば対象そのものに関連付けられてもよい。例えば、対象がパンダの表現であったならば、選択の候補対象としての対象の判定を受けて、パンダの表現が変化してもよく(例えば、パンダの顔が中立の表情から微笑んだ表情に変化してもよく)、表現の大きさが変化してもよく、及び/又はパンダの音が生成されてもよい。これらの変化は、ユーザの手200aでユーザ200の視界から少なくとも部分的に遮られる対象108bを選択する可能性をユーザにとって助けになるように知らせてもよい。
他の実施形態において、そのような変化は、対象が選択の候補対象であるという判定を受けては発生しない。更なる実施形態において、対象が選択の候補対象であるというそのような判定はユーザインタフェース装置100によりなされない。
図6cは、ユーザが選択可能対象108bを選択しているところを示す図であり、ユーザが掴むような動作を行い、その動作で手200aの形状を広げられた開いた形状から拳状の閉じた形状に変化させたこと以外は、図6aと同じである。それでも対象108bがユーザの視界から少なくとも部分的に遮られたままであることに留意されたい。
一実施形態において、ユーザインタフェース装置100は、手の形状がいつ図3bの手200aのような開いた形状から図3cの手200aのような閉じた形状に変化したかを判定する。そのような判定に応じて、ユーザインタフェース装置100は目−手線204と表示画面108との交点206を判定する。表示画面108に表示される選択可能対象108b内に交点206が位置するとの判定に応じて、選択可能対象108bがユーザにより選択されたと判定される。図6cの例では、手200aが閉じた形状に変化するときに交点206が選択可能対象108b内にあるので、対象108bが選択されたと判定される。
ユーザインタフェース装置100は、選択可能対象108bが選択されたと判定するために、必ずしもユーザの手の形状が変化したと判定する必要はない。いくつかの実施形態では、ユーザインタフェース装置100は目−手線204と表示画面108との交点206を連続的に(又は略連続的に、例えば1秒につき30回)判定する。この場合には、表示画面108に表示される選択可能対象108b内に交点206が位置するとの判定に応じて、選択可能対象108bがユーザにより選択されたと判定される。そのような方法で、選択可能対象108bは、ユーザ200が自分の手200aの形状を変化させる必要なしにユーザ200により選択されてもよい。このことは、例えば、ユーザの手の形状を判定することが困難である状況で有利であろう。他の実施形態において、選択可能対象は、表示画面108に表示される選択可能対象108b内に所定の継続時間の間位置している交点206に基づいて選択されてもよく、例えば、対象は交点206が選択可能対象内に1秒間位置した後にのみ選択されたと判定されてもよい。
いくつかの実施形態では、選択されたと判定された選択可能対象108bは、ユーザ200により表示画面108上の一つの場所から別の場所に移されてもよい。図6dは、ユーザの視点から見た表示画面を示す図であり、ユーザが自分の手200aを閉じた拳状の形状のまま自分の視界の異なる場所に移動させ、表示画面108上の選択された対象108bの位置がそれに応じて移動した以外は、図6cと同じである。移動前の対象108bの元の位置は破線ボックス108b*により表現される。対象108bが移される位置は、ユーザが自分の手200aを移動させた位置、結果的には目−手線204(図6dには図示せず)の交点206が移動した表示画面108上の位置に依存する。その結果、図6dの例に見て取れるように、対象108bが選択されている間、たとえ対象が移されていても、対象108bはなお交点206を含み、ユーザの手200aは引き続きユーザの視界から対象108bを少なくとも部分的に遮る。いくつかの実施形態では、ユーザが、交点206が表示画面108外に移動するように自分の手200aを動かせば、対象108bはそれに応じて表示画面外に移されてもよい。他の実施形態において、そのような場合には、対象108bは表示画面108を離れないように制約されてもよく、また例えば、そのような場合には自動的に選択解除されてもよい。別の例では、そのような場合には、対象は所定位置、例えば交点206が表示画面108内であると判定された最後の位置のままでもよく、やがて交点206が表示画面108内に戻るようにユーザが自分の手200aを動かしたと判定されると、その時に対象は、新たに判定される交点206に戻るであろう。
いくつかの実施形態では、上記のように選択された対象108bを選択解除するために、ユーザは自分の手200aの形状を閉じた形状(図6c又は6dのような)から開いた形状(図6aのような)に戻す。図6eは、ユーザの視点からの表示画面108を示す図であり、手200aが閉じた形状から開いた形状に変化したこと以外は図6dと同じである。ユーザの手200aが閉じた形状から開いた形状に変化したという判定を受けて、ユーザインタフェース装置100は、選択された対象108bが選択されていないと判定する。図6eに示す例では、対象108bは、対象が選択されていないと判定された表示画面108上の位置と同じところに留まったままである。この場合には、対象が今では選択解除されているので、開いた形状のままであるユーザの手200aの動きは選択解除された対象108bに影響を与えない。このことは図6fに示され、図6fはユーザ200の視点からの表示画面108を示す図であり、ユーザが自分の手200aを開いたままの形状で異なる位置に移動させたが対象108b(今では選択解除されている)が表示画面108上の同じ位置のままであること以外は、図6eと同じである。
ユーザインタフェース装置が、目−手線204と表示画面108との交点206が選択可能対象108b内に位置すること、又は所定の時間の間そのように位置したということに専ら基づいて選択可能対象108bを選択する場合には、ユーザは選択された対象を移動させるために自分の手の形状を閉じた形状(又は実際は任意の特定の形状)に維持する必要はない。そのような場合には、対象は、例えばユーザが交点206を表示画面外にさせたときに自動的に選択解除されてもよい。別の例では、ユーザが所定の継続時間の間選択された対象の動きを中断すれば対象が選択解除されてもよく、例えばユーザインタフェース装置100が、対象が選択されている間、交点206が最後の1秒で所定の量(例えば距離又は角度)より多く移動しなかったと判定すれば、ユーザインタフェース装置100は選択された対象が選択解除されると判定してもよい。
開いた形状と閉じた形状との間の、又はその逆の変化以外のユーザ200の手200aの形状について判定された変化に基づいて対象108bが選択又は選択解除されてもよいことがわかるであろう。ユーザインタフェース装置100により確実に検出され得る任意の他の適切な形状変化が用いられてもよい。例えば、形状の適切な変化は、広げられた手200aの掌が向いている方向の変化、例えば手200aの掌が表示画面108の方へ向いている形状から手200aの掌が表示画面に背を向ける形状への変化でもよい。
形状の別のそのような適切な変化は「つまむ」動作でもよく、この動作によりユーザの手は、指が広げられる開いた形状から、手の1以上の指及び親指が手から放射状に伸ばされたまま合わせられる閉じた形状に変化する。形状の別のそのような適切な変化は、1以上の「タップする」動作の発生を受けてでもよく、この動作によりユーザの手は、例えば第1の平面、例えば表示画面108の平面と実質的に平行する平面で指が広げられる開いた形状から、例えば第1の平面に対して回転される第2の平面で、例えば表示画面の平面に対して実質的に垂直な平面で指が広げられるように手が手首の周りを回転した第2の形状に変化する。いくつかの実施形態では、形状の変化はこれらの「タップする」動作の2以上の後にのみ認識されてもよく、その結果、例えばユーザは対象を「ダブルタップする」ことにより項目を選択する。
いくつかの例示的な実施形態において、更なる操作が、対象の場所を移動させる以外に、選択された選択可能対象108bに対して行われてもよい。例えば、ユーザ200は、ユーザ200が自分が保持している物理対象を除去できるのと同様の方法で、すなわち投げ捨てることにより、選択された仮想対象108b(又はそれと関連づけられるデータ)を除去又は削除してもよい。そのような自然主義的なインタフェースは、例えば、ユーザがそのインタフェースと効果的に関わることができる容易さについての利点を有する。そのような「投げ捨てる」動作は一般に、ユーザが対象を放つ(選択解除する)ことと結びつけられる対象の位置又は速度の急変を含む。
このことを仮想的に達成するために、ユーザインタフェース装置100は、所定の選択可能対象108bが選択されているときに、ユーザ200が自分の手200aの位置を所定の方向に変化させる速度を求めてもよい。この速度は、3次元座標で求めた手200aの位置の変化を追跡することにより、又は目−手線204と表示画面108との交点206の変化を追跡することにより直接判定することができる。あるいは、ユーザインタフェース100はこの速度を、例えば所定の時間で表示画面108上の選択された対象108bの移動の変位又は距離(すなわち所定の時間間隔にわたる対象108bの平均速度又は平均変位速度)を求めることにより判定してもよい。ユーザインタフェース装置100は、いくつかのそのような時間間隔にわたる対象108bのそのような平均速度を追加的に又は代替的に求め、そのような方法で対象108bの加速度を判定してもよい。選択された選択可能対象108bが(例えば図6eを参照しながら上述したように)選択されていないとユーザインタフェース装置100が判定すると、選択可能対象108bが選択されていないという判定の直前の1以上の期間での対象108bの速度及び/又は対象108bの加速度が判定される。ユーザインタフェース装置100は、判定したこの対象108bの速度及び/又は判定した対象108bの加速度を速度の所定の閾値及び/又は加速度の所定の閾値とそれぞれ比較してもよい。判定した対象108bの速度及び/又は加速度がそれぞれの閾値を上回る場合には、ユーザインタフェース装置100は対象に対して更なる処理動作を実行してもよく、そうでない場合には更なる処理動作を実行しなくてもよい。例示的な更なる処理動作は対象108bの削除でもよい。この削除は、表示画面108上の表示から対象108bを除去すること、及び/又は対象108bと関連づけられるデータを記憶するメモリ(例えばメモリ106又は112)内の一つのディレクトリから他のディレクトリに移動させること、及び/又はデータを完全に除去することに対応してもよい。
図7は、図5と同様に、別の例示的な実施形態に係るユーザインタフェース装置100を使用するユーザ200を示す。この実施形態において、ユーザインタフェース装置は、ユーザ200の視線方向404を検知する際に使用するための視線センサ110を備え、視線センサは、ユーザ200により着用される眼鏡402を備える。眼鏡402は、例えば赤外線カメラを使用して目の瞳孔の位置を追跡することにより、眼鏡402に対するユーザの目200cの回転を追跡してもよい。操作中に眼鏡402はユーザの頭200bに対して固定されるので、眼鏡403はユーザの頭200bに対する目200cの回転を追跡することができる。表示画面108に対してユーザの頭が向いている位置及び方向がユーザインタフェース装置100により判定されてもよいので、ユーザインタフェース装置は表示画面108に対するユーザ200の視線方向404を求めてもよい。あるいは、視線センサ110は、表示画面108に対するユーザ200の視線方向404を判定するための他の構成要素(図示せず)を備えてもよい。これらの構成要素は、例えば、所定の方向に対するユーザの頭200bの向きの変化を追跡する磁力計を含んでもよい。
あるいは、視線センサ110は、表示画面108に対するユーザの視線方向を判定するための任意の他の適切な技術を備えてもよい。
この実施形態において、ユーザインタフェース装置100は、判定した視線方向404を3次元空間でのユーザの目200cの求めた追跡位置から外挿することにより、ユーザが見ている表示画面上の点406を判定してもよい。
図7において、ユーザが表示画面108上の点406を見ているにもかかわらず、表示画面180の領域202がなおユーザの手200aによりユーザの視界から遮られることに留意すべきである。この場合には、ユーザインタフェース装置100は、表示画面108に表示される選択可能対象108a又は108bを制御する際に用いるための点として、やはり目−手線204と表示画面108との交点206を判定する。
図7において、目−手線204と表示画面108との交点206は、その交点が選択可能対象108b内に含まれるようなものである。しかし、ユーザ200が見ている表示画面108上の点406は目−手線204と表示画面108との交点206から距離d(図7には示さず)だけ離れる。
一例では、対象108bがユーザにより選択される。対象108bがユーザにより選択されていないと判定されれば(例えばユーザインタフェース装置がユーザの手200aの形状が閉じた形状から開いた形状に変化したと判定したら)、ユーザインタフェース装置100は点406と点206との間の距離dを判定する。距離dが所定の閾値を上回ると判定されれば、ユーザインタフェース装置は対象108bに対して更なる処理操作を実行してもよく、また距離が所定の閾値を下回ると判定されれば、ユーザインタフェース装置は更なる処理操作を実行しなくてもよい。更なる処理操作は、例えば、上記のように対象の削除でもよく、又は、例えば保存する、コピーする、ズームする、回転させる、大きさを変更するなど、任意の他の考え得る更なる処理操作でもよい。
別の例では、ユーザインタフェース装置は、目−手線204の交点206及びユーザが見ている表示画面108上の点406が、閾値時間より多い間、閾値量より多く互いに距離dだけ離れた状態を維持していると判定してもよい。例えば、ユーザ200は、自分の視線を例えば1秒より多い間表示画面108上の異なる位置に向け続けたまま、自分の手200aを一つの位置に保ってもよい。そのような判定を受けて、ユーザインタフェース装置100は、例えば、表示画面108上の選択可能対象108a,108bなどのすべてを表示画面108上のパターンに、例えば格子分布に再配置するために、更なる処理動作を実行すべきと判定してもよい。そのような方法で、ユーザはユーザインタフェース装置100を制御して、例えば選択可能対象がユーザ200により更に容易に且つ直ちに区別及び選択され得るように、選択可能対象108a,108bなどを位置決めしてもよい。
上記の例に示したような方法で、ユーザインタフェース装置100はユーザ200からより多くの制御度合を取得し、そのためユーザ200が対話操作してもよいより効率的なインタフェースを提供することができる。いくつかの実施形態では、ユーザインタフェース装置100は、ユーザインタフェース装置100の使用についてのユーザ200の能力レベルが低く、例えばユーザ200が初心者であり、ユーザインタフェース装置100により提供される制御方法に慣れていないかもしれない、と判定してもよい。例えば、ユーザインタフェース装置は、選択すべき選択可能対象108bがない表示画面上の位置で、ユーザ200が自分の手200aの形状を開いた形状から閉じた形状に変化させた(すなわち対象を選択することを表す)と判定してもよい。ユーザインタフェース装置100は、そのような出来事が所定回数より多く連続して起こったと判定してもよい。この場合には、ユーザインタフェース装置100は、自分が対話操作している表示画面上の場所をユーザに気付かせるために、判定された交点206に関連する位置でポインタ又は何らかの記号的な指示体を表示画面に表示させてもよい。ポインタが所定の期間、例えば5秒間のみ表示されて、ユーザが自分自身を表示画面に向けるようにしてもよい。あるいは、ポインタは、ユーザの手の形状が所定回数だけ変化したと判定されている間のみ、又はそうでなければユーザ200が対象108bをうまく選択するような時までのみ表示されてもよい。ポインタは、それが表示画面に表示されるときにそのポインタがユーザの手200aによりユーザ200の視界から遮られないように配列されてもよい。そのような例示的なポインタは図8に示され、この図は、選択可能対象108a〜108fを表示し、且つ判定された交点206に中心がある円形ポインタ802を、ユーザの手200aによりユーザの視界から完全には遮られないほど十分大きい直径で表示する表示画面108を示す。
一つの動作がユーザにより所定回数より多く繰り返されれば、ユーザインタフェース装置100は低い能力レベルを付加的に又は代替的に判定してもよい。例えば、ユーザが対象を選択し、それを移動させ、次いで対象をその元の位置に又は近くに戻すことが例えば4回以上連続すれば、このことが、ユーザが自分が選択するつもりである対象以外の対象を選択していることを示しているかもしれず、ユーザインタフェース装置100は低い能力レベルを判定し、それに応じて上記のようにポインタを表示してユーザに制御方法を気付かせてもよい。上記は例にすぎないことがわかるであろうし、任意の所定の又は動的に求められる回数より多い任意のユーザ動作の繰返しにより低い能力レベルが判定され、その結果、ポインタ、又は、例えばメッセージなどの他の制御手法の合図が表示されてもよいこともわかるであろう。
いくつかの実施形態では、仮想3次元空間702での画面108の寸法及び位置は、ユーザインタフェース装置により較正処理で求められる。
いくつかの実施形態では、二つの異なる位置に立つユーザ200と関連づけられる二つの判定済の目−手線204の交点がユーザインタフェース装置100により使用されて、表示画面108の3次元座標を推測する。
図9はそのような較正処理の一部を示し、ここではユーザ200は二つの異なる場所901及び902に立ち、各場所で、表示画面108上の所定の場所904を自分の視界から遮るような位置に自分の手200aを位置付ける。
例えば、そのような較正処理では、ユーザインタフェース装置100は、表示画面に示される(例えば表示画面108の隅に位置する)所定の記号904を遮るように自分の手200aを位置付けてそこで一度「掴む動作」を行うように、すなわち自分の手200aを開いた形状から閉じた形状に変えるようにユーザに指示する命令を表示画面108に表示してもよい。そのような動作が発生したと判定すると、ユーザインタフェース装置100は仮想空間702に目−手線910を記録してもよい。次いでユーザインタフェース装置100は、ユーザ200が同じ場所(例えば場所901)にいる間に、例えば表示画面108の異なる隅908,912に位置付けられる、表示画面108上の異なる記号に対して、ユーザにこの処理(明確にするために図9には示さない)を繰り返させるための命令を表示してもよい。次いでユーザインタフェース装置100は異なる場所から、例えば場所902からユーザにこの処理を繰り返させるための命令を表示して、そのような方法で、以下に詳細に示すように、表示画面108の仮想空間702での寸法及び位置を判定してもよい。
図9では、(それぞれ場所901及び902に立ってユーザ200が自分の視界から領域904を遮り、掴む動作を行うときに生成される)それぞれの結果としての二つの目−手線910及び920が点906で交点又は近接交点を有する。
各場所901及び902に対して、ユーザインタフェース装置100は上記のように、センサ構成要素106を使用して、3次元仮想空間702でのユーザの表現704を求め、この表現から仮想3次元空間702での目−手線(910又は920)を判定する。例えば、目−手線910は仮想空間702での方程式により仮想空間702に描かれてもよい。Eが目の座標であり、且つHが手の座標である場合、目−手線L(E,H)上の任意の点の座標は、
Figure 0006343718

により与えられ、この式において、tは方程式パラメータであり、u=E−HはL(E,H)の方向ベクトルである。
この場合には、ユーザが二つの異なる場所901及び902から画面上の所定の領域904を遮るために自分の手200aを位置付ければ、ユーザインタフェース装置100は対応する目−手線連立方程式を求めてもよい。
Figure 0006343718

この式において、vはLの対応する方向ベクトルであり、下付き文字「1」はユーザ位置901を指し、下付き文字「2」はユーザ位置902を指す。二つの線L及びLが交差すれば、それらの線はそれらが交差する一意の点P(すなわち交点906)を規定する。よって、そのような交点は、表示画面108上の領域904に対応する仮想空間702での表示画面108の領域の3次元座標を規定するために用いることができる。いくつかの例示的な較正では、ユーザが単に自分の手200aで表示画面108の一つの領域904を遮る代わりに、各場所901及び902でユーザは表示画面の2以上の領域、例えば表示画面108の二つの隅を順次遮る。この場合には、表示画面108の2以上の座標が仮想空間702で判定され得る。表示画面が矩形であることがユーザインタフェース装置100で予め定められる例では、二つの異なる場所901及び902から、領域が表示画面108の4つの隅のうちの三つとして較正処理が行われれば、仮想空間702での表示画面の正確な寸法及び位置を判定できる。これは、画面が矩形であることが予め定められれば、表示画面108の第4の隅の位置を他の3個の隅の位置から推測できるからである。表示画面108の形が予め定められなければ、表示画面の位置が3次元仮想空間702の座標に適切にマッピングされるまで、表示画面のより多くの領域が較正処理に含まれ得る。
いくつかのシナリオでは、図10に示すように、二つの目−手線L及びLは実際には交差しなくてもよく、近接交差するだけでもよい。この場合には、交点906はL及びLを接続する最短線の中間点として求められてもよい。例えば、連立方程式(2)を考慮して、w=P(t)−P(t)を線L上の点P(t)と線L上の点P(t)との間のベクトルであるとする。二つの線が平行でなければ、それらの線は一意の点P(t1c)及びP(t2c)で最も近く、すなわちそれらの線が交差してP(t1c)=P(t2c)か、又はそれらの線が近接交差するだけかであり、線分[P(t1c),P(t2c)]は両線L及びLに対して垂直な一意の線分である。近接交差の場合には、ベクトルw=P(t2c)−P(t1c)は両線方向ベクトルv及びuに対して垂直な一意のベクトルであり、すなわちベクトルwは連立方程式(3)を満たす。
Figure 0006343718

をu、v、E及びEにより表す、すなわちw=E+t1cu−(E+t2cv)とすると、連立方程式(3)は以下になる。
Figure 0006343718

連立方程式(4)を操作して、それぞれ点P(t1c)及びP(t2c)を規定するパラメータt1c及びt2cに関する方程式を作ることができる。
Figure 0006343718

パラメータt1c及びt2cはそれぞれ点P(t1c)及びP(t2c)を規定し、そしてこの点を使って線分[P(t1c),P(t2c)]を規定することができる。次いで線分[P(t1c),P(t2c)]の中央を使って、近接交点、ひいては表示画面108の関連づけられる領域の仮想空間702での位置を規定することができる。
そのような方法では、較正処理の目−手線910及び920が近接交差するのみであっても、仮想空間702での領域904の位置はユーザインタフェース装置100により判定することができる。
いくつかの実施形態ではユーザインタフェース装置は、線分[P(t1c),P(t2c)]の長さが或る閾値を上回るので、仮想空間での推測された近接交点が表示画面108の対応する領域904の不十分な表現である可能性がある、と判定してもよい。そのような場合には、較正処理のそれぞれの近接交差に対応するすべての線分の長さが或る閾値未満であるまで較正処理が繰り返されてもよい。
いくつかの実施形態では、較正処理のステップで第1の目−手線910がユーザインタフェース装置により所定の領域904に対して記録された後、ユーザ200が較正処理後の段階で自分の手を位置付けて目−手線920を規定したとき、表示画面は線910及び920間の最短距離の動的な測定値を表示し、その結果ユーザはこの測定値を最小化するように自分の手を位置付け、したがって正確な較正をもたらすことができる。最短距離を表示する代わりに、最短距離が許容範囲内、例えば5cm未満であるかどうかの標識が表示される。このことは信号機型システムとして表現でき、ここでは最短距離が許容できなければ(例えば10cmより大きければ)画面は赤を表示し、最短距離が許容できれば(例えば5cmより大きいが10cm未満であれば)画面はオレンジを表示し、最短距離が良好(例えば5cm未満)であれば画面は緑を表示する。
いくつかの実施形態では、ユーザインタフェース装置100は、目−手線が画面位置をうまく正確に決定するのに十分安定している場合に、例えば対応する目及び手の位置が10秒間で2cm以内の範囲で安定している場合のみ、較正処理において目−手線(例えば901,902)のみを記録する。
仮想空間702での表示画面108の位置がユーザインタフェース装置100により判定されると、表示画面108及びセンサ構成要素106が互いに対して動かない限り、ユーザインタフェース装置100が、ユーザの寸法や体型などとは無関係に、任意のそのようなユーザについて、ユーザ200が対話操作したい交点206を正確に判定できることに留意すべきである。
例示的な較正処理では、図9及び10における領域を参照しつつ上記の較正ステップが例えば表示画面108の隅904,908,912について繰り返され、その結果ユーザインタフェース装置100は仮想空間701での隅912,908,904の3次元座標(A,B,C)をそれぞれ判定する。使用中に、ユーザインタフェース装置100は、点P(t)を含む方程式(1)の目−手線L(E,H)により3次元仮想空間702に規定される目−手線204を求めてもよい。この場合には、ユーザインタフェース装置100は、仮想空間702での目−手線L(E,H)と平面(A,B,C)との交点Pを計算することで、ユーザが対話操作したい表示画面108上の位置を求めてもよい。
いくつかの実施形態では、例えば表示画面108上でのユーザ対話操作処理の点の2次元座標を必要とするアプリケーションへの入力として用いるために、2次元表示画面内の点Pの2次元座標が計算されてもよい。
Pをそのような2次元表示画面座標として表すために、ユーザインタフェース装置100は、Aを仮想空間702の原点とし、AB/|AB|をxベクトルとし、BC/|BC|をyベクトルとして定義するために必要とされる座標変換を計算してもよい。そのような座標変換は、後述するように一つの変換及び三つの回転を含んでもよい。まず、ユーザインタフェース装置100は、隅の座標のうちの一つ、例えばAを仮想空間702の原点Oとして定義してもよい。仮想空間702の原点としてのAを取得するために、Aから仮想空間702の原点Oに必要とされる変換が計算される。三つの回転がこの原点の周りの三つの可能な回転を補償するために、次いで平面(A,B,C)が計算されてもよい。第1の回転では、画面の縁、例えばABにより定義される画面の底縁が仮想空間702の座標系での平面(O,x,z)に投影され、ここでOは仮想空間702での原点であり、xはx軸ベクトルであり、zはz軸ベクトルである。次いで、xと(O,x,z)上のABの投影との間の角度αが下記式を用いて計算されてもよい。
Figure 0006343718

方程式(6)から、回転−座標変換を実行するために、すなわちABを仮想空間座標系のx軸と正しく一直線に合わせるために平面(A,B,C)に適用される必要があるz軸周りのαを推測できる。次いで、同じ手順が他の軸x及びyに対し適用されて、それらの軸周りに必要とされる対応の回転が推測される。
上記のように計算された変換は次に、3次元交差座標を表示画面内の2次元座標P´に変換するために3次元交差座標Pに適用されてもよい。
上記のように、較正処理が行われると、表示画面108及びセンサ106の相対位置が変化しない限り、ユーザの寸法や体型などとは無関係に、同じ座標変換を異なるユーザに対して用いることができ、そのため、較正を繰り返す必要がない。
上記の較正処理は目−手線を参照して記載されているが、第2の追跡位置として頭の位置が用いられている状況では、代わりに頭−手線が較正処理でユーザインタフェース装置100により使われてもよいことがわかるであろう。
いくつかの実施形態では、ユーザインタフェース装置は同時に複数のユーザを検出及び追跡してもよい。
いくつかの実施形態では、ユーザインタフェース装置100は、複数のユーザの位置を追跡し、それに応じて個々のユーザについて表示画面108との対話操作を判定及び実行してもよい。
いくつかの実施形態では、例えば一度に一人のユーザのみが表示画面108を対話操作することが可能であることが望ましい場合、ユーザインタフェース装置100は「アクティブユーザ」を判定し、そのユーザに関する追跡情報のみを取得及び/又は使用してもよい。アクティブユーザは、例えば仮想空間702での判定された各ユーザの仮想表現704の股関節位置に基づいて、例えば表示画面108から最短距離に位置するユーザとして判定されてもよい。
図11は、ユーザインタフェース装置100により実行されることで、表示画面108に表示される選択可能対象108bをユーザが選択できるようにするための、実施形態に係る方法におけるステップの概略フロー図である。
ステップS1101は、ユーザの第1の手200aの位置である手200aの位置を追跡し、ユーザの頭200b又は目100cの位置を追跡し、第1の手200aの手の形状を検出することを含む。
ステップS1102は、表示画面108上の1以上の選択可能対象108bの1以上の対象108bの位置を判定することを含む。
ステップS1103は、ユーザ200の第1の手200aの検出した手の形状がいつ第1の所定の形状に、例えば閉じた拳状の形状に変化したかを判定することを含む。検出した手の形状が第1の所定の形状に変化した場合には方法はステップS1104に進み、そうでなければ方法はステップS1101に戻る。
ステップS1104は、検出した手の形状が第1の所定の形状に変化したとの判定に応じて、追跡した手200aの位置と、追跡した頭200b又は目200cの位置と、判定した1以上の対象108bの位置とに基づいて、上記の選択可能対象108bが第1の画面位置にあるかどうかを判定することを含み、ここで、第1の画面位置は、選択可能対象108bに対するユーザの視界を第1の手200aが少なくとも部分的に遮るような表示画面108上の位置である。選択可能対象が第1の画面位置にあると判定されれば方法はステップS1105に進み、そうでなければ方法はステップS1101に戻る。いくつかの実施形態では、代わりに、第1の画面位置にある選択可能対象がないと判定されれば、ユーザインタフェース装置はユーザの能力レベルが低いと判定してもよく、例えば上記のようにポインタを表示してもよい。
ステップS1105は、(第1の手が選択可能対象に対するユーザの視界を少なくとも部分的に遮ると判定された場合に)選択可能対象が選択されると判定することを含む。
上記のような方法は、例えばユーザインタフェース装置100又は任意の他の適切な処理システムにより実行可能なコードに記述されてもよく、そのコードはコンピュータ可読媒体に記憶されてもよく、ユーザインタフェース装置100又は適切な処理システムにより実行されたとき、ユーザインタフェース装置100又は適切な処理システムに上記の方法を実行させる。
上記実施形態は本発明を説明するための例として理解されるべきである。任意の一実施形態に関して記載される任意の特徴は単独で、又は他の記載される特徴と組み合わせて使用されてもよく、任意の他の実施形態、又は任意の他の実施形態の任意の組合せの1以上の特徴と組み合わせて使用されてもよいことも理解されるべきである。さらに、上で述べていない均等物及び変形も、添付の請求の範囲に定められる本発明の範囲から逸脱することなく利用されてもよい。

Claims (12)

  1. 1以上の選択可能対象を表示する表示画面上から選択可能対象を選択するためのユーザインタフェース装置であって、
    1以上のプロセッサを備え、
    前記1以上のプロセッサが、
    ユーザの第1の手の位置である第1の追跡位置に関する第1の情報を取得するステップと、
    前記ユーザの頭又は目の位置である第2の追跡位置に関する第2の情報を取得するステップと、
    前記表示画面上の前記1以上の選択可能対象の1以上の対象位置を判定するステップと、
    前記第1の追跡位置及び前記第2の追跡位置の双方を通過する直線と交差する前記表示画面の点に基づいて第1の画面位置を求めるステップであって、該第1の画面位置が、前記選択可能対象に対する前記ユーザの視界を前記第1の手が少なくとも部分的に遮るような前記表示画面上の位置である、該ステップと、
    前記第1の手の手形状が閉じた形状に変化したとの判定に応じて、前記第1の画面位置と前記1以上の対象位置とに基づいて、前記選択可能対象が第1の画面位置にあるかどうかを判定するステップと、
    前記選択可能対象が前記第1の画面位置にあると判定した場合に、前記選択可能対象が選択されると判定するステップとを実行する、
    ユーザインタフェース装置。
  2. 前記プロセッサが、
    前記手形状が前記閉じた形状に維持されつつ前記第1の追跡位置が変化したとの判定に応じて、前記選択された選択可能対象を前記表示画面上で移動させるステップと、
    前記手形状が前記閉じた形状から開いた形状に変化したとの判定に応じて、前記選択された選択可能対象が選択解除されると判定するステップを実行する、
    請求項1に記載のユーザインタフェース装置
  3. 前記プロセッサが、
    前記手形状が前記開いた形状に変化したとの判定に応じて、前記選択された選択可能対象移動を中断させるステップを実行する
    請求項2に記載のユーザインタフェース装置
  4. 前記プロセッサが、
    前記判定した第1の追跡位置の変化率が所定の閾値を上回ると判定された場合には、前記手形状が前記開いた形状に変化したとの判定に応じて、削除処理を実行して前記選択された選択可能対象を削除するステップを実行する
    請求項2または3に記載のユーザインタフェース装置
  5. 前記プロセッサが、
    ユーザが見ている方向である視線方向に関する視線方向情報を取得するステップと、
    前記手形状が前記開いた形状に変化したとの判定に応じて、前記ユーザが見ている前記表示画面上の位置である第2の画面位置を前記視線方向情報に基づいて判定するステップと、
    前記第2の画面位置が前記選択された対象の前記対象位置から閾値角度より多く異なるとの判定に応じて、削除処理を実行して前記選択された選択可能対象を削除するステップとを実行する
    請求項2〜4のいずれか一項に記載のユーザインタフェース装置
  6. 前記第2の追跡位置が前記ユーザの前記頭の中心の位置、又は前記ユーザの両目間の位置である、
    請求項1〜5のいずれか一項に記載のユーザインタフェース装置
  7. 前記第1の追跡位置及び前記第2の追跡位置が共に3次元座標として追跡される、
    請求項1〜のいずれか一項に記載のユーザインタフェース装置
  8. 前記プロセッサが較正処理を実行し
    前記較正処理が、
    前記ユーザの前記頭又は目の位置である第3の追跡位置に関する第3の情報を取得するステップと、
    前記ユーザの頭又は目を前記第3の追跡位置に位置付けて、前記表示画面上の複数の所定位置に対する前記ユーザの視界を前記第1の手が少なくとも部分的に遮るような第1の複数の手位置を順次判定し、これにより、それぞれが前記第3の追跡位置と、前記第1の複数の手位置のうちの一つと、前記表示画面上の前記所定位置のそれぞれとを含む第1の複数の直線を規定するステップと、
    前記第3の追跡位置と異なる前記ユーザの前記頭又は目の位置である第4の追跡位置に関する第4の情報を取得するステップと、
    前記ユーザの頭又は目を前記第4の追跡位置に位置付けて、前記表示画面上の前記複数の所定位置のそれぞれに対する前記ユーザの視界を前記第1の手が少なくとも部分的に遮るような第2の複数の手位置を順次判定し、これにより、それぞれが前記第4の追跡位置と、前記第2の複数の手位置のうちの一つと、前記表示画面上の前記所定位置のそれぞれとを含む第2の複数の直線を規定するステップと、
    前記表示画面上の前記複数の所定位置のそれぞれに関して、所定位置に対して、前記所定位置を含む、前記第1の複数の直線のそれぞれと前記第2の複数の直線のそれぞれとの交点又は近接交点を判定するステップとを含む、
    請求項に記載のユーザインタフェース装置
  9. 前記プロセッサが、
    前記選択可能対象が位置しない判定された第1の画面位置で前記手形状が前記閉じた形状に変化したとの判定に応じて、前記表示画面の記第1の画面位置でポインタを表示させるステップを実行する
    請求項1〜8のいずれか一項に記載のユーザインタフェース装置
  10. 前記プロセッサが、
    前記ユーザインタフェースの操作が所定回数より多く前記ユーザにより繰り返されたとの判定に応じて、前記表示画面にポインタを表示させるステップを実行する、
    請求項1〜のいずれか一項に記載のユーザインタフェース装置
  11. 1以上の選択可能対象を表示する表示画面上から選択可能対象を選択するためのユーザインタフェース装置により実行される方法であって、
    ユーザの第1の手の位置である第1の追跡位置に関する第1の情報を取得するステップと、
    前記ユーザの頭又は目の位置である第2の追跡位置に関する第2の情報を取得するステップと、
    前記表示画面上の前記1以上の選択可能対象の1以上の対象位置を判定するステップと、
    前記第1の追跡位置及び前記第2の追跡位置の双方を通過する直線と交差する前記表示画面の点に基づいて第1の画面位置を求めるステップであって、該第1の画面位置が、前記選択可能対象に対する前記ユーザの視界を前記第1の手が少なくとも部分的に遮るような前記表示画面上の位置である、該ステップと、
    前記第1の手の手形状が閉じた形状に変化したとの判定に応じて、前記第1の画面位置と前記1以上の対象位置とに基づいて、前記選択可能対象が第1の画面位置にあるかどうかを判定するステップと、
    前記選択可能対象が前記第1の画面位置にあると判定した場合に、前記選択可能対象が選択されると判定するステップと
    を含む方法。
  12. 1以上の選択可能対象を表示する表示画面上から選択可能対象を選択するためのユーザインタフェース装置としてコンピュータを機能させるプログラムであって、
    ユーザの第1の手の位置である第1の追跡位置に関する第1の情報を取得するステップと、
    前記ユーザの頭又は目の位置である第2の追跡位置に関する第2の情報を取得するステップと、
    前記表示画面上の前記1以上の選択可能対象の1以上の対象位置を判定するステップと、
    前記第1の追跡位置及び前記第2の追跡位置の双方を通過する直線と交差する前記表示画面の点に基づいて第1の画面位置を求めるステップであって、該第1の画面位置が、前記選択可能対象に対する前記ユーザの視界を前記第1の手が少なくとも部分的に遮るような前記表示画面上の位置である、該ステップと、
    前記第1の手の手形状が閉じた形状に変化したとの判定に応じて、前記第1の画面位置と前記1以上の対象位置とに基づいて、前記選択可能対象が第1の画面位置にあるかどうかを判定するステップと、
    前記選択可能対象が前記第1の画面位置にあると判定した場合に、前記選択可能対象が選択されると判定するステップと
    を前記コンピュータに実行させるプログラム。
JP2017533050A 2015-04-16 2015-04-16 ジェスチャインタフェース Active JP6343718B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/062316 WO2016166902A1 (en) 2015-04-16 2015-04-16 Gesture interface

Publications (2)

Publication Number Publication Date
JP2017539035A JP2017539035A (ja) 2017-12-28
JP6343718B2 true JP6343718B2 (ja) 2018-06-13

Family

ID=53177336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017533050A Active JP6343718B2 (ja) 2015-04-16 2015-04-16 ジェスチャインタフェース

Country Status (5)

Country Link
US (1) US10969872B2 (ja)
EP (1) EP3283938B1 (ja)
JP (1) JP6343718B2 (ja)
ES (1) ES2835598T3 (ja)
WO (1) WO2016166902A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6996296B2 (ja) 2017-12-28 2022-01-17 住友ゴム工業株式会社 ゴルフボール

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102465804B1 (ko) * 2015-05-12 2022-11-10 엘지전자 주식회사 영상표시장치 및 그것의 제어방법
EP3309708A4 (en) * 2015-06-10 2019-03-06 Vtouch Co., Ltd. METHOD AND DEVICE FOR DETECTING GESTURES IN A USER-BASED SPATIAL COORDINATE SYSTEM
US10466780B1 (en) * 2015-10-26 2019-11-05 Pillantas Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor
US20180004385A1 (en) * 2016-06-30 2018-01-04 Futurewei Technologies, Inc. Software defined icon interactions with multiple and expandable layers
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US10831265B2 (en) * 2018-04-20 2020-11-10 Microsoft Technology Licensing, Llc Systems and methods for gaze-informed target manipulation
CN110554784B (zh) * 2018-05-31 2023-07-14 广东虚拟现实科技有限公司 输入方法、装置、显示设备及存储介质
JP6873326B2 (ja) * 2018-06-20 2021-05-19 三菱電機株式会社 眼3次元座標取得装置及びジェスチャ操作装置
CN109407831A (zh) * 2018-09-28 2019-03-01 维沃移动通信有限公司 一种交互方法及终端
KR20190106851A (ko) * 2019-08-27 2019-09-18 엘지전자 주식회사 Xr 컨텐츠 제공 방법 및 xr 컨텐츠 제공 디바이스
US11630639B2 (en) * 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof
JP2023135920A (ja) * 2022-03-16 2023-09-29 パナソニックIpマネジメント株式会社 制御装置および制御方法
JP2024018746A (ja) 2022-07-29 2024-02-08 フォルシアクラリオン・エレクトロニクス株式会社 データ処理装置及びデータ処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
US8581838B2 (en) * 2008-12-19 2013-11-12 Samsung Electronics Co., Ltd. Eye gaze control during avatar-based communication
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
KR101151962B1 (ko) * 2011-02-16 2012-06-01 김석중 포인터를 사용하지 않는 가상 터치 장치 및 방법
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
CN103926999B (zh) * 2013-01-16 2017-03-01 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备
US10055016B2 (en) * 2013-09-16 2018-08-21 Lg Electronics Inc. Image display apparatus and method for operating the same
US9971491B2 (en) * 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
US9836130B2 (en) * 2014-12-26 2017-12-05 Nextedge Technology K.K. Operation input device, operation input method, and program
US10068134B2 (en) * 2016-05-03 2018-09-04 Microsoft Technology Licensing, Llc Identification of objects in a scene using gaze tracking techniques
US10168789B1 (en) * 2017-05-31 2019-01-01 Meta Company Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6996296B2 (ja) 2017-12-28 2022-01-17 住友ゴム工業株式会社 ゴルフボール

Also Published As

Publication number Publication date
EP3283938B1 (en) 2020-10-07
JP2017539035A (ja) 2017-12-28
US20180088676A1 (en) 2018-03-29
ES2835598T3 (es) 2021-06-22
EP3283938A1 (en) 2018-02-21
US10969872B2 (en) 2021-04-06
WO2016166902A1 (en) 2016-10-20

Similar Documents

Publication Publication Date Title
JP6343718B2 (ja) ジェスチャインタフェース
US11157725B2 (en) Gesture-based casting and manipulation of virtual content in artificial-reality environments
US10191559B2 (en) Computer interface for manipulated objects with an absolute pose detection component
Ha et al. WeARHand: Head-worn, RGB-D camera-based, bare-hand user interface with visually enhanced depth perception
JP2022535315A (ja) 自己触覚型仮想キーボードを有する人工現実システム
JP2022535325A (ja) 人工現実システムのための腕注視駆動のユーザインターフェース要素ゲーティング
EP3234741A1 (en) Method, system and device for navigating in a virtual reality environment
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2022535182A (ja) ユーザインターフェース要素をゲーティングするパーソナルアシスタント要素を備えた人工現実システム
JP2022534639A (ja) 指マッピング自己触覚型入力方法を有する人工現実システム
JP6181842B1 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
US11893697B2 (en) Application control program, application control method, and application control system
CN108572730B (zh) 用于使用深度感知相机与计算机实现的交互式应用程序进行交互的系统和方法
JP2017086542A (ja) 画像変更システム、方法、及びプログラム
US20230267667A1 (en) Immersive analysis environment for human motion data
WO2021235316A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2018185824A (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP6600051B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JP6611383B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
JPWO2018074054A1 (ja) 表示制御装置、表示制御方法及びプログラム
JP3138822U (ja) ビンゴゲーム装置
CN116204060A (zh) 鼠标指针基于手势的移动和操纵

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170616

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170616

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6343718

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250