JP2014509429A - ユーザーインターフェースの提示およびインタラクション - Google Patents

ユーザーインターフェースの提示およびインタラクション Download PDF

Info

Publication number
JP2014509429A
JP2014509429A JP2013555433A JP2013555433A JP2014509429A JP 2014509429 A JP2014509429 A JP 2014509429A JP 2013555433 A JP2013555433 A JP 2013555433A JP 2013555433 A JP2013555433 A JP 2013555433A JP 2014509429 A JP2014509429 A JP 2014509429A
Authority
JP
Japan
Prior art keywords
user interface
cursor
hand
human target
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013555433A
Other languages
English (en)
Inventor
アンダーセン,ジョーダン
フォーブズ,ロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014509429A publication Critical patent/JP2014509429A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/08Cursor circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Abstract

ユーザーが、デプスカメラを介して連携するユーザーインターフェースの押すおよび/または引くユーザーインターフェース要素に関する実施形態が開示される。1つの実施形態は、1つまたは複数のインタラクティブユーザーインターフェース要素を含むユーザーインターフェースの画像を表示し、デプスカメラから人間ターゲットを含むシーンの1つまたは複数のデプス画像を受け取り、人間ターゲットの一部のレンダリングを、ユーザーインターフェース内に位置するカーソルとして表示し、インタラクティブユーザーインターフェース要素の1つまたは複数に投じたカーソルの影のレンダリングもディスプレイに与えるように構成されているコンピューティング装置を提供する。コンピューティング装置は、さらに、人間ターゲットの手が動くことにより、カーソルを介して、選択されたインタラクティブユーザーインターフェース要素の対応する作動が起こるように、人間ターゲットの手の動きをカーソルに変換するように構成されている。

Description

[0001]コンピューター技術は、人間がコンピューターと様々な方法で連携することを可能にする。そのような連携の1つは、人間がマウス、トラックパッド、およびゲームコントローラーなどの様々な入力装置を使用して、コンピューティング装置のユーザーインターフェース上のボタンを作動させるときに生じうる。
本明細書には、ユーザーがデプスカメラ(depth camera)を介して連携するユーザーインターフェースのユーザーインターフェース要素を押すおよび/または引くことに関する様々な実施形態が開示されている。たとえば、1つの開示された実施形態は、1つまたは複数のインタラクティブユーザーインターフェース要素を含むユーザーインターフェースの画像をディスプレイに提供し、デプスカメラから人間ターゲットを含むシーンの1つまたは複数のデプス画像を受け取り、ユーザーインターフェース内に位置するカーソルとして人間ターゲットの一部のレンダリングをディスプレイに提供し、インタラクティブユーザーインターフェース要素の1つまたは複数に投じたカーソルの影のレンダリングもディスプレイに提供するように構成されているコンピューティング装置を提供する。コンピューティング装置は、さらに、人間ターゲットの手が動くことにより、カーソルを介して、選択されたインタラクティブユーザーインターフェース要素の対応する作動が起こるように、人間ターゲットの手の動きをカーソルに変換するように構成されている。この「発明の概要」は、以下に「発明を実施するための形態」でさらに記述する概念の選択を簡略な形で導入するために提供している。この「発明の概要」は、特許請求される発明の主題の重要な特徴または本質的な特徴を特定することを意図するものではなく、特許請求される発明の主題の範囲を限定するのに用いられることを意図するものでもない。さらに、特許請求される発明の主題は、本開示のいずれかの部分に注記されたいずれかの欠点またはすべての欠点を解決する実施形態に限定されない。
[0002]本開示の実施形態によるユーザーインターフェースの使用環境を示す図である。 [0003]本開示の実施形態による骨格データでモデル化されている観測シーンの人間ターゲットの概略図である。 [0004]インタラクティブユーザーインターフェース要素の実施形態を示す図であり、インタラクティブユーザーインターフェース要素から離間したカーソルの手の実施形態も示す図である。 [0005]インタラクティブユーザーインターフェース要素と接する図3のカーソルの手を示す図である。 [0006]図3の実施形態のインタラクティブユーザーインターフェース要素と連携する図3のカーソルの手を示す図である。 [0007]ユーザーインターフェースにユーザーインターフェースカーソルを介して影を投じるためのユーザーインターフェース空間の仮想照明の配置の実施形態の概略図である。 [0008]ユーザーインターフェースにユーザーインターフェースカーソルを介して影を投じるためのユーザーインターフェース空間の仮想照明の配置の別の実施形態の概略図である。 [0009]ユーザーインターフェースを操作する方法の実施形態を表す流れ図である。 [0010]コンピューティングシステムの実施形態のブロック図である。
[0011]図1は、種々の様々なゲームを行い、様々な媒体の種類のうち1つまたは複数を再生し、かつ/またはゲームではないアプリケーションおよび/またはオペレーティングシステムを制御または操作するのに使用されうるコンピューティング装置102を示す。図1は、ゲームの映像および/またはその他の出力画像をユーザーに提示するのに使用されうるテレビまたはコンピューターモニターなどの表示装置104も示す。
[0012]コンピューティング装置102の1つの使用例として、表示装置104は、デプスカメラ112が取得した人間ターゲット110の手108の画像のレンダリングの形で、図1に示すユーザーインターフェースカーソル106を視覚的に提示するのに使用されうる。この場合、人間ターゲット110は、手108の動きによって、カーソルの手106を制御する。このようにして、人間ターゲット110は、たとえば、ボタン114として示されているようなボタンなどのインタラクティブ要素を押すおよび/または引くことによって、ユーザーインターフェース113と連携することができる。人間追跡システムが指の動きを追跡することができるいくつかの実施形態では、人間ターゲット110は、カーソルの手106の個々の指の動きを制御できうる。
[0013]人間ターゲット110が、より直感的に手108の動きをカーソルの手106に変換するのを助けるように、コンピューティング装置102は、カーソルの手106の1つまたは複数の影116をユーザーインターフェース113上にレンダリングして、ボタンに対するカーソルの手106の位置に関するデプスおよび位置情報を与えるように構成されうる。デプスカメラ112は、図9に関して、より詳細に説明する。ターゲットプレイヤーのデプス画像からレンダリングされた手の形状のカーソルという文脈で本明細書に開示されているが、カーソルは、その他の任意の適切な形状をとることができ、足(たとえば、体が傾いた位置で行うゲームの場合)または人間ターゲットの他の部分などのその他の任意の適切な体の部分を追跡またはモデル化することができることが理解されよう。
[0014]さらに、いくつかの実施形態では、人間ターゲットの体のより大きい部分のレンダリングおよび影は、本開示によるユーザーインターフェースに、カーソルおよびカーソルの影として示されうる。これにより、たとえば、人間ターゲットに、ユーザーインターフェース要素と連携するのに前方に進む必要があるというフィードバックを与える助けになりうる。手からの影が手を配置する助けになりうるのと同様に、体全体の影を投じると、ユーザーが体の位置を調整する助けになりうる。さらに、そのような影は、審美的な理由で投じられうる。さらに、人間ターゲットが保持している物体も、いくつかの実施形態では、カーソルの一部としてレンダリングされうる。さらに、いくつかの実施形態では、カーソルは、矢印またはその他の単純な形状などの、より概念的な形状を有しうる。
[0015]本明細書では、人間ターゲット110が、観測シーン内のゲームプレイヤーとして示されている。人間ターゲット110は、デプスカメラ112によって追跡され、その結果、人間ターゲット110の動きは、カーソルの手106を動かしてユーザーインターフェース要素を選択し作動させるだけでなく、コンピューティング装置102が実行しているゲームまたはその他のプログラムに影響を及ぼすのに使用することができる制御装置として、コンピューティング装置102によって解釈されうる。言い換えれば、人間ターゲット110は、ゲームを制御するのに自分の動きを使用することができる。
[0016]デプスカメラ112は、ターゲットの動きを、ゲームの範囲外にあるオペレーティングシステムおよび/またはアプリケーションの制御装置として解釈するのにも使用されうる。オペレーティングシステムおよび/またはアプリケーションの仮想的に制御できるいずれの側面も、人間ターゲット110の動きにより制御されうる。図1に示されたシナリオは、1つの例として提供したが、決して限定を意味しているわけではない。反対に、示されたシナリオは、本開示の範囲を逸脱することなく、種々の様々な用途に適用されうる一般概念を説明することを意図する。
[0017]本明細書に記載された方法およびプロセスは、種々の様々な種類のコンピューティングシステムに関係しうる。図1は、コンピューティング装置102、表示装置104、およびデプスカメラ112の形の非限定例を示す。これらのコンポーネントは、図9に関して、以下により詳細に記載する。
[0018]図2は簡易化した処理パイプラインを示し、この処理パイプラインでは、図1の人間ターゲット110が、カーソルの手106(または、アバターなどの人間ターゲット110のその他の表現)の画像を表示装置104に表示するためにレンダリングし、かつ/または、ゲーム、アプリケーションおよび/またはオペレーティングシステムの他の側面を制御する制御入力装置として機能するのに使用することができる仮想骨格としてモデル化される。処理パイプラインは、本開示の範囲を逸脱することなく、図2に示したステップ以外に追加のステップおよび/または代わりのステップを含みうることが理解されよう。いくつかの実施形態は、デプス画像から骨格の一部分だけをモデル化しうることにも留意されたい。さらに、いくつかの実施形態は、本明細書に記載したようなユーザーインターフェースインタラクションのための手の追跡または単なる動き追跡などの追跡システムを利用しうる。
[0019]図2に示すように、人間ターゲット110は、デプスカメラ112に撮像される。デプスカメラ112は、デプスカメラに対する観測シーンの表面のデプスを、ピクセルごとに決定しうる。仮想的に任意のデプス(depth)を発見する技術は、本開示の範囲から逸脱することなく使用されうる。デプスを発見する技術の例は、図9に関連して、より詳細に説明する。
[0020]ピクセルごとに決定されたデプス情報は、デプスマップ204を生成するのに使用されうる。そのようなデプスマップ204は、観測シーンのピクセルごとのデプス値を含むマトリックスを含むがこれに限定されない任意の適切なデータ構造の形をとりうる。図2で、デプスマップ204は、人間ターゲット110のシルエットのピクセル化されたグリッドとして、概略的に示される。この図示は、簡潔な理解のためであり、技術的に正確ではない。デプスマップは、一般に、人間ターゲット110を画像化するピクセルだけでなくすべてのピクセルのデプス情報を含むこと、デプスカメラ112の視点は、図2に表されたシルエットにならないことが理解されよう。
[0021]仮想骨格202は、人間ターゲット110の機械可読の表現を提供するようにデプスマップ204から導かれうる。言い換えれば、仮想骨格202は、人間ターゲット110をモデル化するようにデプスマップ204から導かれる。仮想骨格202は、デプスマップ204から、いずれかの適切なやり方で導かれうる。たとえば、いくつかの実施形態で、1つまたは複数の骨格適合アルゴリズムが、デプスマップ204に適用されうる。本開示は、任意の適切な骨格モデリング技術と互換性があることが理解されよう。
[0022]仮想骨格202は、複数の関節を含みうる。各関節は、人間ターゲット110の一部分に相当する。図2で、仮想骨格202は、複数の関節を有する棒線画として示される。この図示は、簡潔な理解のためであり、技術的に正確ではないことが理解されよう。本開示による仮想骨格は、仮想的にいくつもの関節を含みうる。各関節は、いくつものパラメーターと仮想的に関連することができる(たとえば、3次元の関節位置、関節回転、相当する体の部分の体勢(たとえば、手が開いている、手が閉じているなど)など)。仮想骨格は、複数の骨格関節ごとの1つまたは複数のパラメーター(たとえば、位置x、位置y、位置zを含む関節マトリックス、および関節ごとの回転)を含むデータ構造の形をとりうることが理解されよう。いくつかの実施形態で、他の種類の仮想骨格が使用されうる(たとえば、ワイヤーフレーム、形状プリミティブのセットなど)。
[0023]仮想骨格202は、カーソルの手106の画像を、表示装置104に、人間ターゲット110の手108の視覚的な表現としてレンダリングするのに使用されうる。仮想骨格202が、人間ターゲット110をモデル化し、カーソルの手106のレンダリングは、仮想骨格202に基づいているので、カーソルの手106は、人間ターゲット110の実際の手の視認可能なデジタル表現として機能する。そのように、表示装置104上のカーソルの手106の動きは、人間ターゲット110の動きを反映する。さらに、カーソルの手106は、一人称視点または一人称に近い視点(たとえば、実際の一人称視点のいくぶん後ろの視点から)で表示することができ、その結果、カーソルの手106は、人間ターゲット110の手と同様または同一の向きを有する。これにより、人間ターゲット110が、カーソルの手106を、より直感的かつ容易に操作する助けになりうる。骨格のマッピングという文脈で本明細書に開示されているが、その他の任意の適切な人間ターゲットの動きおよびデプスの追跡方法が使用されうることが理解されよう。さらに、本明細書に用いられるような「一人称視点」「一人称の視点」などの用語は、カーソルとしてレンダリングされた体の部分の向きが、ユーザーの視点で、ユーザーの体の部分の向きに近いまたは一致する任意の視点を示すことが理解されよう。
[0024]図1に関して上記したように、ボタン114またはその他のインタラクティブユーザーインターフェース要素に対するカーソルの手106の位置に関するデプスおよび位置情報を与えるように、カーソルの手106の影は、ユーザーインターフェース113上にレンダリングされうる。人間ターゲット110の実際の手108の画像のレンダリングと影を併用することにより、その他の追跡系3Dユーザーインターフェースに比べて、人間ターゲットのユーザーインターフェースとの連携が容易になりうる。たとえば、デプスカメラまたは他のそのような人間追跡系3Dユーザーインターフェースを介してユーザーインターフェースと連携することの問題の1つに、ユーザーに、入力装置と仮想インターフェースの間のマッピングについて十分な空間的フィードバックを提供することがある。そのような連携を直感的に行うには、ユーザーが、現実の世界マップでの動きがどのように画面上のインタラクション装置の動きになるか正確なメンタルモデルを有するのが有用である。加えて、カーソルの手がインタラクティブ要素との関連でどこに存在するかに関してユーザーにフィードバックを表示するのが有用であるが、これは2D画面上に描くのが難しい情報でありうる。最後に、ユーザーインターフェースが、画面上の対象に関与するのに用いたユーザーの動作の性質に関する視覚的合図を与えるのが有用である。
[0025]骨格データまたは人間ターゲットのその他の表現からレンダリングされたカーソルと、カーソルによってユーザーインターフェース制御装置に投じた影のレンダリングを併用することにより、これらの問題に対処する助けになりうる。たとえば、人間ターゲット自身の手の動き、形状、ポーズなどにならってカーソルの手の動き、形状、ポーズ、および/またはその他の側面をモデル化することによって、ユーザーは、カーソルの手を直感的に制御しうる。同様に、カーソルの手の1つまたは複数の影をユーザーインターフェース制御装置に投じることによって、ユーザーに、ユーザーインターフェース制御装置に対するカーソルの手の位置に関するフィードバックを提供する。たとえば、ユーザーが、カーソルの手をユーザーインターフェースのインタラクティブ要素に近づけたり遠ざけたりすると、1つまたは複数の影は、それぞれ互いに接近したり手から離れたりし、それによって、位置およびデプスに関するフィードバックを提供し、たとえば制御装置を押す、引くまたは作動させるように制御装置とカーソルの手が接触することにより、ユーザーが制御装置と連携しうることを示唆することもできる。
[0026]反対に、ユーザーインターフェースを操作するのにデプスカメラの入力を使用するその他の方法は、そのような懸念に対処できない。たとえば、ユーザーインターフェースを提示する潜在的な方法の1つは、人間ターゲットの3次元の動きを2次元の画面空間にマッピングすることでありうる。しかしながら、第3の入力次元を犠牲にすると、ユーザーインターフェースとの潜在的なインタラクティブ性の範囲および効率が減少する可能性があり、さらにはユーザーに、3次元の動きを期待された2次元の応答に変換するという重大なメンタル的負荷をかけることがある。これによって、ユーザーインターフェース制御装置をターゲットにすることが潜在的にますます難しくなる。そのように、ユーザーは、カーソルの手と影のレンダリングの併用によってもたらされるフィードバックなしに、ユーザーインターフェース要素との関与を維持するのに困難を感じる。たとえば、ユーザーインターフェースボタンを押そうとするユーザーは、手の動きがどのようにユーザーインターフェースの動作にマッピングされるかに関して曖昧なので、ユーザーインターフェース要素からカーソルが外れることに気が付きうる。
[0027]同様に、3次元の入力を3次元のユーザーインターフェースにマッピングする場合、ユーザーは、手がボタンを覆い隠すとき、目からボタンへの線に沿った手の位置に関して曖昧さがあるというデプスの認知的な問題を感じうる。これにより、ユーザーは、ユーザーインターフェース要素をターゲットするのに失敗しうる。
[0028]体の動きを2次元または3次元のユーザーインターフェースの応答に変換するときに適用されうる1つより多いメンタルモデルが存在することにより、3次元の動きでユーザーの入力を行うことが難しくなる部分がある。たとえば、1つのモデルでは、ユーザーインターフェースカーソルの位置は、デプスカメラから画面平面上に光線を発射し、互いに合致するように座標平面をスケーリングすることによって決定されうる。このモデルで、ユーザーは、手またはその他のマニピュレーターを画面平面に対して垂直に動かすことにより、3次元のユーザー入力(たとえば、押すおよび/または引くコンポーネントのユーザー入力)を行う。別のモデルでは、肩に対する手の回転ピッチおよびヨーが、画面平面にマッピングされる。そのような放射状モデルでは、ユーザーは、画面に対して垂直ではなく、肩からユーザーインターフェース要素に向かって直接押しやることによって、3次元のユーザー入力を行う。これらのモデルのどちらかで、ユーザーが、カーソルの動き以外のフィードバックなしで3次元のユーザー入力を行うことは難しいときがある。したがって、カーソルの手に影を投じることと組み合わされたカーソルとしてのユーザーの手の画像のレンダリングは、ユーザーが、これらのモデルのうち正しい方を暗にほのめかすことを可能にし、それによってそのような入力を容易にすることを可能にする価値のあるフィードバックを提供しうる。
[0029]図3〜5は、カーソルの手106がボタン114の方に動いて接触したときのユーザーインターフェース113の外観を示す。単一のカーソルの手がボタン114と連携しているところを示したが、いくつかの実施形態では、存在するユーザーの数および提示されたユーザーインターフェースの性質によって、2つ以上の手が同時にボタン114と連携しうることが理解されよう。まず、図3は、ボタンから離間したカーソルの手106を示す。この構成で、影116は、ボタン114の表面上でカーソルの手106から横方向にずれており、それによって、どのボタン114をカーソルの手106が覆っているかだけでなく、カーソルの手106とボタン114の間の空間に関しても視覚的なフィードバックを与える。これにより、ユーザーが望まないボタンを作動させることを回避させる助けになりうる。
[0030]次に、図4は、ボタンに接触しているカーソルの手106を示すが、ボタン114はまだ押されていない。見ると分かるように、影116およびカーソルの手106は、ボタン114の表面上で接近しており、それによって、これらの要素間の空間の変化に関するフィードバックを与える。示された実施形態で、1つの影が示されているが、以下により詳細に記載するように、2つ以上の影が、カーソルの手106によって投じられうることが理解されよう。
[0031]次に、図5は、ボタン114を押すカーソルの手106を示す。カーソルの手106がボタン114に関与するにつれて、ボタン114は、画面内に徐々に押されるものとして示すことができ、それによって、ボタンが関与されているという連続する視覚的なフィードバックを提供する。さらに、一部が押し込まれたボタンは、作動を継続/完了するために対象が押される方向について、ユーザーに視覚的なフィードバックも与える。これにより、関与の際にボタン114からユーザーが「外れて」しまう機会を減らす助けになりうる。さらに、ユーザーは、そのような入力を成功させることにより、自信が得られ、これにより、ユーザーは、入力を完了し、さらなる入力をより速く行う助けになりうる。
[0032]カーソルの手106がボタン114に突き当たったことの検知は、骨格追跡データから決定された手のモデルの点群(たとえば、ユーザーの手の形状を画定するx、y、zのピクセルの点の位置)によって、またはその他の任意の適切なやり方で行われうる。図3〜5は、押すことができるユーザーインターフェースボタンを表すが、押すことが可能なおよび/または引くことが可能な要素を含むがこれらに限定されない表示装置104の画面の平面に対して垂直な任意の適切な動きのコンポーネントを有する任意の適切なインタラクティブユーザーインターフェース要素が使用されうることを理解されよう。さらに、カーソルの手は、図3〜5に、ユーザーの手のソリッドレンダリング(solid rendering)として表されているが、その他の任意の適切なレンダリングが使用されうることが理解されよう。たとえば、カーソルの手は、ユーザーの手の点群における点の水平行または垂直列を結合することにより、グリッドレンダリング(grid rendering)を形成する点群の行および列を結合することにより、点群の各点に示されるポイントスプライトにより、ボクセルレンダリング(voxel rendering)により、またはその他の任意の適切なやり方により、ストライプレンダリング(stripe rendering)として表されうる。
[0033]上記のように、任意の適切な数のカーソルの手の影は、位置およびデプスデータを示すのに使用されうる。たとえば、いくつかの実施形態では、単一の影が使用され、他の実施形態では、2つ以上の影が使用されうる。さらに、影は、カーソルの手および/またはインタラクティブユーザーインターフェース要素に対して、任意の適切な角度および/または距離に位置する任意の適切な1つまたは複数の種類の仮想光源によって生成されうる。たとえば、図6は、仮想点の光源600および602から生じる2つの影の生成の概略図を示す。そのような光源は、屋内照明をシミュレーションするように構成されうる。カーソルの手106は、たとえば、人間ターゲットの手を表す点群を表す「手」というラベルのボックスで、概略的に示される。図示されるように、仮想点の光源600および602は、カーソルの手106の位置により、カーソルの手106との距離および/または角度が異なりうる。これにより、カーソルの手106がユーザーインターフェース内を動くにつれて、さらなる位置情報を提供する助けになりうる。
[0034]カーソルの手106からの1つまたは複数の影を生成するのに使用される仮想光源は、なじみのある照明条件をシミュレーションして、ユーザーによる直感的な影の理解を容易にするように構成されうる。たとえば、図6の実施形態は、居間の照明などの室内の天井の照明をシミュレーションしうる。図7は、1つの仮想点の光源700および1つの仮想方向光源702が、天井の光および窓からの太陽光をシミュレーションする別の仮想照明配置を示す。図6および7の実施形態は、例をあげるために提示したが、いかなる形でも、限定することを意図しないことを理解されよう。
[0035]図8は、ユーザーインターフェースを操作する方法800の実施形態を表す流れ図を示す。方法800は、取外し可能なまたは取外し不可能なコンピューター可読の記憶媒体に記憶されたコンピューター可読の実行可能な命令として実行されうることが理解されよう。方法800は、802で、表示装置に、1つまたは複数のインタラクティブ要素を含むユーザーインターフェースの画像を与え表示するステップを含む。804に示されるように、インタラクティブユーザーインターフェース要素は、表示画面の平面に垂直な動きのコンポーネントを有する、押すおよび/または引く要素を含むことができ、またはその他の任意の適切なフィードバックを与えることができる。次に、806で、方法800は、人間ターゲットを含むシーンのデプス画像などの3次元の入力を受け取るステップを含む。次いで、方法800は、808で、人間ターゲットの手のレンダリングを、ユーザーインターフェース内に位置したカーソルの手として、表示装置に与え表示するステップを含む。メッシュレンダリング810、ストライプレンダリング812、ボクセルレンダリング813、ポイントスプライトレンダリング814、ソリッドレンダリング815などが含まれるがこれらに限定されない任意の適切なレンダリングが使用されうる。
[0036]方法800は、次に、816で、ユーザーインターフェース要素に投じたカーソルの手の影のレンダリングを表示装置に与え表示するステップを含む。818で示すように、いくつかの実施形態では、複数の影を表示することができ、他の実施形態では、単一の影を表示することができる。影は、820で示されるように仮想方向の光により、822で示されるように仮想点の光源により、またはその他の任意の適切なやり方で生成されうる。
[0037]次に、方法800は、824で、人間ターゲットの手の動きを、選択されたユーザーインターフェース要素に向かうカーソルの手の動きに変換するステップを含む。人間ターゲットの手の動きが継続すると、方法800は、826で、カーソルの手が、手のカーソル、影およびユーザーインターフェース要素の幾何学的関係により、選択されたユーザーインターフェース要素に近付くにつれて、カーソルの手およびカーソルの手の1つまたは複数の影の接近を表示し、828で、ユーザーインターフェース要素をカーソルの手を介して動かしまたはユーザーインターフェース要素の他の適切な対応する作動をもたらすステップを含む。
[0038]いくつかの実施形態では、上記の方法およびプロセスは、1つまたは複数のコンピューターを含むコンピューティングシステムにつながりうる。特に、本明細書に記載された方法およびプロセスは、コンピューターアプリケーション、コンピューターサービス、コンピューターAPI、コンピューターライブラリー、および/またはその他のコンピュータープログラム製品として実行されうる。
[0039]図9は、上記の方法およびプロセスの1つまたは複数を行いうる非限定のコンピューティングシステム900を概略的に示す。コンピューティングシステム900は、簡易形状で示される。本開示の範囲を逸脱することなく、仮想的にあらゆるコンピューターアーキテクチャが使用されうることが理解されよう。様々な実施形態で、コンピューティングシステム900は、メインフレームコンピューター、サーバーコンピューター、デスクトップコンピューター、ラップトップコンピューター、タブレットコンピューター、ホームエンターテイメントコンピューター、ネットワークコンピューティング装置、モバイルコンピューティング装置、モバイル通信装置、ゲーミング装置などの形をとりうる。
[0040]コンピューティングシステム900は、ロジックサブシステム902、データ保持サブシステム904、表示サブシステム906、および/またはキャプチャー装置908を含みうる。コンピューティングシステムは、図9に示さないコンポーネントを任意で含むことができ、かつ/または、図9で示すいくつかのコンポーネントは、コンピューティングシステムに組み込まれていない周辺コンポーネントでありうる。
[0041]ロジックサブシステム902は、1つまたは複数の命令を実行するように構成されている1つまたは複数の物理装置を含みうる。たとえば、ロジックサブシステムは、1つまたは複数のアプリケーション、サービス、プログラム、ルーティン、ライブラリー、オブジェクト、コンポーネント、データ構造、またはその他の論理的構成の一部である1つまたは複数の命令を実行するように構成されうる。そのような命令は、タスクを行い、データタイプを実装し、1つまたは複数の装置の状態を変え、または他の方法で所望の結果に到達するように実行されうる。
[0042]ロジックサブシステムは、ソフトウェアの命令を実行するように構成されている1つまたは複数のプロセッサを含みうる。それに加えてまたはその代わりに、ロジックサブシステムは、ハードウェアまたはファームウェアの命令を実行するように構成されている1つまたは複数のハードウェアまたはファームウェアロジックマシーンを含みうる。ロジックサブシステムのプロセッサは、シングルコアでもマルチコアでもよく、そこで実行されたプログラムは、並列または分散処理するために構成されうる。ロジックサブシステムは、遠隔に位置しかつ/または協調処理するように構成されうる2つ以上の装置全体に分散された個々のコンポーネントを任意で含みうる。ロジックサブシステムの1つまたは複数の側面は、クラウドコンピューティング構成に構成されている遠隔からアクセスできるネットワークコンピューティング装置によって仮想化され実行されうる。
[0043]データ保持サブシステム904は、ロジックサブシステムが実行可能なデータおよび/または命令を保持して、本明細書に記載された方法およびプロセスを実行するように構成されている1つまたは複数の物理的、非一時的装置を含みうる。そのような方法およびプロセスが実行されると、データ保持サブシステム904の状態は変わりうる(たとえば、違うデータを保持する)。
[0044]データ保持サブシステム904は、取外し可能な媒体および/または内蔵装置を含みうる。データ保持サブシステム904は、中でも、光学メモリ装置(たとえば、CD、DVD、HD−DVD、Blu−Rayディスクなど)、半導体メモリ装置(たとえば、RAM、EPROM、EEPROMなど)、および/または磁気メモリ装置(たとえば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAMなど)を含みうる。データ保持サブシステム904は、揮発性、不揮発性、動的、静的、リード/ライト、リードオンリー、ランダムアクセス、シーケンシャルアクセス、ロケーションアドレッサブル、ファイルアドレッサブル、およびコンテンツアドレッサブルの性質のうち1つまたは複数を有する装置を含みうる。いくつかの実施形態で、ロジックサブシステム902およびデータ保持サブシステム904は、特定用途向け集積回路またはシステムオンチップなどの1つまたは複数の共通装置に組み込まれうる。
[0045]図9は、本明細書に記載された方法およびプロセスを実行するような、実行可能なデータおよび/または命令を記憶かつ/または移行するのに使用されうる取外し可能なコンピューター可読の記憶媒体910の形のデータ保持サブシステムの一面も示す。取外し可能なコンピューター可読の記憶媒体910は、中でも、CD、DVD、HD−DVD、Blu−Rayディスク、EEPROM、および/またはフロッピー(登録商標)ディスクの形をとりうる。
[0046]データ保持サブシステム904が、1つまたは複数の物理的、非一時的装置を含むことが理解されよう。反対に、いくつかの実施形態では、本明細書に記載された命令の側面は、物理装置によって、少なくとも有限継続の間、保持されないきれいな信号(たとえば、電磁信号、光学信号など)によって、一時的に伝えられうる。さらに、本開示に関するデータおよび/またはその他の形の情報は、きれいな信号で伝えられうる。
[0047]「モジュール」という用語は、1つまたは複数の特定の機能を行うように実行されるコンピューティングシステム900の一面を記載するのに使用されうる。ある場合には、そのようなモジュールは、データ保持サブシステム904が保持する命令を実行しているロジックサブシステム902によってインスタンス生成されうる。様々なモジュールおよび/またはエンジンが、同一のアプリケーション、コードブロック、オブジェクト、ルーティンおよび/または機能からインスタンス生成されうることが理解されよう。同様に、同一のモジュールおよび/またはエンジンは、場合によっては様々なアプリケーション、コードブロック、オブジェクト、ルーティンおよび/または機能によりインスタンス生成されうる。
[0048]コンピューティングシステム900は、本明細書に記載されるように、一定のワールド空間座標系の人間のワールド空間のポーズを追跡するように構成されているデプス画像解析モジュール912を含む。「ポーズ」という用語は、人間の位置、向き、体の配置などを表す。コンピューティングシステム900は、本明細書に記載されるように、人間を追跡し、一定のワールド空間座標系に対して動く可動のインターフェース空間座標系を有する仮想インタラクションゾーンを確立するように構成されているインタラクションモジュール914を含む。コンピューティングシステム900は、本明細書に記載されるように、一定のワールド空間座標系で決められた位置を可動のインターフェース空間座標系で決められた位置に変えるように構成されている変換モジュール916を含む。コンピューティングシステム900は、可動のインターフェース空間座標系で決められた位置に相当するデスクトップ空間座標にインターフェース要素を表示する表示信号を出力するように構成されている表示モジュール918も含む。
[0049]コンピューティングシステム900は、ユーザーインターフェースのカーソルの動きをインターフェース要素を含む動作に変換するように構成されているユーザーインターフェースモジュール917を含む。非限定例として、ユーザーインターフェースモジュール917は、ユーザーインターフェースの押すおよび/または引く要素に対するカーソルの動きを解析して、いつそれらのボタンが動かされるかを決定しうる。
[0050]表示サブシステム906は、データ保持サブシステム904が保持するデータの視覚的な表現を提示するのに使用されうる。本明細書に記載された方法およびプロセスは、データ保持サブシステムが保持するデータを変更し、データ保持サブシステムの状態を変えるので、表示サブシステム906の状態は、同様に、基礎をなすデータの変化を視覚的に表現するように変えられうる。非限定例として、本明細書に記載されたターゲットの認識、追跡、および解析は、物理的な空間のユーザーの動きに反応して、仮想デスクトップの位置を変化させるインターフェース要素(たとえばカーソル)の形で、表示サブシステム906を介して、反映されうる。表示サブシステム906は、テレビ、モニター、モバイル装置、ヘッドアップディスプレイなど2次元のディスプレイだけでなく、3次元テレビ(たとえば眼鏡アクセサリーで見る)、仮想現実用眼鏡、またはその他の頭部装着ディスプレイなどの3次元のディスプレイを含むがこれらに限定されないいずれかの種類の技術を仮想的に利用する1つまたは複数の表示装置を含みうる。そのような表示装置は、共通の筐体で、ロジックサブシステム902および/またはデータ保持サブシステム904と組み合わせることができ、または、そのような表示装置は、図1に示すように、周辺表示装置でありうる。
[0051]コンピューティングシステム900は、1つまたは複数のターゲットのデプス画像を得るように構成されているキャプチャー装置908をさらに含む。キャプチャー装置908は、いずれかの適切な技術によって(たとえば、飛行時間、構造化された光、ステレオイメージなど)、デプス情報を有する映像をキャプチャーするように構成されうる。そのように、キャプチャー装置908は、デプスカメラ(図1のデプスカメラ112など)、映像カメラ、ステレオカメラ、および/またはその他の適切なキャプチャー装置を含みうる。
[0052]たとえば、飛行時間解析で、キャプチャー装置908は、ターゲットへ、赤外光を放出することができ、そして、センサーを使用して、ターゲットの表面からの後方散乱光を検知することができる。ある場合には、パルス状の赤外光を用いることができ、出射光パルスと対応する入射光パルスの間の時間が計測され、キャプチャー装置からターゲット上の特定の位置への物理的な距離を決定するのに使用されうる。ある場合には、出射光波の位相を、入射光波の位相と比較して、位相シフトを決定することができ、位相シフトは、キャプチャー装置からターゲット上の特定の位置への物理的な距離を決定するのに使用されうる。
[0053]別の例では、飛行時間解析は、シャッターされた光パルスイメージングなどの技術によって経時的に反射した光線の強度を解析することにより、キャプチャー装置からターゲット上の特定の位置への物理的な距離を間接的に決定するのに使用されうる。
[0054]別の例では、構造化された光の解析は、デプス情報をキャプチャーするようにキャプチャー装置908によって利用されうる。そのような解析では、パターン化された光(すなわち、グリッドパターンまたはストライプパターンなどの既知のパターンとして表示された光)は、ターゲット上に発射されうる。ターゲットの表面上で、パターンは、変形することができ、このパターンの変形は解析されて、キャプチャー装置からターゲット上の特定の位置への物理的な距離を決定しうる。
[0055]別の例では、キャプチャー装置は、ターゲットを異なる角度で見る2つ以上の物理的に分離されたカメラを含み、視覚的ステレオデータを得ることができる。そのような場合、視覚的ステレオデータは、デプス画像を生成するように分解されうる。
[0056]他の実施形態では、キャプチャー装置908は、デプス値を測定かつ/または計算するのに他の技術を用いうる。加えて、キャプチャー装置908は、計算されたデプス情報を、「Z層」、すなわちデプスカメラから視線に沿って観察者まで延びるZ軸に垂直な層にまとめうる。
[0057]いくつかの実施形態では、2つ以上の様々なカメラが、統合キャプチャー装置に組み込まれうる。たとえば、デプスカメラおよび映像カメラ(たとえば、RGB映像カメラ)は、共通のキャプチャー装置に組み込まれうる。いくつかの実施形態で、2つ以上の分離したキャプチャー装置が、協力して使用されうる。たとえば、デプスカメラおよび分離した映像カメラが使用されうる。映像カメラが使用される場合、映像カメラは、ターゲット追跡データ、ターゲット追跡のエラー補正の確認データ、画像キャプチャー、顔認識、高精度の指追跡(またはその他の小さな特徴)、光検知、および/またはその他の機能を提供するのに使用されうる。他の実施形態で、2つの分離したデプスセンサが使用されうる。
[0058]少なくともいくつかのターゲット解析および追跡操作は、1つまたは複数のキャプチャー装置のロジックマシーンが実行しうることが理解されよう。キャプチャー装置は、1つまたは複数のターゲット解析および/または追跡機能を行うように構成されている1つまたは複数のオンボード処理ユニットを含みうる。キャプチャー装置は、そのようなオンボード処理ロジックを容易に更新させるファームウェアを含みうる。
[0059]コンピューティングシステム900は、コントローラー920およびコントローラー922などの1つまたは複数の入力装置を任意に含みうる。入力装置は、コンピューティングシステムの操作を制御するのに使用されうる。ゲームという文脈で、コントローラー920および/またはコントローラー922などの入力装置は、本明細書に記載されたターゲットの認識、追跡、および解析方法および手順を介して制御されないゲームの側面を制御するのに使用することができる。いくつかの実施形態では、コントローラー920および/またはコントローラー922などの入力装置は、物理的な空間のコントローラーの動きを測定するのに使用されうる加速度計、ジャイロスコープ、赤外線ターゲット/センサーシステムなどのうちの1つまたは複数を含みうる。いくつかの実施形態では、コンピューティングシステムは、入力グローブ、キーボード、マウス、トラックパッド、トラックボール、タッチスクリーン、ボタン、スイッチ、ダイアル、および/またはその他の入力装置を任意に含みかつ/または利用しうる。理解されるように、ターゲットの認識、追跡、および解析は、ゲームコントローラーなどの入力装置によって従来制御されていたゲームまたはその他のアプリケーションの側面を制御または向上させるのに使用されうる。いくつかの実施形態では、本明細書に記載されたターゲットの追跡は、ユーザー入力の他の形に完全に置き換わるものとして用いることができる一方、他の実施形態では、そのようなターゲットの追跡は、1つまたは複数のその他のユーザー入力の形を補完するのに用いることができる。
[0060]本明細書に記載された構成および/またはアプローチは、本来例示であること、多数の変形が可能であるので、これらの特定の実施形態または例は、限定的な意味でとらえられるべきでないことが理解されよう。本明細書に記載された特定のルーティンまたは方法は、いくつもの処理戦略のうち1つまたは複数を表現しうる。そのように、示された種々の動作は、示された順序で、その他の順序で、並行に、または省略したいくつかのケースで行われうる。同様に、上記の処理の順序は変更されうる。
[0061]本開示の主題は、種々のプロセス、システムおよび構成、ならびにその他の特徴、機能、動作の全ての新規かつ非自明なコンビネーションおよびサブコンビネーション、および/または本明細書に開示された特性、さらにはそれらのあらゆるそして全ての均等物を含む。

Claims (10)

  1. ロジックサブシステムと、
    前記ロジックサブシステムによって、
    1つまたは複数のインタラクティブユーザーインターフェース要素を含むユーザーインターフェースの画像をディスプレイに提供し、
    デプスカメラから人間ターゲットを含むシーンの1つまたは複数のデプス画像を受け取り、
    前記ユーザーインターフェース内に位置するカーソルとして前記人間ターゲットの一部分のレンダリングを前記ディスプレイに提供し、前記インタラクティブユーザーインターフェース要素の1つまたは複数に投じた前記カーソルの影のレンダリングも前記ディスプレイに提供し、
    前記人間ターゲットの手が動くことにより、前記カーソルを介して、選択されたインタラクティブユーザーインターフェース要素の対応する作動が起こるように、前記人間ターゲットの前記手の動きを前記カーソルに伝える
    ように実行可能な命令を記憶したデータ保持サブシステムとを備えた、コンピューティングシステム。
  2. 前記命令がさらに、前記カーソルが前記選択されたインタラクティブユーザーインターフェース要素の方に動くにつれて、前記選択されたインタラクティブユーザーインターフェース要素上での前記カーソルおよび前記カーソルの前記影の接近を表示するように実行可能である、請求項1に記載のコンピューティング装置。
  3. 前記命令がさらに、仮想点の光源および仮想方向の光源の1つまたは複数から生じる前記影をレンダリングするように実行可能である、請求項1に記載のコンピューティング装置。
  4. 前記命令がさらに、前記人間ターゲットの前記手のデプス画像からレンダリングされた手の形で前記カーソルを示すように実行可能である、請求項1に記載のコンピューティング装置。
  5. 前記命令がさらに、2次元ディスプレイおよび3次元ディスプレイの1つまたは複数に、前記ユーザーインターフェースの前記画像、カーソルの手、および影を与えるように実行可能である、請求項1に記載のコンピューティング装置。
  6. 前記命令がさらに、前記人間ターゲットの前記手が動くことにより、前記カーソルの手が、前記選択されたインタラクティブユーザーインターフェース要素に接触するように、前記人間ターゲットの前記手の動きを前記カーソルに伝え、前記選択されたインタラクティブユーザーインターフェース要素の対応する押すおよび/または引く動きを表示するように実行可能である請求項1に記載のコンピューティング装置。
  7. コンピューティング装置、ディスプレイ、およびデプスカメラを含むコンピューティングシステムにおいてユーザーインターフェースを操作する方法であって、
    1つまたは複数の押すおよび/または引くユーザーインターフェース要素を含むユーザーインターフェースの画像を前記ディスプレイに表示するステップと、
    人間ターゲットを含むシーンの1つまたは複数のデプス画像を前記デプスカメラから受け取るステップと、
    前記人間ターゲットの手のレンダリングを、前記ユーザーインターフェース内に位置するカーソルの手として表示し、前記押すおよび/または引くユーザーインターフェース要素の1つまたは複数に投じた前記カーソルの手の影のレンダリングも表示するステップと、
    前記人間ターゲットの前記手の動きが、選択された押すおよび/または引くユーザーインターフェース要素へ向かう前記カーソルの手の動きおよび前記選択された押すおよび/または引くユーザーインターフェース要素上での前記カーソルの手および前記カーソルの手の前記影の接近として表示されるように、前記人間ターゲットの前記手の動きを前記カーソルの手に伝えるステップと、
    前記カーソルの手が、前記選択された押すおよび/または引くユーザーインターフェース要素に接触したあと、前記選択された押すおよび/または引くユーザーインターフェース要素の押すおよび/または引く動きを表示するステップとを含む、方法。
  8. 前記カーソルの手の複数の影のレンダリングを表示するステップをさらに含む、請求項7に記載の方法。
  9. 複数の手のレンダリングを複数のカーソルの手として表示するステップをさらに含む、請求項8に記載の方法。
  10. 前記カーソルの手を、メッシュレンダリング、ストライプレンダリング、ボクセルレンダリング、前記人間ターゲットの前記手の点群のポイントスプライトレンダリングの1つまたは複数として表示するステップをさらに含む、請求項7に記載の方法。
JP2013555433A 2011-02-25 2012-02-06 ユーザーインターフェースの提示およびインタラクション Pending JP2014509429A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/035,299 2011-02-25
US13/035,299 US20120218395A1 (en) 2011-02-25 2011-02-25 User interface presentation and interactions
PCT/US2012/024025 WO2012115767A2 (en) 2011-02-25 2012-02-06 User interface presentation and interactions

Publications (1)

Publication Number Publication Date
JP2014509429A true JP2014509429A (ja) 2014-04-17

Family

ID=46718741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013555433A Pending JP2014509429A (ja) 2011-02-25 2012-02-06 ユーザーインターフェースの提示およびインタラクション

Country Status (8)

Country Link
US (1) US20120218395A1 (ja)
EP (1) EP2678767A4 (ja)
JP (1) JP2014509429A (ja)
KR (1) KR20140020871A (ja)
CN (1) CN102693006A (ja)
AR (1) AR085488A1 (ja)
TW (1) TW201237691A (ja)
WO (1) WO2012115767A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534643A (ja) * 2015-09-16 2018-11-22 グーグル エルエルシー 拡張および/または仮想現実環境におけるタッチスクリーンホバーの検出
JP7392512B2 (ja) 2020-02-20 2023-12-06 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110219340A1 (en) * 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
KR101789683B1 (ko) * 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US20130107022A1 (en) * 2011-10-26 2013-05-02 Sony Corporation 3d user interface for audio video display device such as tv
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9324183B2 (en) * 2011-11-29 2016-04-26 Apple Inc. Dynamic graphical interface shadows
EP2674913B1 (en) * 2012-06-14 2014-07-23 Softkinetic Software Three-dimensional object modelling fitting & tracking.
KR20140052640A (ko) * 2012-10-25 2014-05-07 삼성전자주식회사 커서를 디스플레이에 디스플레이하기 위한 방법과 상기 방법을 수행할 수 있는 시스템
TWI486820B (zh) * 2012-12-28 2015-06-01 Wistron Corp 用於互動系統之座標轉換方法及電腦系統
US9182812B2 (en) * 2013-01-08 2015-11-10 Ayotle Virtual sensor systems and methods
JP2014137774A (ja) * 2013-01-18 2014-07-28 Denso Corp 表示操作装置
TWI486815B (zh) * 2013-04-08 2015-06-01 鴻海精密工業股份有限公司 顯示設備及其控制系統和方法
JP6213120B2 (ja) * 2013-10-04 2017-10-18 富士ゼロックス株式会社 ファイル表示装置及びプログラム
US20150187143A1 (en) * 2013-12-26 2015-07-02 Shadi Mere Rendering a virtual representation of a hand
WO2015102658A1 (en) * 2014-01-03 2015-07-09 Intel Corporation Systems and techniques for user interface control
RU2014108820A (ru) * 2014-03-06 2015-09-20 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев
CN104914985A (zh) * 2014-03-13 2015-09-16 扬智科技股份有限公司 手势控制方法及系统与视频流处理装置
EP3161597A1 (en) * 2014-06-24 2017-05-03 Google, Inc. Computerized systems and methods for layering content in a user interface
US9786095B2 (en) 2015-02-25 2017-10-10 Samsung Electronics Co., Ltd. Shadow rendering apparatus and control method thereof
US9615009B1 (en) * 2015-02-26 2017-04-04 Brian K. Buchheit Dynamically adjusting a light source within a real world scene via a light map visualization manipulation
US20160266648A1 (en) * 2015-03-09 2016-09-15 Fuji Xerox Co., Ltd. Systems and methods for interacting with large displays using shadows
EP3268938A1 (en) * 2015-03-12 2018-01-17 Happy L-Lord AB System, method and device for three-dimensional voxel-based modeling
US9594967B2 (en) * 2015-03-31 2017-03-14 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person
JP6596883B2 (ja) 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
TWI554911B (zh) * 2015-04-17 2016-10-21 呂慶輝 可移動式互動投影機
US10635189B2 (en) * 2015-07-06 2020-04-28 RideOn Ltd. Head mounted display curser maneuvering
KR101763636B1 (ko) * 2015-10-15 2017-08-02 한국과학기술원 헤드 마운트 디스플레이를 이용한 협업 방법
CN105511607B (zh) * 2015-11-30 2018-10-02 四川长虹电器股份有限公司 立体式的人机交互设备、方法及系统
KR102588518B1 (ko) * 2016-07-06 2023-10-13 삼성전자주식회사 전자 장치 및 이의 디스플레이 방법
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
TWI637287B (zh) * 2016-11-04 2018-10-01 宏達國際電子股份有限公司 在虛擬實境中快速移動的方法、虛擬實境裝置及記錄媒體
EP3340023B1 (en) * 2016-12-22 2020-02-12 Dassault Systèmes Fast manipulation of objects in a three-dimensional scene
US10242503B2 (en) * 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
EP3373114B1 (en) * 2017-03-10 2019-10-09 Alterface Projects Tracking system and method using a depth aware camera
CN107340962B (zh) * 2017-04-13 2021-05-14 北京安云世纪科技有限公司 基于虚拟现实设备的输入方法、装置及虚拟现实设备
US10083524B1 (en) * 2017-04-21 2018-09-25 Octi Systems and methods for determining location and orientation of a camera
US10782793B2 (en) * 2017-08-10 2020-09-22 Google Llc Context-sensitive hand interaction
US10345895B2 (en) 2017-11-07 2019-07-09 International Business Machines Corporation Hand and finger line grid for hand based interactions
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
CN110097242B (zh) * 2018-01-31 2022-04-12 上海淘票儿信息科技有限公司 一种影厅排片方法、设备以及系统
US10768692B2 (en) * 2018-02-21 2020-09-08 Fuji Xerox Co., Ltd. Systems and methods for capturing and rendering hand skeletons over documents images for telepresence
WO2019236344A1 (en) 2018-06-07 2019-12-12 Magic Leap, Inc. Augmented reality scrollbar
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
CN113330484A (zh) 2018-12-20 2021-08-31 斯纳普公司 虚拟表面修改
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
CN112445323B (zh) * 2019-08-29 2023-12-29 斑马智行网络(香港)有限公司 一种数据处理方法、装置、设备和机器可读介质
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
CN112068749B (zh) * 2020-08-21 2021-09-21 易思维(杭州)科技有限公司 多屏幕单终端设备屏幕集中显示、控制的系统及方法
EP3985491A1 (en) * 2020-10-19 2022-04-20 ameria AG Control method for touchless gesture control
US11334215B1 (en) 2021-04-09 2022-05-17 Htc Corporation Method of generating user-interactive object, multimedia system, and non-transitory computer-readable medium
US11836828B2 (en) 2021-10-29 2023-12-05 Meta Platforms Technologies, Llc Controlling interactions with virtual objects
WO2023205457A1 (en) * 2022-04-21 2023-10-26 Apple Inc. Representations of messages in a three-dimensional environment
CN114579008B (zh) * 2022-05-06 2022-07-08 湖北工业大学 一种科普体验交互系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816137A (ja) * 1994-06-29 1996-01-19 Nec Corp 3次元座標入力装置及びカーソル表示制御方式
JP3895406B2 (ja) * 1996-03-12 2007-03-22 株式会社東邦ビジネス管理センター データ処理装置およびデータ処理方法
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7874917B2 (en) * 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
EP2013865A4 (en) * 2006-05-04 2010-11-03 Sony Comp Entertainment Us METHODS AND APPARATUS FOR APPLYING ADAPTATION EFFECTS TO INPUT BASED ON ONE OR MORE VISUAL, ACOUSTICAL, INERTIAL AND MIXED DATA
US20080215975A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US20100315413A1 (en) * 2009-06-16 2010-12-16 Microsoft Corporation Surface Computer User Interaction
JP4783456B2 (ja) * 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
CN101943947A (zh) * 2010-09-27 2011-01-12 鸿富锦精密工业(深圳)有限公司 交互显示系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534643A (ja) * 2015-09-16 2018-11-22 グーグル エルエルシー 拡張および/または仮想現実環境におけるタッチスクリーンホバーの検出
JP7392512B2 (ja) 2020-02-20 2023-12-06 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム

Also Published As

Publication number Publication date
TW201237691A (en) 2012-09-16
US20120218395A1 (en) 2012-08-30
WO2012115767A3 (en) 2012-10-26
AR085488A1 (es) 2013-10-09
CN102693006A (zh) 2012-09-26
EP2678767A2 (en) 2014-01-01
WO2012115767A2 (en) 2012-08-30
EP2678767A4 (en) 2017-05-10
KR20140020871A (ko) 2014-02-19

Similar Documents

Publication Publication Date Title
JP2014509429A (ja) ユーザーインターフェースの提示およびインタラクション
KR101961964B1 (ko) 포토레프리젠터티브 뷰의 테마 기반 증강
US8497838B2 (en) Push actuation of interface controls
US9489053B2 (en) Skeletal control of three-dimensional virtual world
US9821224B2 (en) Driving simulator control with virtual skeleton
US8788973B2 (en) Three-dimensional gesture controlled avatar configuration interface
US8385596B2 (en) First person shooter control with virtual skeleton
US9067136B2 (en) Push personalization of interface controls
US8724887B2 (en) Environmental modifications to mitigate environmental factors
CN109313821B (zh) 三维对象扫描反馈
US8920241B2 (en) Gesture controlled persistent handles for interface guides
US20150123965A1 (en) Construction of synthetic augmented reality environment
KR20140081840A (ko) 모션으로 제어되는 리스트 스크롤 방법
Piumsomboon et al. Physically-based interaction for tabletop augmented reality using a depth-sensing camera for environment mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150206