JP2013519175A - 人間とコンピューターのインターフェースのためのインタラクションの処理 - Google Patents

人間とコンピューターのインターフェースのためのインタラクションの処理 Download PDF

Info

Publication number
JP2013519175A
JP2013519175A JP2012552928A JP2012552928A JP2013519175A JP 2013519175 A JP2013519175 A JP 2013519175A JP 2012552928 A JP2012552928 A JP 2012552928A JP 2012552928 A JP2012552928 A JP 2012552928A JP 2013519175 A JP2013519175 A JP 2013519175A
Authority
JP
Japan
Prior art keywords
handle
user
action
area
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012552928A
Other languages
English (en)
Inventor
マッティングリー,アンドリュー
ヒル,ジェレミー
ダイヤル,アルジュン
クランプ,ブライアン
ヴァッサイ,アリ
クライン,クリスチャン
パウロス,アダム
キップマン,アレックス
マーゴリス,ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013519175A publication Critical patent/JP2013519175A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Digital Computer Display Output (AREA)

Abstract

ユーザーと画面上のオブジェクトとの間のインタラクションを制御するために画面上のグラフィカルなハンドルを提供するシステムが開示される。ハンドルは、例えばテキスト又はグラフィカルなナビゲーションメニュー内をスクロールするなど、ユーザーがオブジェクトに対してどのようなアクションを実行することができるかを定義する。ハンドルとのインタラクションのプロセスを通じてユーザーを導くためにアフォーダンスが提供される。

Description

本発明は、人間とコンピューターのインターフェースのためのインタラクションの処理に関する。
[0001]過去、コンピューターゲームやマルチメディアアプリケーションなどのコンピューティングアプリケーションは、コントローラー、リモコン、キーボード、マウスなどを使用して、ユーザーがゲームのキャラクターやアプリケーションの他の側面を操作できるようにしていた。最近では、コンピューターゲームやマルチメディアアプリケーションは、人間とコンピューターのインターフェース(「HCI」)を提供するために、カメラ及びソフトウェアのジェスチャー認識エンジンを採用し始めている。HCIによって、ユーザーのジェスチャーが検出されて解釈され、ゲームのキャラクターやアプリケーションの他の側面を制御するために使用される。
[0002]HCIシステムでは、手のジェスチャーが、しばしば、ゲームや他のアプリケーションとのインタラクションを制御するために使用される。既存のジェスチャー認識システムは、一般に、位置ベースのポインティングジェスチャー又はモーションベースのシンボリックなジェスチャーのいずれかに注目する。ポインティングジェスチャーを使用して、ユーザーは、ユーザーの手に従う画面上のカーソルに指示をする。
そのようなジェスチャー認識システムは、手の動きとカーソル位置との間のジッター及び遅延(又は遅延時間)、並びにユーザーインターフェース(UI)の密度の制限を含む、様々な欠点を有する。モーションベースのシンボリックジェスチャーによると、ユーザーの動きが解釈され、所定のジェスチャーに一致する場合には、いくつかの関連付けられるアクションがとられる。モーションベースのシステムは、誤検出、ジェスチャーの不一致並びにアフォーダンス及びフィードバックを即座に提供できないこと(特定のジェスチャーが最初に認識されなければならない)などを含む、いくつかの欠点を有する。
[0003]一般に、本技術は、ユーザーと画面上のオブジェクトとの間のインタラクションを制御する画面上のグラフィカルなハンドルを使用するシステムに関連する。実施例において、ハンドルは所与のオブジェクトと関連してディスプレイ上に表示されるUIオブジェクトである。ハンドルは、例えばテキストの又はグラフィカルなナビゲーションメニューをスクロールするなど、ユーザーがオブジェクトに対してどのようなアクションを実行することができかを規定する。ユーザーは、ハンドルを使って、例えば表示画面上でハンドルを上下左右に動かすといったようにハンドルを操作するジェスチャーを実行する。この操作はオブジェクトに対して実行される関連付けられるアクションをもたらす。ハンドルとのインタラクションのプロセスを通じてユーザーを導くアフォーダンスが提供される。
[0004]実施例において、本技術は、ユーザーの位置をキャプチャーして人間とコンピューターのインターフェースを提供するために、キャプチャーデバイスに結合されたコンピューティング環境に関連する。このシステムは、(a)ユーザーインターフェースの領域に関連付けられるハンドルを生成するステップ、(b)ステップ(a)で生成されたハンドルとのユーザーの係合(engagement)を検出するステップ、(c)ユーザーによるジェスチャーの指示を受信するステップ、及び(d)ステップ(c)に応答してユーザーインターフェースの領域上でアクションを実行するステップを含む、人間とコンピューターのインターフェースのための表示領域とのユーザーのインタラクションを容易にする方法を実行する。
[0005]さらなる実施例は、ユーザーの位置をキャプチャーして人間とコンピューターのインターフェースを提供するキャプチャーデバイスに結合された、コンピューティング環境のためのプロセッサー読み取り可能な記憶媒体に関し、プロセッサー読み取り可能な記憶媒体は、人間とコンピューターのインターフェースのためにディスプレイの動作領域とのユーザーのインタラクションを容易にする方法を実行するようにプロセッサーをプログラミングする。この実施例は、(a)ユーザーインターフェースの領域に関連付けられるグラフィカルなハンドルをディスプレイ上に表示することであって、当該グラフィカルなハンドルがアクション領域と係合するための明確な係合点(engagement point)を提供し、当該グラフィカルなハンドルが、ユーザーによる所定のジェスチャーが受信されたときにユーザーがアクション領域とどのようにインタラクトすることができるかを規定する、グラフィカルなハンドルを表示すること、(b)ユーザーの位置を検出した結果として、ユーザーがハンドルの方へ進んでいるという指示を受信すること、(c)ユーザーがハンドルを突き止めた場合にハンドルとの係合を確立すること、(d)ユーザーによるジェスチャーの指示を受信すること、及び(e)ステップ(d)で受信されたジェスチャーの指示がステップ(a)の所定のジェスチャーと一致する場合にグラフィカルなハンドルによって規定されるディスプレイのアクション領域に対してアクションを実行することを含む。
[0006]さらなる実施例は人間とコンピューターのインターフェースに関連し、アクションを実行すること及びアクションを実行させることのうちの少なくとも1つを可能にする、ディスプレイ上のアクション領域、ディスプレイ上に表示されてアクション領域に関連付けられるハンドルであって、アクション領域との明確な係合点を提供してユーザーがアクション領域とどのようにインタラクトすることができるかを規定する、ハンドル、並びに、ユーザーがハンドルをどのように操作することができるかを規定するためにハンドルに関連付けられる、ディスプレイ上に表示されるレールを含む。
[0007]目標の認識、分析及び追跡システムの例示的な実施例を、当該システムとインタラクトするユーザーとともに示す。 [0008]本発明の実施例による、ハンドルを含むサンプル画面表示を示す。 [0009]目標の認識、分析及び追跡システムで使用することができるキャプチャーデバイスの例示的な実施例を示す。 [0010]本発明の目標認識、分析及び追跡システムで使用することができるコンピューティング環境の例示的な実施例を示す。 [0011]本発明の目標認識、分析及び追跡システムで使用することができるコンピューティング環境の別の例示的な実施例を示す。 [0012]本発明の実施例の動作を示すフローチャートである。 [0013]カーソルを引き付けるハンドルの動作のフローチャートである。 [0014]ジェスチャーを認識するための本発明のシステムの動作のフローチャートである。 [0015]本発明の実施例による、ハンドル及びレールを含むサンプル画面表示を示す。 [0016]本発明のさらなる実施例による、ハンドル及びレールを含むサンプル画面表示を示す。
[0017]本発明の実施例は、図1−9を参照して説明され、一般に、ユーザーと画面上のオブジェクトとの間のインタラクションを制御するために画面上のハンドルを使用する、ジェスチャー認識及びインタラクションシステムに関連する。実施例において、ハンドルは、人間とコンピューターのインターフェースとインタラクトし、ナビゲートし、制御するためのUIオブジェクトである。実施例において、ハンドルは、UI上のオブジェクトなどの、アクション領域との明示的な係合点(エンゲージメントポイント)を提供し、ユーザーがそのオブジェクトとどのようにインタラクトすることができるかについてアフォーダンスを提供する。ユーザーが一旦ハンドルと係合すると、ユーザーは、例えば、ハンドルを動かしたり、そのハンドルに関連付けられる1つ又は複数のジェスチャーを行ったりすることにより、ハンドルを操作することができる。
[0018]図1−3を最初に参照すると、本発明を実施するためのハードウェアは、ユーザー18などの人間の目標を認識し、分析し、及び/又は追跡するために使用することができる目標認識、分析及び追跡システム10を含む。目標認識、分析及び追跡システム10の実施例は、ゲームや他のアプリケーションを実行するためのコンピューティング環境12、並びに、ゲームや他のアプリケーションからの音声及び視覚表現を提供する視聴覚装置16を含む。システム10は、さらに、ゲームや他のアプリケーションを制御するためにコンピューティング環境12が受信し、解釈し、使用する、位置及びユーザー18によって実行される動きをキャプチャーするキャプチャーデバイス20を含む。これらのコンポーネントの各々は以下により詳細に説明される。
[0019]図1に示すように、例示的な実施例では、コンピューティング環境12上で実行されるアプリケーションは、ユーザー18にUI19を提示してもよい。UIは、ゲームアプリケーションやプラットフォームの一部であってもよく、実施例においては、ゲームアプリケーションやプラットフォームの選択された領域にアクセスするためのナビゲーションメニューであってもよい。コンピューティング環境12は、UI上に1つ又は複数のハンドル21を生成し、各ハンドルはUI19上のアクション領域23に結び付けられるかその他の方法で関連付けられる。各ハンドルは、一般に、以下により詳細に説明されるように、関連付けられるアクション領域に関して動作を制御するための、画面に表示されるグラフィカルなオブジェクトである。
[0020]実施例において、ハンドル21は、ディスプレイ上の円又は3次元の球体の形状であってもよいが、当業者であれば、ハンドルが代替的な実施例において様々な他の形状のうちの任意のものであってもよいことを理解するであろう。以下に説明するように、ハンドル21の存在及び外観は、ユーザーが存在するかどうかに依存して、及びユーザーがハンドルを使用しているかどうかに依存して、変化してもよい。実施例において、ハンドルの形状は、すべてのアクション領域23と同一であってもよいが、さらなる実施例においては異なるアクション領域が異なる形状のハンドルを有すると考えられる。図1は単一のハンドル21を示すが、後述するように、UI19は、各々が異なるアクション領域23に関連付けられる複数のハンドル21を含んでもよい。
[0021]本明細書中で使用される「アクション領域」は、それに関連付けられるハンドルを有し得るUI19上の任意の領域であり、そのハンドルの操作のときにアクションを実行することができるか、又はハンドルの操作のときにアクションを実行させることができる。実施例において、アクション領域23は、ナビゲーションメニューの一部として表示されるテキスト又はグラフィカルオブジェクトであってもよい。しかし、実施例において、アクション領域23は、ナビゲーションメニューの一部である必要はなく、特定の表示されるグラフィカルオブジェクトである必要はない。アクション領域23は代替的にUIの領域であってもよく、それは、ハンドルを介してアクセスされると、その領域において又は一般にUI上で、いくつかのアクションを実行させる。
[0022]アクション領域がディスプレイ上の特定のグラフィックオブジェクトである場合、そのグラフィカルオブジェクトに関連付けられるハンドル21は、グラフィカルオブジェクト上に表示されてもよいし、又は、グラフィカルオブジェクトの周囲の任意の位置において、グラフィカルオブジェクトに隣接して表示されてもよい。さらなる実施例では、ハンドル21は、特定のオブジェクトにマッピングされなくてもよい。この実施例では、アクション領域23は、多くのグラフィカルオブジェクトを含む、UI19上の領域であってもよい。そのアクション領域に関連付けられるハンドル21が操作される場合、アクションがアクション領域23内のすべてのオブジェクトに実行されてもよい。さらなる実施例では、ハンドル21は、グラフィカルオブジェクトに統合されてもよい。このような実施例では、オブジェクトとは別個のハンドル21についての視覚的な表示はない。そうではなく、オブジェクトが把握されるか又は選択されると、当該オブジェクトはハンドル21として機能し、ハンドルに関連付けられるアクションが実行される。これらのアクションは以下でより詳細に説明される。
[0023]インターフェース19は、ユーザーの動きを介して制御されるカーソル25をさらに含んでもよい。特に、以下で説明するように、キャプチャーデバイス20はユーザーが指しているところをキャプチャーし、コンピューティング環境は、この画像データを解釈して、視聴覚装置16上の決定されたスポットにおいてカーソル25を表示する。カーソルは、ユーザーが視聴覚装置16上の具体的にどこを指しているかについて閉ループフィードバックをユーザーに提供することができる。以下に説明するように、これは視聴覚装置16上のハンドルの選択を容易にする。同様に、各ハンドルは、カーソルがハンドルに対して十分近い時にハンドルへとカーソルを引き付けるために、磁場に似た引力(attractive force)を有してもよい。この特徴は以下により詳細に説明される。カーソル25は、ユーザーが視界に存在する場合にのみ、又はユーザーがディスプレイ上の特定のオブジェクトを追跡している場合にのみ、常に可視であってもよい。
[0024]ハンドル21の1つの目的は、ユーザーがアクション領域23とインタラクトすることができる明示的な係合点を提供することである。動作において、ユーザーは、ハンドル21へとカーソル25を導き、ハンドルにくっつくようにジェスチャーを実行する。ユーザーが動作をする3次元実空間は、z軸がキャプチャーデバイス20から水平方向にまっすぐに延びる軸であり、x軸がz軸に対して垂直な水平軸であり、y軸がz軸に対して垂直な垂直軸である座標系として定義することができる。この座標系を考えると、ユーザーは、ハンドルの上にカーソルを配置するようにxy平面において自分の手を動かし、次いで、キャプチャーデバイスに向かってz軸に沿ってその手を動かすことによってハンドルにくっつくことができる。カーソルがハンドルの上に配置される場合、コンピューティング環境12は、内側に向かうユーザーの手の内側の動き(すなわち、z軸に沿って、画面上のハンドル21により近づく)を、ユーザーがハンドルにくっつこうとしているものとして解釈し、コンピューティング環境はこのアクションを実行する。実施例において、画面上のxyの動きは湾曲した座標空間で達成される。つまり、ユーザーの動きはいまだ主にx方向及びy方向であるが、ある大きさのz方向の曲がり(warping)は、人間の腕が従う湾曲した経路の原因となるように考慮される。
[0025]様々な係合の方法をもつ異なる種類のハンドルが存在する。第1のハンドルは片手ハンドルであってもよい。これらの種類のハンドルはユーザーの右手又は左手の両方ではなくいずれかによって係合することができる。第2の種類のハンドルはデュアルハンドル(dual-handed handle)であってもよい。これらの種類のハンドルは、ユーザーの右手又は左手によって係合することができる。デュアルハンドルの別の例は、ハンドルがユーザーにとって3D空間でのより自然な係合のために配置することができるように、右手及び左手のバージョン用に作成され、アクション領域の左又は右に配置することができる。第3の種類のハンドルは両手ペアのハンドルである。これらのハンドルは、インタラクションを達成するのにユーザーの両手を必要とする。これらのインタラクションは、以下に説明するようにより複雑なインタラクションをどのように達成するかをユーザーに通知するために、視覚的なアフォーダンス、及び、実施例において、聴覚アフォーダンスを利用する。
[0026]図1は片手ハンドル21の例を含む。図2はハンドルの追加の例を含むディスプレイの図である。図2においてUI19の上部に向かうハンドル21はアクション領域23に関連付けられる片手ハンドル21であり、この例ではテキストのナビゲーションメニューである。UI19の底部に向かう2つのハンドル21は、アクション領域23に関連付けられるデュアルハンドルの例である。図2の例において、アクション領域23は、特定のソフトウェアのタイトルを示す1つ又は複数のグラフィカルナビゲーションオブジェクト(「スロット」とも呼ばれる)であって、スロットの下型のコーナーにおいてユーザーが両方のハンドル21を選択することによって、いくつかのアクションを実行することができる。
[0027]異なるハンドル21はまた、ユーザーによって係合されると異なる動作をすることができてもよい。たとえば、いくつかのハンドルは単一の方向に(例えば、画面のx軸又はy軸に沿って)移動するように制約される。他のハンドルがx軸及びy軸に沿った2軸の移動のために用意される。さらなるハンドルが、x−y平面の周りでの多方向運動のために用意される。さらなるハンドルを、排他的に又は多次元運動の一部として、z軸に沿って移動させることができる。各ハンドルは、ハンドルを操作する方法を明確にユーザーに示すためのアフォーダンスを含んでもよい。たとえば、ユーザーがハンドル21に近づくと、本明細書において「レール」と呼ばれるグラフィカルな指示がハンドルに隣接したディスプレイ上に現れる。当該レールは、関連付けられるアクション領域23上でいくつかのアクションを達成するためにハンドル21を動かすことができる方向を示す。レールは以下でより詳細に説明されるが、図1はハンドル21がx軸に沿って(図1における左側へ)移動させることができることを示すレール27を示す。示されるように、レールは、ユーザーがハンドル21に近づくか又はハンドル21と係合するときに、現れるにすぎない。そうでない場合は、レールは、ディスプレイを乱雑にしないようにするために、画面に表示されない。しかし、代替的な実施例において、ハンドルに関連付けられる任意のレールは、そのハンドルが見えているときは常に表示されてもよい。
[0028]さらなる実施例において、カーソル25もまた、可能性のあるハンドル操作についてフィードバック及び指示(cues)を提供してもよい。つまり、カーソルの位置は、レールを表示させ、又は、ハンドル自体に加えて操作のフィードバックを提供してもよい。
[0029]図3は、目標認識、分析及び追跡システム10で使用することができるキャプチャーデバイス20の例示的な実施例を示す。本発明で使用するキャプチャーデバイスに関連するさらなる詳細については、その全体が参照により本明細書に組み込まれる「Device For Identifying And Tracking Multiple Humans Over Time」と題する同時係属の特許出願第12/475,308号に記載されている。しかし、例示的な実施例では、キャプチャーデバイス20は、例えば、飛行時間型、構造化された光、ステレオイメージ等を含む任意の適切な技術による奥行き値(深度値、depth value)を含み得る奥行き画像を有する動画をキャプチャーするように構成することができる。1つの実施例によれば、キャプチャーデバイス20は、計算された深さ情報を、「Z層」、又は視線(line of sight)に沿ってデプスカメラ(depth camera)から延在する、Z軸に垂直な層へと整理することができる。
[0030]図3に示すように、キャプチャーデバイス20は画像カメラコンポーネント22を含んでもよい。例示的な実施例によれば、画像カメラコンポーネント22は、シーンの奥行き画像をキャプチャーすることができるデプスカメラであってもよい。奥行き画像はキャプチャーされたシーンの2次元の(2−D)画素領域を含んでもよく、2次元の(2−D)画素領域内の各ピクセルは、カメラからのキャプチャーしたシーンにおける物体の、例えば、センチメートル、ミリメートルなどの単位の長さを表すことができる。
[0031]図3に示すように、例示的な実施例によれば、画像カメラコンポーネント22は、シーンの奥行き画像をキャプチャーするために使用される、IR光コンポーネント24、3次元(3−D)カメラ26、及びRGBカメラ28を含んでもよい。例えば、飛行時間分析において、キャプチャーデバイス20のIR光コンポーネント24は、シーンに赤外光を発することができ、その後、例えば3次元カメラ26及び/又はRGBカメラ28を使用してシーン内の1つ又は複数の目標及び物体の表面からの後方散乱光を検出するためにセンサー(図示せず)を使用することができる。
[0032]別の実施例によれば、キャプチャーデバイス20は、奥行き情報を生成するために分解することができる視覚的なステレオデータを取得するために、異なる角度からシーンを見ることができる2つ以上の物理的に分離されたカメラを含んでもよい。
[0033]キャプチャーデバイス20はさらにマイク30を含んでもよい。マイク30は、音声を受信して電気信号に変換することができるトランスデューサーやセンサーを含んでもよい。1つの実施例によれば、マイク30は、目標認識、分析及び追跡システム10におけるキャプチャーデバイス20とコンピューティング環境12との間のフィードバックを減らすために使用することができる。さらに、マイク30は、コンピューティング環境12により実行され得るゲームアプリケーション、ゲーム以外のアプリケーションなどのアプリケーションを制御するためにユーザーによって提供され得る音声信号を受信するために使用することができる。
[0034]例示的な実施例において、キャプチャーデバイス20は、画像カメラコンポーネント22と動作可能に通信するプロセッサー32をさらに含んでもよい。プロセッサー32は、奥行き画像を受信し、適切な目標が奥行き画像に含まれるかどうかを決定し、当該適切な目標を当該目標の骨格表現もしくはモデルに変換するための命令又は他の適切な命令を実行することができる、標準化されたプロセッサー、専用プロセッサー、マイクロプロセッサーなどを含んでもよい。
[0035]キャプチャーデバイス20はさらに、プロセッサー32により実行することができる命令、3−DカメラやRGBカメラで撮影した画像のイメージもしくはフレーム、又は任意の他の適切な情報、画像などを格納することができるメモリーコンポーネント34を含んでもよい。例示的な実施例によれば、メモリーコンポーネント34は、ランダムアクセスメモリー(RAM)、読み取り専用メモリー(ROM)、キャッシュ、フラッシュメモリー、ハードディスク、又は任意の他の適切なストレージコンポーネントを含んでもよい。図3に示すように、1つの実施例では、メモリーコンポーネント34は、画像カメラコンポーネント22及びプロセッサー32と通信する別個のコンポーネントであってもよい。別の実施例によれば、メモリーコンポーネント34は、プロセッサー32及び/又は画像カメラコンポーネント22に統合することができる。
[0036]図3に示すように、キャプチャーデバイス20は、通信リンク36を介してコンピューティング環境12と通信することができる。通信リンク36は、例えば、USB接続、FireWire(商標)接続、イーサネット(商標)ケーブル接続等を含む有線接続及び/又は無線802.11b、g、aもしくはn接続などの無線接続であってもよい。1つの実施例によれば、コンピューティング環境12は、例えば通信リンク36を介してシーンをいつキャプチャーするかを決定するために使用することができるキャプチャーデバイス20にクロックを提供してもよい。
[0037]さらに、キャプチャーデバイス20は、例えば3−Dカメラ26及び/又はRGBカメラ28によって取得された奥行き情報及び画像、並びにキャプチャーデバイス20によって生成することができる骨格モデルを、通信リンク36を介してコンピューティング環境12に提供してもよい。キャプチャーデバイス20によって検出された目標又は物体が人間の目標に対応するかどうか決定するための様々な既知の技術が存在する。骨格のマッピング技術は、そのユーザーの骨格、手、手首、肘、膝、鼻、足首、肩の関節、及び骨盤が背骨と接する部分上の、さまざまなスポットを決定するために使用することができる。他の技術は、画像を人の体のモデル表現へと変換し、画像を人のメッシュモデル表現へと変換することを含む。
[0038]骨格モデルは、例えばユーザーが指している場所及びユーザーが行っている動作を識別するためにコンピューティング環境が骨格モデルを追跡することができるように、コンピューティング環境12に対して提供することができる。以下に説明するように、ユーザーは、ハンドル21とのインタラクション及びある所定のジェスチャーの実行を介して、UI19とインタラクトすることができる。コンピューティング環境12は、さらに、ユーザー18からのこれらの所定のジェスチャーを認識するジェスチャー認識エンジン190を含んでもよい。ジェスチャー認識エンジン190のさらなる詳細は以下に示される。
[0039]図4Aは、ハンドル21とのユーザーインタラクションを解釈し、1つ又は複数のジェスチャーを認識するために使用することができるコンピューティング環境の例示的な実施例を示す。図1及び3に関して上述したコンピューティング環境12などのコンピューティング環境は、ゲーム機などのマルチメディアコンソール100であってもよい。図4Aに示すように、マルチメディアコンソール100は、レベル1キャッシュ102、レベル2キャッシュ104、及びフラッシュROM106を有する中央処理装置(CPU)101を有する。レベル1キャッシュ102及びレベル2キャッシュ104は、一時的にデータを格納し、したがってメモリーアクセスサイクル数を減らし、それによって処理速度及びスループットを向上させる。CPU101は、複数のコアを有してもよく、したがって、追加のレベル1キャッシュ102及びレベル2キャッシュ104を有してもよい。フラッシュROM106は、マルチメディアコンソール100の電源がオンになったときにブートプロセスの初期段階中にロードされる実行可能コードを格納してもよい。
[0040]グラフィックスプロセッシングユニット(GPU)108及びビデオエンコーダー/ビデオコーデック(コーダー/デコーダー)114は、高速で高解像度のグラフィックス処理のための動画処理パイプラインを形成する。データはバスを介してGPU108からのビデオエンコーダ/ビデオコーデック114に運ばれる。動画処理パイプラインは、テレビや他のディスプレイへの送信のために、A/V(オーディオ/ビデオ)ポート140にデータを出力する。メモリーコントローラー110は、RAMなどの(しかしこれに限定されない)様々な種類のメモリー112へのプロセッサーのアクセスを容易にするために、GPU108に接続される。
[0041]マルチメディアコンソール100は、好ましくはモジュール118上に実装される、I/Oコントローラー120、システム管理コントローラー122、音声処理部123、ネットワークインターフェースコントローラー124、第1のUSBホストコントローラー126、第2のUSBホストコントローラー128及びフロントパネルI/Oサブアセンブリー130を含む。USBコントローラー126及び128は、周辺コントローラー142(1)−142(2)、ワイヤレスアダプター148、及び外部メモリーデバイス146(例えば、フラッシュメモリー、外付けCD/DVD−ROMドライブ、取り外し可能な媒体など)のホストとして機能する。ネットワークインターフェース124及び/又はワイヤレスアダプター148は、ネットワーク(例えば、インターネット、ホームネットワークなど)へのアクセスを提供し、イーサネットカード、モデム、ブルートゥース(登録商標)モジュール、ケーブルモデムなどを含むさまざまな有線又は無線アダプターコンポーネントのうちのいずれであってもよい。
[0042]システムメモリー143は、ブートプロセス中にロードされるアプリケーションデータを格納するために提供される。メディアドライブ144が提供され、メディアドライブ144は、DVD/CDドライブ、ハードドライブ、又は他の取り外し可能なメディアドライブなどを含んでもよい。メディアドライブ144はマルチメディアコンソール100の内部にあってもよいし外部にあってもよい。アプリケーションデータは、マルチメディアコンソール100による実行、再生などのために、メディアドライブ144を介してアクセスすることができる。メディアドライブ144は、シリアルATAバスや他の高速接続(例えば、IEEE1394)などのバスを介してI/Oコントローラー120に接続される。
[0043]システム管理コントローラー122は、マルチメディアコンソール100の利用可能性を保証することに関連する様々なサービス機能を提供する。音声処理部123及び音声コーデック132は、高忠実度のステレオ処理を備えた対応する音声処理パイプラインを形成する。音声データは通信リンクを介して音声処理部123及びオーディオコーデック132の間で運ばれる。音声処理パイプラインは、オーディオ機能を有する外部のオーディオプレーヤーやデバイスによる再生のために、A/Vポート140にデータを出力する。
[0044]フロントパネルI/Oアセンブリー130は、電源ボタン150及び取り出しボタン152のほか、マルチメディアコンソール100の外側表面に露出している任意のLED(発光ダイオード)や他のインジケーターの機能をサポートする。システムの電源モジュール136はマルチメディアコンソール100のコンポーネントに電力を供給する。ファン138はマルチメディアコンソール100内の回路を冷却する。
[0045]マルチメディアコンソール100内のCPU101、GPU108、メモリーコントローラー110、及び様々な他のコンポーネントは、様々なバスアーキテクチャーのうちのいずれかを使用する、シリアル及びパラレルバス、メモリーバス、周辺バス、及びプロセッサー又はローカルバスを含む、1又は複数のバスを介して相互接続される。例として、このようなアーキテクチャーは、周辺コンポーネント相互接続(PCI)バス、PCI−Expressバスなどを含んでもよい。
[0046]マルチメディアコンソール100の電源がオンになると、アプリケーションデータがシステムメモリー143からメモリー112及び/又はキャッシュ102、104へとロードされて、CPU101上で実行することができる。アプリケーションは、マルチメディアコンソール100上で利用できるさまざまなメディアタイプにナビゲートするときに一貫したユーザーエクスペリエンスを提供する、グラフィカルユーザーインターフェースを提示してもよい。動作において、アプリケーション及び/又はメディアドライブ144内に含まれる他のメディアは、マルチメディアコンソール100に追加の機能を提供するために、メディアドライブ144から起動又は再生することができる。
[0047]マルチメディアコンソール100は、単にテレビや他のディスプレイにシステムを接続することにより、スタンドアロンのシステムとして動作させることができる。このスタンドアロンモードでは、マルチメディアコンソール100は、1人又は複数のユーザーがシステムとインタラクトしたり、映画を見たり、音楽を聴いたりすることを可能にする。しかし、ネットワークインターフェース124又はワイヤレスアダプター148を介して利用可能となるブロードバンド接続の統合によって、マルチメディアコンソール100は、より大規模なネットワークコミュニティの参加者としてさらに動作させることができる。
[0048]マルチメディアコンソール100の電源がオンになると、ある量のハードウェアリソースが、マルチメディアコンソールのオペレーティングシステムによるシステム使用のために用意される。これらのリソースは、メモリー(例えば、16MB)、CPU及びGPUのサイクル(例えば、5%)、ネットワーク帯域幅(例えば、8kbs)などの予約を含んでもよい。これらのリソースはシステムのブート時に予約されるので、予約されたリソースはアプリケーションからは見えない。
[0049]特に、メモリー予約は、好ましくは、起動カーネル、並行システムアプリケーション及びドライバを格納するのに十分に大きい。CPU予約は、予約されたCPU使用がシステムアプリケーションによって使用されていない場合にアイドルスレッドが未使用のサイクルを消費するよう、好ましくは一定である。
[0050]GPUの予約に関して、システムアプリケーションによって生成される軽量の(lightweight)メッセージ(例えば、ポップアップ)が、オーバーレイにポップアップをレンダリングするコードをスケジューリングするためにGPU割り込みを使用することによって、表示される。オーバーレイのために必要なメモリーの量はオーバーレイ領域のサイズに依存し、オーバーレイは好ましくは画面の解像度に対応する。完全なユーザーインターフェースが並行システムアプリケーションによって使用される場合には、アプリケーションの解像度から独立した解像度を使用することが好ましい。スケーラーは、周波数を変更したりテレビの再同期を引き起こす必要性が排除されるように、この解像度を設定するために使用することができる。
[0051]マルチメディアコンソール100がブートしてシステムリソースが予約された後に、並行システムアプリケーションがシステムの機能を提供するために実行される。システムの機能は、上述した予約システムリソース内で実行されるシステムアプリケーションのセットへとカプセル化される。オペレーティングシステムのカーネルは、ゲームアプリケーションスレッドに対してシステムアプリケーションのスレッドを識別する。システムアプリケーションは、好ましくは、アプリケーションに対して一貫したシステムリソース表示(view)を提供するために、所定の時間や間隔で、CPU101上で実行するようにスケジューリングされる。スケジューリングは、コンソール上で実行するゲームアプリケーションのキャッシュの中断を最小限にする。
[0052]並行システムアプリケーションが音声を必要とする場合は、音声処理は、時間感度(time sensitivity)に起因して、ゲームアプリケーションに対して非同期的にスケジューリングされる。システムアプリケーションがアクティブなとき、マルチメディアコンソールアプリケーションマネージャー(後述)は、ゲームアプリケーションの音声レベルを制御する(例えば、ミュート、減衰)。
[0053]入力装置(例えば、コントローラー142(1)及び142(2))はゲームアプリケーションとシステムアプリケーションによって共有される。入力装置は予約されるリソースではなく、各々がデバイスに注目するように、システムアプリケーションとゲームアプリケーションとの間で切り替えられるものである。アプリケーションマネージャーは、好ましくは、ゲームアプリケーションの知識なしに入力ストリームの切り替えを制御し、ドライバーはフォーカススイッチ(focus switch)に関する状態情報を保持する。カメラ26、28及びキャプチャーデバイス20は、コンソール100のための追加の入力装置を定義してもよい。
[0054]図4Bは、ハンドル21とのユーザーインタラクションを解釈してシステム10内の1つ又は複数のジェスチャーを解釈するために使用される図1及び3に示すコンピューティング環境12であってもよいコンピューティング環境220の別の例示的な実施例を示す。コンピューティングシステム環境220は、適切なコンピューティング環境の一例に過ぎず、本開示の主題の使用又は機能の範囲について何ら限定を示唆するものではない。コンピューティング環境220は、例示的な動作環境220に示すコンポーネントのうちのいずれか又は組み合わせに関連する依存関係も要件も有するものとして解釈されるべきではない。いくつかの実施例では、様々な図示されたコンピューティング要素は、本発明の特定の側面を例示化するように構成される回路を含んでもよい。例えば、本開示で使用される回路という用語は、ファームウェア又はスイッチによって機能を実行するように構成される専門のハードウェアコンポーネントを含んでもよい。他の例示的な実施例では、回路という用語は、機能を実行するように動作可能なロジックを具体化するソフトウェア命令によって構成される汎用処理装置、メモリーなどを含んでもよい。回路がハードウェアとソフトウェアの組み合わせを含む例示的な実施例では、実施者がロジックを具体化するソースコードを書いてもよいし、ソースコードは汎用処理装置によって処理できる機械読み取り可能なコードへとコンパイルされてもよい。当業者は、最先端の技術がハードウェア、ソフトウェア、又はハードウェア/ソフトウェアの組み合わせの間にほとんど差がないところにまで進化したことを理解できるので、特定の機能を達成するためのハードウェアとソフトウェアの選択は実装者に任される設計上の選択である。より具体的には、当業者は、ソフトウェアプロセスを等価なハードウェア構造に変換することができ、ハードウェア構造が等価なソフトウェアプロセスに変換することができることを理解することができる。したがって、ソフトウェア実施対ハードウェア実施の選択は、設計上の選択の1つであって、実装者に委ねられる。
[0055]図4Bにおいて、コンピューティング環境220は、通常、様々なコンピューター読み取り可能な媒体を含むコンピューター241を含む。コンピューター読み取り可能な媒体は、コンピューター241によってアクセスすることができる任意の利用可能な媒体とすることができ、揮発性及び不揮発性の媒体、取り外し可能な及び取り外し不能な媒体の両方を含む。システムメモリー222は、ROM223及びRAM260などの揮発性及び/又は不揮発性メモリーの形式のコンピューター記憶媒体を含む。起動中などにコンピューター241内の要素間で情報を転送することを助ける基本ルーチンを含む基本入出力システム224(BIOS)は、通常はROM223に格納される。RAM260は、通常、すぐにアクセスすることができ及び/又は現在処理装置259によって動作されているデータ及び/又はプログラムモジュールを含む。限定ではなく例として、図4Bは、オペレーティングシステム225、アプリケーションプログラム226、他のプログラムモジュール227、及びプログラムデータ228を示す。
[0056]コンピューター241はまた、他の取り外し可能/取り外し不能な、揮発性/不揮発性のコンピューター記憶媒体を含んでもよい。単なる例として、図4Bは、取り外し不能な不揮発性磁気媒体に対して読み取り又は書き込みを行うハードディスクドライブ238、取り外し可能な不揮発性磁気ディスク254に対して読み取り又は書き込みを行う磁気ディスクドライブ239、及び、CD−ROMや他の光学媒体などの取り外し可能な不揮発性光ディスク253に対して読み取り又は書き込みを行う光ディスクドライブ240を示す。例示的な動作環境で使用することができる他の取り外し可能な/取り外し不能な、揮発性/不揮発性のコンピューター記憶媒体は、磁気テープカセット、フラッシュメモリーカード、デジタルバーサタイルディスク、デジタルビデオテープ、固体RAM、固体ROMなどを含むが、これらに限定されない。ハードディスクドライブ238は、通常、インターフェース234などの取り外し不能なメモリーインターフェースを介してシステムバス221に接続され、磁気ディスクドライブ239及び光ディスクドライブ240は、通常、インターフェース235などの取り外し可能なメモリーインターフェースによってシステムバス221に接続される。
[0057]上述の図4Bに示されるドライブ及び関連するコンピューター記憶媒体は、コンピューター241のためのコンピューター読み取り可能な命令、データ構造、プログラムモジュール、及び他のデータの記憶を提供する。図4Bにおいて、例えば、ハードディスクドライブ238は、オペレーティングシステム258、アプリケーションプログラム257、他のプログラムモジュール256、及びプログラムデータ255を格納するものとして示される。これらのコンポーネントが、オペレーティングシステム225、アプリケーションプログラム226、他のプログラムモジュール227、及びプログラムデータ228と同じであってもよいし又は異なっていてもよいことに留意されたい。オペレーティングシステム258、アプリケーションプログラム257、他のプログラムモジュール256、及びプログラムデータ255は、少なくとも、それらが異なるコピーであることを示すために、ここでは異なる番号を与えられている。ユーザーは、キーボード251及び一般にマウス、トラックボール又はタッチパッドと呼ばれるポインティングデバイス252などの入力装置を介してコンピューター241にコマンド及び情報を入力することができる。他の入力装置(図示せず)は、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナーなどを含んでもよい。これら及び他の入力装置は、しばしば、システムバスに結合されたユーザー入力インターフェース236を介して処理装置259に接続されるが、パラレルポート、ゲームポート、又はユニバーサルシリアルバス(USB)などの他のインターフェース及びバス構造によって接続することができる。カメラ26、28、及びキャプチャーデバイス20は、コンソール100のための追加の入力装置を規定することができる。モニター242又は他のタイプの表示装置もまた、ビデオインターフェース232などのインターフェースを介してシステムバス221に接続される。モニターに加えて、コンピューターはまた、出力周辺インターフェース233を介して接続することができるスピーカー244、プリンター243などの他の周辺出力装置を含んでもよい。
[0058]コンピューター241は、リモートコンピューター246などの1つ又は複数のリモートコンピューターへの論理接続を使用してネットワーク環境で動作することができる。リモートコンピューター246は、パーソナルコンピューター、サーバー、ルーター、ネットワークPC、ピアデバイス又は他の共通ネットワークノードであってもよく、通常、コンピューター241に関連して上述した要素の多く又はすべてを含むが、メモリー記憶装置247のみが図4Bに示されている。図4Bに示す論理接続は、ローカルエリアネットワーク(LAN)245及びワイドエリアネットワーク(WAN)249を含むが、他のネットワークを含んでもよい。このようなネットワーキング環境は、オフィス、企業規模のコンピューターネットワーク、イントラネット及びインターネットにおいて一般的である。
[0059]LANネットワーキング環境で使用する場合、コンピューター241はネットワークインターフェース又はアダプター237を介してLAN245に接続される。WANネットワーキング環境で使用する場合、コンピューター241は、通常、インターネットなどのWAN249を介した通信を確立するためのモデム250又は他の手段を含む。内部にあってよいし外部にあってもよいモデム250は、ユーザー入力インターフェース236又は他の適切な機構を介してシステムバス221に接続することができる。ネットワーク環境において、コンピューター241に関連して示したプログラムモジュール又はその一部は、リモートメモリー記憶装置に格納することができる。限定ではなく例として、図4Bは、メモリーデバイス247に存在するものとして、リモートアプリケーションプログラム248を示す。示されるネットワーク接続が例示的なものであって、コンピューター間の通信リンクを確立する他の手段が使用されてもよいことが理解されよう。
[0060]ここで本発明の実施例は図5のフローチャートを参照して説明される。以下の手順は、コンピューティング環境12に関連付けられるプロセッサー101(図4A)又は299(図4B)によって実行されてもよい。ステップ300において、システムは、キャプチャーデバイス20の視野に入るユーザーを追跡する。上に示したように、装置20は、視野内のユーザーを追跡し、その動きの骨格モデルを生成することができる。ステップ304において、システムはシステムとのユーザーによる係合を検出する。実施例において、このような係合は、物理的インタラクションゾーンと本明細書において呼ばれる領域へとユーザーが片手又は両手を持ち上げることによって、検出されてもよい。物理的インタラクションゾーンは、ユーザーがUI19とインタラクトする可能性が最も高い、ユーザー18の物理空間内の領域である。
[0061]しかし、実施例では、システムは、ユーザーがシステム10と係合しているかどうかを決定するときに様々なファクターを分析することができる。一緒にとられるファクターは信頼性レベルをもたらしてもよく、信頼性レベルがある所定の閾値を超える場合にシステムが係合を検出する。これらのファクターは、ユーザーの体の動き(手のみに対して全身を動かすと信頼性が減少する)、ユーザーの体の向き(カメラに向いていると信頼性が増す)、どの手が物理的インタラクションゾーンにあるか(ユーザーの側面上の手がカメラに向いていると信頼性が増す)、並びに、どのように及びいつ、ユーザーが最後に解放するか(時間が増加すると信頼性が減少する)を含んでもよい。この信頼性レベルは時間の経過とともに蓄積されてもよく、信頼性レベルの合計がある確立されたしきい値を超える場合、システムは係合を検出する。
[0062]ユーザーが係合しようとするが信頼性がまだこのしきい値に達していない間の短い期間において、リアルタイムのフィードバック(例えば、徐々に現れるカーソル)が、システムがユーザーを認識しているがまだジェスチャーコントロールを許可していないことを示すために提供することができる。
[0063]係合が確立された後、システムは、ステップ306において、目標のUIオブジェクトへのユーザーの追跡を検出する。特に、システムは、ユーザーが目標のUIオブジェクトを指していることを検知する。実施例のUIオブジェクトはハンドル21であってもよい。システムは、目標のハンドル21に対してカーソル25を中心に置くように適切な指示動作を達成するためにユーザーに依存してもよい。さらなる実施例では、ハンドル21は、実質的に引力を有してもよい。したがって、ハンドル21に対するカーソル25の近接性を含むファクターに基づいて、コンピューティング環境は、ハンドル21へとカーソル25を引き寄せて、したがってカーソル25をハンドル21の右に配置する際にユーザーが必要とする正確さに関して誤りの許容範囲を提供することができる。代替的な実施例において引力はカーソルの位置に影響を与えなくてもよい。代わりに、カーソルが以下に説明する1つ又は複数の基準を満たしている場合に、カーソルは、それがハンドルの上にホバリングしていたかのように、特性を示してもよい。たとえば、ハンドル及び/又はカーソルの外観が変化してもよく、視覚的アフォーダンス及びフィードバックがユーザーに対して表示されて、自分がハンドルとどのようにインタラクトすることができるかをユーザーに示してもよい。
[0064]図6は引力がハンドル21のまわりでシミュレートされる実施例を示す。このような実施例では、ステップ324において、システムはユーザーが目標のハンドルへと追跡していることを検出する。ステップ326において、システムは、カーソル25が、ハンドル21へと引っ張られてハンドル21上の中心に置かれる基準を満たしているかどうかを決定する。カーソルがステップ326の基準を満たしている場合、ステップ330において、目標オブジェクト上に中心に置かれ、容易に(lightly)保持することができる(容易に保持されるとは、カーソルがハンドル上で中心に置かれていない場合よりも、カーソルを動かすためにより大きな(significant)手の動きが必要とされることを意味する)。その時点で、ハンドル及び/又はカーソルの外観はまた、ハンドルの活性化を示すために変化してもよく、視覚的アフォーダンス及びフィードバックがユーザーに対して表示されてもよい。また、上述したように、カーソルの位置は変化しないままでもよいが、ハンドルが活性化して、視覚的アフォーダンス及びフィードバックが提供されてもよい。
[0065]カーソル25がハンドル21の引力で捕獲されるかどうかについてステップ326において適用される基準は、ハンドル21に対するカーソル25の近接性を含んでもよく、その結果、近ければ近いほど、ハンドルへと引っ張られやすくなる。当該基準は、ユーザーの体に対するユーザーの指し示す手の奥行きの変化を含んでもよく、その結果、動きがキャプチャーデバイス20に近いほど、カーソルがハンドルへと引っ張られる可能性が高くなる。さらに当該基準はハンドルの近くで費やした時間を含んでもよく、ハンドルの近くでより多くの時間が費やされるほど、カーソルがハンドルへと引っ張られる可能性が高くなる。他の基準がさらなる実施例において適用されてもよい。実施例において、カーソル25は、ハンドルに引っ張られるときにその形状を維持する。さらなる実施例では、カーソル25はハンドルへと引っ張られても引っ張られなくてもよいが、カーソルは形状を変形又は変化させて、ハンドルとの係合を示してもよい。
[0066]図5に戻ると、ユーザーが一旦目標のハンドルを追跡すると、システムはステップ308において、ユーザーが目標のハンドルにくっつくことを検出する。上述のように、カーソルがハンドルの上に配置される場合、コンピューティング環境12は、ユーザーがz軸に沿って自分の手をより近くへ動かすときにオブジェクトへの付着を検知してもよい。代替的に又はさらに、ユーザーは取り付け動作(attaching motion)(開いた位置から閉じた位置へ指を動かす)を実行してもよく、そのジェスチャーは、カーソルが中央に配置されるオブジェクトにユーザーがくっつくものとして解釈される。ハンドルと係合するためのユーザーの要望を感知するさらなる方法は、身体活動(physical activity)内の具体的なホットスポットを規定することを含み、ユーザーは、ハンドルにくっついて所定の期間の間オブジェクト上を単にホバリングするように自分の手を置くことを知っている。ユーザーがハンドルに係合することを望むことを検知する他の方法はさらなる実施例において提供することができる。
[0067]ユーザーがハンドルに一旦くっつくと(又はその代わりに、カーソルが近くにあると)、システムは、ステップ310において、そのハンドル21のアフォーダンスを表示してもよい。ハンドル21は多種多様なアフォーダンスを含んでもよく、いくつかが図1、8及び9に示される。図1において、アフォーダンスは、ユーザーがハンドルをつかみ、(図1の観点から)左へスライドさせることができることを示すレール27である。これは、ハンドル21が一旦つかまれるとユーザーが自分の手を左に動かすことによって達成される。ハンドルが一旦つかまれると、所与の手の動きに対してハンドルが移動する長さは、ディスプレイ上の他のオブジェクトを動かすことに関して同じ割合となってもよいし、より鈍感になってもよいし(すなわち、ハンドルは所与の手の動きに対してより小さく動く)より敏感になってもよい(すなわち、ハンドルは所与の手の動きに対してより大きく動く)。
[0068]レール27は、一般に、一旦ユーザーがハンドルにくっつくか又はほぼくっつくと所与のハンドル21に関連付けて表示されるグラフィカルオブジェクトであり、そのハンドルを操作する方法をユーザーに示す。当該レールは、ハンドルに対して行うことができる動きを明確にする矢印を有してもよい。実施において、レール27は、関連付けられるハンドルが水平方向及び/又は垂直方向に操作することができることを示すように、水平及び/又は垂直であってもよい。さらなる例においてはレール27は水平又は垂直である必要はない。たとえば、レールは、ユーザーがx−y平面内で斜めに又は全面的にハンドルを移動できることを示してもよい。レール27は、さらに、ハンドルが、例えば円を描くように、非直線的な方向に操作することができることを示してもよい。
[0069]図8は、後にユーザーが画面の上部近くでハンドル21にくっついたときにおける図2の画面の説明を示す。このように、レール27a及び27bがユーザーに対して表示される。レール27aは、ユーザーがハンドルを上下に移動することができることを示す。ハンドル21についてのそのような操作に関連付けられるアクションは、アクション領域23におけるテキストのメニューを上下にスクロールすることである。レール27bは、ユーザーがハンドルを(図8の視点から)右に移動することができることを示す。ハンドル21についてのそのような操作に関連付けられるアクションは、ハンドルがその後に配置されるメニュー項目のサブトピックへとアクション領域23内でスクロールすることである。一旦サブトピックへとスクロールされると、新たな水平のレールが現れて、ユーザーが(図8の視点から)左にハンドルを移動させて次の高位のメニューに戻ることができることをユーザーに示してもよい。
[0070]図9は、後にユーザーが画面の下部付近でハンドル21a、21bにくっついたときにおける図2の画面の説明を示す。このように、レール27c及び27dがユーザーに対して表示される。スロットのコーナーにおいて一緒に表示されるハンドル21a、21b及びレール27c、27dは、ユーザーが2つの手で(それぞれのハンドルに対して1つの手)そのスロットを選択することができることを示す。図9はさらに、UI19のいずれかの側に向かうハンドル21c及び21dを示す。ハンドル21cの係合及び(図9の視点から)左への動きにより、スロット29を介した左へのスクロールのアクションが達成される。ハンドル21dの係合及び(図9の視点から)右への動きにより、スロット29を介した右へのスクロールのアクションが達成される。
[0071]図5のフローチャートに戻ると、ユーザーがハンドルにくっついてアフォーダンスを示された後、ユーザーは、ステップ311においてハンドルを操作したり、ステップ314においてオブジェクトを解放すると決定したりしてもよい。ユーザーがステップ311においてオブジェクトを操作することを選択した場合、操作がステップ312においてで実行される。ハンドル21のいくつかの操作及び関連するアクションは、図8及び9に関して上で説明された。しかし、一般に、ハンドル21の操作は、x軸及び/又はy軸に沿ってハンドルをスライドさせること、z軸に沿ってハンドルを引くこと、円を描くようにハンドルを回転させること、又はx−y平面内のジョイスティックとしてハンドルを使用することを含んでもよい。特定のアクションを実行するための特定のハンドルが以下で説明される。
[0072]ここでハンドル21の操作が図7のフローチャートに関してより詳細に説明される。ステップ338において、一旦ユーザーが特定のハンドルにくっつくと、システムは、ユーザーの動きを探す。ステップ338において動きが検出されると、システムはステップ340において、ユーザーが実行する動作と一致する事前に定義されたジェスチャーを探す。そのような所定のジェスチャーがハンドル21によって許可されると分かると、そのアクションは、ステップ346において、関連付けられるアクション領域23に対して実行される。ハンドルを使用する利点の1つは、予め定義されたあるジェスチャーのみがそのハンドルに適用できるということである。したがって、以下で説明するようにコンピューティング環境12に知られている様々なジェスチャーが存在し得るが、コンピューティング環境12が気にする必要のある所定のジェスチャーの数は選択される特定のハンドル21に依存して狭められる。
[0073]当業者であれば、ユーザーの位置及び/又は動きが所定のジェスチャーに一致するかどうかを決定するためにユーザーの位置及び動きを分析する様々な方法を理解するであろう。そのような方法は、例えば、上述した本願に組み込まれる出願第12/475,308号のほか、参照によりその全体が本願に組み込まれる「Gesture-Controlled Interfaces For Self-Service Machines And Other Applications」と題する米国特許出願公開公報第2009/0074248号に開示される。しかし、一般に、ユーザーの位置及び動きはキャプチャーデバイス20によって検出される。このデータから、体の各部分の位置/動きに関連するさまざまなパラメーターを収集して、コンピューティング環境12内のジェスチャー認識エンジンに転送することができる。ジェスチャー認識エンジン190は、しきい値の信頼性レベルより高い一致があるかどうかを決定するために、格納されているジェスチャーのライブラリーに対して、位置/動きのパラメーターを比較する。そのような一致がある場合、ユーザーはその一致したジェスチャーを実行したとされ、関連付けられるアクションがとられる。
[0074]ジェスチャー認識エンジンが調べる必要のある格納されているジェスチャーの数を大幅に減らすことに加えて、オブジェクトに係合するためにハンドルを使用することはまた、所与のジェスチャーが実行されたかどうかについての誤検出及び検出漏れのリスクを大幅に低減する。特に、所与のハンドル21に対して実行され得る可能性のあるジェスチャーの組を制限することによって、誤って識別されたかもしれない他のジェスチャーは検討されない。
[0075]上述のように、ハンドル21は、ハンドルを係合することができる方法を定義するいくつかのグループのうちの1つに属するものとして広く分類することができる。つまり、ハンドルは、片手ハンドル、両手ハンドル(dual-handed handle)又は両手ペアのハンドル(two-handed paired handle)のいずれかであってもよい。しかし、ハンドル21は、それらが関連するアクション領域23に対して又は関連するアクション領域23によって実行させることができる特定の種類のアクションへとさらに分けることができる。つまり、特定のハンドルは、アクション領域が実行できるアクション及びアクション領域に対して実行できるアクションに基づいて、特定のアクション領域に割り当てられる。したがって、例えば、アクション領域がスクロールアップ、スクロールダウン又は両側にスクロールすることを意図される場合、そのアクション領域には、それらのアクション、すなわち、ユーザーがそのハンドルにくっついている間にユーザーの手を上、下又は横へと動かすことを実行するジェスチャーを具体的に認識するハンドルが割り当てられる。以下は、所与のハンドルについて認識されるジェスチャーのセットに含まれ得るいくつかのジェスチャーである。以下のものは、所与のハンドルに適用することができるすべての可能なジェスチャーについての排他的なリストとして意図されるものではない。
[0076]ほとんどの場合、アクションがアクション領域23に対して又はアクション領域23によって実行されるように必要とされるジェスチャーは、ハンドルをそのレールのうちの1つに沿って移動させることにすぎない。これを行うためのユーザーの動きは、単に、ユーザーがハンドルにくっついている間、レールの方向に沿って自分の手を動かすことである。しかし、ハンドルをそのレールに沿ってスライドさせることを単に含むのではない他のジェスチャーが、所与のハンドルに対して認識され得ることが考えられる。以下には、ハンドルに関連付けられるアクション項目に対して又はアクション項目によって実行されるアクションを記述する多くのハンドルの名が記載される。
・クランクハンドル−ユーザーは、クランクハンドルと係合し、それが適用される特定のアクション領域に依存して、3つの平面(x−y、y−z及びx−z)のいずれかにおいて円形のジェスチャーを実行することができる。このハンドルは、スロット又はリストのナビゲーションに使用することができ、円上の点にオブジェクトをマッピングすることにより、ファイングレイン制御(fine grain control)や加速制御のために調整することができる。
・スライダーハンドル(1方向及び双方向)−関連付けられるレールによって示されるように、1つ又は2つの方向に操作することができる単一の次元のハンドル。図1に示すバックハンドルは単一方向のスライダーハンドルの例であるが、例えば図9に示すリストスクロールスライダーハンドルは双方向のスライダーハンドルの例である。
・仮想ジョイスティックハンドル−コントローラーDパッド(D-pad)の状態を模倣することができ、UIナビゲーションに使用することができる、多次元、多方向のハンドル。ユーザーは、1つの状態から次の状態に遷移する前に中間の中心点を通過してもよいししなくてもよい。
・ドロップダウンメニューハンドル−係合されているときに追加のUIを見せる、部分的に画面上にあるハンドル。これは、たとえば、選択できる項目のクイック起動パネルを提示するのに使用することができる。
・コンテキストメニューハンドル(マーキングメニューハンドルとも呼ばれる)−アクション領域内でオブジェクトと係合して3つの方向(上、左、又は右)のいずれかに引くことによって提示されるハンドル。以下に説明するように、ユーザーは下方向に動くことによって、このハンドルから離れることができる。
・ボタンハンドル−アクションを実行するためにこのハンドルに係合することによってハンドルを選択することをユーザーに単に要求する、オブジェクトに取り付けられた簡易なハンドル。その後のレールやユーザーの操作はインタラクションを完了するのに必要ではない。
・ドラッグアンドドロップ(自由形式)ハンドル−画面上及び3D空間内のハンドルの位置を、新たな位置に対して見えるハンドルを係合して操作することによって変更することができるようハンドル。
・ピール(バック及びスロット)ハンドル−UI19のオブジェクト又は背景シーンの一部とすることができる統合されたハンドル。このハンドルの直接的なインタラクション及び操作によって、以前のシーンや表示を見せたり(バックナビゲーションの場合)、スロットなどのオブジェクトの追加データを見せたりすることができる。
・両手引き離し(two-handed pull apart)ハンドル−両手が係合される必要がある選択のための機構。ユーザーがいずれかのハンドルと係合した後、他方の手に係合するようにユーザーに警告するためにフィードバックが提供される。一旦両手が係合されると、両方のレールの端に達するまで両方の手を引き離すことによってジェスチャーが達成される。
・両手フリップ(two-handed flip)ハンドル−これもまた、両手が係合される必要があるハンドルであるが、互いに向かって両手を動かすことによってジェスチャーが実行される。スロットの視覚的なレール及びアナログ動作によって、ユーザーに、自身がジェスチャーの達成にどれだけ近づいているかを通知する。
・スクラブハンドル−係合された後に項目のリストの直接的な操作を可能にするハンドル。これは、より少ない数のコンテンツ項目についてのよりきめ細かい操作を可能にする。
・ギアシフトハンドル−ギアシフトハンドルが、(文字「E」の形状のように)主要な方向に対して各々が垂直である複数の並列な二次的な方向をサポートすることを意図されることを除いて、仮想ジョイスティックに類似した、多次元、多方向のハンドル。
・ラチェット(ratchet)ハンドル−解放することなくトラックに沿った繰り返し動作を可能にすることを除いて、スライダーに類似したハンドル。
上記の開示を考えると、当業者であれば、アクション領域のオブジェクトや背景に関して追加のアクションを実行するために使用することができるさらなるハンドルがあることを理解するであろう。
[0077]再び図5を参照すると、ユーザーが所与のアクションを達成するためにハンドルを操作した後(又は、ステップ311においてユーザーがオブジェクトを操作しないと決定した場合)、ユーザーはステップ314においてハンドルを解放することができる。実施例において、ハンドルはジェスチャーの完了の際に自動的に解放されてもよい。オブジェクトの解放は、代替的に、システムに対するユーザーによるある手動のアクションによって指示されてもよい。このような手動のアクションは、z軸に沿ってさらに遠くにユーザーの手を動かすこと、物理的な双方向性(インタラクティビティ)ゾーン内の特定のホットスポットへ又はその外へ移動すること、ユーザーの手を特定の距離動かしたりサポートされていない方向に動かしたりすること、又は他のユーザーの動作を含む。
[0078]実施例において、シミュレートされた引力は、シミュレートされた引力を有していない他のオブジェクトを解放するために必要とされるよりも大きな動作を、ハンドルから離すためにユーザーに実行させてもよい。解放が検出されない場合、システムはステップ312において再びさらなるオブジェクトの操作を探す。
[0079]ユーザーがステップ314においてオブジェクトを解放する場合、ステップ316において、システムは、ユーザーが例えば手を降ろすことによるなどしてインタラクションから離れているかどうかを見る。そのような解放が検出されない場合、システムはステップ306に戻って、オブジェクト(以前にくっつけられたオブジェクトと同一であってもよいし異なっていてもよい)に対する追跡を探す。
[0080]ステップ316においてユーザーが離れる場合、ステップ320においてシステムはユーザーが視野から離れるかどうかを確認する。視野から離れない場合、システムはステップ304に戻ってさらにユーザーの係合を検出する。一方、ユーザーが視界を離れる場合、システムは、ステップ300に戻って、ユーザーが再び視野に入るときを監視する。
[0081]実施例において、ハンドル21の外観は、ユーザーが図5のフローチャートのどこにいるかに依存して変化してもよい。視界にユーザーがいない間、いずれのハンドルも表示されなくてもよい。一旦ユーザーが視界において検出されると、ハンドルが表示されてもよい。ハンドルは最初にUI19のどの位置にハンドルがあるかについてユーザーに警告するために光で表示されてもよい。その後、ハンドルはユーザーがそれに近づくまで中立のままであってもよく、その時点において、ハンドルは接近について認識したことを示すために光ってもよい。その後、一旦ユーザーがハンドル上でホバリングするとハンドルの外観は変化してもよく、一旦ユーザーがハンドルにくっつこうと試みると再び外観が変化してもよく、ユーザーがハンドルにくっついた後に再び変化してもよく、一旦ユーザーがハンドルを操作すると再び変化してもよい。これらの変化の一部又はすべてが、さらなる実施例において省略されてもよい。
[0082]上記の説明を考えると、本発明は、人間とコンピューターのインターフェースシステムにおいて画面上のオブジェクト及びアクション領域との容易なインタラクションを可能にするシステムを提供する。ハンドルによって提供される明示的な係合ポイント、及び適用され得るジェスチャーを狭めることにより、誤検出及び検出漏れの少ない信頼性の高いシステムが提供される。システムはまた使いやすいものとなる。何にくっつくことができるかを示し、ハンドルにくっついた際にハンドルによってどのように何をすることができるかを、明確なアフォーダンスが示す。インタラクションは記憶しやすく、実行するのが容易である。インタラクションはまた、システムの一部を使用する方法を学ぶことによってシステム全体の使用を可能にするように、一貫性している。
[0083]本発明のシステムの上記の詳細な説明は、例示及び説明の目的のために提示された。完全であることや開示された正確な形式に本発明のシステムを限定することは意図されていない。多くの変更及び変形が上記の教示に照らして可能である。説明した実施例は、本発明の原理及び実際の応用をよく説明し、それによって当業者が様々な実施例において及び考えられる特定の使用に適するような様々な修正をして本発明のシステムをよく利用することを可能にするために、選択されたものである。本発明のシステムの範囲は添付の特許請求の範囲によって規定されることが意図される。

Claims (15)

  1. ユーザーの位置を取得するキャプチャーデバイスに結合されて人間とコンピューターのインターフェースを提供するコンピューティング環境を含むシステムにおいて、人間とコンピューターのインターフェースのための表示領域とのユーザーのインタラクションを容易にする方法をであって、
    (a)インターフェースの領域に関連付けられるハンドルを生成するステップと、
    (b)ユーザーの動きを検知するカメラを介して、前記ステップ(a)において生成されたハンドルとの前記ユーザーによる係合を検出するステップと、
    (c)前記ユーザーによるジェスチャーの指示を受信するステップと、
    (d)前記ステップ(c)に応答して前記ユーザーインターフェースの領域に対してアクションを実行するステップと
    を含む方法。
  2. 前記ステップ(a)は前記ユーザーインターフェースの領域に前記ハンドルを表示するステップを含む請求項1に記載の方法。
  3. 前記ステップ(a)は前記ユーザーインターフェースの領域に隣接した前記ハンドルをを表示するステップを含む請求項1に記載の方法。
  4. 前記ステップ(a)は、分離したハンドルが表示されないように前記ユーザーインターフェースの領域の一部として前記ハンドルを統合するステップを含む請求項1に記載の方法。
  5. ハンドルとのユーザーによる係合を検出する前記ステップ(b)は、カーソルを前記ハンドルへと引っ張る前記ハンドルのまわりの引力をシミュレートすることによって容易にされ、前記カーソルが前記ハンドルへと引っ張られる際に係合が検出される請求項1に記載の方法。
  6. ユーザーインターフェースの領域に関連付けられるハンドルを生成する前記ステップ(a)は、前記ハンドルを係合する間にユーザーによって実行されるジェスチャーの検出の際に前記領域に対して実行されるべきアクションに基づいて、ハンドルを前記領域に関連付けるステップを含む請求項1に記載の方法。
  7. 前記ステップ(a)において生成されたハンドルとユーザーがどのようにインタラクトすることができるかを示す、前記ハンドルに関連付けられるアフォーダンスを表示するステップ(f)をさらに含む請求項1に記載の方法。
  8. ユーザーの位置を取得するキャプチャーデバイスに結合されて人間とコンピューターのインターフェースを提供するコンピューティング環境のためのプロセッサー読み取り可能な記憶媒体であって、前記プロセッサー読み取り可能な記憶媒体は、人間とコンピューターのインターフェースのためのディスプレイのアクション領域とのユーザーのインタラクションを容易にする方法を実行するようにプロセッサーをプログラミングし、前記方法は、
    (a)前記インターフェースの領域と関連付けられるグラフィカルなハンドルをディスプレイに表示するステップであって、前記グラフィカルなハンドルは前記アクション領域を係合するための明示的な係合ポイントを提供し、前記グラフィカルなハンドルはユーザーによる所定のジェスチャーの受信の際にユーザーが前記アクション領域とどのようにインタラクトすることができるかを定義する、ステップと、
    (b)前記ユーザーの位置の検出の結果として前記ユーザーが前記ハンドルを追跡しているという指示を受信するステップと、
    (c)前記ユーザーが前記ハンドルを追跡する場合に前記ハンドルとの係合を確立するステップと、
    (d)前記ユーザーによるジェスチャーの指示を受信するステップと、
    (e)前記グラフィカルなハンドルによって定義される前記ディスプレイのアクション領域に対してアクションを実行するステップであって、前記ステップ(d)において受信された前記ジェスチャーの指示が前記ステップ(a)の前記所定のジェスチャーと一致する、ステップと
    を含む、プロセッサー読み取り可能な記憶媒体。
  9. 前記方法が、ハンドルとの係合を確立する前記ステップ(b)の際に、ユーザが前記ハンドルとどのようにインタラクトすることができるかを定義するアフォーダンスを表示するステップ(f)をさらに含む請求項8に記載のプロセッサー読み取り可能な記憶媒体。
  10. 前記ステップ(f)は前記ハンドルを移動することができる方向を示すレールを表示するステップを含む請求項9に記載のプロセッサー読み取り可能な記憶媒体。
  11. ユーザーによるジェスチャーの指示を受信する前記ステップ(d)は、前記ステップ(f)における前記レールによって定義される方向に前記ハンドルを移動するためのジェスチャーを受信するステップを含む請求項10に記載のプロセッサー読み取り可能な記憶媒体。
  12. 前記ステップ(e)は、前記ステップ(d)で前記ハンドルを上、下、左又は右に移動する指示を受信すると、オブジェクトのメニュー内をナビゲートするステップを含む請求項11に記載のプロセッサー読み取り可能な記憶媒体。
  13. ユーザーの位置を取得するキャプチャーデバイスに結合され、ディスプレイに結合されるコンピューターシステムにおける、人間とコンピューターのインターフェースであって、
    アクションを実行すること及びアクションを実行させることのうちの少なくとも1つを可能にする、ディスプレイ上のアクション領域と、
    前記ディスプレイ上に表示され前記アクション領域と関連付けられるハンドルであって、アクション領域との明示的な係合ポイントを提供し、ユーザーが前記アクション領域とどのようにインタラクトすることができるかを定義する、ハンドルと、
    ユーザーが前記ハンドルをどのように操作することができるかを定義する、前記ハンドルに関連付けられる前記ディスプレイ上に表示されるレールと
    を備える人間とコンピューターのインターフェース。
  14. 前記アクション領域はナビゲーションメニューであり、前記ハンドルは前記ナビゲーションメニュー内のナビゲーションパスを定義する請求項13に記載の人間とコンピューターのインターフェース。
  15. ユーザーによる前記ハンドルとの係合を確立することを容易にするために、シミュレートされた力が前記ハンドルのまわりに生成される請求項13に記載の人間とコンピューターのインターフェース。
JP2012552928A 2010-02-09 2011-02-08 人間とコンピューターのインターフェースのためのインタラクションの処理 Withdrawn JP2013519175A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/703,115 2010-02-09
US12/703,115 US8499257B2 (en) 2010-02-09 2010-02-09 Handles interactions for human—computer interface
PCT/US2011/024078 WO2011100254A2 (en) 2010-02-09 2011-02-08 Handles interactions for human-computer interface

Publications (1)

Publication Number Publication Date
JP2013519175A true JP2013519175A (ja) 2013-05-23

Family

ID=44354642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012552928A Withdrawn JP2013519175A (ja) 2010-02-09 2011-02-08 人間とコンピューターのインターフェースのためのインタラクションの処理

Country Status (7)

Country Link
US (2) US8499257B2 (ja)
EP (1) EP2534556A4 (ja)
JP (1) JP2013519175A (ja)
KR (1) KR20120125285A (ja)
CN (1) CN102770828B (ja)
CA (1) CA2786852A1 (ja)
WO (1) WO2011100254A2 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101743948B1 (ko) * 2010-04-07 2017-06-21 삼성전자주식회사 인터렉티브 디스플레이에서 근접 센싱을 위한 방법 및 근접 센싱 이미지를 처리하는 방법
US20110292036A1 (en) * 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
KR101731346B1 (ko) * 2010-11-12 2017-04-28 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
US8920241B2 (en) * 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9575561B2 (en) * 2010-12-23 2017-02-21 Intel Corporation Method, apparatus and system for interacting with content on web browsers
US20120221974A1 (en) * 2011-02-28 2012-08-30 Sony Network Entertainment Inc. Method and apparatus for presenting elements of a user interface
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US9030487B2 (en) * 2011-08-01 2015-05-12 Lg Electronics Inc. Electronic device for displaying three-dimensional image and method of using the same
CA2844105A1 (en) * 2011-08-31 2013-03-07 Smart Technologies Ulc Detecting pointing gestures in a three-dimensional graphical user interface
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
KR20130078490A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 전자 장치 및 그의 제어 방법
US20130182005A1 (en) * 2012-01-12 2013-07-18 Cisco Technology, Inc. Virtual fashion mirror system
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
CN102662576B (zh) * 2012-03-29 2015-04-29 华为终端有限公司 基于触摸的信息发送方法及装置
US20130290116A1 (en) * 2012-04-27 2013-10-31 Yahoo! Inc. Infinite wheel user interface
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
USD723057S1 (en) 2012-08-07 2015-02-24 Microsoft Corporation Display screen with animated graphical user interface
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9501140B2 (en) * 2012-11-05 2016-11-22 Onysus Software Ltd Method and apparatus for developing and playing natural user interface applications
KR101713784B1 (ko) * 2013-01-07 2017-03-08 삼성전자주식회사 전자 장치 및 그 제어 방법
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US20140258943A1 (en) * 2013-03-08 2014-09-11 Google Inc. Providing events responsive to spatial gestures
US9519351B2 (en) 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
US9298266B2 (en) * 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
TWI486815B (zh) * 2013-04-08 2015-06-01 鴻海精密工業股份有限公司 顯示設備及其控制系統和方法
US20150003204A1 (en) * 2013-06-27 2015-01-01 Elwha Llc Tactile feedback in a two or three dimensional airspace
US9804675B2 (en) 2013-06-27 2017-10-31 Elwha Llc Tactile feedback generated by non-linear interaction of surface acoustic waves
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
JP6539272B2 (ja) 2013-08-07 2019-07-03 ナイキ イノベイト シーブイ コンピュータにより実現される方法、非一時的かつコンピュータが読み取り可能な媒体、および単一装置
USD740843S1 (en) * 2013-10-25 2015-10-13 Microsoft Corporation Display screen with graphical user interface
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN105516815A (zh) * 2014-09-25 2016-04-20 冠捷投资有限公司 使用者通过动作控制显示装置的操作界面的方法
US10452136B2 (en) 2014-10-13 2019-10-22 Thomson Licensing Method for controlling the displaying of text for aiding reading on a display device, and apparatus adapted for carrying out the method, computer program, and computer readable storage medium
CN104318218A (zh) * 2014-10-29 2015-01-28 百度在线网络技术(北京)有限公司 图像识别方法和装置
US9715619B2 (en) 2015-03-14 2017-07-25 Microsoft Technology Licensing, Llc Facilitating aligning a user and camera for user authentication
US10057078B2 (en) 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
US10585576B2 (en) * 2015-10-26 2020-03-10 Google Llc Systems and methods for attributing a scroll event in an infinite scroll graphical user interface
US10133271B2 (en) * 2016-03-25 2018-11-20 Qualcomm Incorporated Multi-axis controlller
WO2017187708A1 (ja) * 2016-04-26 2017-11-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20180104224A (ko) * 2017-03-09 2018-09-20 삼성전자주식회사 화면 제어 방법 및 이를 지원하는 전자 장치
US11107282B1 (en) * 2017-09-29 2021-08-31 Apple Inc. Using comfort measurements to suggest virtual reality content
TWI712985B (zh) * 2018-01-02 2020-12-11 元智大學 復健用骨架追蹤系統與方法
US11195336B2 (en) 2018-06-08 2021-12-07 Vulcan Inc. Framework for augmented reality applications
US10996831B2 (en) * 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
CN109254810B (zh) * 2018-08-03 2022-09-02 五八有限公司 列表展示方法、装置、计算机设备及计算机可读存储介质
CN111309153B (zh) * 2020-03-25 2024-04-09 北京百度网讯科技有限公司 人机交互的控制方法和装置、电子设备和存储介质
US11435875B2 (en) * 2020-09-08 2022-09-06 Dell Products L.P. Static dynamic on screen display menu

Family Cites Families (174)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4288078A (en) * 1979-11-20 1981-09-08 Lugo Julio I Game apparatus
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
EP0590101B1 (en) 1991-12-03 1999-06-23 French Sportech Corporation Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US6396546B1 (en) * 1994-05-20 2002-05-28 United Video Properties, Inc. Electronic television program guide schedule system and method
ATE224567T1 (de) * 1994-06-09 2002-10-15 Corp For Nat Res Initiatives Hinweisanordnungsschnittstelle
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US5808601A (en) * 1995-09-12 1998-09-15 International Business Machines Corporation Interactive object selection pointer method and apparatus
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
JP2000510013A (ja) 1996-05-08 2000-08-08 リアル ヴィジョン コーポレイション 位置検出を用いたリアルタイムシミュレーション
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
AU1930700A (en) 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
AU1574899A (en) 1998-12-16 2000-07-03 3Dv Systems Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
GB0012275D0 (en) * 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7000200B1 (en) 2000-09-15 2006-02-14 Intel Corporation Gesture recognition system recognizing gestures within a specified timing
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US7607509B2 (en) 2002-04-19 2009-10-27 Iee International Electronics & Engineering S.A. Safety device for a vehicle
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
EP3196805A3 (en) 2003-06-12 2017-11-01 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
SE526119C2 (sv) 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7295220B2 (en) * 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
US20050289590A1 (en) * 2004-05-28 2005-12-29 Cheok Adrian D Marketing platform
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
WO2006074290A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US7317836B2 (en) 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
KR101430761B1 (ko) 2005-05-17 2014-08-19 퀄컴 인코포레이티드 방위-감응 신호 출력
KR100987248B1 (ko) * 2005-08-11 2010-10-12 삼성전자주식회사 이동 통신 단말의 사용자 입력 방법 및 장치
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US20090161963A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US9459784B2 (en) 2008-07-25 2016-10-04 Microsoft Technology Licensing, Llc Touch interaction with a curved display
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
US20100275122A1 (en) * 2009-04-27 2010-10-28 Microsoft Corporation Click-through controller for mobile interaction

Also Published As

Publication number Publication date
US8499257B2 (en) 2013-07-30
CN102770828B (zh) 2015-11-25
CA2786852A1 (en) 2011-08-18
WO2011100254A2 (en) 2011-08-18
KR20120125285A (ko) 2012-11-14
CN102770828A (zh) 2012-11-07
US20130311944A1 (en) 2013-11-21
US20110197161A1 (en) 2011-08-11
EP2534556A4 (en) 2017-05-17
EP2534556A2 (en) 2012-12-19
WO2011100254A3 (en) 2011-11-24

Similar Documents

Publication Publication Date Title
JP2013519175A (ja) 人間とコンピューターのインターフェースのためのインタラクションの処理
US8176442B2 (en) Living cursor control mechanics
US10599212B2 (en) Navigation of a virtual plane using a zone of restriction for canceling noise
RU2605370C2 (ru) Система для распознавания и отслеживания пальцев
KR102296967B1 (ko) 인체 공학적 물리적 상호작용 구역 커서 매핑
KR101643020B1 (ko) 애니메이션을 체이닝하는 방법 및 애니메이션 블렌딩 장치
US9256282B2 (en) Virtual object manipulation
US20120110456A1 (en) Integrated voice command modal user interface
US10048763B2 (en) Distance scalable no touch computing
US9268404B2 (en) Application gesture interpretation
US8457353B2 (en) Gestures and gesture modifiers for manipulating a user-interface
US8633890B2 (en) Gesture detection based on joint skipping
US8856691B2 (en) Gesture tool
US20110221755A1 (en) Bionic motion
US20110289455A1 (en) Gestures And Gesture Recognition For Manipulating A User-Interface
KR20110120276A (ko) 표준 제스처
US20140085625A1 (en) Skin and other surface classification using albedo
CN106796810A (zh) 在用户界面上从视频选择帧
US20120311503A1 (en) Gesture to trigger application-pertinent information

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513