JP2010500645A - 視覚ディスプレイのためのバーチャルコントローラ - Google Patents

視覚ディスプレイのためのバーチャルコントローラ Download PDF

Info

Publication number
JP2010500645A
JP2010500645A JP2009523752A JP2009523752A JP2010500645A JP 2010500645 A JP2010500645 A JP 2010500645A JP 2009523752 A JP2009523752 A JP 2009523752A JP 2009523752 A JP2009523752 A JP 2009523752A JP 2010500645 A JP2010500645 A JP 2010500645A
Authority
JP
Japan
Prior art keywords
independent
image
background
region
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009523752A
Other languages
English (en)
Other versions
JP4965653B2 (ja
Inventor
ディー.ウィルソン アンドリュー
ジェイ.シンクレイアー マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2010500645A publication Critical patent/JP2010500645A/ja
Application granted granted Critical
Publication of JP4965653B2 publication Critical patent/JP4965653B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)

Abstract

視覚ディスプレイのためのバーチャルコントローラを説明する。1つの実施形態において、カメラが背景に対する手の画像をキャプチャする。当該画像は手の領域と背景領域とに区分される。様々な手及び指のジェスチャは背景の一部を独立領域に分離する。その後、これらの独立領域には視覚ディスプレイを操作するためのコントロールパラメータが割り当てられる。複数のコントロールパラメータは、クリック、選択、実行、水平動作、垂直動作、スクロール、ドラッグ、回転動作、ズーム、最大化、最小化、ファイル機能の実行、及びメニュー選択の実行を含む、高度なコントロールのために、2つの手によって形成された複数の独立領域の特性と関連させられ得る。

Description

手の動き及び手の合図は、人間の表現及びコミュニケーションの自然な形態である。人間とコンピュータとの対話に対するこの知識の応用は、コンピュータ入力としての人間のジェスチャを提供する視覚ベースのコンピュータ技術の発展を導く。コンピュータの視覚は、人間ジェスチャ入力システムの実施ために、人間の手または体の重荷にならない動作のキャプチャの到達点を提供する。しかし、現在開発されている視覚ベースの技術の多くは、不自然な手のジェスチャ及び追加的な装置を必要とする不格好な動きを伴う。これらの技術は複雑かつ大がかりなものであり得、結果として、通常のコンピュータ使用位置から離れた繰り返しの手の動きによって効率性の減少をもたらす。
現在のコンピュータ入力方法は、概してキーボードを使用したテキスト入力及びマウスまたはスタイラスペンを介したカーソル操作の両方を伴う。キーボードとマウスとの間の繰り返しの切り替えは、ユーザに対する効率性を時間の経過に従って減少させる。コンピュータ視覚技術は、人間のコンピュータ入力タスクの非効率性を、入力として手の動きを使用することで改善する試行を行ってきた。この手の動きの使用は、キーボードの様な、コンピュータ使用中の通常の手の位置で検出が行われるならば、最も効果的であろう。現在の視覚ベースのコンピュータ技術の多くは、指差しまたは広げられた指を入力ジェスチャとして使用する。この手のジェスチャをキーボード上またはキーボード近傍で検出することの困難性は、タイピング中の自然な手の状態と指差しジェスチャとの類似性によって生ずる。
最近のコンピュータ視覚技術は、手のジェスチャ及び動きを感知するためのジェスチャ検出及びトラッキングパラダイムを使用する。これらの検出及びトラッキングパラダイムは、手の形及び位置を再生する高度なパターン認識技術を使用するので複雑である。検出及びトラッキングは、利便性のあるコンピュータの複雑さの達成の困難性、人間の手の動き及びジェスチャの曖昧さによる実際の検出の問題、及び2以上のユーザインタラクションを許容する技術に関するサポートの欠如を含む、様々な要因によって制限される。
本概要は、以下の発明を実施する形態でさらに詳細に説明される視覚ディスプレイのためのバーチャルコントローラの単純化された特徴及び概念を紹介するために提供される。本概要は、クレーム発明の本質的な特徴を特定することを意図するものでもなく、クレーム発明の範囲の画定に使用されることも意図されていない。
視覚ディスプレイのためのバーチャルコントローラの1つの実施形態において、カメラまたはその他のセンサが、背景に対する(バックグランドを背景に)1または複数の手の画像を検出する。画像は、手の領域と背景領域とに区分され、閉じたリングを作る親指及び他の指によって画像内で形成された異なる独立した背景領域、すなわち「穴」が様々な時間間隔(interval)でカウントされる(例えば、1つの穴は各々の手によって形成され得る)。このような態様で使用される場合の親指及び人差し指は、「親指及び人差し指インタフェース」(TAFFI:thumb and forefinger interface)として参照される。他のタイプの手及び指インタフェースも可能である。少なくとも1つのコントロールパラメータが、キャプチャされた画像内において認識された穴または独立した背景領域に割り当てられ、コントロールパラメータは、スクリーンまたはモニタ上に表示された画像のいくつかの特徴をユーザの手が操作することを許容する。例えば、手の親指と人差し指とが互いに触れて視覚的に独立した背景領域を形成するときに、マウスクリック機能がコントロールパラメータとして割り当てられる。コントロールパラメータが割り当てられて、当該コントロールパラメータに関連する独立した領域の形状及び/または位置における各々の変化に関連して、または独立した領域の形成または不形成(親指と人差し指が触れているときがハイ状態、親指と人差し指が開いているときがロー状態である)に関連して、表示された画像が変化し得る
図面を通して、同じ参照番号は同じ特徴及び同じ要素を参照する。
視覚ディスプレイのための例示的なバーチャルコントローラが実装され得る例示的なコンピュータベースシステムの概略図である。 例示的なバーチャルコントローラシステムのブロック図である。 図2のバーチャルコントローラシステムの例示的セグメンタで使用される画像区分の概略図である。 例示的な親指及び人差し指インタフェースコントロールの概略図である。 手及び指のジェスチャで視覚ディスプレイをコントロールする例示的な方法のフロー図である。
<概略>
本開示は、視覚ディスプレイのためのバーチャルコントローラを説明する。1つの実施形態において、例示的なシステムは、手及び指のジェスチャに適用される視覚ベースのコンピュータ技術を使用することによって、コンピュータモニタに特有の視覚ユーザインタフェースのようなディスプレイのナビゲーションを提供する。1つの実施形態において、ユーザはキーボード上でタイピングして、例えば、キーボードタイピングを中断して単に片方の手の親指及び指を(あたかも小さなスタイラスペンを持つように)触れさせることによって「親指及び人差し指インタフェース」すなわち「TAFFI」を起動する。例示的なシステムは、この事象を感知し、指のジェスチャによって形成された独立した背景領域の属性にコントロールパラメータを割り当てて、視覚ディスプレイ上の画像をコントロールする。
「バーチャルコントローラ」の「バーチャル」とは、ユーザの手との物理的接触において装置が存在しないことを言及している。従って、1つの実施形態において、バーチャルコントローラは、手及びキーボード上に位置してユーザの手の視覚画像によって1または複数のインタフェースを導くロジックに関連するカメラから成る。区分は、手のオブジェクトを背景(例えばキーボードを含む)から分離する。ユーザが人差し指を親指に触れさせた場合(上記TAFFI)、システムは、手のジェスチャによって作成された独立した背景領域を認識しかつタビュレート(tabulate)する。すなわち、システムは、接触して背景領域の楕円形の「ドーナッツホール」を囲んでいる完全に閉じた「リング」を形成する親指及び人差し指によって、背景の一部が、残りの主たる背景から視覚的に分離されていることを認識する。コンピュータカメラ以外の手段によって視覚画像を検出することも可能である。例えば、キーボードまたはテーブルに埋め込まれている電極またはアンテナの2Dのアレイは、静電気またはRF技術を使用した「イメージング」が可能であり、カメラによる画像のキャプチャと同様の態様において処理されることが可能である。
1つの実施形態において、視覚オブジェクトが手の領域によって、または1つ変形例においては画像内の手の領域及び/または画像の縁によって、背景の他の部分から視覚的に断絶、すなわち分離されたときに、独立した背景領域が区別可能な視覚オブジェクトとしてみなされる。手及び指の画像(群)が独立した背景領域の境界を特定するための区切りエンティティである場合、親指と人差し指とが「閉じた」(互いに触れた)ときに形成される手の親指と人差し指との間の楕円領域は、ほぼ親指と人差し指が触れた瞬間に新しい独立背景領域として適切にカウントされる。新しい独立背景領域は、連結コンポーネント解析の技術において「連結コンポーネント」(connected component)と考えられ得る。このような連結コンポーネントまたは独立背景領域「穴」は、本明細書において「独立背景領域」または単に「独立領域」と称される。この技術用語は、例えば、連結コンポーネント(群)解析の技術において区別可能とみなされる視覚オブジェクトを意味することを理解されたい。
親指と人差し指とが「開いた」場合、新しく形成された独立背景領域は消滅し、再度さらに大きな独立背景領域の一部となる。
連結コンポーネント解析の技術に関して、連結コンポーネントは、属性の類似性を考慮して共にグループ化された類似属性を有するバイナリ画像内のピクセル群である。連結コンポーネントの各々は、人間の観測者によって観測されるような区別可能な視覚オブジェクトにしばしば対応する。画像の手または指の領域部分によって他の背景部分から視覚的に独立している背景の部分の各々は、独立領域または、連結コンポーネント解析の用語では背景連結コンポーネントから区別可能な新たに形成された連結コンポーネントとして定義される。
当然ながら、他の実施形態は、手の他の指の動きまたは接触を使用して「穴」または「独立領域」を形成しても良い。従って、「TAFFI」は、背景の一部を残りの全体的な背景から分離する指(群)及び手(群)の構成を意味すると大まかに解釈される。例えば、人間の手の親指及び任意の他の指、または親指を除いた2本の指も「TAFFI」インタフェースを形成可能である。しかしながら、説明を簡素化するために、実施形態は全体として「親指及び人差し指」に関して説明される。
一旦、検出モジュールが全体の背景領域から新しい独立背景領域を識別すると、システムは新たに認識された独立領域に、視覚ユーザインタフェース上に表示された画像を操作することをユーザに可能とさせる1または複数のコントロールパラメータを関連付ける。視覚ユーザインタフェース上に表示された画像は、独立背景領域の位置、形状、さらには存在がトラッキングされるときにコントロールパラメータを介して変化させられ得る。
1つの実施形態において、例示のシステムは、複数のコントロールパラメータにわたって表示された画像のユーザコントロールを許容する1以上の独立領域の検出を提供し、ここにおいて片方または両方の手が関連することが可能である。複数のコントロールパラメータと複数の独立領域との関連付けは、検出された独立領域の各々の形状、位置、及び存在の変化に関連する表示された画像のコントロールを可能とする。従って、表示された画像の操作は、クリック、選択、実行、水平動作、垂直動作、スクロール、ドラッグ、回転動作、ズーム、最大化及び最小化、ファイル機能、メニューの展開及び使用等を含み得る。さらに、コントロールパラメータは認識された複数の独立領域間の関係にも割り当てられる。従って、例えば、2つの独立領域が互いの関係において移動するときには、様々なコントロールパラメータがそれらの間の距離に付随せしめられる。例えば、各々の手の独立領域が互いから離れるように移動するときには、画像は、ズームまたは引き伸ばす(stretch)ことができる、すなわち変化する独立領域間の距離の次元(dimension)もしくはベクトルにおいて延伸し得る。
記載したバーチャルコントローラのためのシステム及び方法の特徴及びコンセプトは、多くの異なった環境において実施されることができ、バーチャルコントローラの実施は、以下の例示的なシステム及び環境との関連において説明される。
<例示的環境>
図1は、例示的システム100を図示していて、そこにおいて上述された親指及び人差し指インタフェース、「TAFFI」の様なバーチャルコントローラインタフェース技術が実施され得る。例示的システム100は、視覚ユーザインタフェース(モニタ、スクリーンまたは「ディスプレイ」103)上の「ディスプレイ画像」102、コンピューティングデバイス105と結合されているカメラ104、マウス106、キーボード108、文脈の中で示されているユーザの手110(もちろんシステムハードウェアの一部ではない)、及びTAFFIとして使用されるユーザの手110(1)によって形成された視覚的に独立した領域112を含む。カメラは、例示的TAFFIエンジン115によって使用されるキャプチャされた手の画像114を取得する。(キャプチャされた画像114は、説明の目的のためだけに図示され、例示的システム100はカメラがキャプチャしたものを表示する必要はない。)TAFFIエンジン115をホスティングするコンピューティングデバイス105は、デスクトップ、ラップトップ、PDAまたは他のコンピューティングデバイス105であることができ、これはカメラ104からの入力を良好に受け入れ、TAFFIエンジン115は特定の手のジェスチャを検知してこれらをユーザインタフェースの入力として使用する。
カメラ104は、片方の手110(2)が「通常の」(非TAFFIの)タイピング位置であるときに、TAFFIを含むもう片方の手110(1)の画像をキャプチャする。キャプチャされた画像114は、TAFFIを形成する手110(1)に関する独立領域112の検知を示す。しかし、追加的な入力エントリのために未だにタイピングしているまたはマウスを使用している手110(2)に関する独立領域112は検知しない。カメラ104による独立領域112の検知は、キャプチャされた画像114の中で、暗くされた領域(112)として表示される。このキャプチャされた画像114は、更に後に説明されるプロセスのフェイズを示している。ここにおいて、例示的システム100は、手110と背景とを、大きな背景領域と、手の領域と、手110(1)のTAFFIによって形成された独立領域112を構成する小さい背景領域と、の様に連続的で区分化された領域に分離する。
システム100は、視覚ベース(コンピュータビジョン)システムであり得、このシステムはカメラ104またはその他のセンサによって検知された手のジェスチャ入力を介して視覚ユーザインタフェースのコントロールを提供する。換言すれば、例示的システム100は、コンピューティングデバイス上で動作させられ得る多数の異なったタイプのプログラムまたはアプリケーションの視覚ユーザインタフェースディスプレイ出力をコントロールしても良く、これにはウェブベースのディスプレイを含む。従って、例示的システム100は、マウス106、およびもし必要ならば、視覚ユーザインタフェース102内に表示されるオブジェクトの選択、移動、及び変更、または更にはテキスト入力の機能を含むキーボード108の様な従来のユーザ入力デバイスにとって代わり得る。
バーチャルコントローラは、特定の手のジェスチャ及び動きをユーザ入力として検知する。示された実施形態において、検知のために使用されるカメラ104は、手及びキーボードの上のどこかに配置され、ディスプレイ103に取り付けられる。この位置に配置されるカメラ104は、キーボード108の大部分を少なくとも覆う視野を有していて、通常のタイピング位置内のユーザの手110の平面において粗く焦点が合されている。1つの実施形態において、赤外線または可視光LEDの様な光源が配置され、手110及びキーボード108を照らすことができ、周囲の照明の変化の影響を軽減することができる。いくつかのケースにおいて、周囲の照明は十分であり、画像を取得するためにカメラに対して追加の光源は必要ない。変形例において、カメラ104及び/または追加の光源は、キーボード108の様々なキーの間に配置されることができ、カメラ104は上方を向いていて、キーボード108上の手のジェスチャ及び動きを検知することが可能である。
示された例示的システム100において使用され得る例示のカメラ104は、30Hzのレートにおいてグレイスケール画像の最大解像度を確保できるLOGITECH社(カリフォルニア州、フリーモント)のウェブカメラ104である。カメラ104は、キーボード108もしくはディスプレイ103または適当な場所に取り付けられ得る。
例示的システム100において、ユーザの手110(1)はTAFFIを形成し得る。TAFFIは、親指と人差し指とが接触したときに残りの背景領域から独立した視覚領域を形成する。1つの実施形態において、潜在的なTAFFI及び1つまたは複数の独立領域112の存在または不在は、例えば、手110がタイピング中なのか入力のためのジェスチャを形成しているのかの様な両方の手110の状態の連続的な監視及び判定をするリアルタイム画像処理ルーチンによって検出され、これはコンピューティングデバイス105において実行される。この処理ルーチンは、最初にユーザの親指と人差し指とが接触中かどうかを判定する。指が接触中で、TAFFI構造の独立領域112が認識されている場合、接触部の位置は2次元的にトラッキングされる。例えば、親指と人差し指との接触の位置は指示矢印の位置またはカーソルの位置としてコンピュータ105内に登録され得る。従って、1つの実施形態において、このTAFFI構造位置及びそれらに関連する独立領域112の認識は、カーソルの位置を定めるためかつ表示された画像をコントロールするために使用される。
ある時間間隔内で独立領域112が形成されて解消され、その後再び形成される独立領域112を形成する素早い手の動きは、マウスの「クリック」を模擬つまり再現し得、ユーザに表示されたアイテムの選択を許容する。独立領域112の素早い形成、解消、再形成は、さらにユーザに、表示された画像の選択された部分のドラッグまたはスクロール、表示された画像102の水平、垂直または斜め方向の移動、回転、ズーム等を許容する。さらに、1つの実施形態において、独立領域112を形成したTAFFIがカメラ104に接近または離間する動きは、表示された画像のズームイン及びズームアウトを惹起する。
複数のTAFFIを介した表示画像のコントロールは、複数の手110を含む。説明された図1の例示的システム100は、TAFFIコントロールの実施形態であって、そこにおいて、画像操作は1つの手110(1)のTAFFIから進行され、その間、反対の手110(2)は、キーボード108においてタイピングをして他の入力作業を実行する。しかし、TAFFIコントロールの他の実施形態において、両方の手110は各々のTAFFIを形成することができ、カメラ104によって少なくとも2つの独立領域112が検知され得る。2つの手のTAFFIコントロールは、視覚ユーザインタフェースの良好に調整されたナビゲーションのための入力コントロールを提供し得る。両方の手のアプローチは、ズームイン、ズームアウト及び回転する動作に加えて複数方向の画像操作を提供し、ここにおいて、複数のTAFFIの独立領域112の互いの関係における相互作用の故にこの画像操作はさらに高度化される。
<例示的システム>
図2は、例示的バーチャルコントローラシステム100の様々なコンポーネントを図示している。図示されたバーチャルコントローラシステム100の構成は、1つの例示的な構成にすぎない。示されたコンポーネントまたは他の類似のコンポーネントの多数の構成は本発明の範囲内で可能である。例示のバーチャルコントローラシステム100は、TAFFIエンジン115の様ないくつかのコンポーネントを有し、これらはハードウェア、ソフトウェアまたはハードウェア、ソフトウェア、ファームウェアの組み合わせ等において実行され得る。
例示的システム100は、カメラ104または他の画像センサのようなハードウェア202、キーボード108及びディスプレイ103を含む。TAFFIエンジン115は、画像セグメンタ204、独立領域トラッカ206、リンクモジュール210を含むコントロールパラメータエンジン208の様な他のコンポーネントを含む。
1つの実施形態において、カメラ104は、背景に対する1または複数の手110と解釈される画像を検知する。キャプチャされた画像114のピクセルは、画像内の背景領域(群)から画像内の手110を識別するために使用されるであろう属性の対比値を含む。背景と手を対比するのに望ましい属性は、明度、グレイスケール、色コンポーネント強度、色平面値、ベクトルピクセル値、色マップインデックス値等を含み得る。例えば、変形例において、赤外線照明が典型的な可視スペクトル照明の代わりに使用されるような場合、カメラ104はこれらの属性の1またはその他の特性を使用して背景ピクセルから手ピクセルを識別する。ときどき、赤外線を使用したキャプチャされた画像114の取得は、異なった肌の色調の多くの人間の手が、人種の違い、日焼け等によって可視スペクトルにおいて様々な色及び色調であるにもかかわらず、背景に対して同様のコントラストに見えるという結果を招く。従って、画像における背景に対する手の検出は、眼に見える肌の色調に関わらず赤外線において容易に達成され得る。
従って、セグメンタ204は、例えば、上述したコントラストまたは明度属性に従ったバイナリ画像区分によって、キャプチャされた画像114を1つまたは複数の手の領域110及び背景エリア(群)に分離する。バイナリ画像区分は、キャプチャされた画像114に存在する任意の他の(前方にある)オブジェクトまたは領域のピクセルから背景領域のピクセルを識別する。1つの実施形態において、セグメンタ204は、背景領域に対応する第1の判定ピクセルによって画像を分離する。背景領域のピクセルには、バイナリ「1s」のような値が各々割り当てられる。キャプチャされた画像114の残りのピクセルには、「0s」の様な異なる値が各々割り当てられる。
図3は、セグメンタ204によって実行されるバイナリ画像区分の例300を図示している。キャプチャされた画像114は、背景オブジェクト302及び手前にある手オブジェクト304を含む。様々な技術が区分された画像を生成するために存在し、そのほとんどが当該分野で良く知られている。1つの実施形態において、セグメンタ204は、キャプチャされた画像114すなわち例300内に存在する任意の他のオブジェクトまたは領域から背景領域を認識する。バイナリ画像内でピクセルを区別することは、背景に対応するピクセルの各々を「オン」または「1」の様な特定の値として考慮することで達成される。その後、画像内の他のピクセルの値の各々は、保存されている背景画像の値と比較され得る。対応する背景ピクセルの値よりも著しく明るい任意の他のピクセル値は、新しい領域または画像オブジェクトの一部とみなされ、「オフ」と分類されるかまたは「0」の様な異なる値を与えられる。
例300は、背景領域302の画像の他の領域からの色の相違における区別も示している。背景領域302は、第1の値と同等とされる暗い色として示されている。手のオブジェクト304は、第2の値と同等とされる明るい色として示され、背景領域302から区別される。
図2に戻ると、独立領域トラッカ206は、背景の独立領域112の数を固定の時間間隔で判定する。非背景の手の領域(すなわち画像の境界)の少なくとも一部によって背景の他の部分から視覚的に独立している背景の各々の部分は、独立領域112として定義される。検知された独立領域112の各々に関して、独立領域トラッカ206は、「0」ピクセルに完全に囲まれた「1」ピクセルの領域を発見する(すなわち、主要な背景を含む残りの「1」ピクセルにもはや連続的に接続されていない)。換言すれば、独立領域トラッカ206は、TAFFIの親指と人差し指との接触ジェスチャによって囲まれた隔離された背景の領域を発見する。
例えば、ディスプレイ103上のオブジェクトを選択するユーザの意図を示す背景の分離された領域としての独立領域112の正確な検出は、カメラ104によって検出されたキャプチャ画像114内に独立領域が完全に入っている場合に保証される。すなわち、キャプチャ画像114の境界上に独立領域112の部分がない場合である。
1つの実施形態において、独立領域112の一部が「オフスクリーン」すなわちキャプチャ画像114の一部にとして含まれていない場合でも、独立領域トラッカ206の変形例は独立領域112を検出できる。このことは、手110の一部によって、またはキャプチャ画像114の境界の一部によって、主要な背景から切り離された背景の領域として独立領域112を定義することによって達成され得る。しかし、これは単に、背景の独立領域を区切る方法の1つの変形例である。
1または複数の独立領域の存在が一旦確立されると、リンクモジュール210は、ユーザインタフェース上の視覚画像ディスプレイ102の操作に関するコントロールパラメータを、カウントされた独立領域の各々に関連付ける。操作は、視覚ユーザインタフェース内のカーソルコントロールを含む多数の機構を含む。視覚画像ディスプレイ102のカーソルコントロールは、独立領域が検出されてコントロールパラメータに関連付けられた場合にのみ達成され得る。独立領域の検出が停止する場合、コントロールパラメータとの関連付けは停止してカーソルコントロール及び操作は不能化される。カーソルコントロールは、マウスからの入力を模擬する「クリック」動作を含む多数の操作を含む。クリック動作は、視覚画像ディスプレイ102の所望の部分の選択、トラッキング及びドラッグ、並びにカーソルの複数方向の移動及びコントロールを提供する。
リンクモジュール210は、特定のコントロールパラメータと手もしくは指のジェスチャまたはジェスチャの変化との関連付けを提供する。一度、特定のパラメータが手または指のジェスチャに割り当てられ、または、関連付けられると、コントロールパラメータエンジン208は、手のジェスチャとコントロールパラメータとが互いにどのように関連しているかについてさらに特定の意味を持たせる。例えば、親指と人差し指との単なる接触は、「オン‐オフ」、バイナリ、「ハイ‐ロー」またはその他の2状態のインタフェースもしくはスイッチとして使用され得る。その一方で、連続的に変化可能な手のジェスチャ属性が割り当てられて、連続体にわたるディスプレイ画像102の緩やかな移動の様なディスプレイ画像操作にわたる様々なコントロールが提供され得る。
リンクモジュール210が、様々なコントロールパラメータを割り当てて、例えば対応する独立領域の部分または形状の変化に関して表示された画像102のコントロールをする場合、独立領域の各々に属する全てのピクセルの平均位置を計算し、手がTAFFIを形成したときに作成された形状の部分の変化のトラッキングをすることで変動性アスペクトが得られる。手の動きは、独立領域の楕円体の形状の方向を変え、割り当てられたコントロールパラメータに関連する表示属性の対応する変化を引き起こす。
<表示された画像のコントロール>
図4は、キャプチャ画像114のコンテキスト内で説明された例示のTAFFI400を示している。キャプチャ画像114の図示された部分は、背景領域302、手のオブジェクト領域110、独立領域112、及び画像境界408を含む。領域302、110、及び406の各々は、他と区別可能な連結された領域すなわち連結コンポーネントとして説明され得る。TAFFIエンジン115は、独立領域112を他の連結コンポーネント302及び110から識別する。
従って、TAFFIエンジン115は、画像の連結コンポーネントの計算結果を、視覚ディスプレイのバーチャルコントローラの実施の基礎として使用し得る。さらに詳しくは、連結コンポーネントは、ピクセルのサブセット、すなわち画像の領域であり、そこにおいてピクセルの各々はサブセット内で他のピクセルと「連結されている」。「連結されている」という用語は、ピクセルのセットを示し、そのピクセルのセットは、そのセットに属するピクセルを横切ることによって任意の他のピクセルから全てのピクセルに達し得るピクセルのセットである。効率的な技術は、画像内の連結コンポーネントのセットの計算に関して現在存在している。連結コンポーネントの技術は、画像内の形状の特性を判定するために有効な手段である。なぜならば、それらは画像全体のピクセル内の多くのピクセルから成るコンポーネントの小さなセットの検査を許容するからである。
連結コンポーネントの計算プロセスは、非本質的(extraneous)な連結コンポーネントの検出を生じ得る。これらの必要のない検出は、TAFFIまたはその他の例示的なインタフェースによって形成された関連する独立領域の判定を混乱させる可能性があり、バーチャルコントローラの実施を妨げる。1つの実施形態において、余分な連結コンポーネントの非本質的な検出は、所定の許容できる閾値より少ないピクセル数を有する連結コンポーネントを放棄することで克服され得る。
1つの実施形態において、TAFFIエンジン115は、認識された独立領域112が画像の境界内部に完全に位置していること、すなわち背景領域302の境界内に完全に位置していることを検証する。時として、この十分なサイズでありかつ画像の境界408上のピクセルを含まない独立領域の制限的な検出は、所望の独立領域406の信頼性のある識別を強化する。この1つの実施形態において、偽の連結コンポーネント候補、すなわち画像内に完全に位置しておらずかつ画像の境界408上の部分を含んでいる候補を排除することで、適切な検出が達成される。
更なる他の実施形態において、TAFFIエンジン115は、キャプチャ画像114内の独立領域112の部分及び当該画像の境界408を覆うオフ‐スクリーンに位置する部分を検出することで独立領域112を検出する。この実施形態において、連結コンポーネント解析は、独立領域112が画像の境界408に達する、かつ/または境界408を越えるまで連続的である限り、進行する。このことは、手がTAFFIを形成し、かつ独立領域112がカメラの視野内に部分的に存在することで検出画像内に部分的に存在するだけの場合に発生し得る。
1つの実施形態において、TAFFIエンジン115は、独立領域112の中心を使用して表示された画像102内のカーソル位置及びカーソルコントロールを確立する。TAFFIエンジン115は、認識された独立領域112の各々に関して統計的な解析を実行することができ、そこにおいて独立領域トラッカ206は、独立領域112の各々に属するピクセルの全ての「セントロイド」(centroid)または平均ピクセル位置を演算する。この演算された位置は、多数のピクセル位置の合計であり、この実施形態の安定性と精密性に帰結する。平均ピクセル位置は、連結コンポーネントの演算と同一のステージにおいて演算されることができ、低い演算コストで迅速な結果を提供する有効な技術に帰結する。
視覚ディスプレイのコントロール手段としての独立領域406の出現と消滅に関連して、1つの実施形態において、独立領域112に属するピクセルの全ての平均ピクセル位置は、繰り返し検出プロセスの1つの時間間隔中に新たに独立領域112が検出された場合にのみカーソル位置及びコントロールを確立する。
独立領域406の検出を伴うカーソルコントロールは、マウス入力デバイスを模擬し得る。マウス106と類似して、カーソル操作に関する相対的な動きは、TAFFI400によって形成された検出された独立領域112の現時点及び過去の位置から演算され得る。親指と人差し指の結合は、楽なつかむ動作を許容する自然な動きであり、マウス入力デバイスと同様である。TAFFI検出にカルマンフィルタ(Kalman filter)を使用することは、視覚ディスプレイ103上のカーソルの動作をスムーズにし得る。
例示のTAFFIエンジン115は、閾値の時間間隔内で独立領域112を素早く形成、解消、再形成することによって、表示された画像102のオブジェクトを選択することをサポートする。これらの動作は、機能の「選択」または「実行」のためのマウスボタンの「クリック」を模擬し、選択されたオブジェクトのトラッキングからドラッグの遷移をサポートし得る。例えば、ドラッグは、独立領域112の最新の形成の直後に「マウス‐ダウン」イベントを模擬することで実行される。対応する「マウス‐アップ」イベントは、親指と人差し指を開くことによって独立領域112が消滅する時に生成される。例えば、独立領域の形成の瞬間において、視覚ユーザインタフェースディスプレイ上のドキュメント内のスクロールバーの様なオブジェクトが選択され得る。この選択の直後、独立領域112を形成する手の部分が、ドキュメント内で下方にスクロールさせるためにマウス106が動かされるように動くことができる。
TAFFIエンジン115は、単に従来のマウスベースの機能を模擬するよりも、視覚ディスプレイ102の更なるコントロールを提供し得る。独立領域112(連結コンポーネント)のピクセル位置の平均値及び共分散は、ピクセル位置の共分散マトリクスの固有ベクトルを演算することによって、独立領域112の形状の方向性のある楕円体モデルに関連させることが可能である。固有ベクトルの大きさの平方根が、その長軸及び短軸の空間的な広がりを与える一方で、楕円の方向は、1つの固有ベクトルの180度の不定値(ambiguity)までの逆正接として定義される。結果としての不定値は、演算された方向または+180度回転させられた方向を使用して前のフレームからの方向における差異を最小化することで処理され得る。
TAFFIエンジン115は、例示的なTAFFI400によって作成された独立領域112の楕円体モデルから、位置、方向、及び大きさにおいて同時に起こる変化を演算し得る。様々な実施形態において、大きさの変化は、カメラへ向かう手の動き及びカメラから離れる手の動きを検出するために使用される。このことは、独立領域112を形成するユーザの手が通常はカメラ104からの距離の固定幅内に保持されていて、独立領域112のサイズ及び形状は許容範囲内でのみ変化し、方向における視覚的変化は背景領域302またはキーボードの平面に若干制限されることを前提とする。1つの実施形態において、重要な考慮事項は、インタラクションを通して、ユーザがカメラまたはキーボードに対して手を上げたり下げたりする時に、ユーザは独立領域のサイズ、すなわちTAFFI400によって形成された楕円体の穴のサイズを維持しなければならないことである(すなわち、いくつかの実施形態において、高さの変化は独立領域形状の実際の変化と混同されてしまう)。他の実施形態において、TAFFIエンジン115は、コンピュータ視覚理論を使用して、手が上ったときまたは下がったときの独立領域のサイズの変化を補正する。
1つの実施形態において、TAFFIエンジン115は、WINDOWS(登録商標)LIVE VIRTUAL EARTH(登録商標)ウェブサービスまたは他の類似のインターネットマップサービス(ワシントン州 レッドモンド)で提供されるような、空中及び衛星イメージの片手ナビゲーションのために独立領域112の楕円体モデルを使用する。バーチャルマップの視野全体にわたる動きによるナビゲーションは、テーブルまたはキーボードの様な背景領域302にわたって動く独立領域を有するTAFFI400によって達成され得る。マップ全体の回転は、キーボードの2次元平面内の独立領域を形成する手の回転によって達成され得る。その一方で、ズームイン及びズームアウト機能は、手をカメラ104に近づけるかまたは遠ざける様に動かすことで達成される。
TAFFIエンジン115は、カーソルコントロール及びナビゲーションのために2またはそれ以上の手の使用が可能である。フレームとフレーム(frame-to-frame)との対応規範(strategy)は、独立領域112の各々が、カメラによって検出される第1領域、第2領域、第3領域等として、入力に関して連続的にトラッキングされることを許容する。カメラによる検出に対する背景領域302に対する両手の配置、及び背景領域302に関連するその後の動きは、独立領域406の楕円体モデルの方向を変更して、リンクモジュール210によって割り当てられたコントロールパラメータを介した手の動きの位置及び配置に関連した視覚ユーザインタフェースディスプレイの動作を生起する。
複数の手または指のジェスチャに対応する複数のコントロールパラメータの同時に行われるトラッキングは、種々の両手インタラクションを可能とする。インターネットバーチャルマップの例をもう一度参照すると、バーチャルマップのナビゲーションのための2つの手の入力は、ディスプレイ103上のマップ視野の回転、並行移動、及びスケーリングにおける同時変化を許容する。独立領域406に関する配置評価が手の位置から導かれるので、両手技術は、片手技術の動きの評価よりもさらに安定した動きの評価を提供することが可能である。従って、両手技術は以下の操作を提供する:同じ回転方向において同時に両方の手が動くことによる時計回り及び反時計回り回転動作;両方の手が所望の方向に動くことによる視覚ユーザインタフェースディスプレイの視野全体の垂直または水平方向の動作;並びに、両方の手が互いに近づきその後に互いに離れて広がることで達成される視覚ユーザインタフェースのズームイン、及び別々のスタート位置から手を1つにすることによって実行される視覚ユーザインタフェースのズームアウトといったズーム機能。
独立領域112の楕円体モデルから演算される位置、方向、及び大きさの同時変化は、標準のコンピューティングデバイス環境以外の実施において使用され得る。例えば、TAFFIエンジン115は、カメラ及びテーブル上のプロジェクタを含むが、マウス、タッチパネル、またはキーボードの様な従来的な入力デバイスを含まないインタラクティブテーブル表面システムをコントロールし得る。ユーザはテーブルの表面上に手を配置して独立領域406を形成し、テーブル表面及び当該表面上に表示される要素(material)に関する操作及びインタラクションを提供する。類似の実施形態は壁にディスプレイ画像を投影するシステムを含み、そこにおいてユーザはTAFFI400としての手及び指を介してディスプレイ画像とインタラクションしかつそれをコントロールする。例えば、TAFFIエンジン115は、ユーザに投影プレゼンテーション中のスライドの変更を許容し得る。
<例示的方法>
図5は、手または指のジェスチャを介した視覚ディスプレイの例示的コントロール方法500を示している。当該フローチャートにおいて、動作は個々のブロック内に要約されている。実施形態によれば、例示的方法500は、ハードウェア、ソフトウェアまたはハードウェア、ソフトウェア、ファームウェア等の組み合わせによって、例えば、例示的なバーチャルコントロールシステム100及び/または例示的TAFFIエンジン115のコンポーネントによって実行され得る。
ブロック502において、カメラ104を介した背景に対する1または複数の手110の画像がキャプチャされる。コントラスト、色、または明度は、手と周囲の背景領域とを識別可能なピクセル属性であり得る。手は、コントラストのある背景に対してさらに容易に検知される。手の検知に関する1つのシナリオは、キーボード108におけるタイピング中になされる。カメラ104は、手110及び背景領域部分として検知されるキーボード108の画像をキャプチャする。赤外線LED照明もこの方法に使用されることができ、これらは、肌の色調においてカメラ104と同様に手を最も良く見えるようにするコントロールされた照明法を提供する。
ブロック504において、画像はバイナリ区分によって手のオブジェクトと背景領域とに区分される。例えば、背景領域ピクセルは、画像内の任意の他のオブジェクトまたは領域から識別されかつ区別される。その後、背景領域ピクセルは値によって分類される。画像内の他のオブジェクトまたは領域のピクセルは、続いて識別されて、保存された背景画像のピクセルの値と比較される。対応する背景ピクセル値よりも著しく明るい任意のピクセル値は、新しい領域または画像の一部と分類されて、背景領域ピクセルと異なる値が与えられる。この画像の異なった領域の区別及び分類は、画像のバイナリ区分である。
ブロック506において、背景の多数の独立領域は繰り返しの検出時間間隔内でカウントされる。独立領域406は、1つの手のオブジェクト110の少なくとも一部によって背景の他の部分から視覚的に独立している背景302の部分の各々として定義される。例えば、手が親指及び人差し指インタフェースすなわちTAFFIとして働くとき、手の親指と人差し指とは囲まれた領域を形成し、残りの全体の背景領域から独立する。この囲まれた領域は、新しい独立領域112を形成して、これに視覚ディスプレイを操作するためのコントロールパラメータが割り当てられ得る。1つの実施形態において、本発明の方法は、検出された独立領域は本当に独立しているかどうか、換言すれば、場合において、独立領域が画像の境界上のピクセルを有しているかをテストする。
ブロック508において、ディスプレイ上の画像の操作のためのコントロールパラメータは、考慮された独立領域の各々またはそれらの属性に関連付けられている。例えば、TAFFIとして使用された手によって形成された独立領域112は、カメラ104によって検知され、かつユーザにユーザインタフェースディスプレイ上のオブジェクトを選択することを可能とさせるコントロールパラメータと相互に関連付けられる。続いて、第2番目に検知された独立領域112が、ユーザに、前もって選択されたオブジェクトをユーザインタフェースディスプレイ上の異なった位置に移動させることを可能とするユーザインタフェースコントロールパラメータと相互に関連付けられる。この迅速な第1及び第2番目の独立領域112の検出の継続は、独立領域406の素早い形成、解消、再形成の結果であり得ることができ、検知された独立領域112に関連してマウスの様な「クリック」機能に帰結する。
ブロック510において、表示された画像は、コントロールパラメータに割り当てられた独立領域の属性の変化の各々に関連して、コントロールパラメータを介して変化させられる。例えば、独立領域112の位置は、検知カメラ104に関連して左右に移動することができ、表示された画像102はそれに従い得る。検知された独立領域112とコントロールパラメータとの関連付けは、TAFFIとして使用されている手の動き、位置及び関係に従った表示された視覚画像102の操作を許容する。
上述の方法500及び他の関連する方法は、コンピュータ実行可能命令を組み合わせることによって実施されても良い。一般的に、コンピュータ実行可能命令は、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、手順、モジュール、ファンクション及びそれに類したものを含み得、それらは特定の機能を実行するまたは特定のアブストラクトデータタイプを実施するものである。本発明の方法は、通信ネットワークを介して接続されているリモート処理デバイスによって機能が実行される分散型のコンピューティング環境において実行されても良い。分散型のコンピューティング環境において、コンピュータ実行可能命令は、メモリ記録デバイスを含むローカル及びリモートコンピュータ記憶媒体の両方に配されていても良い。
<結語>
例示的システム及び方法が、構造的特徴及び/または方法論的な動作に特化して説明されてきたが、添付の特許請求の範囲内で画定される本発明は、説明された特定の特徴または動作によって制限されるべきでないと理解されるべきである。むしろ、特定の特徴及び動作は、クレームされた方法、デバイス、システム等の実施の例示的形態として開示されている。

Claims (20)

  1. カメラを介して背景に対する1または複数の手の画像を検出するステップ(502)と、
    前記画像を手の領域と背景領域とに区分するステップ(504)と、
    時間間隔毎に前記背景の多数の独立領域をカウントするステップ(506)であって、前記手の領域の1つの少なくとも一部によって前記背景の他の部分から視覚的に独立している前記背景の部分の各々が、独立領域として定義される、ステップと、
    ユーザインタフェース上に表示された画像を操作するためのコントロールパラメータを、カウントされた独立領域の各々と関連付けるステップ(508)と、
    前記コントロールパラメータに関連付けられる前記独立領域の形状及び/または位置の変化の各々に関連して前記コントロールパラメータを介して前記表示された画像を変化させるステップ(510)と、
    を含むことを特徴とする方法。
  2. 前記独立領域が再度連結した場合に、関連する独立領域からコントロールパラメータを切り離すステップをさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記コントロールパラメータは、閾値時間間隔内で独立領域が形成、解消、および再形成した場合に、マウスボタンの動作をエミュレーションすることを含むことを特徴とする請求項1に記載の方法。
  4. 前記コントロールパラメータは、マウスポインタのエミュレーション及び動作を含むことを特徴とする請求項1に記載の方法。
  5. 前記コントロールパラメータは、カーソルの動作を含むことを特徴とする請求項1に記載の方法。
  6. 前記コントロールパラメータは、前記ユーザインタフェースに関して前記ディスプレイ画像の動作を含むことを特徴とする請求項1に記載の方法。
  7. 前記動作は、垂直動作、水平動作、または回転動作のうちの1つを含むことを特徴とする請求項6に記載の方法。
  8. 前記コントロールパラメータは、前記ユーザインタフェース上の前記ディスプレイ画像のサイズをズームまたは縮小することを含むことを特徴とする請求項1に記載の方法。
  9. 前記コントロールパラメータと、各々の手の画像によって各々形成される2つの独立領域間の関係と、を関連付けるステップをさらに含むことを特徴とする請求項1に記載の方法。
  10. 前記コントロールパラメータは、前記2つの独立領域間の距離の変化に関連して表示された画像を引き延ばすこと含むことを特徴とする請求項9に記載の方法。
  11. 2つの独立領域間の関係と関連付けられた前記コントロールパラメータは、
    前記2つの独立領域間のラインの回転に関連して前記表示された画像が回転することと、
    両方の独立領域が同様のアーク方向に動く場合に時計回りまたは反時計回り方向に前記表示された画像が回転することと、
    両方の独立領域が同じ方向に同時に移動する場合に前記表示された画像全体が移動することと、
    独立領域間の距離が変化する場合に前記表示された画像をズーミングすること、
    の1つを制御することを特徴とする請求項9に記載の方法。
  12. 前記手の領域の1つの親指領域及び人差し指領域は、親指及び人差し指インタフェース(TAFFI)を定義し、前記親指領域及び前記人差し指領域は、視覚的に互いに接触して前記背景の一部を前記背景の他の部分から視覚的に切り離して独立領域を形成することを特徴とする請求項1に記載の方法。
  13. 背景に対する1または複数の手を含む画像を検出する画像センサ(104)と、
    前記画像を1つまたは複数の手の領域と前記背景とに区分する画像セパレータ(204)と、
    時間間隔毎に前記背景の多数の独立領域をカウントするトラッカ(206)であって、 前記手の領域の1つの少なくとも一部によって前記背景の他の部分から視覚的に独立している前記背景の部分の各々が、独立領域としてされる、トラッカと、
    ユーザインタフェース上に表示された画像を操作するためのコントロールパラメータとカウントされた独立領域の各々とを関連付けるリンクモジュール(210)と、
    を備えたシステムであって、
    前記コントロールパラメータに関連付けられる前記独立領域の形状、位置、またはその両方の各々の変化は前記コントロールパラメータを介して前記表示された画像を変形させることを特徴とするシステム。
  14. 前記独立領域が再度連結された場合に、前記リンクモジュールは、前記それぞれのコントロールパラメータを切り離すことを特徴とする請求項13に記載のシステム。
  15. 前記リンクモジュールは、閾値時間間隔内において独立領域が形成、解消、および再形成した場合、マウスボタンの動作をエミュレーションするコントロールパラメータを関連付けることを特徴とする請求項13に記載のシステム。
  16. 前記リンクモジュールは、コントロールパラメータに関連付けてマウスポインタの画像、カーソルの画像、及び前記ディスプレイ画像の少なくとも一部から成る視覚インジケータ群のグループから選択された視覚インジケータの動作をエミュレーションし、前記動作は、垂直動作、水平動作、回転動作、ズームイン動作、およびズームアウト動作から成る動作のグループから選択された動作を含むことを特徴とする請求項13に記載のシステム。
  17. 前記リンクモジュールは、前記コントロールパラメータと、各々の手の画像によって各々形成される2つの独立領域間の関係と、を関連付けすることを特徴とする請求項13に記載のシステム。
  18. 前記リンクモジュールは、コントロールパラメータを関連付けして、前記2つの独立領域間の距離の変化に関連して前記表示された画像を引き伸ばすことを特徴とする請求項17に記載のシステム。
  19. 前記リンクモジュールは、コントロールパラメータを関連付けして、前記2つの独立領域間のラインの回転に関連して前記表示された画像を回転させることを特徴とする請求項17に記載のシステム。
  20. 手の動作に割り当てられたコントロールパラメータを介してユーザインタフェース上に表示された画像を変化させるシステムであって、
    背景に対する1つまたは複数の手の画像を検出する手段(104)と、
    前記画像を1つまたは複数の手の領域と前記背景とに区分する手段(204)と、
    固定された時間間隔で前記背景の多数の独立領域をカウントする手段(206)であって、手の領域の少なくとも一部によって前記背景の他の部分から視覚的に独立している前記背景の部分の各々は独立領域として定義される、手段と、
    ユーザインタフェース上に表示された画像を操作するためのコントロールパラメータとカウントされた独立領域の各々とを関連付けて、前記コントロールパラメータに関連付けられた前記独立領域の形状及び/または位置における変化の各々に関連して前記コントロールパラメータを介して前記表示された画像を変化させる手段と、
    を備えることを特徴とするシステム。
JP2009523752A 2006-08-08 2007-05-29 視覚ディスプレイのためのバーチャルコントローラ Active JP4965653B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/463,183 US7907117B2 (en) 2006-08-08 2006-08-08 Virtual controller for visual displays
US11/463,183 2006-08-08
PCT/US2007/012546 WO2008018943A1 (en) 2006-08-08 2007-05-29 Virtual controller for visual displays

Publications (2)

Publication Number Publication Date
JP2010500645A true JP2010500645A (ja) 2010-01-07
JP4965653B2 JP4965653B2 (ja) 2012-07-04

Family

ID=39033312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009523752A Active JP4965653B2 (ja) 2006-08-08 2007-05-29 視覚ディスプレイのためのバーチャルコントローラ

Country Status (14)

Country Link
US (4) US7907117B2 (ja)
EP (1) EP2049976B1 (ja)
JP (1) JP4965653B2 (ja)
KR (1) KR101292467B1 (ja)
CN (1) CN101501614B (ja)
BR (1) BRPI0714232B1 (ja)
CA (4) CA2880054C (ja)
IL (1) IL196018A (ja)
MX (1) MX2009000305A (ja)
MY (1) MY161823A (ja)
NO (1) NO20090116L (ja)
RU (1) RU2439653C2 (ja)
WO (1) WO2008018943A1 (ja)
ZA (1) ZA200810106B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013140582A (ja) * 2011-12-30 2013-07-18 Samsung Electronics Co Ltd 電子装置およびその制御方法
JP2013533561A (ja) * 2010-09-17 2013-08-22 騰訊科技(深▲せん▼)有限公司 ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体
US8963836B2 (en) 2010-09-17 2015-02-24 Tencent Technology (Shenzhen) Company Limited Method and system for gesture-based human-machine interaction and computer-readable medium thereof

Families Citing this family (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
US7787706B2 (en) * 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
KR101238608B1 (ko) 2004-07-30 2013-02-28 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8060840B2 (en) * 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US20080189661A1 (en) * 2007-02-06 2008-08-07 Jazzbo Technology Inc. Video user interface
US7979315B2 (en) * 2007-03-14 2011-07-12 Microsoft Corporation Virtual features of physical items
US7954067B2 (en) * 2007-03-16 2011-05-31 Apple Inc. Parameter setting superimposed upon an image
US20080229232A1 (en) * 2007-03-16 2008-09-18 Apple Inc. Full screen editing of visual media
KR101141087B1 (ko) 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
JP4569613B2 (ja) 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US20100039500A1 (en) * 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US8896531B2 (en) * 2008-04-24 2014-11-25 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
TW201005579A (en) * 2008-07-22 2010-02-01 Asustek Comp Inc Apparatus for reading electric document and method for operating electric document read
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
CA2735992A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
US20100105479A1 (en) 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
CN101727177B (zh) * 2008-10-30 2012-09-19 深圳富泰宏精密工业有限公司 鼠标模拟系统及其应用方法
TWI486821B (zh) * 2008-11-28 2015-06-01 Chi Mei Comm Systems Inc 滑鼠類比系統及其應用方法
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US20100241987A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20100289912A1 (en) * 2009-05-14 2010-11-18 Sony Ericsson Mobile Communications Ab Camera arrangement with image modification
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100309140A1 (en) * 2009-06-05 2010-12-09 Microsoft Corporation Controlling touch input modes
KR20110007806A (ko) 2009-07-17 2011-01-25 삼성전자주식회사 카메라를 이용하여 손동작을 인식하는 장치 및 방법
US8438503B2 (en) 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
TWI371681B (en) * 2009-09-18 2012-09-01 Primax Electronics Ltd Notebook computer with multi-image capture function
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
CA2774867A1 (en) 2009-09-21 2011-03-24 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
EP2378394A3 (en) * 2010-04-15 2015-03-25 Electronics and Telecommunications Research Institute User interface device and method for recognizing user interaction using same
JP2011234229A (ja) * 2010-04-28 2011-11-17 Olympus Imaging Corp 撮像装置
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US20110289462A1 (en) * 2010-05-20 2011-11-24 Microsoft Corporation Computing Device Magnification Gesture
CN101901052B (zh) * 2010-05-24 2012-07-04 华南理工大学 双手互为参考的目标控制方法
FR2960986A1 (fr) 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
US9009594B2 (en) * 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
US9132352B1 (en) * 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US9372618B2 (en) 2010-10-01 2016-06-21 Z124 Gesture based application management
KR20130105725A (ko) * 2011-01-06 2013-09-25 포인트그랩 엘티디. 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
WO2012098534A1 (en) 2011-01-23 2012-07-26 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9189825B2 (en) * 2011-04-12 2015-11-17 Lg Electronics Inc. Electronic device and method for displaying stereoscopic image
WO2012145011A1 (en) * 2011-04-22 2012-10-26 Hewlett-Packard Development Company, L.P. Systems and methods for displaying data on large interactive devices
GB2491473B (en) * 2011-05-31 2013-08-14 Pointgrab Ltd Computer vision based control of a device using machine learning
JP5845002B2 (ja) 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20130009989A1 (en) * 2011-07-07 2013-01-10 Li-Hui Chen Methods and systems for image segmentation and related applications
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US8878794B2 (en) * 2011-09-27 2014-11-04 Z124 State of screen info: easel
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
WO2013095679A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing coordinated two-hand command gestures
EP2795430A4 (en) 2011-12-23 2015-08-19 Intel Ip Corp TRANSITION MECHANISM FOR A COMPUTER SYSTEM WITH USER DETECTION
US10345911B2 (en) * 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
US9678574B2 (en) 2011-12-23 2017-06-13 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
US20150220149A1 (en) * 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
ES2443265B1 (es) * 2012-08-16 2014-11-13 Eads Construcciones Aeronauticas, S.A. Banco de fabricación o verificación de mazos eléctricos
GB2507963A (en) * 2012-11-14 2014-05-21 Renergy Sarl Controlling a Graphical User Interface
TWI502519B (zh) * 2012-11-21 2015-10-01 Wistron Corp 手勢辨識模組及手勢辨識方法
US20140152566A1 (en) * 2012-12-05 2014-06-05 Brent A. Safer Apparatus and methods for image/sensory processing to control computer operations
KR20140085055A (ko) * 2012-12-27 2014-07-07 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US20140282224A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a scrolling gesture
US9201589B2 (en) 2013-05-21 2015-12-01 Georges Antoine NASRAOUI Selection and display of map data and location attribute data by touch input
US9696812B2 (en) * 2013-05-29 2017-07-04 Samsung Electronics Co., Ltd. Apparatus and method for processing user input using motion of object
GB201314984D0 (en) 2013-08-21 2013-10-02 Sony Comp Entertainment Europe Head-mountable apparatus and systems
EP2846243B1 (en) * 2013-09-04 2019-08-14 Matthias Rath Graphical user interface providing virtual super-zoom functionality
US9727915B2 (en) * 2013-09-26 2017-08-08 Trading Technologies International, Inc. Methods and apparatus to implement spin-gesture based trade action parameter selection
ITCO20130068A1 (it) * 2013-12-18 2015-06-19 Nu Tech S A S Di De Michele Marco & Co Metodo per fornire comandi d'utente ad un elaboratore elettronico e relativi programma per elaborare e circuito elettronico.
US11435895B2 (en) 2013-12-28 2022-09-06 Trading Technologies International, Inc. Methods and apparatus to enable a trading device to accept a user input
EP3090331B1 (en) * 2014-01-03 2020-03-04 Intel Corporation Systems with techniques for user interface control
KR20160037508A (ko) * 2014-09-29 2016-04-06 삼성전자주식회사 디스플레이 장치 및 그의 표시 방법
DE102014226553A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
CN104850340B (zh) * 2015-01-30 2018-11-30 小米科技有限责任公司 触控显示屏上的文档显示方法及装置
CN106406507B (zh) * 2015-07-30 2020-03-27 株式会社理光 图像处理方法以及电子设备
CN105159524A (zh) 2015-08-03 2015-12-16 小米科技有限责任公司 界面显示方法及装置
EA201891955A1 (ru) * 2016-02-29 2019-03-29 Смарт Лэмп, Инк. Д/Б/А Лэмпикс Способ и устройство для обеспечения пользовательских интерфейсов с компьютеризированными системами и взаимодействия с виртуальным окружением
TWI695296B (zh) * 2016-04-29 2020-06-01 姚秉洋 內建感應器及光源模組之鍵盤裝置
US11182853B2 (en) 2016-06-27 2021-11-23 Trading Technologies International, Inc. User action for continued participation in markets
EP3629973A4 (en) 2017-05-26 2021-01-27 Covidien LP CONTROL DEVICE FOR IMAGING DEVICE
US11360558B2 (en) 2018-07-17 2022-06-14 Apple Inc. Computer systems with finger devices
KR102164706B1 (ko) * 2018-07-19 2020-10-12 한남대학교 산학협력단 초고속 문서작성을 위한 손가락 제스처 인식 기반 마우스
TWI710973B (zh) * 2018-08-10 2020-11-21 緯創資通股份有限公司 手勢識別方法、手勢識別模組及手勢識別系統
CN110286780B (zh) * 2019-06-26 2022-06-07 西南民族大学 一种基于机器视觉的机电混合式无人值守计算机操作装置
US11430414B2 (en) 2019-10-17 2022-08-30 Microsoft Technology Licensing, Llc Eye gaze control of magnification user interface
US11360587B1 (en) 2020-04-07 2022-06-14 Apple Inc. Deployment systems for computer system finger devices
US12019773B2 (en) 2022-08-31 2024-06-25 Snap Inc. Timelapse of generating a collaborative object
US20240069643A1 (en) * 2022-08-31 2024-02-29 Youjean Cho Physical gesture interaction with objects based on intuitive design

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US484568A (en) * 1892-10-18 Farm-gate
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPH0736142B2 (ja) * 1991-10-10 1995-04-19 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動指示手段の運動停止を認識する方法および情報処理装置
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6115482A (en) 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6269172B1 (en) * 1998-04-13 2001-07-31 Compaq Computer Corporation Method for tracking the motion of a 3-D figure
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6771834B1 (en) 1999-07-02 2004-08-03 Intel Corporation Method for segmenting a digital image
US6417836B1 (en) 1999-08-02 2002-07-09 Lucent Technologies Inc. Computer input device having six degrees of freedom for controlling movement of a three-dimensional object
RU2175143C1 (ru) 2000-04-04 2001-10-20 Свириденко Андрей Владимирович Способ дистанционного управления
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
JP2002259046A (ja) 2001-02-28 2002-09-13 Tomoya Sonoda 空中で手描きした文字・記号入力システム
US6888960B2 (en) * 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
US6539931B2 (en) * 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US6594616B2 (en) * 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US7007236B2 (en) * 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
AU2003217587A1 (en) * 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US7821541B2 (en) * 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US20030214481A1 (en) * 2002-05-14 2003-11-20 Yongming Xiong Finger worn and operated input device and method of use
US20040001113A1 (en) * 2002-06-28 2004-01-01 John Zipperer Method and apparatus for spline-based trajectory classification, gesture detection and localization
US6996460B1 (en) * 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
WO2005084209A2 (en) * 2004-02-27 2005-09-15 University Of Florida Research Foundation, Inc. Interactive virtual characters for training including medical diagnosis training
US20050212753A1 (en) * 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
EP1743277A4 (en) * 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
US7593593B2 (en) * 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
US7710395B2 (en) * 2004-07-14 2010-05-04 Alken, Inc. Head-mounted pointing and control device
DE202005021427U1 (de) 2004-07-30 2008-02-14 Apple Inc., Cupertino Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
JP4088282B2 (ja) 2004-08-20 2008-05-21 清実 中村 コンピュータ入力方法と装置
US7359564B2 (en) 2004-10-29 2008-04-15 Microsoft Corporation Method and system for cancellation of ambient light using light frequency
US8137195B2 (en) * 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
US7492367B2 (en) * 2005-03-10 2009-02-17 Motus Corporation Apparatus, system and method for interpreting and reproducing physical motion
US7317836B2 (en) * 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
EP2203893A4 (en) 2007-10-30 2014-05-07 Hewlett Packard Development Co INTERACTIVE DISPLAY SYSTEM WITH GROUP GESTURE DETECTION
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533561A (ja) * 2010-09-17 2013-08-22 騰訊科技(深▲せん▼)有限公司 ジェスチャーに基づく人間と機械のインタラクション方法およびシステム、コンピュータ記録媒体
US8963836B2 (en) 2010-09-17 2015-02-24 Tencent Technology (Shenzhen) Company Limited Method and system for gesture-based human-machine interaction and computer-readable medium thereof
JP2013140582A (ja) * 2011-12-30 2013-07-18 Samsung Electronics Co Ltd 電子装置およびその制御方法

Also Published As

Publication number Publication date
WO2008018943A1 (en) 2008-02-14
MY161823A (en) 2017-05-15
NO20090116L (no) 2009-01-09
CA2880052C (en) 2017-06-27
CA2880054C (en) 2016-08-23
US20110025601A1 (en) 2011-02-03
BRPI0714232B1 (pt) 2018-09-18
CN101501614A (zh) 2009-08-05
EP2049976B1 (en) 2018-03-07
RU2009104062A (ru) 2010-08-20
US7907117B2 (en) 2011-03-15
RU2439653C2 (ru) 2012-01-10
CA2880053A1 (en) 2008-02-14
CA2880052A1 (en) 2008-02-14
JP4965653B2 (ja) 2012-07-04
US20080036732A1 (en) 2008-02-14
US8115732B2 (en) 2012-02-14
CA2880053C (en) 2016-08-23
EP2049976A1 (en) 2009-04-22
US20090208057A1 (en) 2009-08-20
MX2009000305A (es) 2009-01-26
US8552976B2 (en) 2013-10-08
CA2654744C (en) 2015-10-06
CA2880054A1 (en) 2008-02-14
US20120105315A1 (en) 2012-05-03
BRPI0714232A2 (pt) 2013-01-15
EP2049976A4 (en) 2013-06-19
KR101292467B1 (ko) 2013-08-05
IL196018A0 (en) 2009-09-01
BRPI0714232A8 (pt) 2017-01-17
IL196018A (en) 2012-06-28
ZA200810106B (en) 2010-02-24
CN101501614B (zh) 2012-04-18
KR20090047454A (ko) 2009-05-12
US8049719B2 (en) 2011-11-01
CA2654744A1 (en) 2008-02-14

Similar Documents

Publication Publication Date Title
JP4965653B2 (ja) 視覚ディスプレイのためのバーチャルコントローラ
US11048333B2 (en) System and method for close-range movement tracking
EP2480955B1 (en) Remote control of computer devices
US20110102570A1 (en) Vision based pointing device emulation
US20120327125A1 (en) System and method for close-range movement tracking
US20120200494A1 (en) Computer vision gesture based control of a device
JP2016520946A (ja) 人間対コンピュータの自然な3次元ハンドジェスチャベースのナビゲーション方法
JP2018505455A (ja) 1つのシングル・センシング・システムを使用したマルチ・モーダル・ジェスチャー・ベースの対話型のシステム及び方法
WO2005091125A2 (en) System and method for inputing user commands to a processor
Störring et al. Computer vision-based gesture recognition for an augmented reality interface
Sharma et al. Interactive projector screen with hand detection using gestures
Yeh et al. Vision-based virtual control mechanism via hand gesture recognition
Costanzo et al. Virtualboard: Real-time visual gesture recognition for natural human-computer interaction
Homma et al. Virtual touch screen “VIRTOS” implementing virtual touch buttons and virtual sliders using a projector and camera
Adak et al. Touchscreen Using Web Camera
Narvekar et al. Design of Human Computer Interaction using Image Recognition and Gesture Movements
Narvekar et al. Smart Eye for Computer Application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120329

R150 Certificate of patent or registration of utility model

Ref document number: 4965653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250