JP5806615B2 - データ空間の主要次元をナビゲートするための制御システム - Google Patents
データ空間の主要次元をナビゲートするための制御システム Download PDFInfo
- Publication number
- JP5806615B2 JP5806615B2 JP2011526203A JP2011526203A JP5806615B2 JP 5806615 B2 JP5806615 B2 JP 5806615B2 JP 2011526203 A JP2011526203 A JP 2011526203A JP 2011526203 A JP2011526203 A JP 2011526203A JP 5806615 B2 JP5806615 B2 JP 5806615B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- gesture
- space
- display
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Description
本特許出願は、2006年2月8日に出願した米国(US)特許出願第11/350,697号の一部継続出願である。
本願は、2009年4月2日に出願したUS特許出願第12/417,252号の一部継続出願である。
本願は、2008年9月3日に出願したUS特許出願第61/093,852号の優先権を主張する。
発明の分野
本発明は、一般的には、コンピュータ・システムの分野に関し、特に、グラフィカル空間または他のデータ表現空間を通じて線形推移(linear verging)または追跡運動を制御するために、人間の操作者の手の線形空間運動、または同質の次元活動(analogously dimensional activity)の実行を可能にするシステムおよび方法に関するものである。
引用による包含
本明細書において述べる各特許、特許出願、および/または刊行物は、本願において引用することにより、個々の特許、特許出願、および/または刊行物の各々が具体的にそして個々に、引用することにより本願に含まれることを示した場合と同程度にその全体が本願にも含まれるものとする。
空間動作環境(SOE)
図1は、一実施形態の下におけるSOEのブロック図である。ユーザは、彼の手101および102を、カメラ104A〜104Dのアレイの視野に置く。これらのカメラは、指ならびに手101および102の位置、方位、および移動を検出し、出力信号をプリプロセッサ105に発生する。プリプロセッサ105は、カメラ出力をジェスチャ信号に変換し、このジェスチャ信号をシステムのコンピュータ演算装置107に供給する。コンピュータ107は、入力情報を用いて、1つ以上の画面上カーソルを制御するコマンドを発生し、ビデオ出力をディスプレイ103に供給する。
データ空間のナビゲーション
一実施形態のSOEは、グラフィカル空間または他のデータ表現空間全域における線形推移または追跡運動を制御するために、「プッシュバック」(pushback)、即ち、人間の操作者の手の線形空間運動、または同質の次元活動の実行を可能にする。SOE、およびそれによって確立される計算および認識の連携は、スケールのレベルをナビゲートする、主に線形な「深度次元」を横断する、あるいは、最も一般的には、量子化されたまたは「抑止された」(detented)パラメータ空間にアクセスするための、基本的な構造化された方法を提供する。また、SOEは、操作者が意図的に追加コンテキストを取得することができる有効な手段、空間的、概念的、または計算的のいずれであっても、近傍(vicinities)および近隣(neighborhoods)を理解するための素早い技法を提供する。
マーカ・タグ
SOEまたは一実施形態は、ユーザの1つ以上の指においてマーカ・タグの使用を想定し、本システムがユーザの手を突き止め、ユーザが左または右のどちらの手を見ているのか特定し、どの指が見えるか特定することができるようにする。これによって、本システムは、ユーザの手の位置、方位、および移動を検出することが可能になる。この情報によって、本システムは多数のジェスチャを認識することが可能となり、これらのジェスチャは、ユーザによってコマンドとして用いることが可能になる。
ジェスチャ・ボキャブラリ
SOEは、手のポーズ、方位、手の組み合わせ、および方位の配合(orientation blends)で構成されるジェスチャ・ボキャブラリ(gesture vocabulary)を想定する。SOEのジェスチャ・ボキャブラリにおいてポーズおよびジェスチャを立案および伝達するために、表記言語(notation language)も実施する。ジェスチャ・ボキャブラリとは、力学的連結の瞬時的な「ポーズ状態」を簡潔な文字形態で表すシステムである。対象となる連結は、生物(例えば、人の手、または人の身体全体、あるいはバッタの足、あるいはキツネザルの関節脊柱)であってもよく、あるいは代わりに非生物であってもよい(例えば、ロボットのアーム)。いずれの場合でも、この連結は、単純(脊柱)でもまたは分岐(手)でもよい。SOEのジェスチャ・ボキャブラリ・システムは、いずれの特定的な連結についても、一定長のストリングを確立する。こうして、ストリングの「キャラクタ位置」を占める特定のASCIIキャラクタの集合体が、連結の瞬時的状態、即ち、「ポーズ」の一意の記述となる。
手のポーズ
図14は、SOEを用いたジェスチャ・ボキャブラリの一実施形態における手のポーズを示す。SOEは、1本の手における5本の指の各々を用いることを仮定する。これらの指には、p−小指、r−薬指、m−中指、i−人差し指、およびt−親指とコーディングする。指および親指の多数のポーズを、一実施形態のジェスチャ・ボキャブラリにおいて定義し例示する。ジェスチャ・ボキャブラリ・ストリングは、連結(この場合指)の表現可能な自由度毎に1つのキャラクタ位置を確定する。更に、このような各自由度は、離散化(または「量子化」)されていることが分かるので、その最大運動範囲は、当該ストリング位置における有限数の標準的ASCIIキャラクタの内の1つの割り当てによって表現することができる。これらの自由度は、本体特定の原点および座標系(手の裏、バッタの身体の中心、ロボット・アームの底辺等)に関して表現される。したがって、連結の位置および方位を「全体的に」更に大域的な座標系において表現するために、少数の追加のジェスチャ・ボキャブラリ・キャラクタ位置が用いられる。
方位
指および親指のポーズに加えて、手の方位が情報を表すことができる。大域空間(global-space)方位を記述するキャラクタも、透過的に選択することができる。キャラクタ「<」、「>」、「^」、および「v」は、方位キャラクタ位置において遭遇した場合、左、右、上、および下の考えを示すために用いることができる。図15は、一実施形態の下における、ジェスチャ・ボキャブラリにおける方位の図である。本発明の一実施形態では、2つのキャラクタ位置が、最初に手の平の方向を指定し、次いで指の方向を指定する(指が真っ直ぐになっている場合、指の実際の屈曲には関係なく)。これら2つの位置に可能なキャラクタは、方位の「本体中心」観念(body-centric notion)を表現し、「−」、「+」、「x」、「*」、「^」、および「v」は、中間、横方向、前方(順方向、本体から離れる側)、後方(逆方向、本体から離れる側)、頭上(上方)、および後端(下方)を記述する。
[lllll:vx]は、手を平らにして(親指が他の指と平行)、手のひらが下を向き、指が前方に突き出している。
[lllll:-x]は、手を平らにして、手のひらが身体の中心に向いており(左手の場合は右、右手の場合は左)、指が前方に突き出している。
[^^^|-:-x]は、銃を前方に構える真似である。
二手組み合わせ
一実施形態のSOEは、1つの手のコマンドおよびポーズだけでなく、2つの手によるコマンドおよびポーズも想定している。図16は、一実施形態の下における、SOEのジェスチャ・ボキャブラリにおける二手組み合わせおよ対応する表記の例を示す。第1の例の表記を検討すると、「完全停止」とは2つの拳を閉じていることを示す。「スナップショット」の例では、各手の親指および人差し指が広げられ、親指が互いに向き合って、ゴール・ポストの形状の枠を定めている。「舵およびスロットル開始位置」は、指および親指が上を向いており、手のひらが画面に面している。
方位配合(Orientation Blends)
図17は、一実施形態の下における方位配合の一例を示す。図示の例では、配合は、指ポーズ・ストリングの後ろにある括弧の中に囲まれた方位表記の対によって表されている。例えば、第1コマンドは、全て真っ直ぐに伸ばした指の位置を示す。方位コマンドの第1対により、手のひらをディスプレイに向かって平らにして、第2対によって、手を画面に向けて45度縦に回転させる。この例では、配合の対を示したが、SOEではいずれの数の配合でも考えられる。
コマンドの例
図19は、SOEと共に用いることができる、多数の可能なコマンドを示す。本明細書における論述の一部は、ディスプレイ上におけるカーソルの制御についてであったが、SOEはその行動に限定されるのではない。実際に、SOEは、画面上における全てのデータおよびデータの一部、更にはディスプレイの状態を操作する際に、様々に応用することができる。例えば、ビデオ・メディアの再生中に、これらのコマンドをビデオ制御に代わって用いることができる。これらのコマンドは、一時停止、早送り、巻き戻しなどを行うために用いることができる。加えて、画像のズーム・インおよびズーム・アウトを行うため、画像の方位を変化させるため、いずれかの方向にパンニングするため等に実施することができる。また、SOEは、開く、閉じる、保存する等のような、メニュー・コマンドの代わりに用いることもできる。言い換えると、想像することができるいずれのコマンドまたは活動でも、手のジェスチャによって実施することができる。
動作
図18は、一実施形態におけるSOEの動作を示すフロー図である。ステップ1801において、検出システムはマーカおよびタグを検出する。判断ブロック1802において、タグおよびマーカが検出されたか否か判断を行う。検出されていない場合、システムはステップ1801に戻る。ステップ1802においてタグおよびマーカが検出された場合、システムはステップ1803に進む。ステップ1803において、システムは、検出されたタグおよびマーカから、手、指、およびポーズを識別する。ステップ1804において、システムは、ポーズの方位を識別する。ステップ1805において、システムは、検出された1つまたは双方の手の三次元空間位置を識別する。(ステップ1803、1804、および1805の内いずれでも、または全てを1つの動作として組み合わせてもよいことに注意されたい)。
解析および変換
本システムは、基礎となるシステムによって再現された低レベルのジェスチャの流れを「解析」および「変換」し、これら解析し変換したジェスチャを、コマンドまたはイベント・データの流れに変換することができる。このデータは、広範囲のコンピュータ・アプリケーションおよびシステムを制御するために用いることができる。これらの技法およびアルゴリズムは、これらの技法を実現するエンジン、およびエンジンの能力を利用するコンピュータ・アプリケーションを構築するプラットフォームの双方を提供するコンピュータ・コードから成るシステムにおいて具体化することができる。
1)様々な異なる集計レベルにおいて、ジェスチャを指定する(コンピュータ・プログラムにおいて用いるためのエンコード)緻密かつ効率的な方法。
b.2つの手の組み合わせ。いずれかの手がポーズ、位置、または双方を考慮に入れる。
e.操作者が空間内の形状を追跡する「書記素」ジェスチャ(grapheme gesture)。
3)登録されているジェスチャを識別することができ、これらのジェスチャをカプセル化するイベントを関連するアプリケーション・コンテキストに配信することができるように、ジェスチャの流れを解析するアルゴリズム。
1本の手の「ポーズ」は、
i)手の指と甲との間の相対的方位、
ii)少数の離散状態への量子化、
のストリングとして表される。
i)複雑なコンテキストおよび条件付き制御状態を構築すること、
ii)動的にヒステリシスを制御環境に追加すること、および
iii)ユーザが実行システム自体のインターフェース・ボキャブラリを変更または拡張することができるアプリケーションを作成すること、
が可能となる。
加えて、指定されたジェスチャを認識するために内部で使用されている原始的比較演算子は、アプリケーション・プログラマが用いるためにも露出されるので、アプリケーション・コンテキスト内部からでも、より多くの比較(例えば、複雑なジェスチャまたは複合ジェスチャにおける柔軟な状態の検査)を行うことができる。
i)「エントリ」状態通知部および「連続」状態通知部、ならびに
ii)ジェスチャ優先度指定部
を含む。
拡張被写体深度において抽出した三次元情報を用いるジェスチャ・ベース制御
図20は、一実施形態の下において、拡張被写体深度において三次元情報を抽出する撮像システムを含むジェスチャ・ベース制御システム2000のブロック図である。ユーザは、彼の手101および102をカメラ2004A〜2004Dのアレイの視野に置く。アレイ2004A〜2004Dの内少なくとも2台のカメラが、波頭コーディング・カメラとなり、その各々は、以下で詳細に説明するように、波頭コーディングマスク(ここでは、「光学非球面エレメント」または「光学エレメント」とも呼ぶ)を含む波頭コーディング撮像システムのエレメントを備えている。ユーザの手および/または指は、先に述べたマーカ・タグを含んでいてもいなくてもよい。
仮想/ディスプレイおよび物理空間の一致
前述のように、一実施形態のSOEは、三空間入力を検出し、表現し、解釈するシステムおよび方法を含む。SOEのコンテキストでは、システムの実施形態は、複数の空間追跡データ源からの低レベル・データを処理し、これら意味的に相関がない空間時間データを分析し、1組の動的に構成設定可能な暗示的および明示的ジェスチャ記述にしたがって、高レベルのジェスチャ・イベントを発生する。生成されるイベントは、インタラクティブ・システムによる消費に適しており、実施形態は、これらのコンシューマ(consumer)へのイベント分散を制御および実行する1つ以上のメカニズムを設ける。更に、実施形態は、そのイベントのコンシューマに、任意の参照空間および意味フレーム間でジェスチャ・イベントを変換する装置を提供する。
3)操作者の位置に応じて変化するグラフィクス・レンダリング。例えば、深度の知覚を高めるためにパララックス・シフトをシミュレーションする。
入力イベント処理スタックは、制御システムからイベント・データを取り込み(現実施形態では、システムおよびマウス入力からのジェスチャ・データおよびポインティング・データの双方)、入力イベントからの空間データを仮想空間における座標にマッピングする。次いで、変換されたイベントは、実行中のアプリケーションに配信される。
空間連続入力システムの実施形態について説明する。ここでは、以下で詳しく説明するが、このシステムは、サブシステム「スロークス」、「プロテイン」、および「プール」を備えている、「プラズマ」と呼ばれるシステムを含む、ネットワーク系データ表現、移行、および交換を備えている。プールおよびプロテインは、プロセス間でまたはプロセスを跨いで共有すべきデータをカプセル化するために、本明細書において説明する方法およびシステムのコンポーネントである。また、これらのメカニズムは、プロテインおよびプールの他に、スロークス(「スロー」(slaw)の複数形)も含む。一般に、スロークスは、プロセス間交換についての最も低いレベルのデータ定義を規定し、プロテインは、中間レベルの構造を規定し、照会(querying)およびフィルタリングを担い(hook for)、プールは、高レベルの編成およびアクセス・セマンティクスを規定する。スロークスは、効率的で、プラットフォームに依存しないデータ表現およびアクセスのためのメカニズムを含む。プロテインは、スロークスをペイロードとして用いて、データ・カプセル化および輸送方式を規定する。プールは、ローカル・プロセッサ間での、リモートまたは分散プロセス間にあるネットワークを跨いだ、そしてより長期(例えば、ディスク上等における)記憶を通じた、プロセス内におけるプロテインの構造化されているが柔軟な集計、順序付け、フィルタリング、および分散を規定する。
図28は、一実施形態の下におけるインジェストのブロック図である。以下で詳細に説明するが、インジェストは、オフセット、長さ、およびスローを含む。
図30Aは、一実施形態の下における、プールの中にあるプロテインのブロック図である。プロテインは、長さヘッダ(「プロテイン長さ」)、ディスクリップ・オフセット、インジェスト・オフセット、ディスクリップ、およびインジェストを含む。ディスクリップは、オフセット、長さ、およびスローを含む。インジェストは、オフセット、長さ、およびスローを含む。
多くの場合、プロテイン内部において実施態様特定またはコンテキスト特定のキャッシング(caching)またはメタデータを許容することは有用である。オフセットの使用により、プロテインの先頭付近に、任意のサイズの「孔(whole)」を作成し、その中にこのようなメタデータを割り込ませることができる。8バイトのメタデータを利用することができる実施態様では、多くのシステム・アーキテクチャ上でこれらのバイトを、長さヘッダをフェッチする毎に1つのプロテインに対して自由に得ることができる。
各スローの内部構造は、タイプ解明、カプセル化データへのアクセス、および当該スロー・インスタンスについてのサイズ情報の各々を最適化する。一実施形態では、1組のスロー・タイプ全体は、設計上、最小限の全てが揃っており、スロー・ストリング、スロー・コンス(即ち、ダイアッド(dyad))、スロー・リスト、およびスロー数値オブジェクトを含む。スロー数値オブジェクト自体は、半ダース程度の基本的な属性の組み合わせ(permutation)として理解される、広範な1組の個別数値タイプを表す。いずれのスローでも、その他の基本的プロパティはそのサイズである。一実施形態では、スロークスは、4の倍数に量子化したバイト長を有し、これらの4バイト・ワードを、ここでは「クアッド」と呼ぶ。一般に、このようなクアッドに基づくサイズ決定により、スロークスを最新のコンピュータ・ハードウェア・アーキテクチャのコンフィギュレーションと正確に整合させる。
本明細書において記載した実施形態は、データ空間全域においてナビゲートする方法を含む。この方法は、検出器を通じて受信したジェスチャ・データから本体のジェスチャを検出するステップであって、ジェスチャ・データが、ある時点および物理的空間における本体の瞬時的状態の絶対三空間位置データであり、検出が、ジェスチャ・データのみを用いてジェスチャを識別することを含む、ステップと、ジェスチャをジェスチャ信号に変換するステップと、ジェスチャ信号に応答してデータ空間全域においてナビゲートするステップであって、データ空間が物理的空間において表されるデータ・セットを含むデータ表現空間である、ステップとを備えている。
一実施形態の次元は、深さ次元である。
一実施形態の次元は、垂直次元である。
一実施形態の次元は、横方向次元である。
一実施形態のナビゲートするステップは、データ空間の量子化パラメータ空間にナビゲートすることを含む。
一実施形態の検出するステップは、本体の進展する方位を検出することを含む。
一実施形態の検出するステップは、本体の進展するポーズを検出することを含み、このポーズが、本体の一部分の本体の少なくとも1つの他の部分に対する幾何学的配置である。
一実施形態の検出するステップは、本体の進展する位置、本体の方位、本体のポーズ、および本体の運動の内少なくとも1つを検出することを含む。
一実施形態の方法は、ジェスチャを識別するステップを備えている。
一実施形態の方法は、ジェスチャ・イベントのシーケンスにおけるジェスチャ・イベントの表現を発生するステップを備えている。
一実施形態の方法は、ジェスチャ・イベントの表現を、データ空間のグラフィカル描写と同期させるステップを備えている。
一実施形態の方法は、ジェスチャ・イベントの表現を、データ空間の聴覚描写と同期させるステップを備えている。
一実施形態のデータ・セットは、空間情報を表す。
一実施形態のデータ・セットは、非空間情報を表す。
一実施形態のナビゲートするステップは、データ空間を通過する線形推移(verging)を含む。
一実施形態のデータ・フレームの中心および法線ベクトルが、ディスプレイの中心および法線ベクトルと一致する。
一実施形態の各データ・フレームは、データ・セットのエレメントを表すグラフィカル・データ・エレメントを含む。
一実施形態のグラフィカル・データ・エレメントは、動的エレメントである。
一実施形態のデータ・フレームは、二次元構造である。
一実施形態のデータ空間全域においてナビゲートするステップは、複数のデータ・フレーム全域においてナビゲートすることを含む。
一実施形態の方法は、第1ポーズを入力する第1位置を記録するステップであって、第1位置が三空間の手の位置である、ステップと、第1位置を原点として設定するステップであって、続いて検出される本体位置を、原点に対する相対的オフセットとして報告する、ステップとを備えている。
一実施形態の検出するステップは、本体の第1移動を検出することを含み、第1移動が、ディスプレイに向かい軸に沿った移動であり、この軸がディスプレイの目視面に対して垂直な軸として定められる。
一実施形態のナビゲートするステップは、本体の第2移動に応答して、複数のデータ・フレームを軸に沿って変位させることを含み、データ・フレームが位置する平面において見える部分が少なくなり、ディスプレイ上にレンダリングされた第1可視フレームが、ディスプレイから推移する(verge)ように見え、第1データ・フレームに隣接するデータ・フレームが見え難くなる。
一実施形態のナビゲートするステップは、本体の第3移動に応答して、複数のデータ・フレームを第3移動に対応する方向に変位させることを含む。
一実施形態の方法は、本体の第2ポーズを検出するステップと、第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップであって、この終了が、複数のデータ・フレームの内1つのデータ・フレームを、ディスプレイと同一平面上に表示することを含む、ステップとを備えている。
一実施形態のフィードバック・インディケータは、本体がアクティブ・ゾーンおよびデッド・ゾーンの内1つにあることを示すフィードバックを表示する。
一実施形態の検出するステップは、本体の位置を検出すること、本体の方位を検出すること、および本体の運動を検出することの内少なくとも1つを含む。
一実施形態の検出するステップは、本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む。
一実施形態の検出するステップは、本体の一部に結合されている1組のタグの位置を検出することを含む。
一実施形態の検出するステップは、本体上にあるマーカを動的に検出し位置を突き止めることを含む。
一実施形態の1組のマーカは、本体上に複数のパターンを形成する。
一実施形態の変換するステップは、ジェスチャの情報をジェスチャ表記に変換することを含む。
一実施形態のジェスチャ・ボキャブラリは、本体の力学的連結の瞬時的ポーズ状態をテキスト・フォームで表す。
一実施形態のジェスチャ・ボキャブラリは、本体の力学的連結の方位の組み合わせを、テキスト・フォームで表す。
一実施形態の力学的連結は、本体の少なくとも1つの第1付加物である。
一実施形態の方法は、複数のキャラクタにおけるキャラクタを、第2付加物の複数の位置の各々に割り当てるステップを備えている。
一実施形態の方法は、空間における絶対位置および方位、本体の全体的位置および方位とは無関係な本体に対する固定位置および方位から成る1群から選択した位置を用いて、ならびに本体の動作に応答して対話的に座標原点を確定するステップを備えている。
一実施形態の検出するステップは、本体の外挿補間位置が仮想空間と交差するときを検出することを含み、仮想空間が、コンピュータに結合されているディスプレイ・デバイス上に描画された空間を含む。
一実施形態の制御するステップは、仮想空間における外挿補間位置に応答して、仮想空間における仮想オブジェクトの位置を制御することを含む。
一実施形態の方法は、仮想空間と物理空間との間で一致を得るために、検出および制御のスケーリングを制御するステップを備えており、仮想空間がディスプレイ上に描画された空間を含み、物理空間が本体によって占められる空間を含む。
一実施形態の撮像するステップは、本体の波頭コード化画像を発生することを含む。
一実施形態のジェスチャ・データは、撮像システムの被写体深度内における本体の焦点解明データ(focus-resolved data)を含む。
一実施形態の中間画像は、ぼやけている。
一実施形態のジェスチャ・データは、被写体深度内における本体の焦点解明範囲(range)データを含む。
一実施形態のジェスチャ・データは、被写体深度内における本体の焦点解明位置データを含む。
一実施形態の撮像システムが複数の検出器を備えている。
一実施形態の光検出器の内少なくとも2つは、撮像の焦点深度を増大させる位相マスクを備えている波頭コード化カメラである。
一実施形態の方法は、脱焦に関して不変である変調伝達関数および点拡散関数を発生するステップを備えている。
一実施形態のナビゲートするステップは、本体の後方移動に応答して、複数のデータ・フレームをZ−軸に沿って変位させることを含み、データ・フレームが位置する平面において見える部分が少なくなり、ディスプレイ上にレンダリングされた第1可視フレームが、ディスプレイから推移する(verge)ように見え、第1データ・フレームに隣接するデータ・フレームが見え難くなる。
一実施形態の方法は、本体の第2ポーズを検出するステップと、第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップであって、この終了が、複数のデータ・フレームの内1つのデータ・フレームを、ディスプレイと同一平面上に表示することを含む、ステップとを備えている。
一実施形態のナビゲートするステップは、本体の左横方向移動に応答して、複数のデータ・フレームをx−軸に沿って左に変位させることを含み、ディスプレイ上にレンダリングされた第1可視フレームが、ディスプレイから当該ディスプレイの左側に向かってスライドするように見え、第1データ・フレームに隣接するデータ・フレームがスライドしてディスプレイの右側から見えるようになる。
一実施形態の方法は、本体の第2ポーズを検出するステップを備えている。一実施形態の方法は、第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップを備えており、終了が、複数のデータ・フレームの内1つのデータ・フレームを、ディスプレイと同一平面上に表示することを含む。
一実施形態の各仮想抑止点は、各データ・フレームに対応する。
一実施形態の方法は、アクティブ・ゾーンとデッド・ゾーンとを備えているジェスチャ相互作用空間を形成するステップを備えており、アクティブ・ゾーンがディスプレイに隣接しており、デッド・ゾーンがアクティブ・ゾーンに隣接している。
一実施形態のフィードバック・インディケータは、本体がアクティブ・ゾーンおよびデッド・ゾーンの内1つにあることを示すフィードバックを表示する。
一実施形態の方法は、データ・セットのパラメータ−制御軸を、物理的空間の1次元と位置合わせするステップを備えている。
一実施形態の次元は、水平次元である。
一実施形態の次元は、垂直次元である。
一実施形態のナビゲートするステップは、パラメータ−制御軸に沿ってデータ空間変換を行うために、次元に沿った運動を含む。
一実施形態の検出するステップは、本体の進展する位置を検出することを含む。
一実施形態の検出するステップは、本体の進展するポーズを検出することを含み、このポーズが、本体の一部分の本体の少なくとも1つの他の部分に対する幾何学的配置である。
一実施形態の検出するステップは、本体の進展する位置、本体の方位、本体のポーズ、および本体の運動の内少なくとも1つを検出することを含む。
一実施形態の方法は、ジェスチャを識別するステップを備えている。
一実施形態の方法は、ジェスチャ・イベントのシーケンスにおけるジェスチャ・イベントの表現を発生するステップを備えている。
一実施形態の方法は、ジェスチャ・イベントの表現を、データ空間のグラフィカル描写と同期させるステップを備えている。
一実施形態の方法は、ジェスチャ・イベントの表現を、データ空間の聴覚描写と同期させるステップを備えている。
一実施形態のデータ・セットは、空間情報を表す。
一実施形態のデータ・セットは、非空間情報を表す。
一実施形態のナビゲートするステップは、データ空間を通過する線形推移(verging)を含む。
一実施形態のデータ・フレームの中心および法線ベクトルは、ディスプレイの中心および法線ベクトルと一致する。
一実施形態の各データ・フレームは、データ・セットのエレメントを表すグラフィカル・データ・エレメントを含む。
一実施形態のグラフィカル・データ・エレメントは、動的エレメントである。
一実施形態のデータ・フレームは、二次元構造である。
一実施形態のデータ空間全域においてナビゲートするステップは、複数のデータ・フレーム全域においてナビゲートすることを含む。
一実施形態の検出するステップは、本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む。
一実施形態の検出するステップは、本体上にあるマーカを動的に検出し位置を突き止めることを含む。
一実施形態のジェスチャ表記は、ジェスチャ・ボキャブラリを表し、ジェスチャ信号がジェスチャ・ボキャブラリの通信を含む。
一実施形態のジェスチャ・ボキャブラリは、本体の方位をテキスト・フォームで表す。
一実施形態のジェスチャ・ボキャブラリは、本体の状態を表す、キャラクタのストリングを含む。
一実施形態の方法は、外挿補間位置が仮想空間と交差するときに、仮想空間において仮想オブジェクトを制御するステップを含む。
一実施形態の方法は、仮想空間と物理空間との間で一致を得るために、検出およびナビゲーションのスケーリングを制御するステップを備えており、仮想空間が、ディスプレイ上に描画された空間を含み、物理空間が、本体によって占められる空間を含む。
一実施形態の撮像するステップは、本体の波頭コード化画像を発生することを含む。
一実施形態のジェスチャ・データは、撮像システムの被写体深度内における本体の焦点解明データ(focus-resolved data)を含む。
一実施形態の中間画像は、ぼやけている。
一実施形態のジェスチャ・データは、被写体深度内における本体の焦点解明範囲(range)データを含む。
一実施形態のジェスチャ・データは、被写体深度内における本体の焦点解明位置データを含む。
一実施形態の撮像システムは、複数の検出器を備えている。
一実施形態の光検出器の内少なくとも2つは、撮像の焦点深度を増大させる位相マスクを備えている波頭コード化カメラである。
一実施形態の方法は、脱焦に関して不変である変調伝達関数および点拡散関数を発生するステップを備えている。
一実施形態のナビゲートするステップは、本体の下方移動に応答して、複数のデータ・フレームを現在のデータ・フレームからy−軸に沿って変位させることを含み、スタックの離散データ・フレームが下方に平行移動する。
一実施形態の方法は、本体の第2ポーズを検出するステップを備えている。一実施形態の方法は、第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップを備えており、この終了が、複数のデータ・フレームの内1つのデータ・フレームを、ディスプレイと同一平面上に表示することを含む。
一実施形態の各仮想抑止点は、複数の平面の各平面に対応する。
一実施形態の方法は、第1アクティブ・ゾーンと、第2アクティブ・ゾーンと、デッド・ゾーンとを備えているジェスチャ相互作用空間を形成するステップを備えており、第1アクティブ・ゾーンがディスプレイに隣接しており、デッド・ゾーンが第1アクティブ・ゾーンに隣接しており、第2アクティブ・ゾーンがデッド・ゾーンに隣接している。
一実施形態のフィードバック・インディケータは、本体が第1アクティブ・ゾーン、第2アクティブ・ゾーン、およびデッド・ゾーンの内1つにあることを示すフィードバックを表示する。
一実施形態の方法は、データ・セットのパラメータ−制御軸を、物理的空間の1次元と位置合わせするステップを備えている。
一実施形態の次元は、水平次元である。
一実施形態の次元は、垂直次元である。
一実施形態のナビゲートするステップは、パラメータ−制御軸に沿ってデータ空間変換を行うために、次元に沿った運動を含む。
一実施形態の検出するステップは、本体の進展する位置を検出することを含む。
一実施形態の検出するステップは、本体の進展するポーズを検出することを含み、このポーズは、本体の一部分の本体の少なくとも1つの他の部分に対する幾何学的配置である。
一実施形態の検出するステップは、本体の進展する位置、本体の方位、本体のポーズ、および本体の運動の内少なくとも1つを検出することを含む。
一実施形態の方法は、ジェスチャを識別するステップを備えている。
一実施形態の方法は、ジェスチャ・イベントのシーケンスにおけるジェスチャ・イベントの表現を発生するステップを備えている。
一実施形態の方法は、ジェスチャ・イベントの表現を、データ空間のグラフィカル描写と同期させるステップを備えている。
一実施形態の方法は、ジェスチャ・イベントの表現を、データ空間の聴覚描写と同期させるステップを備えている。
一実施形態のデータ・セットは、空間情報を表す。
一実施形態のデータ・セットは、非空間情報を表す。
一実施形態のナビゲートするステップは、データ空間を通過する線形推移(verging)を含む。
一実施形態のデータ・フレームの中心および法線ベクトルは、ディスプレイの中心および法線ベクトルと一致する。
一実施形態の各データ・フレームは、データ・セットのエレメントを表すグラフィカル・データ・エレメントを含む。
一実施形態のグラフィカル・データ・エレメントは、動的エレメントである。
一実施形態のデータ・フレームは、二次元構造である。
一実施形態のデータ空間全域においてナビゲートするステップは、複数のデータ・フレーム全域においてナビゲートすることを含む。
一実施形態の検出するステップは、本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む。
一実施形態の検出するステップは、本体上にあるマーカを動的に検出し位置を突き止めることを含む。
一実施形態のジェスチャ表記は、ジェスチャ・ボキャブラリを表し、ジェスチャ信号がジェスチャ・ボキャブラリの通信を含む。
一実施形態のジェスチャ・ボキャブラリは、本体の方位をテキスト・フォームで表す。
一実施形態のジェスチャ・ボキャブラリは、本体の状態を表すキャラクタのストリングを含む。
一実施形態の方法は、外挿補間位置が仮想空間と交差するときに、仮想空間において仮想オブジェクトを制御するステップを備えている。
一実施形態の方法は、仮想空間と物理空間との間で一致を得るために、検出およびナビゲーションのスケーリングを制御するステップを備えており、仮想空間が、ディスプレイ上に描画された空間を含み、物理空間が、本体によって占められる空間を含む。
一実施形態の撮像するステップは、本体の波頭コード化画像を発生することを含む。
一実施形態のジェスチャ・データは、撮像システムの被写体深度内における本体の焦点解明データ(focus-resolved data)を含む。
一実施形態の中間画像は、ぼやけている。
一実施形態のジェスチャ・データは、被写体深度内における本体の焦点解明範囲(range)データを含む。
一実施形態のジェスチャ・データは、被写体深度内における本体の焦点解明位置データを含む。
一実施形態の撮像システムは、複数の検出器を備えている。
一実施形態の光検出器の内少なくとも2つは、撮像の焦点深度を増大させる位相マスクを備えている波頭コード化カメラである。
一実施形態の方法は、脱焦に関して不変である変調伝達関数および点拡散関数を発生するステップを備えている。
以上の実施形態のある種の態様が、以下にある種の請求項の形態で提示されるが、本発明者は、これら実施形態の種々の態様を、いかなる数の請求項の形態でも想定している。したがって、本発明者は、本願を出願した後に本実施形態の他の態様に対してこのような追加の請求項の形態を追求するために、追加の請求項を加える権利を保持することとする。
Claims (277)
- データ・セットを含むデータ空間全域においてナビゲートする方法であって、
検出器を通じて受信したジェスチャ・データから物理的空間における本体のジェスチャを検出するステップであって、前記ジェスチャ・データが、ある時点および前記物理的空間における前記本体の瞬時的状態についての絶対三空間位置データであり、当該検出するステップが、前記ジェスチャ・データのみを用いて前記ジェスチャを識別することを含む、ステップと、
前記ジェスチャをジェスチャ信号に変換するステップと、
パラメータにより制御可能である前記データ・セットの特性に基づいて、前記データ空間の空間的表現および該空間的表現における前記データ・セットの配置を決定するステップであって、前記データ空間が、前記物理的空間において表された前記データ・セットを有するデータ表現空間である、ステップと、
前記データ空間の空間的表現と一致した座標系システムおよび前記物理的空間の座標系システムにおいて生成される複数のデータ・フレームを含めるように前記データ空間の視覚表現を生成するステップであって、各データ・フレームは、前記データ空間が提示されるディスプレイに一致するサイズおよびアスペクト比を有して生成される、ステップと、
前記ジェスチャ信号に応答して前記データ空間全域においてナビゲートするステップとを含む、方法。 - 請求項1記載の方法であって、前記データ・セットのパラメータ−制御軸を、前記物理的空間の1次元と位置合わせするステップを含む、方法。
- 請求項2記載の方法において、前記次元が深さ次元である、方法。
- 請求項2記載の方法において、前記次元が水平次元である、方法。
- 請求項2記載の方法において、前記次元が垂直次元である、方法。
- 請求項2記載の方法において、前記次元が横方向次元である、方法。
- 請求項2記載の方法において、前記ナビゲートするステップが、前記パラメータ−制御軸に沿ってデータ空間変換を行うために、前記次元に沿った運動を含む、方法。
- 請求項2記載の方法において、前記ナビゲートするステップが、前記データ空間の量子化パラメータ空間にナビゲートすることを含む、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の進展する位置を検出することを含む、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の進展する方位を検出することを含む、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の進展するポーズを検出することを含み、前記ポーズが、前記本体の一部分の前記本体の少なくとも1つの他の部分に対する幾何学的配置である、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の進展する運動を検出することを含む、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の進展する位置、前記本体の方位、前記本体のポーズ、および前記本体の運動の内少なくとも1つを検出することを含む、方法。
- 請求項1記載の方法であって、前記ジェスチャを分析して、ジェスチャ・イベントのシーケンスを得るステップを含む、方法。
- 請求項14記載の方法であって、前記ジェスチャを識別するステップを含む、方法。
- 請求項15記載の方法において、前記ジェスチャを識別する前記ステップが、前記本体の進展する位置、前記本体の方位、前記本体のポーズ、および前記本体の運動の内少なくとも1つを識別することを含む、方法。
- 請求項15記載の方法であって、前記ジェスチャ・イベントのシーケンスにおける前記ジェスチャ・イベントの表現を発生するステップを含む、方法。
- 請求項17記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間に結合されている少なくとも1つの制御コンポーネントに配信するステップを含む、方法。
- 請求項18記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間のグラフィカル描写と同期させるステップを含む、方法。
- 請求項19記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間全域におけるナビゲーションのグラフィカル描写と同期させるステップを含む、方法。
- 請求項18記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間の聴覚描写と同期させるステップを含む、方法。
- 請求項21記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間全域におけるナビゲーションの聴覚描写と同期させるステップを含む、方法。
- 請求項1記載の方法において、前記データ・セットが空間情報を表す、方法。
- 請求項23記載の方法において、前記データ・セットが、現象、イベント、測定、観察、および構造の内少なくとも1つの空間情報を表す、方法。
- 請求項1記載の方法において、前記データ・セットが非空間情報を表す、方法。
- 請求項1記載の方法において、前記ジェスチャが線形空間運動を含む、方法。
- 請求項1記載の方法において、前記ナビゲートするステップが、前記データ空間を通過する線形推移を含む、方法。
- 請求項1記載の方法であって、
前記データ空間の複数の領域のグラフィカル描写である複数のデータ・フレームに前記データ・セットをレンダリングするステップと、
各データ・フレームを可視フレームとしてディスプレイ上に表示するステップと、
を含む、方法。 - 請求項28記載の方法において、前記データ・フレームのサイズおよびアスペクト比が、前記ディスプレイのサイズおよびアスペクト比と一致する、方法。
- 請求項28記載の方法において、前記データ・フレームの中心および法線ベクトルが、前記ディスプレイの中心および法線ベクトルと一致する、方法。
- 請求項28記載の方法において、前記データ・フレームの位置および方位が、前記ディスプレイの位置および方位と一致する、方法。
- 請求項28記載の方法において、各データ・フレームが、前記データ・セットのエレメントを表すグラフィカル・データ・エレメントを含む、方法。
- 請求項32記載の方法において、前記グラフィカル・データ・エレメントが静的エレメントである、方法。
- 請求項32記載の方法において、前記グラフィカル・データ・エレメントが動的エレメントである、方法。
- 請求項28記載の方法において、前記データ・フレームが二次元構造である、方法。
- 請求項35記載の方法において、前記データ・フレームが、前記本体を含むローカル環境を記述する座標と一致する座標系を有する三次元グラフィクス・レンダリング環境内に存在する、方法。
- 請求項28記載の方法において、前記データ空間全域においてナビゲートするステップが、前記複数のデータ・フレーム全域においてナビゲートすることを含む、方法。
- 請求項28記載の方法であって、
前記本体の第1ポーズを検出するステップと、
前記第1ポーズの検出に応答して、プッシュバック相互作用を活性化するステップと、を含む、方法。 - 請求項38記載の方法であって、
前記第1ポーズを入力する第1位置を記録するステップであって、前記第1位置が三空間の手の位置である、ステップと、
前記第1位置を原点として設定するステップであって、続いて検出される本体位置を、前記原点に対する相対的オフセットとして報告する、ステップと、
を含む、方法。 - 請求項39記載の方法であって、前記本体の移動を検出することによって、ジェスチャを検出するステップを含む、方法。
- 請求項40記載の方法において、前記検出するステップが、前記本体の第1移動を検出することを含み、前記第1移動が、前記ディスプレイに向かい軸に沿った移動であり、前記軸が、前記ディスプレイの目視面に対して垂直な軸として定められる、方法。
- 請求項41記載の方法において、前記ナビゲートするステップが、前記本体の第1移動に応答して、前記複数のデータ・フレームを前記軸に沿って変位させることを含み、前記データ・フレームが位置する平面において見える部分が多くなり、前記ディスプレイ上にレンダリングされる第1可視フレームが、前記ディスプレイから後退するように見え、第1データ・フレームに隣接するデータ・フレームが可視となる、方法。
- 請求項41記載の方法において、前記ナビゲートするステップが、前記本体の第1移動に応答して、前記複数のデータ・フレームを前記軸に沿って現在のデータ・フレームから変位させることを含み、データ・フレームが下方に平行移動し、前記現在のデータ・フレームが、前記ディスプレイ上に現在レンダリングされているデータ・フレームである、方法。
- 請求項43記載の方法において、各データ・フレームの外観が前記変位に応答して変化し、前記現在のデータ・フレームの下に位置するデータ・フレームが相対的に高い度合いの透明度およびぼやけを呈し、前記現在のデータ・フレームが可視から遷移してある度合いの透明度およびぼやけを呈し、前記現在のデータ・フレームの上に位置するデータ・フレームが、相対的に低い度合いの透明度およびぼやけを呈し、見えるようになる、方法。
- 請求項41記載の方法において、前記検出するステップが、前記本体の第2移動を検出することを含み、前記第2移動が、前記ディスプレイから離れる方向への前記軸に沿った移動である、方法。
- 請求項45記載の方法において、前記ナビゲートするステップが、前記本体の第2移動に応答して、前記複数のデータ・フレームを前記軸に沿って変位させることを含み、前記データ・フレームが位置する平面において見える部分が少なくなり、前記ディスプレイ上にレンダリングされた第1可視フレームが、前記ディスプレイから推移するように見え、第1データ・フレームに隣接するデータ・フレームが見え難くなる、方法。
- 請求項45記載の方法において、前記ナビゲートするステップが、前記本体の第2移動に応答して、前記複数のデータ・フレームを、前記軸に沿って現在のデータ・フレームから変位させることを含み、データ・フレームが上方に平行移動し、前記現在のデータ・フレームが、前記ディスプレイ上に現在レンダリングされているデータ・フレームである、方法。
- 請求項47記載の方法において、各データ・フレームの外観が前記変位に応答して変化し、前記現在のデータ・フレームの上に位置するデータ・フレームが相対的に高い度合いの透明度およびぼやけを呈し、前記現在のデータ・フレームが可視から遷移してある度合いの透明度およびぼやけを呈し初め、前記現在のデータ・フレームの下に位置するデータ・フレームが、相対的に低い度合いの透明度およびぼやけを呈し、そして見えるようになり始める、方法。
- 請求項40記載の方法において、前記検出するステップが、前記本体の第3移動を検出することを含み、前記第3移動が、前記ディスプレイの目視面に対して平行な平面における移動である、方法。
- 請求項49記載の方法において、前記ナビゲートするステップが、前記本体の第3移動に応答して、前記複数のデータ・フレームを前記第3移動に対応する方向に変位させることを含む、方法。
- 請求項50記載の方法において、前記ディスプレイ上にレンダリングされている現在のデータ・フレームが前記方向にスライドするように見え、前記現在のデータ・フレームに隣接するデータ・フレームが、前記方向とは逆の前記ディスプレイの側から見えてくるようにスライドし、前記現在のデータ・フレームが、前記ディスプレイ上に現在レンダリングされているデータ・フレームである、方法。
- 請求項40記載の方法において、前記ナビゲートするステップが、前記本体の移動に直接応答して、前記複数のデータ・フレームの変位を連続的に更新することを含む、方法。
- 請求項52記載の方法であって、
前記本体の第2ポーズを検出するステップと、
前記第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップであって、前記終了が、前記複数のデータ・フレームの内1つのデータ・フレームを、前記ディスプレイと同一平面上に表示することを含む、ステップと、
を含む、方法。 - 請求項40記載の方法であって、ジェスチャの間における前記本体の変位の物理的距離と、ナビゲーションの間において前記データ空間の中にある連続点間の論理距離との間でマッピングするステップを備えており、該マッピングするステップが、前記データ空間における前記複数のデータ・フレームの相対的変位、および各離散データ・フレームの外観の内少なくとも1つを制御する、方法。
- 請求項40記載の方法であって、アクティブ・ゾーンとデッド・ゾーンとを備えているジェスチャ相互作用空間を形成するステップを備えており、前記アクティブ・ゾーンが前記ディスプレイに隣接しており、前記デッド・ゾーンが前記アクティブ・ゾーンに隣接している、方法。
- 請求項55記載の方法において、前記ジェスチャ信号に応答して前記データ空間全域においてナビゲートするステップが、前記ジェスチャがアクティブ領域において検出されたときに、当該ジェスチャに応答して活性化される、方法。
- 請求項55記載の方法であって、前記ディスプレイ上にフィードバック・インディケータをレンダリングするステップを含む、方法。
- 請求項57記載の方法において、前記フィードバック・インディケータが、前記本体が前記アクティブ・ゾーンおよび前記デッド・ゾーンの内1つにあることを示すフィードバックを表示する、方法。
- 請求項57記載の方法において、前記フィードバック・インディケータが、前記本体の前記原点からの物理的オフセットを示すフィードバックを表示する、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の位置を検出すること、前記本体の方位を検出すること、および前記本体の運動を検出することの内少なくとも1つを含む、方法。
- 請求項1記載の方法であって、前記ジェスチャを識別するステップを備えており、該識別するステップが、前記本体の一部のポーズおよび方位を識別することを含む、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体に結合されている少なくとも1つのタグの位置を動的に検出することを含む、方法。
- 請求項63記載の方法において、前記検出するステップが、前記本体に結合されている1組のタグの位置を検出することを含む、方法。
- 請求項64記載の方法において、前記1組のタグの各タグはパターンを含み、前記1組のタグの各タグの各パターンは、前記複数のタグの内いずれの残りのタグのいずれのパターンとも異なる、方法。
- 請求項1記載の方法において、前記検出するステップが、前記本体上にあるマーカを動的に検出し位置を突き止めることを含む、方法。
- 請求項66記載の方法において、前記検出するステップが、前記本体に結合されている1組のマーカの位置を検出することを含む、方法。
- 請求項66記載の方法において、前記1組のマーカが、前記本体上に複数のパターンを形成する、方法。
- 請求項66記載の方法において、前記検出するステップが、前記本体の複数の付加物の位置を、当該付加物の各々に結合されている1組のマーカを用いて、検出することを含む、方法。
- 請求項1記載の方法において、前記変換するステップが、前記ジェスチャの情報をジェスチャ表記に変換することを含む、方法。
- 請求項70記載の方法において、前記ジェスチャ表記が、ジェスチャ・ボキャブラリを表し、前記ジェスチャ信号が前記ジェスチャ・ボキャブラリの通信を含む、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の力学的連結の瞬時的ポーズ状態をテキスト・フォームで表す、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の力学的
連結の方位をテキスト・フォームで表す、方法。 - 請求項71記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の力学的連結の方位の組み合わせを、テキスト・フォーム表す、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の力学的連結の状態を表す、キャラクタのストリングを含む、方法。
- 請求項75記載の方法において、前記力学的連結が、前記本体の少なくとも1つの第1付加物である、方法。
- 請求項76記載の方法であって、前記ストリングにおける各位置を第2付加物に割り当てるステップを備えており、該第2付加物が前記第1付加物に接続されている、方法。
- 請求項77記載の方法であって、複数のキャラクタにおけるキャラクタを、前記第2付加物の複数の位置の各々に割り当てるステップを含む、方法。
- 請求項78記載の方法において、前記複数の位置が、座標原点に対して確定される、方法。
- 請求項79記載の方法であって、空間における絶対位置および方位、前記本体の全体的位置および方位とは無関係な前記本体に対する固定位置および方位から成る1群から選択した位置を用いて、ならびに前記本体の動作に応答して対話的に前記座標原点を確定するステップを含む、方法。
- 請求項78記載の方法であって、前記複数のキャラクタにおけるキャラクタを、前記第1付加物の複数の方位の各々に割り当てるステップを含む、方法。
- 請求項76記載の方法において、前記検出するステップが、前記本体の外挿補間位置が仮想空間と交差するときを検出することを含み、前記仮想空間が、コンピュータに結合されているディスプレイ・デバイス上に描画された空間を含む、方法。
- 請求項82記載の方法であって、前記外挿補間位置が前記仮想空間と交差するときに、前記仮想空間において仮想オブジェクトを制御するステップを含む、方法。
- 請求項83記載の方法において、前記制御するステップが、前記仮想空間における前記外挿補間位置に応答して、前記仮想空間における仮想オブジェクトの位置を制御することを含む、方法。
- 請求項83記載の方法において、前記制御するステップが、前記ジェスチャに応答して前記仮想空間における仮想オブジェクトの姿勢を制御することを含む、方法。
- 請求項1記載の方法であって、仮想空間と物理空間との間で一致を得るために、前記検出および制御のスケーリングを制御するステップを備えており、前記仮想空間が、ディスプレイ上に描画された空間を含み、前記物理空間が、前記本体によって占められる空間を含む、方法。
- 請求項86記載の方法であって、前記物理空間における少なくとも1つの物理オブジェクトの移動に応答して、前記仮想空間において少なくとも1つの仮想オブジェクトを制御するステップを含む、方法。
- 請求項1記載の方法であって、撮像システムによって前記本体を撮像するステップを含む、方法。
- 請求項88記載の方法において、前記撮像するステップが、前記本体の波頭コード化画像を発生することを含む、方法。
- 請求項89記載の方法において、前記ジェスチャ・データが、前記撮像システムの被写体深度内における前記本体の焦点解明データを含む、方法。
- 請求項90記載の方法であって、前記撮像システムによって収集された画像をコード化することによって、中間画像を発生するステップを含む、方法。
- 請求項91記載の方法において、前記中間画像がぼやけている、方法。
- 請求項91記載の方法において、前記中間画像が、脱焦収差を含む、前記本体または前記撮像システムの複数の光検出器の内少なくとも1つの変化に対して不感応である、方法。
- 請求項90記載の方法において、前記ジェスチャ・データが、前記被写体深度内における前記本体の焦点解明範囲データを含む、方法。
- 請求項94記載の方法において、前記被写体深度内における前記本体の前記焦点解明範囲データが、前記撮像システムの出力から導出される、方法。
- 請求項90記載の方法において、前記ジェスチャ・データが、前記被写体深度内における前記本体の焦点解明位置データを含む、方法。
- 請求項96記載の方法において、前記被写体深度内における前記本体の前記焦点解明位置データが、前記撮像システムの出力から導出される、方法。
- 請求項88記載の方法において、前記撮像システムが複数の検出器を備えている、方法。
- 請求項98記載の方法において、前記検出器の内少なくとも2つが、波頭コード化光学エレメントを備えている波頭コード化カメラである、方法。
- 請求項98記載の方法において、光検出器の内少なくとも2つが、撮像の焦点深度を増大させる位相マスクを備えている波頭コード化カメラである、方法。
- 請求項88記載の方法であって、前記本体と前記撮像システムとの間の距離に対して不変である、変調伝達関数および点拡散関数を発生するステップを含む、方法。
- 請求項88記載の方法であって、脱焦に関して不変である変調伝達関数および点拡散関数を発生するステップを含む、方法。
- システムであって、
物理的空間において本体によって行われるジェスチャを表すジェスチャ・データを受け取る検出器と、
該検出器に結合されているプロセッサであって、前記ジェスチャ・データから自動的に
ジェスチャを検出する、プロセッサと
を備えており、
前記ジェスチャ・データがある時点および前記物理的空間における前記本体の瞬時的状態についての絶対三空間位置データであり、
前記プロセッサが、前記ジェスチャ・データのみを用いて前記ジェスチャを識別し、
前記プロセッサが、前記ジェスチャをジェスチャ信号に変換し、
前記プロセッサが、パラメータにより制御可能であるデータ・セットの特性に基づいて、データ空間の空間的表現および該空間的表現における前記データ・セットの配置を決定し、前記データ空間が、前記物理的空間において表された前記データ・セットを有するデータ表現空間であり、
前記プロセッサが、前記データ空間の空間的表現と一致した座標系システムおよび前記物理的空間の座標系システムにおいて生成される複数のデータ・フレームを含めるように前記データ空間の視覚表現を生成し、各データ・フレームは、前記データ空間が提示されるディスプレイに一致するサイズおよびアスペクト比を有して生成され、
前記プロセッサが、前記ジェスチャ信号に応答して前記データ空間全域においてナビゲーションを制御する、システム。 - データ・セットを含むデータ空間全域においてナビゲートする方法であって、
検出器を通じて受け取られたジェスチャ・データから物理的空間における本体のジェスチャを検出するステップであって、前記ジェスチャ・データがある時点および前記物理的空間における前記本体の瞬時的状態についての絶対三空間位置データであり、当該検出するステップが、前記ジェスチャ・データのみを用いて前記ジェスチャを識別することを含む、ステップと、
前記ジェスチャをジェスチャ信号に変換するステップと、
パラメータにより制御可能である前記データ・セットの特性に基づいて、前記データ空間の空間的表現および該空間的表現における前記データ・セットの配置を決定するステップであって、前記データ空間が、前記物理的空間において表された前記データ・セットを有するデータ表現空間である、ステップと、
前記データ空間の空間的表現と一致した座標系システムおよび前記物理的空間の座標系システムにおいて生成される複数のデータ・フレームを含めるように前記データ空間の視覚表現を生成するステップであって、各データ・フレームは、前記データ空間が提示されるディスプレイに一致するサイズおよびアスペクト比を有して生成される、ステップと、
前記ジェスチャ信号に応答して前記データ空間全域においてナビゲートするステップと、
前記データ空間の複数の領域のグラフィカル描写である複数の共面データ・フレームにおいて前記データ・セットをレンダリングし、各データ・フレームを可視フレームとしてディスプレイ上に表示するステップであって、前記複数のデータ・フレームが前記複数の共面データ・フレームを含む、ステップと
を含む、方法。 - 請求項104記載の方法であって、
前記本体の第1ポーズを検出するステップと、
前記第1ポーズの検出に応答して、プッシュバック相互作用を活性化するステップと、を含む、方法。 - 請求項105記載の方法であって、
前記第1ポーズを入力する第1位置を記録するステップであって、前記第1位置が三空間の手の位置である、ステップと、
前記第1位置を原点として設定するステップであって、続いて検出される本体位置を、前記原点に対する相対的オフセットとして報告する、ステップと、
を含む、方法。 - 請求項106記載の方法において、前記検出するステップが、前記本体の前方移動を検出することを含み、前記前方移動がz−軸に沿った前記ディスプレイに向かう移動であり、前記z−軸が前記ディスプレイの目視面に対して垂直な軸として定められる、方法。
- 請求項107記載の方法において、前記ナビゲートするステップが、前記本体の前方移動に応答して、前記複数のデータ・フレームを前記Z−軸に沿って変位させることを含み、前記データ・フレームが位置する平面において見える部分がより多くなり、前記ディスプレイ上にレンダリングされる第1可視フレームが、前記ディスプレイから後退するように見え、第1データ・フレームに隣接するデータ・フレームが可視となる、方法。
- 請求項108記載の方法において、前記検出するステップが、前記本体の後方移動を検出することを含み、前記後方移動がz−軸に沿った前記ディスプレイから離れる移動である、方法。
- 請求項109記載の方法において、前記ナビゲートするステップが、前記本体の後方移動に応答して、前記複数のデータ・フレームを前記Z−軸に沿って変位させることを含み、前記データ・フレームが位置する平面において見える部分が少なくなり、前記ディスプレイ上にレンダリングされた第1可視フレームが、前記ディスプレイから推移するように見え、第1データ・フレームに隣接するデータ・フレームがより見え難くなる、方法。
- 請求項110記載の方法であって、前記本体の前記z−軸に沿った移動に直接応答して、前記複数のデータ・フレームの前記z−軸に沿った変位を連続的に更新するステップを含む、方法。
- 請求項111記載の方法であって、
前記本体の第2ポーズを検出するステップと、
前記第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップであって、前記終了が、前記複数のデータ・フレームの内1つのデータ・フレームを、前記ディスプレイと同一平面上に表示することを含む、ステップと、
を含む、方法。 - 請求項106記載の方法において、前記検出するステップが、前記本体の右横方向移動を検出することを含み、前記右横方向移動がx−軸に沿った移動であり、前記x−軸が、前記ディスプレイの目視面に対して平行な平面内に位置する、方法。
- 請求項113記載の方法において、前記ナビゲートするステップが、前記本体の右横方向移動に応答して、前記複数のデータ・フレームを前記x−軸に沿って右に変位させることを含み、前記ディスプレイ上にレンダリングされた第1可視フレームが、前記ディスプレイから当該ディスプレイの右側に向かってスライドするように見え、第1データ・フレームに隣接するデータ・フレームがスライドして前記ディスプレイの左側から見えるようになる、方法。
- 請求項114記載の方法において、前記検出するステップが、前記本体の左横方向移動を検出することを含み、前記左横方向移動が前記x−軸に沿った移動である、方法。
- 請求項115記載の方法において、前記ナビゲートするステップが、前記本体の左横方
向移動に応答して、前記複数のデータ・フレームを前記x−軸に沿って左に変位させることを含み、前記ディスプレイ上にレンダリングされた第1可視フレームが、前記ディスプレイから当該ディスプレイの左側に向かってスライドするように見え、第1データ・フレームに隣接するデータ・フレームがスライドして前記ディスプレイの右側から見えるようになる、方法。 - 請求項116記載の方法であって、前記本体の前記x−軸に沿った移動に直接応答して、前記複数のデータ・フレームの前記x−軸に沿った変位を連続的に更新するステップを含む、方法。
- 請求項117記載の方法であって、
前記本体の第2ポーズを検出するステップと、
前記第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップであって、前記終了が、前記複数のデータ・フレームの内1つのデータ・フレームを、前記ディスプレイと同一平面上に表示することを含む、ステップと、
を含む、方法。 - 請求項106記載の方法において、前記データ空間が、平面内に配置された複数の仮想抑止点を含む、方法。
- 請求項119記載の方法において、各仮想抑止点が各データ・フレームに対応する、方法。
- 請求項106記載の方法であって、アクティブ・ゾーンとデッド・ゾーンとを備えているジェスチャ相互作用空間を形成するステップを備えており、前記アクティブ・ゾーンが前記ディスプレイに隣接しており、前記デッド・ゾーンが前記アクティブ・ゾーンに隣接している、方法。
- 請求項121記載の方法において、前記ジェスチャ信号に応答して前記データ空間全域においてナビゲートするステップが、前記ジェスチャがアクティブ領域において検出されたときに、当該ジェスチャに応答して活性化される、方法。
- 請求項121記載の方法であって、前記ディスプレイ上にレンダリングされるフィードバック・インディケータを含む、方法。
- 請求項123記載の方法において、前記フィードバック・インディケータが、前記本体が前記アクティブ・ゾーンおよび前記デッド・ゾーンの内1つにあることを示すフィードバックを表示する、方法。
- 請求項123記載の方法において、前記フィードバック・インディケータが、前記本体の前記原点からの物理的オフセットを示すフィードバックを表示する、方法。
- 請求項104記載の方法であって、前記データ・セットのパラメータ−制御軸を、前記物理的空間の1次元と位置合わせするステップを含む、方法。
- 請求項126記載の方法において、前記次元が深さ次元である、方法。
- 請求項126記載の方法において、前記次元が水平次元である、方法。
- 請求項126記載の方法において、前記次元が垂直次元である、方法。
- 請求項126記載の方法において、前記次元が横方向次元である、方法。
- 請求項126記載の方法において、前記ナビゲートするステップが、前記パラメータ−制御軸に沿ってデータ空間変換を行うために、前記次元に沿った運動を含む、方法。
- 請求項126記載の方法において、前記ナビゲートするステップが、前記データ空間の量子化パラメータ空間にナビゲートすることを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体の進展する位置を検出することを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体の進展する方位を検出することを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体の進展するポーズを検出することを含み、前記ポーズが、前記本体の一部分の前記本体の少なくとも1つの他の部分に対する幾何学的配置である、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体の進展する運動を検出することを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体の進展する位置、前記本体の方位、前記本体のポーズ、および前記本体の運動の内少なくとも1つを検出することを含む、方法。
- 請求項104記載の方法であって、前記ジェスチャを分析して、ジェスチャ・イベントのシーケンスを得るステップを含む、方法。
- 請求項138記載の方法であって、前記ジェスチャを識別するステップを含む、方法。
- 請求項139記載の方法において、前記ジェスチャを識別する前記ステップが、前記本体の進展する位置、前記本体の方位、前記本体のポーズ、および前記本体の運動の内少なくとも1つを識別することを含む、方法。
- 請求項139記載の方法であって、前記ジェスチャ・イベントのシーケンスにおける前記ジェスチャ・イベントの表現を発生するステップを含む、方法。
- 請求項141記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間に結合されている少なくとも1つの制御コンポーネントに配信するステップを含む、方法。
- 請求項142記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間のグラフィカル描写と同期させるステップを含む、方法。
- 請求項143記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間全域におけるナビゲーションのグラフィカル描写と同期させるステップを含む、方法。
- 請求項142記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間の聴覚描写と同期させるステップを含む、方法。
- 請求項145記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間全域におけるナビゲーションの聴覚描写と同期させるステップを含む、方法。
- 請求項104記載の方法において、前記データ・セットが空間情報を表す、方法。
- 請求項147記載の方法において、前記データ・セットが、現象、イベント、測定、観察、および構造の内少なくとも1つの空間情報を表す、方法。
- 請求項104記載の方法において、前記データ・セットが非空間情報を表す、方法。
- 請求項104記載の方法において、前記ジェスチャが線形空間運動を含む、方法。
- 請求項104記載の方法において、前記ナビゲートするステップが、前記データ空間を通過する線形推移を含む、方法。
- 請求項104記載の方法であって、
前記データ空間の複数の領域のグラフィカル描写である複数のデータ・フレームに前記データ・セットをレンダリングするステップと、
各データ・フレームを可視フレームとしてディスプレイ上に表示するステップと、
を含む、方法。 - 請求項152記載の方法において、前記データ・フレームのサイズおよびアスペクト比が、前記ディスプレイのサイズおよびアスペクト比と一致する、方法。
- 請求項152記載の方法において、前記データ・フレームの中心および法線ベクトルが、前記ディスプレイの中心および法線ベクトルと一致する、方法。
- 請求項152記載の方法において、前記データ・フレームの位置および方位が、前記ディスプレイの位置および方位と一致する、方法。
- 請求項152記載の方法において、各データ・フレームが、前記データ・セットのエレメントを表すグラフィカル・データ・エレメントを含む、方法。
- 請求項156記載の方法において、前記グラフィカル・データ・エレメントが静的エレメントである、方法。
- 請求項156記載の方法において、前記グラフィカル・データ・エレメントが動的エレメントである、方法。
- 請求項152記載の方法において、前記データ・フレームが二次元構造である、方法。
- 請求項159記載の方法において、前記データ・フレームが、前記本体を含むローカル環境を記述する座標と一致する座標系を有する三次元グラフィクス・レンダリング環境内に存在する、方法。
- 請求項152記載の方法において、前記データ空間全域においてナビゲートするステップが、前記複数のデータ・フレーム全域においてナビゲートすることを含む、方法。
- 請求項104記載の方法であって、前記ジェスチャを識別するステップを備えており、
該識別するステップが、前記本体の一部のポーズおよび方位を識別することを含む、方法。 - 請求項104記載の方法において、前記検出するステップが、前記本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、少なくとも1つのタグの位置を動的に検出することを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体上にあるマーカを動的に検出し位置を突き止めることを含む、方法。
- 請求項104記載の方法において、前記変換するステップが、前記ジェスチャの情報をジェスチャ表記に変換することを含む、方法。
- 請求項166記載の方法において、前記ジェスチャ表記が、ジェスチャ・ボキャブラリを表し、前記ジェスチャ信号が前記ジェスチャ・ボキャブラリの通信を含む、方法。
- 請求項167記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の瞬時的ポーズ状態をテキスト・フォームで表す、方法。
- 請求項167記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の方位をテキスト・フォームで表す、方法。
- 請求項167記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の方位の組み合わせを、テキスト・フォームで表す、方法。
- 請求項167記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の状態を表す、キャラクタのストリングを含む、方法。
- 請求項104記載の方法において、前記検出するステップが、前記本体の外挿補間位置が仮想空間と交差するときを検出することを含み、前記仮想空間が、前記ディスプレイ上に描画された空間を含む、方法。
- 請求項172記載の方法であって、前記外挿補間位置が前記仮想空間と交差するときに、前記仮想空間において仮想オブジェクトを制御するステップを含む、方法。
- 請求項173記載の方法であって、前記仮想空間における前記外挿補間位置に応答して、前記仮想空間における仮想オブジェクトの位置を制御するステップを含む、方法。
- 請求項104記載の方法であって、仮想空間と物理空間との間で一致を得るために、前記検出およびナビゲーションのスケーリングを制御するステップを備えており、前記仮想空間が、前記ディスプレイ上に描画された空間を含み、前記物理空間が、前記本体によって占められる空間を含む、方法。
- 請求項104記載の方法であって、撮像システムによって前記本体を撮像するステップを含む、方法。
- 請求項176記載の方法において、前記撮像するステップが、前記本体の波頭コード化画像を発生することを含む、方法。
- 請求項177記載の方法において、前記ジェスチャ・データが、前記撮像システムの被写体深度内における前記本体の焦点解明データを含む、方法。
- 請求項178記載の方法であって、前記撮像システムによって収集された画像をコード化することによって、中間画像を発生するステップを含む、方法。
- 請求項179記載の方法において、前記中間画像がぼやけている、方法。
- 請求項179記載の方法において、前記中間画像が、脱焦収差を含む、前記本体と前記撮像システムの複数の光検出器との内少なくとも1つの変化に対して不感応である、方法。
- 請求項178記載の方法において、前記ジェスチャ・データが、前記被写体深度内における前記本体の焦点解明範囲データを含む、方法。
- 請求項182記載の方法において、前記被写体深度内における前記本体の前記焦点解明範囲データが、前記撮像システムの出力から導出される、方法。
- 請求項178記載の方法において、前記ジェスチャ・データが、前記被写体深度内における前記本体の焦点解明位置データを含む、方法。
- 請求項184記載の方法において、前記被写体深度内における前記本体の前記焦点解明位置データが、前記撮像システムの出力から導出される、方法。
- 請求項176記載の方法において、前記撮像システムが複数の検出器を含む、方法。
- 請求項186記載の方法において、前記検出器の内少なくとも2つが、波頭コード化光学エレメントを備えている波頭コード化カメラである、方法。
- 請求項186記載の方法において、光検出器の内少なくとも2つが、撮像の焦点深度を増大させる位相マスクを備えている波頭コード化カメラである、方法。
- 請求項176記載の方法であって、前記本体と前記撮像システムとの間の距離に対して不変である、変調伝達関数および点拡散関数を発生するステップを含む、方法。
- 請求項176記載の方法であって、脱焦に関して不変である変調伝達関数および点拡散関数を発生するステップを含む、方法。
- システムであって、
物理的空間において本体によって行われるジェスチャを表すジェスチャ・データを受け取る検出器と、
前記検出器に結合されているプロセッサであって、前記ジェスチャ・データから自動的にジェスチャを検出する、プロセッサと、
を備えており、
前記ジェスチャ・データがある時点および前記物理的空間における前記本体の瞬時的状態についての絶対三空間位置データであり、
前記プロセッサが、前記ジェスチャ・データのみを用いて前記ジェスチャを識別し、
前記プロセッサが、前記ジェスチャをジェスチャ信号に変換し、
前記プロセッサが、パラメータにより制御可能であるデータ・セットの特性に基づいて、データ空間の空間的表現および該空間的表現における前記データ・セットの配置を決定し、前記データ空間が、前記物理的空間において表された前記データ・セットを有するデータ表現空間であり、
前記プロセッサが、前記ジェスチャ信号に応答して前記データ空間全域においてナビゲーションを制御すると共に、前記データ空間の空間的表現と一致した座標系システムおよび前記物理的空間の座標系システムにおいて生成される複数のデータ・フレームを含めるように前記データ空間の視覚表現を生成し、各データ・フレームは、前記データ空間が提示されるディスプレイに一致するサイズおよびアスペクト比を有して生成され、
前記プロセッサが、前記データ空間の複数の領域のグラフィカル描写である複数の共面データ・フレームにおいて前記データ・セットをレンダリングすると共に、各データ・フレームを可視フレームとしてディスプレイ上に表示し、前記複数のデータ・フレームが前記複数の共面データ・フレームを含む、システム。 - データ・セットを含むデータ空間全域においてナビゲートする方法であって、
検出器を通じて受け取られたジェスチャ・データから物理的空間における本体のジェスチャを検出するステップであって、前記ジェスチャ・データがある時点および前記物理的空間における前記本体の瞬時的状態についての絶対三空間位置データであり、当該検出するステップが、前記ジェスチャ・データのみを用いて前記ジェスチャを識別することを含む、ステップと、
前記ジェスチャをジェスチャ信号に変換するステップと、
パラメータにより制御可能である前記データ・セットの特性に基づいて、前記データ空間の空間的表現および該空間的表現における前記データ・セットの配置を決定するステップであって、前記データ空間が、前記物理的空間において表された前記データ・セットを有するデータ表現空間である、ステップと、
前記ジェスチャ信号に応答して前記データ空間全域においてナビゲートするステップと、
前記データ空間の複数の領域のグラフィカル描写である複数のデータ・フレームにおいて前記データ・セットをレンダリングすると共に、各データ・フレームを可視フレームとしてディスプレイ上に表示するステップであって、前記複数のデータ・フレームが、前記データ空間の複数の平面に配置された離散データ・フレームのスタックを構成し、各データ・フレームが前記複数の平面の内別々の平面に位置し、前記複数のデータ・フレームの各データ・フレームを含める前記データ空間の視覚表現が、前記データ空間の空間的表現と一致した座標系システムおよび前記物理的空間の座標系システムにおいて生成され、各データ・フレームは、前記データ空間が提示されるディスプレイに一致するサイズおよびアスペクト比を有して生成される、ステップと
を含む、方法。 - 請求項192記載の方法であって、
前記本体の第1ポーズを検出するステップと、
前記第1ポーズの検出に応答して、プッシュバック相互作用を活性化するステップと、を含む、方法。 - 請求項193記載の方法であって、
前記第1ポーズを入力する第1位置を記録するステップであって、前記第1位置が三空間の手の位置である、ステップと、
前記第1位置を原点として設定するステップであって、続いて検出される本体位置を、前記原点に対する相対的オフセットとして報告する、ステップと、
を含む、方法。 - 請求項194記載の方法において、前記検出するステップが、前記本体の上方移動を検
出することを含み、前記上方移動がy−軸に沿って前記ディスプレイから外側に向かう移動であり、前記y−軸が前記ディスプレイの目視面に対して垂直な軸として定められる、方法。 - 請求項195記載の方法において、前記ナビゲートするステップが、前記本体の上方移動に応答して、前記複数のデータ・フレームを現在のデータ・フレームから前記y−軸に沿って変位させることを含み、前記スタックの離散データ・フレームが上方に平行移動し、前記現在のデータ・フレームが、前記ディスプレイ上に現在レンダリングされている離散データ・フレームである、方法。
- 請求項196記載の方法において、各離散データ・フレームの外観が前記変位に応答して変化し、前記現在のデータ・フレームの上に位置する前記スタックの離散データ・フレームが相対的に高い度合いの透明度およびぼやけを呈し、前記現在のデータ・フレームが可視から遷移してある度合いの透明度およびぼやけを呈し始め、前記現在のデータ・フレームの下に位置する前記スタックの離散データ・フレームが、相対的に低い度合いの透明度およびぼやけを呈し、見えるようになり始める、方法。
- 請求項197記載の方法であって、ジェスチャの間における前記本体の変位の物理的距離と、前記スタックの連続離散データ・フレーム間の論理距離との間でマッピングするステップを備えており、このマッピングが、前記y−軸に沿った前記複数のデータ・フレームの変位、および各離散データ・フレームの外観を制御する、方法。
- 請求項198記載の方法において、前記検出するステップが、前記本体の下方移動を検出することを含み、前記下方移動がy−軸に沿って記ディスプレイに向かう移動である、方法。
- 請求項199記載の方法において、前記ナビゲートするステップが、前記本体の下方移動に応答して、前記複数のデータ・フレームを現在のデータ・フレームから前記y−軸に沿って変位させることを含み、前記スタックの離散データ・フレームが下方に平行移動する、方法。
- 請求項200記載の方法において、各離散データ・フレームの外観が前記変位に応答して変化し、前記現在のデータ・フレームの下に位置する前記スタックの離散データ・フレームが相対的に高い度合いの透明度およびぼやけを呈し、前記現在のデータ・フレームが可視から遷移してある度合いの透明度およびぼやけを呈し始め、前記現在のデータ・フレームの上に位置する前記スタックの離散データ・フレームが、相対的に低い度合いの透明度およびぼやけを呈し、見えるようになる、方法。
- 請求項201記載の方法であって、ジェスチャの間における前記本体の変位の物理的距離と、前記スタックの連続離散データ・フレーム間の論理距離との間でマッピングするステップを備えており、該マッピングが、前記y−軸に沿った前記複数のデータ・フレームの変位、および各離散データ・フレームの外観を制御する、方法。
- 請求項202記載の方法であって、前記本体の前記y−軸に沿った移動に直接応答して、前記複数のデータ・フレームの前記y−軸に沿った変位を連続的に更新するステップを含む、方法。
- 請求項203記載の方法であって、
前記本体の第2ポーズを検出するステップと、
前記第2ポーズの検出に応答して、プッシュバック相互作用を終了するステップであっ
て、前記終了が、前記複数のデータ・フレームの内1つのデータ・フレームを、前記ディスプレイと同一平面上に表示することを含む、ステップと、
を含む、方法。 - 請求項192記載の方法において、前記データ空間が、複数の仮想抑止点を備えている、方法。
- 請求項205記載の方法において、各仮想抑止点が前記複数の平面の各平面に対応する、方法。
- 請求項192記載の方法であって、第1アクティブ・ゾーンと、第2アクティブ・ゾーンと、デッド・ゾーンとを備えているジェスチャ相互作用空間を形成するステップを備えており、前記第1アクティブ・ゾーンが前記ディスプレイに隣接しており、前記デッド・ゾーンが前記第1アクティブ・ゾーンに隣接しており、前記第2アクティブ・ゾーンが前記デッド・ゾーンに隣接している、方法。
- 請求項207記載の方法において、前記ジェスチャ信号に応答して前記データ空間全域においてナビゲートするステップが、前記ジェスチャが前記第1アクティブ・ゾーンおよび前記第2アクティブ・ゾーンの内1つにおいて検出されたときに、前記ジェスチャに応答して活性化される、方法。
- 請求項207記載の方法であって、前記ディスプレイ上にレンダリングされるフィードバック・インディケータを含む、方法。
- 請求項209記載の方法において、前記フィードバック・インディケータが、前記本体が前記第1アクティブ・ゾーン、前記第2アクティブ・ゾーン、および前記デッド・ゾーンの内1つにあることを示すフィードバックを表示する、方法。
- 請求項209記載の方法において、前記フィードバック・インディケータが、前記本体の原点からの物理的オフセットを示すフィードバックを表示する、方法。
- 請求項192記載の方法であって、前記データ・セットのパラメータ−制御軸を、前記物理的空間の1次元と位置合わせするステップを含む、方法。
- 請求項212記載の方法において、前記次元が深さ次元である、方法。
- 請求項212記載の方法において、前記次元が水平次元である、方法。
- 請求項212記載の方法において、前記次元が垂直次元である、方法。
- 請求項212記載の方法において、前記次元が横方向次元である、方法。
- 請求項212記載の方法において、前記ナビゲートするステップが、前記パラメータ−制御軸に沿ってデータ空間変換を行うために、前記次元に沿った運動を含む、方法。
- 請求項212記載の方法において、前記ナビゲートするステップが、前記データ空間の量子化パラメータ空間にナビゲートすることを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の進展する位置を検出することを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の進展する方位を検出することを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の進展するポーズを検出することを含み、前記ポーズが、前記本体の一部分の前記本体の少なくとも1つの他の部分に対する幾何学的配置である、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の進展する運動を検出することを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の進展する位置、前記本体の方位、前記本体のポーズ、および前記本体の運動の内少なくとも1つを検出することを含む、方法。
- 請求項192記載の方法であって、前記ジェスチャを分析して、ジェスチャ・イベントのシーケンスを得るステップを含む、方法。
- 請求項224記載の方法であって、前記ジェスチャを識別するステップを含む、方法。
- 請求項225記載の方法において、前記ジェスチャを識別する前記ステップが、前記本体の進展する位置、前記本体の方位、前記本体のポーズ、および前記本体の運動の内少なくとも1つを識別することを含む、方法。
- 請求項225記載の方法であって、前記ジェスチャ・イベントのシーケンスにおける前記ジェスチャ・イベントの表現を発生するステップを含む、方法。
- 請求項227記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間に結合されている少なくとも1つの制御コンポーネントに配信するステップを含む、方法。
- 請求項228記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間のグラフィカル描写と同期させるステップを含む、方法。
- 請求項229記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間全域におけるナビゲーションのグラフィカル描写と同期させるステップを含む、方法。
- 請求項228記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間の聴覚描写と同期させるステップを含む、方法。
- 請求項231記載の方法であって、前記ジェスチャ・イベントの表現を、前記データ空間全域におけるナビゲーションの聴覚描写と同期させるステップを含む、方法。
- 請求項192記載の方法において、前記データ・セットが空間情報を表す、方法。
- 請求項233記載の方法において、前記データ・セットが、現象、イベント、測定、観察、および構造の内少なくとも1つの空間情報を表す、方法。
- 請求項192記載の方法において、前記データ・セットが非空間情報を表す、方法。
- 請求項192記載の方法において、前記ジェスチャが線形空間運動を含む、方法。
- 請求項192記載の方法において、前記ナビゲートするステップが、前記データ空間を通過する線形推移を含む、方法。
- 請求項192記載の方法であって、
前記データ空間の複数の領域のグラフィカル描写である複数のデータ・フレームに前記データ・セットをレンダリングするステップと、
各データ・フレームを可視フレームとしてディスプレイ上に表示するステップと、
を含む、方法。 - 請求項238記載の方法において、前記データ・フレームのサイズおよびアスペクト比が、前記ディスプレイのサイズおよびアスペクト比と一致する、方法。
- 請求項238記載の方法において、前記データ・フレームの中心および法線ベクトルが、前記ディスプレイの中心および法線ベクトルと一致する、方法。
- 請求項238記載の方法において、前記データ・フレームの位置および方位が、前記ディスプレイの位置および方位と一致する、方法。
- 請求項238記載の方法において、各データ・フレームが、前記データ・セットのエレメントを表すグラフィカル・データ・エレメントを含む、方法。
- 請求項242記載の方法において、前記グラフィカル・データ・エレメントが静的エレメントである、方法。
- 請求項242記載のシステムにおいて、前記グラフィカル・データ・エレメントが動的エレメントである、方法。
- 請求項238記載のシステムにおいて、前記データ・フレームが二次元構造である、方法。
- 請求項245記載の方法において、前記データ・フレームが、前記本体を含むローカル環境を記述する座標と一致する座標系を有する三次元グラフィクス・レンダリング環境内に存在する、方法。
- 請求項238記載の方法において、前記データ空間全域においてナビゲートするステップが、前記複数のデータ・フレーム全域においてナビゲートすることを含む、方法。
- 請求項192記載の方法であって、前記ジェスチャを識別するステップを備えており、この識別が、前記本体の一部のポーズおよび方位を識別することを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、少なくとも1つのタグの位置を動的に検出することを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体上にあるマーカを動的に検出し位置を突き止めることを含む、方法。
- 請求項192記載の方法において、前記変換するステップが、前記ジェスチャの情報をジェスチャ表記に変換することを含む、方法。
- 請求項252記載の方法において、前記ジェスチャ表記が、ジェスチャ・ボキャブラリを表し、前記ジェスチャ信号が前記ジェスチャ・ボキャブラリの通信を含む、方法。
- 請求項253記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の瞬時的ポーズ状態をテキスト・フォームで表す、方法。
- 請求項253記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の方位をテキスト・フォームで表す、方法。
- 請求項253記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の方位の組み合わせを、テキスト・フォームで表す、方法。
- 請求項253記載の方法において、前記ジェスチャ・ボキャブラリが、前記本体の状態を表すキャラクタのストリングを含む、方法。
- 請求項192記載の方法において、前記検出するステップが、前記本体の外挿補間位置が仮想空間と交差するときを検出することを含み、前記仮想空間が、前記ディスプレイ上に描画された空間を含む、方法。
- 請求項258記載の方法であって、前記外挿補間位置が仮想オブジェクトと交差するときに、前記仮想空間において仮想オブジェクトを制御するステップを含む、方法。
- 請求項259記載の方法であって、前記仮想空間における前記外挿補間位置に応答して、前記仮想空間における前記仮想オブジェクトの位置制御するステップを含む、方法。
- 請求項192記載の方法であって、仮想空間と物理空間との間で一致を得るために、前記検出およびナビゲーションのスケーリングを制御するステップを備えており、前記仮想空間が、前記ディスプレイ上に描画された空間を含み、前記物理空間が、前記本体によって占められる空間を含む、方法。
- 請求項192記載の方法であって、撮像システムによって前記本体を撮像するステップを含む、方法。
- 請求項262記載の方法において、前記撮像するステップが、前記本体の波頭コード化画像を発生することを含む、方法。
- 請求項263記載の方法において、前記ジェスチャ・データが、前記撮像システムの被写体深度内における前記本体の焦点解明データを含む、方法。
- 請求項264記載の方法であって、前記撮像システムによって収集された画像をコード化することによって、中間画像を発生するステップを含む、方法。
- 請求項265記載の方法において、前記中間画像がぼやけている、方法。
- 請求項265記載の方法において、前記中間画像が、脱焦収差を含む、前記本体と前記
撮像システムの複数の光検出器との内少なくとも1つの変化に対して不感応である、方法。 - 請求項264記載の方法において、前記ジェスチャ・データが、前記被写体深度内における前記本体の焦点解明範囲データを含む、方法。
- 請求項268記載の方法において、前記被写体深度内における前記本体の前記焦点解明範囲データが、前記撮像システムの出力から導出される、方法。
- 請求項264記載の方法において、前記ジェスチャ・データが、前記被写体深度内における前記本体の焦点解明位置データを含む、方法。
- 請求項270記載の方法において、前記被写体深度内における前記本体の前記焦点解明位置データが、前記撮像システムの出力から導出される、方法。
- 請求項262記載の方法において、前記撮像システムが複数の検出器を備えている、方法。
- 請求項272記載の方法において、前記検出器の内少なくとも2つが、波頭コード化光学エレメントを備えている波頭コード化カメラである、方法。
- 請求項272記載の方法において、光検出器の内少なくとも2つが、撮像の焦点深度を増大させる位相マスクを備えている波頭コード化カメラである、方法。
- 請求項262記載の方法であって、前記本体と前記撮像システムとの間の距離に対して不変である、変調伝達関数および点拡散関数を発生するステップを含む、方法。
- 請求項262記載の方法であって、脱焦に関して不変である変調伝達関数および点拡散関数を発生するステップを含む、方法。
- システムであって、
物理的空間において本体によって行われるジェスチャを表すジェスチャ・データを受け取る検出器と、
前記検出器に結合されているプロセッサであって、前記ジェスチャ・データから自動的にジェスチャを検出する、プロセッサと、
を備えており、
前記ジェスチャ・データがある時点および前記物理的空間における前記本体の瞬時的状態についての絶対三空間位置データであり、
前記プロセッサが、前記ジェスチャ・データのみを用いて前記ジェスチャを識別し、
前記プロセッサが、前記ジェスチャをジェスチャ信号に変換し、
前記プロセッサが、パラメータにより制御可能であるデータ・セットの特性に基づいて、データ空間の空間的表現および該空間的表現における前記データ・セットの配置を決定し、前記データ空間が、前記物理的空間において表された前記データ・セットを有するデータ表現空間であり、
前記プロセッサが、前記ジェスチャ信号に応答して前記データ空間全域においてナビゲーションを制御し、
前記プロセッサが、前記データ空間の複数の領域のグラフィカル描写である複数のデータ・フレームにおいて前記データ・セットをレンダリングすると共に、各データ・フレームを可視フレームとしてディスプレイ上に表示し、
前記複数のデータ・フレームが、前記データ空間の複数の平面に配置された離散データ
・フレームのスタックを備えており、各データ・フレームが前記複数の平面の内別々の平面に位置し、
前記プロセッサが、前記データ空間の空間的表現と一致した座標系システムおよび前記物理的空間の座標系システムにおいて、前記複数のデータ・フレームの各データ・フレームを含めるように前記データ空間の視覚表現を生成すると共に、前記各データ・フレームが、前記データ空間が提示されるディスプレイに一致するサイズおよびアスペクト比を有して生成される、システム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US9385208P | 2008-09-03 | 2008-09-03 | |
US61/093,852 | 2008-09-03 | ||
US12/417,252 | 2009-04-02 | ||
US12/417,252 US9075441B2 (en) | 2006-02-08 | 2009-04-02 | Gesture based control using three-dimensional information extracted over an extended depth of field |
US12/487,623 US20090278915A1 (en) | 2006-02-08 | 2009-06-18 | Gesture-Based Control System For Vehicle Interfaces |
US12/487,623 | 2009-06-18 | ||
PCT/US2009/055930 WO2010028176A1 (en) | 2008-09-03 | 2009-09-03 | Control system for navigating a principal dimension of a data space |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012502364A JP2012502364A (ja) | 2012-01-26 |
JP5806615B2 true JP5806615B2 (ja) | 2015-11-10 |
Family
ID=41797486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011526203A Expired - Fee Related JP5806615B2 (ja) | 2008-09-03 | 2009-09-03 | データ空間の主要次元をナビゲートするための制御システム |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP2338114B1 (ja) |
JP (1) | JP5806615B2 (ja) |
KR (1) | KR101616591B1 (ja) |
CN (1) | CN102177513B (ja) |
ES (1) | ES2623816T3 (ja) |
WO (1) | WO2010028176A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5627314B2 (ja) * | 2010-06-24 | 2014-11-19 | キヤノン株式会社 | 情報処理装置 |
JP5645530B2 (ja) * | 2010-07-29 | 2014-12-24 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
US9952671B2 (en) * | 2010-10-12 | 2018-04-24 | Nokia Technologies Oy | Method and apparatus for determining motion |
US8610831B2 (en) | 2010-10-12 | 2013-12-17 | Nokia Corporation | Method and apparatus for determining motion |
CN102238390B (zh) * | 2011-08-05 | 2013-03-20 | 中国科学院深圳先进技术研究院 | 基于图像库的视频和图像的编码解码方法与系统 |
WO2013103410A1 (en) | 2012-01-05 | 2013-07-11 | California Institute Of Technology | Imaging surround systems for touch-free display control |
WO2014107434A1 (en) | 2013-01-02 | 2014-07-10 | California Institute Of Technology | Single-sensor system for extracting depth information from image blur |
US9616350B2 (en) * | 2014-05-21 | 2017-04-11 | Universal City Studios Llc | Enhanced interactivity in an amusement park environment using passive tracking elements |
CN105589550A (zh) * | 2014-10-21 | 2016-05-18 | 中兴通讯股份有限公司 | 信息发布方法、信息接收方法、装置及信息共享系统 |
CN105865327A (zh) * | 2015-01-22 | 2016-08-17 | 成都飞机工业(集团)有限责任公司 | 基于变焦照片的相对位置的测量方法 |
DE102016216577A1 (de) * | 2016-09-01 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden |
CN108241164B (zh) * | 2016-12-26 | 2021-09-14 | 千寻位置网络有限公司 | 卫星定位系统定位空窗期内轨迹记录方法及其装置 |
CA3064764A1 (en) | 2017-05-24 | 2018-11-29 | The Trustees Of Columbia University In The City Of New York | Broadband achromatic flat optical components by dispersion-engineered dielectric metasurfaces |
SG11202001717VA (en) | 2017-08-31 | 2020-03-30 | Metalenz Inc | Transmissive metasurface lens integration |
CN107754225A (zh) * | 2017-11-01 | 2018-03-06 | 河海大学常州校区 | 一种智能健身教练系统 |
JP6730552B2 (ja) * | 2018-05-14 | 2020-07-29 | 株式会社ユピテル | 電子情報システム及びそのプログラム |
EP4004608A4 (en) | 2019-07-26 | 2023-08-30 | Metalenz, Inc. | APERTURE META-SURFACE AND HYBRID REFRACTIVE META-SURFACE IMAGING SYSTEMS |
EP3985491A1 (en) * | 2020-10-19 | 2022-04-20 | ameria AG | Control method for touchless gesture control |
US11927769B2 (en) | 2022-03-31 | 2024-03-12 | Metalenz, Inc. | Polarization sorting metasurface microlens array device |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69315969T2 (de) * | 1992-12-15 | 1998-07-30 | Sun Microsystems Inc | Darstellung von Informationen in einem Anzeigesystem mit transparenten Fenstern |
JP2517531B2 (ja) * | 1994-02-28 | 1996-07-24 | 株式会社エイ・ティ・アール通信システム研究所 | ステレオ画像を用いた姿勢検出装置 |
JPH0863326A (ja) * | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
US20020195548A1 (en) * | 2001-06-06 | 2002-12-26 | Dowski Edward Raymond | Wavefront coding interference contrast imaging systems |
JPH103544A (ja) * | 1996-06-14 | 1998-01-06 | Imeeji Joho Kagaku Kenkyusho | ジェスチャ認識装置 |
AU2854500A (en) * | 1999-01-20 | 2000-08-07 | Karl B. Schmidt | Methods and apparatus for providing feedback to a subject in connection with performing a task |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
WO2003025859A1 (fr) * | 2001-09-17 | 2003-03-27 | National Institute Of Advanced Industrial Science And Technology | Dispositif d'interface |
CN101118317B (zh) * | 2002-02-27 | 2010-11-03 | Cdm光学有限公司 | 波前编码成像系统的优化图像处理 |
JP2004213521A (ja) * | 2003-01-08 | 2004-07-29 | Canon Inc | ペン入力情報処理方法 |
US7576725B2 (en) * | 2004-10-19 | 2009-08-18 | Microsoft Corporation | Using clear-coded, see-through objects to manipulate virtual objects |
US7446766B2 (en) * | 2005-02-08 | 2008-11-04 | Seegrid Corporation | Multidimensional evidence grids and system and methods for applying same |
CN101536494B (zh) * | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制系统的系统和方法 |
EP1926047A1 (en) * | 2006-11-21 | 2008-05-28 | STMicroelectronics (Research & Development) Limited | Artefact Removal from Phase Encoded Images |
-
2009
- 2009-09-03 JP JP2011526203A patent/JP5806615B2/ja not_active Expired - Fee Related
- 2009-09-03 EP EP09812234.4A patent/EP2338114B1/en not_active Not-in-force
- 2009-09-03 WO PCT/US2009/055930 patent/WO2010028176A1/en active Application Filing
- 2009-09-03 KR KR1020117007835A patent/KR101616591B1/ko active IP Right Grant
- 2009-09-03 ES ES09812234.4T patent/ES2623816T3/es active Active
- 2009-09-03 CN CN200980140293.0A patent/CN102177513B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP2338114A1 (en) | 2011-06-29 |
KR20110058871A (ko) | 2011-06-01 |
JP2012502364A (ja) | 2012-01-26 |
WO2010028176A1 (en) | 2010-03-11 |
EP2338114A4 (en) | 2011-10-05 |
ES2623816T3 (es) | 2017-07-12 |
CN102177513A (zh) | 2011-09-07 |
KR101616591B1 (ko) | 2016-04-28 |
CN102177513B (zh) | 2015-12-02 |
EP2338114B1 (en) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5806615B2 (ja) | データ空間の主要次元をナビゲートするための制御システム | |
US10061392B2 (en) | Control system for navigating a principal dimension of a data space | |
US9471148B2 (en) | Control system for navigating a principal dimension of a data space | |
US8537112B2 (en) | Control system for navigating a principal dimension of a data space | |
US8896531B2 (en) | Fast fingertip detection for initializing a vision-based hand tracker | |
US9910497B2 (en) | Gestural control of autonomous and semi-autonomous systems | |
JP5805537B2 (ja) | マルチプロセス・インタラクティブ・システムおよび方法 | |
JP5698733B2 (ja) | 三空間入力の検出、表現、および解釈:自由空間、近接、および表面接触モードを組み込むジェスチャ連続体 | |
JP5782431B2 (ja) | 空間動作システムと共に用いるための空間マルチモード制御デバイス | |
US8669939B2 (en) | Spatial, multi-modal control device for use with spatial operating system | |
US8665213B2 (en) | Spatial, multi-modal control device for use with spatial operating system | |
US20150100593A1 (en) | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes | |
US20110025603A1 (en) | Spatial, Multi-Modal Control Device For Use With Spatial Operating System | |
WO2010030822A1 (en) | Gestural control of autonomous and semi-autonomous systems | |
JP2015525381A (ja) | 相互ユーザ手追跡および形状認識ユーザ・インターフェース |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140219 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140516 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150115 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150410 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5806615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |