JP4278979B2 - ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム - Google Patents
ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム Download PDFInfo
- Publication number
- JP4278979B2 JP4278979B2 JP2002558112A JP2002558112A JP4278979B2 JP 4278979 B2 JP4278979 B2 JP 4278979B2 JP 2002558112 A JP2002558112 A JP 2002558112A JP 2002558112 A JP2002558112 A JP 2002558112A JP 4278979 B2 JP4278979 B2 JP 4278979B2
- Authority
- JP
- Japan
- Prior art keywords
- projection data
- plane
- projection
- collection means
- setup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Infusion, Injection, And Reservoir Apparatuses (AREA)
- External Artificial Organs (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
【発明の属する技術分野】
本発明は、ターゲットの位置についての情報を入力するシステム及び方法に関し、より特定すれば、単一のカメラ画像を採用するこのようなシステムに関する。
【0002】
【従来の技術】
コンピュータに基づいた多くのシステムはターゲットの位置についての情報を必要とする。例えば、よく知られているマウスは画面上でコントロール又は座標を選択するのに用いられる。ターゲット位置のデータがコンピュータに入力される他の分野は、自動化されたビデオ会議システムの分野である。例えばユーザは、単純に物体を示すか又はジョイスティックでカメラを制御することにより、目的の物体にカメラを向けることができる。ユーザが、マウス又はジョイスティックの使用無しに、通常他人にターゲットを示すのに用いられるよく知られているジェスチャーを用いることによって、ターゲットを示すことを可能にするシステムに関する研究が多くの面で進行している。
【0003】
このようなジェスチャーに基づいたシステムは、音声コマンド(各口頭コマンドが例えば「左にパンせよ」、「上へ」、「下へ」等の命令に対応する、基本的に音声に基づいた記号の処理装置である「コマンドコントロール」)及びジョイスティック制御等の明確なコマンドを必要とする従来のシステムよりも直感的であり制御するのがより容易である。
【0004】
ユーザが指し示すことにより複数のカメラビューを用いて方向を決定する方法がある。例えば、カメラに基づいたシステムはMasaaki Fukumoto, Yasuhito Suenga及びKenji Maseによる文献「‘Finger-Pointer’: Pointing interface by Image Processing」に詳細に説明されている。ユーザの指示と一致する3次元ベクトルを決定するためには実際の場面の3次元モデルを生じさせるのに複数のアングルのビューが統合されることが必要であるかもしれないため、このようなシステムは多くの場合複雑である。またカメラは、位置を合わせられ、照準を合わせられ、位置及び方向が精密に規定される必要がある。次に、ユーザが指し示しているターゲットを決定するのに3次元モデルが用いられる。ターゲットが既知の面に位置するという限定された状況においては、この複雑さを克服する1つの技術は、較正されていない2つのカメラ及び平面投影変換を、2000年5月17日出願の米国特許出願第09/572,991号「Apparatus and method for indicating a target by image processing without three-dimensional modeling」に関する他の特許出願に説明されるように用いることであり、当該特許出願の全体はここで完全に述べられるかのように参照によりここに組み込まれる。ここでは較正は必要とされないが、この出願の方法はかなりの間隔で配置されなければならない複数のカメラを必要とする。
【0005】
マウスは、相対位置を示すことにより画面上で所望の2次元座標の位置を示す。マウスが始めに制御されるとき、このマウスにより示される位置の開始位置は任意である。ユーザは究極的にはフィードバック及び相対的な移動を用いることによってのみターゲット位置を示すことができる。マウスと非常によく似た動作をする、単純な単一のカメラのジェスチャーに基づいた技術が米国特許第5,594,469号に説明される。この方法では、ユーザのジェスチャーは単一のカメラ及びフィードバックにより示される位置により得られる。次にユーザは、フィードバック信号が所望の結果を示すまでジェスチャーを修正する。例えば、ユーザは手を移動して、この変位の方向及び大きさは画面上のカーソルの相対的な変位の方向及び大きさにマッピングされる。
【0006】
【発明が解決しようとする課題】
しかし、このシステムには、開始位置が任意であり、(通常視覚的である)フィードバックが必要とされるというマウス又はジョイスティックと同じ欠点がある。
【0007】
【課題を解決するための手段】
簡単には、平面上のターゲットの位置は平面上に指示方向の投影を入力することにより示される。ターゲットが平面中で輪郭線に位置すると知られていれば、位置は方向投影により明白に特定され、ここで輪郭線と投影との交点が所望のターゲットである。代替的には、ターゲットの2次元的な位置はターゲットの軸座標を連続的なステップで入力することにより特定されることが可能である。他の代替の手法では、ターゲットを含む画像は変換及び/又は回転され、ターゲットは再び示される。次に2つの方向投影の交点が2次元空間(2‐Space)のターゲットの位置を決定するのに用いられる。方向指示はカメラ又は、1つ以上の無線伝送器、影のキャスティング等の他の方法により入力されることができる。
【0008】
本システムでの方針は、平面投影変換を上で参照した米国特許出願第09/572,991号に開示される態様で用いるが、ここで2つのカメラを用いて単一の方向指示ベクトルの独立の平面投影を共通平面に提供する代わりに、単一のカメラの画像の座標が既知の平面にマッピングされ、2つでなくただ1つの座標情報の次元を提供する、というものである。しかし、この単一次元は複数の態様で用いられることが可能である。例えば、スライダコントロールなどの単一軸コントロールは指し示すジェスチャーにより制御されることが可能である。道路地図に示される道路の一点も示されることが可能である。また、連続したジェスチャー入力、例えば表の行のために1つのジェスチャー、列のために1つのジェスチャーを用いることにより、所望のセルを示すことができる。代替的に、場面の画像が画面及び場面上に示されるターゲットに投影されることが可能である。次に、第1の指示の後に、場面は転換及び/又は回転されターゲットが再び指示されることができる。これらの2つの指し示すことによる指示の2つの平面投影から、ターゲットの位置は単純に2つの投影の交点を見つけることにより導き出されることができる。
【0009】
本発明は、より完全に理解されるよう以下の説明的な図を参照して特定の好適な実施例に関連して説明される。図を参照すると、示される項目は例であって本発明の好適な実施例の例示的な説明のみを目的とするものであり、本発明の原理及び概念的側面の最も有用であり容易に理解される説明であると信じられるものを提供する目的で提示されるということが強調される。この関連で、本発明の構造的細部を示すことは本発明の根本的理解に必要なもの以上には試みられず、図と共に用いられる説明が、当業者に本発明の幾つかの形が実際上いかに具体化されるかを明らかにする。
【0010】
【発明の実施の形態】
図1A、1B及び1Cを参照すると、カメラ150は開口155を備える画面135の後ろのプラットホーム110に支持される。カメラ150は、カメラ150が開口155を通して場面を見るように画面の前の場面に向けられることができる。カメラ150の照準は、開口155の端170がカメラの画像中に見えるようになっているものである。よって、カメラ150の視野は開口155によりわずかに削られている。装置200においては、画面135の目的は開口155の角261-264の形で4つのマーカーを提示するということであって、この目的に効果のある装置であれば何でも十分であることに注意されたい。例えば、マーク又はワイヤフレームの物体を備える透明なガラスである。長方形の開口155又はワイヤフレームにより設けられる角で合流する直線は、4つの角の座標を識別するのに補間法が用いられることを許容し、これにより小さいマーカーの直接測定に関する座標測定の精度を増加させる、という意味で有益である。
【0011】
ここで図2を参照すると、装置200はユーザ30を見るのに用いられる位置に配置される。セットアップ中に、カメラ240はターゲットが位置することができる点の位置、例えば画面210及び装置200の画面135の4つの点261-264がカメラ240の視野内にあるような位置及び方向に、一時的に配置される。4つの追加の点221-224も画面210上にマークされる。4つの点221-224もセットアップカメラ240の視野内にある。単一のセットアップ画像がセットアップカメラ240に必要な全てのものである。この画像はカメラ150の画像中の4つの点261-264をセットアップカメラ240の画像中の4つの点にマッピングする平面投影変換を計算するのに用いられる。このセットアップ変換が一旦計算されたら、これはカメラ150の画像中のあらゆる画像座標をセットアップカメラ240の画像座標に変換するのに用いられる。セットアップカメラ240の画像は全ターゲット位置データの基礎であるか又はこの画像はセットアップ変換を適切に修正することによりいかなる所望の平面にも変換されることができる。実施例では、ユーザ30の目236及び指先235の座標は、カメラ150の画像の座標からカメラ240の画像の座標に変換される。
【0012】
図は、ユーザ30が指し示すジェスチャーを用いてターゲット260を指し示しているところを示す。人がターゲット260等のターゲットを指し示すときに用いられるジェスチャーは、ユーザの指先235、ユーザの右目(左目)236及びターゲット260が直線でつながるというものであるということが実験的に確認されている。ここで図3及び4も参照すると、画面210の平面は350において示され、ユーザ30の目236及び指先235をつなげる直線は330において示される。セットアップカメラ240の視野におけるターゲット260の平面投影は、ユーザ30の目236及び指先235により規定される直線即ち方向ベクトル330の平面投影に沿って位置する。325において示されるカメラ240の焦点は、方向ベクトルと共に平面320を規定する。平面320とターゲットが位置する平面350との交線は方向ベクトル330の投影を規定する。ターゲット(例えばT1)は平面350中で特定の線又は輪郭線、例えば垂直軸即ちスライダコントロール360に位置すると知られていれば、ターゲット点は直線330の平面投影310と垂直軸即ちスライダコントロール360との交点を見つけることにより得ることができる。
【0013】
依然図3及び4を参照すると、平面350上の任意の点を示すために2つの軸即ちスライダコントロール360及び365が画面210に連続で投影されることが可能であり、第1に垂直位置を例えば垂直軸即ちスライダコントロール360に示し、次に水平位置を例えば水平軸即ちスライダコントロール365に示すことができる。これは表の列を、次に行を特定することにより特定のセルを選択する手法に類似している。
【0014】
ここで図5を参照すると、まっすぐではない線460において点を特定することができる。方向ベクトル430に対応する投影線410が曲線即ち輪郭線460と1点のみで交差するのであれば、ターゲット点は明確に決定することができる。例えば、道又は他の物体の輪郭上の点はこのような手法により特定することができる。再び、ターゲットは平面450に位置すると仮定されている。
【0015】
ここで図5及び6を共に参照して、第1の位置及び方向において任意の画像が特定されていると仮定しよう。この第1の位置及び方向において、ターゲット473は方向ベクトル430により示される。一旦これが起これば、ターゲット473は方向ベクトル430の投影により特定される線410により規定される経路上に位置すると知られる。この実施例では、ターゲット473が規定の線即ち輪郭線460に位置することを必要とするよりもむしろ画像の位置及び/又は方向が変更されて、ユーザは方向ベクトル430により表される他の指示を生じさせる。次に平面450中で第2投影線412が規定される。投影線410と412との交点がターゲット473の位置を示す。当然、明らかに投影線410及び412は画像に関連して規定される。
【0016】
上述の実施例ではターゲットは特定の態様(目から指先へ)の指し示すジェスチャーにより示されるが、この指示が他の手法で導出されることができない理由は何もない。例えば、確認装置又はワンドが使用されることが可能である。また、ターゲットは、画面上のターゲットではなく、共通の平面上に実質的に位置するいかなる物体又は画像でもよい。また更に、物体又はターゲットは単一平面上に位置する必要はなく、それぞれが登録マークのそれぞれの組を有する複数の平面上に位置することができる。本発明はターゲットが平らな面ではない面に位置することができるように他の変形を用いることによっても拡張されることが可能である。また他の変形例は方向を示すジェスチャーの態様である。方向を示すための動くジェスチャーに伴うような短い時間間隔に亘っての手又は指の振りの方向等の方向を導出するのに、画像の時間的系列が用いられることが可能である。また、他の適切なアプリケーションはホワイトボードアプリケーションである。また更に、登録マークは画面上のマークである必要はなく、画面の角であってもよい。また、登録マークはセットアップ中の1つの時点で画面上に投影され後に除去されてもよい。登録点座標は次に、セットアップが変更されるまで登録マークに対する他の参照無しに変換を計算するのに用いられてもよい。この技術の他のアプリケーションは、カメラをターゲットに向けることへの使用である。一旦参照画像中の座標が知られれば、カメラがターゲットを捕捉するのに再び照準をあててズームすることが可能である。これは自動ビデオ会議システムの状況で有用になる。
【0017】
ここで図7を参照すると、本発明のアプリケーションを実施するのに用いられ得る装置及び処理がブロック図で示される。画像プロセッサ505がカメラ501から画像データを受信する。画像及び座標データはメモリ510又は不揮発性記憶装置520に記憶されてよい。例えば、変換データは一旦計算されれば不揮発性メモリ520及びカメラ501からの画像の計算に用いられるメモリ510に記憶されることができ、アプリケーション処理530に適用され得るターゲットの座標x, yを導出することができる。アプリケーション処理は上で説明した連続的なターゲット指定ステップを実行するのに複数の画像処理ステップを命令することができる。ターゲットが指定される度に、音声応答システム等のインジケータ522がユーザの入力を示すことができる。音声応答システムでは、ユーザは特定の単語又は命令を言うことにより自分の現在のジェスチャーが完了したことを示すことができる。代替的に、ユーザは同じことをジェスチャー、リモートコントロールボタン又は他の指示器522を用いることにより示してもよい。アプリケーション処理530は次に出力装置540にホワイトボード上の図面又はゲームのアバター(分身)のための制御データ等の出力を生成する。平面投影が無線装置を通じて得られるシステムにおいては、RF検知器524が設けられてもよい。
【0018】
カメラ501により収集された投影データはソナー、ラジオ、超音波医療機器又は平面投影を形成することができる他のあらゆる装置等からも導出されることができることに注意されたい。同様の計算手法が、方向がカメラにより得られるもの以外のポインティングインジケータと関連して用いられ得るということにも注意されたい。例えば、確認チューブ又は無線伝送器を備えるガンサイトの方向がコンピュータにより得られ、画面上のターゲットの位置を決定するのに用いられることができる。無線に基づくライティングタブレット及びネットワーク化されたホワイトボードアプリケーション等が、カメラ全体に対する必要性を避けてポインティングデバイスの方向を決定するのに採用されてもよい。この装置は上で参照として組み込まれた米国特許第09/572,991号中でも用いられることが可能であることに注意されたい。
【0019】
本発明は、前記の説明的実施例の細部には制限されず、本発明の精神又は本質的な特質から離れることなく他の特定の形式で実施され得るということは当業者には明らかである。従ってこれら実施例はあらゆる点において説明的であって制限的でないとみなされるべきであり、本発明の範囲は前記の説明よりも添付の請求項により示され、請求項の意味及び均等物の範囲内での全変更は従って当該請求項中に含まれるように意図されている。
【図面の簡単な説明】
【図1A】 本発明の実施例を実施するためのジグの平面図。
【図1B】 図1Aのジグの正面図。
【図1C】 図1A及び1Bの側面図。
【図2】 本発明の実施例のために用いられるセットアップ構成の図。
【図3】 2つの輪郭線上で示される位置が点を示すのに用いられるセットアップカメラ画像の平面投影座標間の幾何学的関係の図。
【図4】 2つの輪郭線上で示される位置が点を示すのに用いられるセットアップカメラ画像の平面投影座標間の幾何学的関係の図。
【図5】 2つの位置に移動された単一の輪郭線上で示される位置が点を示すのに用いられるセットアップカメラ画像の平面投影座標間の幾何学的関係。
【図6】 2つの位置に移動された単一の輪郭線上で示される位置が点を示すのに用いられるセットアップカメラ画像の平面投影座標間の幾何学的関係。
【図7】 本発明を実施するために用いられ得る物理的構成の図。
Claims (21)
- 規定の平面上に位置する未知の点の位置を決定する方法であって、
前記規定の平面に関するセットアップ用投影データを、第1の投影データ収集手段を用いて、取得するステップであって、前記セットアップ用投影データは、前記規定の平面及び第2の投影データ収集手段を1つの画像に含むように取得される、ステップと、
ユーザによって空間中に生じられる線の指示を、前記第2の投影データ収集手段を用いて投影データとして取得するステップと、
前記第1及び第2の投影データ収集手段から各投影データを受信する処理器が、前記第2の投影データ収集手段を用いて取得された前記投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の平面投影へ変換するステップと、
前記処理器が、前記規定の平面上に位置する既知の経路に沿う位置を、前記既知の経路と前記平面投影における前記線の指示との交点を決定することにより決定するステップと、
を有する方法。 - 前記第1の投影データ収集手段が、カメラである、請求項1に記載の方法。
- 前記第2の投影データ収集手段が、カメラである、請求項2に記載の方法。
- 前記セットアップ用投影データが、前記規定の平面上の規定の第1の登録マークの群を含むように撮影される、請求項3に記載の方法。
- 前記第2の投影データ収集手段を用いて取得される前記投影データが、前記第2の投影データ収集手段の前に配置される規定の第2の登録マークの群を含むように撮影される、請求項4に記載の方法。
- 前記セットアップ用投影データが、前記規定の平面上の規定の第1の登録マークの群に加えて、更に前記規定の第2の登録マークの群も含むように撮影される、請求項5に記載の方法。
- 前記平面投影変換が、前記第2の投影データ収集手段により撮影された前記第2の登録マークの群を、前記セットアップ用投影データに含まれる前記第1の登録マークにマッピングする計算に基づく、請求項6に記載の方法。
- 前記第1及び第2の登録マークの数が、それぞれ4つであり、正方形又は長方形を形成する、請求項7に記載の方法。
- 前記ユーザによって空間中に生じられる線の指示が、ユーザの動的なジェスチャーを含む、請求項1に記載の方法。
- ユーザによって空間中に生じられる線の指示を、第2の投影データ収集手段を用いて投影データとして取得するステップが、カメラによる撮像及び無線受信器による検知の内少なくとも1つにより、ユーザによって操作されるポインティングデバイスの方向を取得すること、を含む、請求項1に記載の方法。
- 前記第1及び/又は第2の投影データ収集手段が、ソナー、ラジオ、超音波医療機器である、請求項1に記載の方法。
- 前記規定の平面上の既知の経路が、スライダーコントロール、又は道路地図に示される道路である、請求項1に記載の方法。
- ユーザによって空間中に生じられる他の線の指示を、前記第2の投影データ収集手段を用いて更なる投影データとして取得するステップと、
前記処理器が、前記第2の投影データ収集手段を用いて取得された前記更なる投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の他の平面投影へ変換するステップと、
前記処理器が、前記規定の平面上に位置する他の既知の経路に沿う他の位置を、前記他の既知の経路と前記他の平面投影との交点を決定することにより決定するステップと、
前記処理器が、前記既知の経路及び前記他の既知の経路をそれぞれ水平軸及び垂直軸のいずれかとする2次元における前記位置及び前記他の位置から前記規定の平面上の未知の点の座標を計算するステップと、
を更に有する請求項1に記載の方法。 - 規定の平面上に位置する未知の点の位置を決定する方法であって、
前記規定の平面に関するセットアップ用投影データを、第1の投影データ収集手段を用いて、取得するステップであって、前記セットアップ用投影データは、前記規定の平面及び第2の投影データ収集手段を1つの画像に含むように取得される、ステップと、
ユーザから、既知の2次元面に表示される前記規定の平面の前記未知の点へ向けられた、前記ユーザによる空間中の第1の線の指示を、前記第2の投影データ収集手段を用いて投影データとして取得するステップと、
前記第1及び第2の投影データ収集手段から各投影データを受信する処理器が、前記第2の投影データ収集手段を用いて取得された前記投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の第1の平面投影へ変換するステップと、
前記処理器が、前記処理器に接続された指示器に入力されるユーザからの命令に基づき、出力装置に、前記既知の2次元面に表示される前記平面上の前記未知の点を含む画像の位置及び/又は方向を変更させるステップと、
ユーザから前記変更された位置にある未知の点に向けられた、前記ユーザによる空間中の第2の線の指示を、第2の投影データ収集手段を用いて更なる投影データとして取得するステップと、
前記処理器が、前記更なる投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の第2の平面投影へ変換するステップと、
前記処理器が、前記規定の平面上の前記第1及び第2の平面投影における前記第1及び第2の線の指示の交点から前記未知の点の位置を計算するステップと、
を有する方法。 - 規定の平面上に位置する未知の点の位置を決定するシステムであって、
前記規定の平面に関するセットアップ用投影データを取得する第1の投影データ収集手段であって、前記セットアップ用投影データは、前記規定の平面及び第2の投影データ収集手段を1つの画像に含むように取得される、第1の投影データ収集手段と、
ユーザによって空間中に生じられる線の指示を、投影データとして取得する前記第2の投影データ収集手段と、
前記第1及び第2の投影データ収集手段から各投影データを受信する処理器と、
を備えるシステムであって、
前記処理器が、前記第2の投影データ収集手段を用いて取得された前記投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の平面投影へ変換し、
更に、前記処理器が、前記規定の平面上に位置する既知の経路に沿う位置を、前記既知の経路と前記規定の平面上の前記平面投影における前記線の指示との交点を決定することにより決定する、
システム。 - 前記処理器は、前記規定の平面に重なる面上において前記第1の規定の線に重なる画像を生じさせるようにプログラムされる、請求項15に記載のシステム。
- 前記第2の投影データ収集手段が、ユーザによって空間中に生じられる他の線の指示を、更なる投影データとして取得し、
前記処理器が、前記更なる投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の他の平面投影へ変換し、
更に、前記処理器が、前記規定の平面上に位置する他の既知の経路に沿う他の位置を、前記他の既知の経路と前記他の平面投影との交点を決定することにより決定し、
前記処理器が、前記既知の経路及び前記他の既知の経路をそれぞれ水平軸及び垂直軸のいずれかとする2次元における前記位置及び前記他の位置から前記規定の平面上の未知の点の座標を計算する、
請求項15に記載のシステム。 - 規定の平面上に位置する未知の点の位置を決定するシステムであって、
前記規定の平面に関するセットアップ用投影データを取得する第1の投影データ収集手段であって、前記セットアップ用投影データは、前記規定の平面及び第2の投影データ収集手段を1つの画像に含むように取得される、第1の投影データ収集手段と、
ユーザから、既知の2次元面に表示される前記規定の平面の前記未知の点へ向けられた、前記ユーザによる空間中の線の指示を、投影データとして取得する前記第2の投影データ収集手段と、
前記第1及び第2の投影データ収集手段に接続され、各投影データを受信するように構成される処理器と、
前記処理器に接続された指示器と、
を備えるシステムであって、
前記第2の投影データ収集手段が、ユーザから既知の2次元面に表示される前記規定の平面の前記未知の点へ向けられた、前記ユーザによる空間中の第1の線の指示を、第2の投影データ収集手段を用いて第1の投影データとして取得し、
前記処理器が、前記第2の投影データ収集手段を用いて取得された前記第1の投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の第1の平面投影へ変換し、
前記処理器が、前記処理器に接続された指示器に入力されるユーザからの命令に基づき、出力装置に、前記既知の2次元面に表示される前記平面上の前記未知の点を含む画像の位置及び/又は方向を変更させ、
前記第2の投影データ収集手段が、ユーザから既知の2次元面に表示される前記規定の平面の前記変更された位置にある未知の点へ向けられた、前記ユーザによる空間中の第2の線の指示を、第2の投影データ収集手段を用いて第2の投影データとして取得し、
前記処理器が、前記第2の投影データ収集手段を用いて取得された前記第2の投影データを、前記セットアップ用投影データに基づく平面投影変換により前記規定の平面上の第2の平面投影へ変換し、
前記処理器が、前記規定の平面上の前記第1及び第2の平面投影における前記第1及び第2の線の指示の交点から前記未知の点の位置を計算する、
システム。 - 請求項15乃至18に記載のシステムで用いられる第1の投影データ収集手段。
- 請求項15乃至18に記載のシステムで用いられる第2の投影データ収集手段。
- 請求項15乃至18に記載のシステムで用いられる処理器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/766,710 US6600475B2 (en) | 2001-01-22 | 2001-01-22 | Single camera system for gesture-based input and target indication |
PCT/IB2001/002589 WO2002057894A2 (en) | 2001-01-22 | 2001-12-17 | Single camera system for gesture-based input and target indication |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004522220A JP2004522220A (ja) | 2004-07-22 |
JP4278979B2 true JP4278979B2 (ja) | 2009-06-17 |
Family
ID=25077269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002558112A Expired - Fee Related JP4278979B2 (ja) | 2001-01-22 | 2001-12-17 | ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US6600475B2 (ja) |
EP (1) | EP1629366B1 (ja) |
JP (1) | JP4278979B2 (ja) |
KR (1) | KR100878127B1 (ja) |
CN (1) | CN1307510C (ja) |
AT (1) | ATE447735T1 (ja) |
DE (1) | DE60140387D1 (ja) |
WO (1) | WO2002057894A2 (ja) |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US6943774B2 (en) * | 2001-04-02 | 2005-09-13 | Matsushita Electric Industrial Co., Ltd. | Portable communication terminal, information display device, control input device and control input method |
JP3811025B2 (ja) * | 2001-07-03 | 2006-08-16 | 株式会社日立製作所 | ネットワーク・システム |
US6990639B2 (en) | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US7665041B2 (en) * | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7038661B2 (en) * | 2003-06-13 | 2006-05-02 | Microsoft Corporation | Pointing device and cursor for use in intelligent computing environments |
GB2407635B (en) * | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US10635723B2 (en) | 2004-02-15 | 2020-04-28 | Google Llc | Search engines and systems with handheld document data capture devices |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US7969409B2 (en) * | 2004-02-18 | 2011-06-28 | Rafal Jan Krepec | Camera assisted pen tablet |
JP4566596B2 (ja) * | 2004-03-29 | 2010-10-20 | アルパイン株式会社 | 操作指示装置 |
US20050227217A1 (en) * | 2004-03-31 | 2005-10-13 | Wilson Andrew D | Template matching on interactive surface |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US20060098900A1 (en) | 2004-09-27 | 2006-05-11 | King Martin T | Secure data gathering from rendered documents |
US20060081714A1 (en) | 2004-08-23 | 2006-04-20 | King Martin T | Portable scanning device |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US7894670B2 (en) | 2004-04-01 | 2011-02-22 | Exbiblio B.V. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
WO2008028674A2 (en) | 2006-09-08 | 2008-03-13 | Exbiblio B.V. | Optical scanners, such as hand-held optical scanners |
US9008447B2 (en) | 2004-04-01 | 2015-04-14 | Google Inc. | Method and system for character recognition |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
US7394459B2 (en) | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US7893920B2 (en) * | 2004-05-06 | 2011-02-22 | Alpine Electronics, Inc. | Operation input device and method of operation input |
US7338449B2 (en) * | 2004-05-25 | 2008-03-04 | Siemens Medical Solutions Usa, Inc. | Three dimensional locator for diagnostic ultrasound or medical imaging |
US7787706B2 (en) * | 2004-06-14 | 2010-08-31 | Microsoft Corporation | Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface |
US7593593B2 (en) * | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US8346620B2 (en) | 2004-07-19 | 2013-01-01 | Google Inc. | Automatic modification of web pages |
US8560972B2 (en) | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US20060072009A1 (en) * | 2004-10-01 | 2006-04-06 | International Business Machines Corporation | Flexible interaction-based computer interfacing using visible artifacts |
KR100663515B1 (ko) * | 2004-11-08 | 2007-01-02 | 삼성전자주식회사 | 휴대 단말 장치 및 이를 위한 데이터 입력 방법 |
US7796116B2 (en) | 2005-01-12 | 2010-09-14 | Thinkoptics, Inc. | Electronic equipment for handheld vision based absolute pointing system |
KR100724939B1 (ko) * | 2005-06-20 | 2007-06-04 | 삼성전자주식회사 | 카메라부를 이용한 유저 인터페이스 구현 방법 및 이를위한 이동통신단말기 |
US20070018966A1 (en) * | 2005-07-25 | 2007-01-25 | Blythe Michael M | Predicted object location |
US7911444B2 (en) * | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US8060840B2 (en) | 2005-12-29 | 2011-11-15 | Microsoft Corporation | Orientation free user interface |
US7984995B2 (en) * | 2006-05-24 | 2011-07-26 | Smart Technologies Ulc | Method and apparatus for inhibiting a subject's eyes from being exposed to projected light |
US8913003B2 (en) | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
US7907117B2 (en) | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
US20110025818A1 (en) * | 2006-11-07 | 2011-02-03 | Jonathan Gallmeier | System and Method for Controlling Presentations and Videoconferences Using Hand Motions |
US7770115B2 (en) * | 2006-11-07 | 2010-08-03 | Polycom, Inc. | System and method for controlling presentations and videoconferences using hand motions |
JP4171040B2 (ja) | 2006-12-22 | 2008-10-22 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法及びプログラム |
JP4171039B2 (ja) * | 2006-12-22 | 2008-10-22 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法及びプログラム |
US8212857B2 (en) * | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
TW200919336A (en) * | 2007-10-25 | 2009-05-01 | Ind Tech Res Inst | Method for positioning a non-structural object in a series of continuing images |
US9171454B2 (en) * | 2007-11-14 | 2015-10-27 | Microsoft Technology Licensing, Llc | Magic wand |
WO2009089045A1 (en) * | 2008-01-08 | 2009-07-16 | Kessler Jonathan A | Image based interaction and communication method |
US20100031202A1 (en) * | 2008-08-04 | 2010-02-04 | Microsoft Corporation | User-defined gesture set for surface computing |
US8847739B2 (en) * | 2008-08-04 | 2014-09-30 | Microsoft Corporation | Fusing RFID and vision for surface object tracking |
US8305345B2 (en) * | 2008-08-07 | 2012-11-06 | Life Technologies Co., Ltd. | Multimedia playing device |
KR101665034B1 (ko) * | 2008-08-22 | 2016-10-24 | 구글 인코포레이티드 | 이동 장치 상의 삼차원 환경에서의 네비게이션 |
US20100105479A1 (en) | 2008-10-23 | 2010-04-29 | Microsoft Corporation | Determining orientation in an external reference frame |
US8418055B2 (en) | 2009-02-18 | 2013-04-09 | Google Inc. | Identifying a document by performing spectral analysis on the contents of the document |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
EP2406767A4 (en) | 2009-03-12 | 2016-03-16 | Google Inc | AUTOMATIC CONTENT SUPPLY ASSOCIATED WITH CAPTURED INFORMATION, TYPE INFORMATION CAPTURED IN REAL TIME |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
US9143843B2 (en) | 2010-12-09 | 2015-09-22 | Sealed Air Corporation | Automated monitoring and control of safety in a production area |
US9189949B2 (en) | 2010-12-09 | 2015-11-17 | Sealed Air Corporation (Us) | Automated monitoring and control of contamination in a production area |
US9406212B2 (en) | 2010-04-01 | 2016-08-02 | Sealed Air Corporation (Us) | Automated monitoring and control of contamination activity in a production area |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8649592B2 (en) | 2010-08-30 | 2014-02-11 | University Of Illinois At Urbana-Champaign | System for background subtraction with 3D camera |
WO2012030872A1 (en) | 2010-09-02 | 2012-03-08 | Edge3 Technologies Inc. | Method and apparatus for confusion learning |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US9011607B2 (en) | 2010-10-07 | 2015-04-21 | Sealed Air Corporation (Us) | Automated monitoring and control of cleaning in a production area |
US20120095575A1 (en) * | 2010-10-14 | 2012-04-19 | Cedes Safety & Automation Ag | Time of flight (tof) human machine interface (hmi) |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
US8928589B2 (en) * | 2011-04-20 | 2015-01-06 | Qualcomm Incorporated | Virtual keyboards and methods of providing the same |
KR101804848B1 (ko) | 2011-04-22 | 2017-12-06 | 삼성전자주식회사 | 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법 |
US9317130B2 (en) | 2011-06-16 | 2016-04-19 | Rafal Jan Krepec | Visual feedback by identifying anatomical features of a hand |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
US9336456B2 (en) | 2012-01-25 | 2016-05-10 | Bruno Delean | Systems, methods and computer program products for identifying objects in video data |
US20130204408A1 (en) * | 2012-02-06 | 2013-08-08 | Honeywell International Inc. | System for controlling home automation system using body movements |
CN103294173A (zh) * | 2012-02-24 | 2013-09-11 | 冠捷投资有限公司 | 基于使用者动作的遥控系统及其方法 |
CN108469899B (zh) | 2012-03-13 | 2021-08-10 | 视力移动技术有限公司 | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 |
KR101533320B1 (ko) * | 2012-04-23 | 2015-07-03 | 주식회사 브이터치 | 포인터가 불필요한 3차원 객체 정보 획득 장치 |
CN103873760B (zh) * | 2012-12-17 | 2017-12-26 | 联想(北京)有限公司 | 一种对焦点调整方法及电子设备 |
TWI486820B (zh) * | 2012-12-28 | 2015-06-01 | Wistron Corp | 用於互動系統之座標轉換方法及電腦系統 |
US8933882B2 (en) * | 2012-12-31 | 2015-01-13 | Intentive Inc. | User centric interface for interaction with visual display that recognizes user intentions |
US9141198B2 (en) * | 2013-01-08 | 2015-09-22 | Infineon Technologies Ag | Control of a control parameter by gesture recognition |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
JP6171452B2 (ja) * | 2013-03-25 | 2017-08-02 | セイコーエプソン株式会社 | 画像処理装置、プロジェクターおよび画像処理方法 |
TWI563818B (en) * | 2013-05-24 | 2016-12-21 | Univ Central Taiwan Sci & Tech | Three dimension contactless controllable glasses-like cell phone |
CN105593787B (zh) * | 2013-06-27 | 2019-07-05 | 视力移动科技公司 | 用于与数字设备交互的直接指向检测的系统和方法 |
JP2016530659A (ja) | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 範囲及び値のジェスチャ対応同時選択 |
KR101533319B1 (ko) | 2014-02-22 | 2015-07-03 | 주식회사 브이터치 | 카메라 중심의 가상터치를 이용한 원격 조작 장치 및 방법 |
CN104978012B (zh) | 2014-04-03 | 2018-03-16 | 华为技术有限公司 | 一种指向交互方法、装置及系统 |
KR101453815B1 (ko) | 2014-08-01 | 2014-10-22 | 스타십벤딩머신 주식회사 | 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치 |
DE102015201728A1 (de) * | 2015-02-02 | 2016-08-04 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Auswählen eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug |
WO2016200197A1 (ko) * | 2015-06-10 | 2016-12-15 | (주)브이터치 | 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치 |
US10555688B1 (en) | 2015-08-22 | 2020-02-11 | Bertec Corporation | Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device |
US10216262B1 (en) * | 2015-08-22 | 2019-02-26 | Bertec Corporation | Force management system that includes a force measurement assembly, a visual display device, and one or more data processing devices |
US11992746B1 (en) | 2015-08-22 | 2024-05-28 | Bertec Corporation | Hybrid display system for a force measurement assembly, an exercise device, or an interactive game |
US10390736B1 (en) | 2015-08-22 | 2019-08-27 | Bertec Corporation | Force measurement system that includes a force measurement assembly, at least one visual display device, and one or more data processing devices |
US11301045B1 (en) | 2015-08-22 | 2022-04-12 | Bertec Corporation | Measurement system that includes at least one measurement assembly, a visual display device, and at least one data processing device |
US10860843B1 (en) | 2015-08-22 | 2020-12-08 | Bertec Corporation | Measurement system that includes at least one measurement assembly, a head-mounted visual display device, and a data processing device |
TWI553509B (zh) * | 2015-10-30 | 2016-10-11 | 鴻海精密工業股份有限公司 | 手勢控制系統及方法 |
US11604517B2 (en) * | 2016-09-02 | 2023-03-14 | Rakuten Group, Inc. | Information processing device, information processing method for a gesture control user interface |
CN107346175B (zh) * | 2017-06-30 | 2020-08-25 | 联想(北京)有限公司 | 一种手势位置校正方法和增强现实显示设备 |
CN110554784B (zh) * | 2018-05-31 | 2023-07-14 | 广东虚拟现实科技有限公司 | 输入方法、装置、显示设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2695745B1 (fr) | 1992-09-15 | 1994-10-28 | Sextant Avionique | Procédé de dialogue gestuel multimode dans un environnement virtuel. |
FR2696574B1 (fr) | 1992-10-06 | 1994-11-18 | Sextant Avionique | Procédé et dispositif d'analyse d'un message fourni par des moyens d'interaction à un système de dialogue homme-machine. |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
JP3267047B2 (ja) | 1994-04-25 | 2002-03-18 | 株式会社日立製作所 | 音声による情報処理装置 |
JP3270643B2 (ja) * | 1994-12-22 | 2002-04-02 | キヤノン株式会社 | 指示位置検出方法及び装置 |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
EP0823683B1 (en) | 1995-04-28 | 2005-07-06 | Matsushita Electric Industrial Co., Ltd. | Interface device |
US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
JP3795647B2 (ja) * | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
DE69830295T2 (de) | 1997-11-27 | 2005-10-13 | Matsushita Electric Industrial Co., Ltd., Kadoma | Steuerungsverfahren |
DE19845028A1 (de) | 1998-09-30 | 2000-06-08 | Siemens Ag | Magnetresonanz (MR)-System |
US6147678A (en) * | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
KR100869447B1 (ko) | 2000-05-17 | 2008-11-21 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법 |
-
2001
- 2001-01-22 US US09/766,710 patent/US6600475B2/en not_active Expired - Lifetime
- 2001-12-17 KR KR1020027012389A patent/KR100878127B1/ko active IP Right Grant
- 2001-12-17 JP JP2002558112A patent/JP4278979B2/ja not_active Expired - Fee Related
- 2001-12-17 AT AT01273319T patent/ATE447735T1/de not_active IP Right Cessation
- 2001-12-17 DE DE60140387T patent/DE60140387D1/de not_active Expired - Lifetime
- 2001-12-17 WO PCT/IB2001/002589 patent/WO2002057894A2/en active Application Filing
- 2001-12-17 EP EP01273319A patent/EP1629366B1/en not_active Expired - Lifetime
- 2001-12-17 CN CNB018069614A patent/CN1307510C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20020097218A1 (en) | 2002-07-25 |
EP1629366A2 (en) | 2006-03-01 |
CN1636178A (zh) | 2005-07-06 |
JP2004522220A (ja) | 2004-07-22 |
WO2002057894A2 (en) | 2002-07-25 |
DE60140387D1 (de) | 2009-12-17 |
KR20020086931A (ko) | 2002-11-20 |
ATE447735T1 (de) | 2009-11-15 |
KR100878127B1 (ko) | 2009-01-14 |
EP1629366B1 (en) | 2009-11-04 |
CN1307510C (zh) | 2007-03-28 |
WO2002057894A3 (en) | 2007-11-08 |
US6600475B2 (en) | 2003-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4278979B2 (ja) | ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム | |
KR100869447B1 (ko) | 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법 | |
US8355816B2 (en) | Action teaching system and action teaching method | |
JP3795647B2 (ja) | ハンドポインティング装置 | |
US8593402B2 (en) | Spatial-input-based cursor projection systems and methods | |
EP3283938B1 (en) | Gesture interface | |
JP4926826B2 (ja) | 情報処理方法および情報処理装置 | |
US7711507B2 (en) | Method and device for determining the relative position of a first object with respect to a second object, corresponding computer program and a computer-readable storage medium | |
CN106814963A (zh) | 一种基于3d传感器定位技术的人机互动系统及方法 | |
JP4593172B2 (ja) | カメラ制御装置 | |
JP2009258884A (ja) | ユーザインタフェイス | |
JP2006098256A (ja) | 3次元サーフェスモデル作成システム、画像処理システム、プログラム及び情報記録媒体 | |
JP2000056916A (ja) | ハンドポインティング装置 | |
JP4563723B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
WO2023274270A1 (zh) | 机器人术前导航方法、系统、存储介质及计算机设备 | |
JPH07160412A (ja) | 指示位置検出方法 | |
CN115904188A (zh) | 户型图的编辑方法、装置、电子设备及存储介质 | |
KR100601001B1 (ko) | 자이로와 초음파를 이용한 컴퓨터 입력장치 | |
JP2003076488A (ja) | 指示位置判断装置及び方法 | |
US20160011675A1 (en) | Absolute Position 3D Pointing using Light Tracking and Relative Position Detection | |
CN116687564B (zh) | 基于虚拟现实的手术机器人自感知导航方法系统及设备 | |
JPH04246772A (ja) | スケッチによる画像検索方式 | |
CN115810065A (zh) | 房屋信息的编辑方法、装置、电子设备及存储介质 | |
CN106162277A (zh) | 一种识别操作对象的方法和装置、智能终端 | |
CN115908627A (zh) | 房源数据的处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041021 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20070425 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20070507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080227 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080305 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081029 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20081210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090212 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090311 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120319 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4278979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140319 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |