JP3795647B2 - ハンドポインティング装置 - Google Patents
ハンドポインティング装置 Download PDFInfo
- Publication number
- JP3795647B2 JP3795647B2 JP29678897A JP29678897A JP3795647B2 JP 3795647 B2 JP3795647 B2 JP 3795647B2 JP 29678897 A JP29678897 A JP 29678897A JP 29678897 A JP29678897 A JP 29678897A JP 3795647 B2 JP3795647 B2 JP 3795647B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- feature point
- reference point
- information input
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
Description
【発明の属する技術分野】
本発明はハンドポインティング装置に係り、特に、互いに異なる複数の方向から認識対象者を撮像し、認識対象者が指し示している特定箇所の座標を判断するハンドポインティング装置に関する。
【0002】
【従来の技術】
従来より、所定の情報を表示するディスプレイ、ディスプレイの近傍に到来した情報入力者を照明する照明装置、到来した情報入力者を互いに異なる方向から撮像する複数の撮像手段を備え、到来した情報入力者がディスプレイ上の任意の位置を指等によって指し示した状況を複数の撮像手段によって撮像し、撮像によって得られた複数の画像に基づいて情報入力者を認識し、情報入力者が指示したディスプレイ上の位置を判断し、ディスプレイ上の指示位置にカーソル等を表示すると共に、情報入力者が親指を上げるクリック動作を行ったことを検出すると、ディスプレイ上の指示位置がクリックされたと認識して所定の処理を行うハンドポインティング入力装置が知られている(例えば特開平4-271423号公報、特開平 5-19957号公報、特開平5-324181号公報等参照)。
【0003】
上記のハンドポインティング入力装置によれば、情報入力者がキーボードやマウス等の入力機器に触れることなく、情報処理装置に対して各種の指示を与えたり、各種の情報を入力することが可能となるので、情報処理装置を利用するための操作の簡素化を実現できる。
【0004】
【発明が解決しようとする課題】
しかしながら、上記のハンドポインティング入力装置は、情報入力者がディスプレイの表示面上の何れの位置を指示しているのかは判断できるものの、ディスプレイに表示されている画像が擬似的に3次元空間を表す画像であった場合に、前記画像が表す仮想的な3次元空間内の何れの箇所を情報入力者が指示しているのか(指示している箇所の3次元座標)を判断することは不可能であった。擬似的に3次元空間を表す画像の表示に関しては、一点透視法や二点透視法に則った画像を平面ディスプレイに表示する以外にも、液晶シャッタやレンチキュラーレンズを利用した3次元ディスプレイに画像を表示したり、ホログラフィー技術を適用して立体画像を表示する等のように種々の手法があり(以下、これらの画像を3次元的画像と総称する)、情報入力者の指示対象として上記のような3次元的画像を用いることができない、という欠点があった。
【0005】
また、上記の欠点は情報入力者による指示対象が、3次元的画像が表す仮想的な3次元空間である場合に限定されるものではなく、情報入力者による指示対象が現実の3次元空間内である場合にも、3次元空間内の何れの箇所を情報入力者が指示しているのかを判断することは不可能であった。
【0006】
本発明は上記事実を考慮して成されたもので、情報入力者が3次元空間内の任意の箇所を指し示す場合にも、指し示された箇所の3次元座標を判断することができるハンドポインティング装置を得ることが目的である。
【0007】
【課題を解決するための手段】
上記目的を達成するために請求項1記載の発明に係るハンドポインティング装置は、互いに異なる複数の方向から認識対象者を撮像する撮像手段と、認識対象者が3次元空間内の特定箇所を指し示している状況を前記撮像手段が複数の方向から撮像することで得られた複数の画像から前記認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める演算手段と、前記基準点から前記特徴点に向かう方向に基づいて前記3次元空間内の前記特定箇所が存在している方向を判断すると共に、前記基準点と前記特徴点との距離を所定の変換条件に従って認識対象者と前記特定箇所との距離に変換することにより、前記基準点から前記特徴点に向かう方向に沿った前記3次元空間内の前記特定箇所の位置を判断し、前記3次元空間内の前記特定箇所の3次元座標を判断する判断手段と、を含んで構成している。
【0008】
請求項1記載の発明では、撮像手段によって互いに異なる複数の方向から認識対象者(情報入力者)を撮像する。この撮像手段は、ビデオカメラ等から成る複数の撮像装置によって認識対象者を複数の方向から撮像するよう構成してもよいし、平面ミラー等の光反射手段を設け、単一の撮像装置により認識対象者を直接撮像すると共に平面ミラーに映っている認識対象者の虚像を撮像することで、認識対象者を複数の方向から撮像するよう構成することも可能である。
【0009】
また演算手段は、認識対象者が3次元空間内の特定箇所を指し示している状況を撮像手段が複数の方向から撮像することで得られた複数の画像から認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める。なお特徴点としては、例えば認識対象者の手や指等の先端、或いは認識対象者が把持している指示器の先端等に相当する点を用いることができ、基準点としては、例えば認識対象者の胴体部(例えば胸部や腕の付け根等)に相当する点を用いることができる。また3次元空間は、平面ディスプレイに表示した一点透視法や二点透視法に則った画像、液晶シャッタやレンチキュラーレンズを利用した3次元ディスプレイに表示した画像、ホログラフィー技術を適用して表示した立体画像等の3次元的画像が表す仮想的な3次元空間であってもよいし、実際の3次元空間であってもよい。
【0010】
そして判断手段は、基準点から特徴点に向かう方向に基づいて、3次元空間内の特定箇所が存在している方向を判断すると共に、基準点と特徴点との距離を所定の変換条件に従って認識対象者と特定箇所との距離に変換することにより、基準点から特徴点に向かう方向に沿った3次元空間内の特定箇所の位置を判断し、3次元空間内の特定箇所の3次元座標を判断する。なお、上記の変換条件は、基準点と特徴点との距離の変化に対し、認識対象者と特定箇所との距離が線形に変化する変換特性であってもよいし、非線形に変化する変換特性であってもよい。
【0011】
これにより、基準点から特徴点に向かう方向が認識対象者から見て指示対象としての特定箇所が存在している方向に対応するように、基準点に対する特徴点の方向を調節する動作(手や指、或いは指示器の先端等を特定箇所に向ける動作)を認識対象者が行うと共に、認識対象者から見た特定箇所との距離(特定箇所がどの程度手前側又は奥側に位置しているか)に応じて、基準点と特徴点との距離を調節する動作(腕を屈曲又は伸長させる動作)を認識対象者が行うことで、3次元空間内の特定箇所が存在している方向が判断されると共に、基準点から特徴点に向かう方向に沿った3次元空間内の特定箇所の位置が判断され、3次元空間内の特定箇所が存在している方向及び基準点から特徴点に向かう方向に沿った3次元空間内の位置の判断結果から、3次元空間内における特定箇所の3次元座標が判断されることになる。
【0012】
従って請求項1の発明によれば、情報入力者(認識対象者)が3次元空間内の任意の箇所を指し示す場合にも、指し示された箇所の3次元座標を判断することができる。また、認識対象者から見て特定箇所が存在している方向に手や指、或いは指示器の先端等を向け、認識対象者から見た特定箇所との距離に応じて腕を屈曲又は伸長させる動作は、3次元空間内の特定箇所を指し示す動作として極めて自然な動作であるので、情報入力者(認識対象者)が違和感を感ずることなく上記動作を行うことができる。
【0013】
また、請求項1の発明では、基準点と特徴点との距離を所定の変換条件に従って認識対象者と前記特定箇所との距離に変換することで、基準点から特徴点に向かう方向に沿った3次元空間内の特定箇所の位置を判断しているので、特に認識対象者が指し示す対象としての3次元空間が非常に奥行きのある空間である場合(例えば宇宙空間を表す3次元的画像を表示手段に表示した場合等)にも、変換条件の変換特性を非線形(例えば基準点と特徴点との距離の変化のn乗(n≧2)に比例して認識対象者と特定箇所との距離を変化させる変換特性等)とすることで、認識対象者が腕を無理に伸ばす等の極端な動作を行うことなく、認識対象者から見て3次元空間内の極めて遠方に位置している箇所を指し示すことも可能となり、3次元空間内の任意の箇所を指し示すために認識対象者に負担がかかることを防止することができる。
【0015】
また、認識対象者の体格(特に腕の長さ)は一定ではないので、認識対象者が腕を屈曲・伸長させたときの特徴点の移動幅にも個人差があり、認識対象者の基準点と特徴点との距離を、一定の変換条件に従って認識対象者と特定箇所との距離に変換したとすると、個々の認識対象者の腕の長さ等のばらつきにより、認識対象者が指し示している特定箇所の基準点から特徴点に向かう方向に沿った位置を正確に判断できないことも考えられる。
【0016】
このため請求項2記載の発明は、請求項1の発明において、腕を屈曲及び伸長させる動作を行うよう認識対象者に要請し、認識対象者が腕を屈曲及び伸長させる動作を行ったときの基準点と特徴点との距離の変化幅に基づいて、基準点と特徴点との距離を認識対象者と前記特定箇所との距離に変換する変換条件を予め設定する変換条件設定手段を更に備えたことを特徴としている。
【0017】
請求項2の発明では、認識対象者が腕を屈曲及び伸長させる動作を行ったときの基準点と特徴点との距離の変化幅(この距離の変化幅は、個々の認識対象者の腕の長さ等のばらつきにより変化する)に基づいて、基準点と特徴点との距離を認識対象者と特定箇所との距離に変換する変換条件を予め設定するので、個々の認識対象者の体格に応じた変換条件を得ることができる。そして、この変換条件を用いて前述の変換を行うことにより、個々の認識対象者の体格のばらつきに拘らず認識対象者が指し示した特定箇所の基準点から特徴点に向かう方向に沿った位置を正確に判断することができる。また、例えば3次元空間内の極めて遠方に位置している箇所を指し示していることを認識させるために、特に体格の小さな認識対象者が無理に腕を伸ばす等の極端な動作を行う必要もなくなる。
【0018】
なお、請求項2の発明において、基準点から特徴点に向かう方向に沿って3次元空間内の中間部に位置している単一の箇所、或いは基準点から特徴点に向かう方向に沿った3次元空間内の位置が互いに異なる複数箇所(但し、基準点から特徴点に向かう方向に沿った各箇所の位置は既知)を認識対象者に指し示させ、このときの基準点と特徴点との距離に基づいて、変換条件(変換曲線の形状)を設定するようにしてもよい。
【0019】
請求項3記載の発明に係るハンドポインティング装置は、互いに異なる複数の方向から認識対象者を撮像する撮像手段と、認識対象者が3次元空間内の特定箇所を指し示している状況を前記撮像手段が複数の方向から撮像することで得られた複数の画像から前記認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める演算手段と、前記基準点から前記特徴点に向かう方向に基づいて前記3次元空間内の前記特定箇所が存在している方向を判断すると共に、前記基準点と前記特徴点との距離に基づいて前記基準点から前記特徴点に向かう方向に沿った前記3次元空間内の前記特定箇所の位置を判断し、前記3次元空間内の前記特定箇所の3次元座標を判断する判断手段と、前記基準点と前記特徴点との距離の変化速度を検出し、前記基準点と前記特徴点との距離が前記閾値以上の変化速度で増加した場合には第1の所定の処理を行い、前記基準点と前記特徴点との距離が前記閾値以上の変化速度で減少した場合には前記第1の所定の処理と異なる第2の所定の処理を行う処理手段と、を含んで構成している。
【0020】
請求項3記載の発明は、請求項1の発明と同様の撮像手段、演算手段及び判断手段を備えており、認識対象者が指し示した3次元空間内の特定箇所の3次元座標が判断される。ところで、上記のように認識対象者が指し示した3次元空間内の特定箇所の3次元座標を判断する構成においても、認識対象者が特定の動作(所謂クリック動作)を行うことで所定の処理の実行を指示できるようにすることが好ましい。しかし、クリック動作として従来提案されている親指を上げる動作は、撮像手段による撮像方向によっては検出できない場合がある。また、親指を上げる動作は動作としての自由度が低く、マウスにおける左クリックと右クリックのように、複数種の意味を持たせクリック動作によって実行される処理を選択可能とすることも困難である。
【0021】
このため、請求項3の発明には、基準点と特徴点との距離の変化速度を検出し、基準点と特徴点との距離が前記閾値以上の変化速度で増加した場合には第1の所定の処理を行い、基準点と特徴点との距離が閾値以上の変化速度で減少した場合には第1の所定の処理と異なる第2の所定の処理を行う処理手段が設けられている。なお、第1の所定の処理及び第2の所定の処理としては、例えば基準点と特徴点との距離が閾値以上の変化速度で変化したときに認識対象者が指し示していた特定箇所に関連する処理を行うことができる。
【0022】
本発明は基準点及び特徴点の位置関係から認識対象者が指し示した特定箇所の3次元座標を判断しているが、請求項3の発明に係る処理手段も基準点及び特徴点の位置(の変化)から第1の所定の処理又は第2の所定の処理の実行が指示されたかを判断するので、撮像手段による撮像方向を、指の上げ下げ等の動作を考慮することなく、基準点及び特徴点が確実に検出できるように定めることができる。従って、請求項3の発明によれば、認識対象者による第1の所定の処理又は第2の所定の処理の実行を指示する動作(腕を素早く屈曲又は伸長させる動作)を確実に検出することができる。
【0023】
そして請求項3の発明では、認識対象者が腕を素早く伸長させる動作(この場合、基準点と特徴点との距離は閾値以上の変化速度で増加する)を行うと第1の所定の処理が行われ、認識対象者が腕を素早く屈曲させる動作(この場合、基準点と特徴点との距離は閾値以上の変化速度で減少する)を行うと第2の所定の処理が行われるので、マウスの左クリックと右クリックのように、第1の所定の処理及び第2の所定の処理のうち実行させるべき処理を認識対象者が選択することが可能となる。そして、認識対象者が上記の何れかの動作を行うことにより、第1の所定の処理及び第2の所定の処理のうち認識対象者によって選択された処理を確実に実行することができる。
【0024】
請求項4記載の発明に係るハンドポインティング装置は、互いに異なる複数の方向から認識対象者を撮像する撮像手段と、認識対象者が3次元空間内の特定箇所を指し示している状況を前記撮像手段が複数の方向から撮像することで得られた複数の画像から前記認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める演算手段と、前記基準点から前記特徴点に向かう方向に基づいて前記3次元空間内の前記特定箇所が存在している方向を判断すると共に、前記基準点と前記特徴点との距離に基づいて前記基準点から前記特徴点に向かう方向に沿った前記3次元空間内の前記特定箇所の位置を判断し、前記3次元空間内の前記特定箇所の3次元座標を判断する判断手段と、前記基準点と前記特徴点との距離の変化速度を検出し、検出した前記基準点と前記特徴点との距離の変化速度が閾値以上の場合に所定の処理を行う処理手段と、前記処理手段に所定の処理を行わせるために腕を屈曲又は伸長させる動作を行うよう認識対象者に要請し、認識対象者が腕を屈曲又は伸長させる動作を行ったときの前記基準点と前記特徴点との距離の変化速度に基づいて前記閾値を予め設定する閾値設定手段と、を含んで構成している。
【0025】
請求項4記載の発明は、請求項1の発明と同様の撮像手段、演算手段及び判断手段を備えており、認識対象者が指し示した3次元空間内の特定箇所の3次元座標が判断される。また、請求項4の発明には、基準点と特徴点との距離の変化速度を検出し、検出した基準点と特徴点との距離の変化速度が閾値以上の場合に所定の処理を行う処理手段が設けられており、認識対象者によって腕を素早く屈曲又は伸長させる動作が行われると、処理手段に所定の処理が行われる。
【0026】
但し、前述のように認識対象者の体格は一定ではないと共に、認識対象者の筋力等も一定ではないので、処理手段に所定の処理を行わせるために認識対象者が腕を素早く屈曲又は伸長させる動作を行ったとしても、基準点と特徴点との距離の変化速度は個々の認識対象者毎にばらつきがある。従って、所定の処理を行わせるために認識対象者が腕を素早く屈曲又は伸長させる動作を行ったとしても検知できなかったり、逆に認識対象者が前記動作を行っていないにも拘らず前記動作を誤検知することも考えられる。
【0027】
このため請求項4の発明は、処理手段に所定の処理を行わせるために腕を屈曲又は伸長させる動作を行うよう認識対象者に要請し、認識対象者が腕を屈曲又は伸長させる動作を行ったときの基準点と特徴点との距離の変化速度に基づいて前記閾値を予め設定する閾値設定手段が設けられている。請求項4の発明では、処理手段に所定の処理を行わせるために認識対象者が腕を屈曲又は伸長させる動作(腕を素早く屈曲又は伸長させる動作)を行ったときの基準点と特徴点との距離の変化速度に基づいて、処理手段が所定の処理を行うか否かの閾値を予め設定するので、個々の認識対象者の体格や筋力等に応じた閾値を得ることができる。そして、この閾値を用いて所定の処理の実行が指示されたか否かを判断することにより、個々の認識対象者の体格や筋力等のばらつきに拘らず、認識対象者による所定の処理の実行を指示する動作を確実に検知して所定の処理を実行することができる。
【0028】
請求項5記載の発明は、請求項1、請求項3及び請求項4の何れかの発明において、3次元的画像を表示するための表示手段と、前記表示手段に3次元的画像を表示させる表示制御手段と、認識対象者の手が特定の形になったか否かを判定する判定手段と、を更に備え、認識対象者は、前記表示手段に表示された3次元的画像が表す仮想的な3次元空間内の特定箇所を指し示し、前記表示制御手段は、前記判定手段によって認識対象者の手が前記特定の形になっていると判定されている状態で、前記基準点と前記特徴点との距離が変化した場合には、前記表示手段に表示されている3次元的画像が前記距離の変化に応じて拡大又は縮小表示されるように前記表示手段を制御することを特徴としている。
【0029】
請求項5の発明は、表示手段に3次元的画像を表示させ、認識対象者は、表示手段に表示された3次元的画像が表す仮想的な3次元空間内の特定箇所を指し示すように構成されている。なお、表示手段としては、一点透視法や二点透視法に則った画像を表示するための平面ディスプレイ、液晶シャッタやレンチキュラーレンズを利用した3次元ディスプレイ、ホログラフィー技術を適用して立体画像を表示する表示装置等を適用することができる。ところで、上記のように表示手段に3次元的画像を表示させる場合には表示倍率を任意に設定可能であるので、認識対象者からの指示に応じて前記表示倍率を変更できるようにすることが好ましい。しかし、認識対象者が表示倍率の変更を指示する動作を、認識対象者が3次元空間内の特定箇所を指し示す動作と明確に区別して認識する必要がある。
【0030】
これに対し請求項5の発明では、認識対象者の手が特定の形になったか否かを判定する判定手段を設け、表示制御手段は、判定手段によって認識対象者の手が前記特定の形になっていると判定されている状態で基準点と特徴点との距離が変化した場合には、表示手段に表示されている3次元的画像が前記距離の変化に応じて拡大又は縮小表示されるように表示手段を制御する。なお、前記特定の形とは判定が容易な形であることが望ましく、例えば指を延ばして手を広げた状態での手の形等を採用することができる。
【0031】
これにより、認識対象者が自身の手を特定の形とした状態(例えば指を延ばして手を広げた状態)で、基準点と特徴点との距離を変化させる動作(腕を屈曲又は伸長させる動作)を行えば、この動作が特定箇所を指し示す動作とは明確に区別され、表示手段に表示されている3次元的画像の表示倍率が基準点と特徴点との距離の変化に応じて変更され、拡大又は縮小表示されることになる。従って請求項5の発明によれば、認識対象者による3次元的画像の表示倍率の変更指示に応じて、表示手段に表示する3次元的画像の表示倍率を確実に変更することができる。
【0032】
なお、上記の表示倍率についても、基準点と特徴点との距離の変化に対し、表示倍率を線形に変化させるようにしてもよいし、非線形に変化させるようにしてもよい。
【0033】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態の一例を詳細に説明する。図1に示すように、本発明に係る認識対象者としての情報入力者10が到来する箇所の壁面には、請求項5に記載の表示手段に対応する大画面ディスプレイ12が埋め込まれている。
【0034】
なお、ディスプレイ12は一点透視法や二点透視法に則って仮想的に3次元空間を表す3次元的画像を表示するためのものであり、液晶ディスプレイ(LCD)やプラズマディスプレイ、ブラウン管、光ファイバディスプレイ等の周知の表示装置を適用することができる。また、上記のディスプレイ12に代えて、液晶シャッタやレンチキュラーレンズを利用した3次元ディスプレイや、ホログラフィー技術を適用して立体画像を表示する表示装置を適用してもよいし、更に液晶ゴーグル等を適用することも可能である。
【0035】
ディスプレイ12はパーソナルコンピュータ等から成る情報処理装置14に接続されており(図2参照)、情報処理装置14により、3次元的画像が表示面上に表示されると共に、メッセージ等の他の情報も前記3次元的画像に重ねて表示面上に表示される。本実施形態において、情報入力者10は、ディスプレイ12の前方の図1に示した空間(情報入力空間)に到来し、ディスプレイ12に表示されている3次元的画像が表す仮想的な3次元空間内の任意の箇所を指し示すと共に、クリック動作(詳細は後述)を行うことにより、情報処理装置14に対して各種の指示を与えたり各種の処理を実行させる。
【0036】
図2に示すように、情報処理装置14には、本実施形態に係るハンドポインティング入力装置20のコントローラ22が接続されている。コントローラ22は、CPU22A、ROM22B、RAM22C、入出力インタフェース22Dを備えており、これらがバスを介して互いに接続されて構成されている。入出力インタフェース22Dには情報処理装置14が接続されていると共に、記憶内容を書換え可能な不揮発性の記憶装置24、各種の情報を表示するためのディスプレイ26、オペレータが各種の指示やデータを入力するためのキーボード28、照明制御装置30、撮像制御装置34、及びマーク板駆動装置38が各々接続されている。
【0037】
なお、ディスプレイ12に表示される3次元的画像は予め多数用意されており、記憶装置24には前記各種3次元的画像を表す多数の画像データが記憶されている。また記憶装置24には、各画像データに対応して、各3次元的画像が表す仮想3次元空間内の各箇所の3次元座標と、前記各箇所の3次元的画像上での位置(2次元座標)と、の関係を表す座標データも記憶されている。なお、座標データに代えて関数式(画像の表示倍率もパラメータとして含んでいることが好ましい)等の形態で前記関係を記憶しておくようにしてもよい。
【0038】
また照明制御装置30には、近赤外域の波長の光をビーム状に射出する複数の近赤外光照明装置32A、32Bが接続されている。図1に示すように、近赤外光照明装置32A、32Bは、情報入力空間の上方の互いに異なる箇所に配設されており、情報入力空間に到来した情報入力者10を、互いに異なる方向から照明するように照射範囲が調整されている。照明制御装置30は照明装置32A、32Bの点灯・消灯を制御する。
【0039】
撮像制御装置34には、情報入力空間の上方の互いに異なる箇所に配設された(図1参照)複数のビデオカメラ36A、36Bが接続されている。ビデオカメラ36A、36Bは、図示は省略するが、近赤外光に感度を有するCCD等から成るエリアセンサを備えていると共に、入射光をエリアセンサの受光面に結像させる結像レンズの光入射側に、近赤外域の波長の光のみを透過するフィルタが設けられている。
【0040】
図3に示すように、ビデオカメラ36A、36Bは情報入力空間に到来した情報入力者10を互いに異なる方向から撮像するように向きが調整されている。また、ビデオカメラ36Aは、情報入力空間に到来した情報入力者10が撮像範囲内に入り、かつ照明装置32Aから射出された光が結像レンズに直接入射せず、かつ撮像範囲の中心が、情報入力空間内において照明装置32Aによる照明範囲の中心と床面から所定高さで交差するように(照明装置32Aによる床面上の照明範囲が撮像範囲から外れるように)、向き(撮像範囲)が調整されている。同様にビデオカメラ36Bは、情報入力空間に到来した情報入力者10が撮像範囲内に入り、かつ照明装置32Bから射出された光が結像レンズに直接入射せず、かつ撮像範囲の中心が、情報入力空間内において照明装置32Bによる照明範囲の中心と床面から所定高さで交差するように(照明装置32Aによる床面上の照明範囲が撮像範囲から外れるように)、向き(撮像範囲)が調整されている。
【0041】
また図4に示すように、ハンドポインティング入力装置20は、情報入力空間の近傍に配設されたマーク板40を備えている。マーク板40は、透明な平板に多数のマーク40Aがマトリクス状に等間隔で記録されて構成されており、マーク40Aの配列方向に直交する方向(図4の矢印A方向)に沿って情報入力空間を横切るように移動可能とされている。なおマーク40Aは、画像上での認識が容易な色(例えば赤色)に着色されている。入出力インタフェース22Dに接続されたマーク板駆動装置38は、コントローラ22からの指示に応じてマーク板40を図4の矢印A方向に沿って移動させる。
【0042】
次に本実施形態の作用として、まず、ハンドポインティング入力装置20が設置された際にコントローラ22によって実行される格子点位置情報初期設定処理について、図5のフローチャートを参照して説明する。
【0043】
ステップ100では、マーク板駆動装置38により、マーク板40を所定位置(マーク板40の移動範囲の端部に相当する位置)に移動させる。次のステップ102では、現在のマーク板40の位置において、マーク板40に記録されている多数のマーク40Aの情報入力空間内での3次元座標(x,y,z)を各々演算する。ステップ104では撮像制御装置34を介し、ビデオカメラ36A、36Bによって情報入力空間を撮像させ、次のステップ106では、ビデオカメラ36Aが情報入力空間を撮像することによって得られた画像(以下画像Aと称する)を撮像制御装置34を介して取り込む。
【0044】
ステップ108では、ステップ106で取り込んだ画像A中に存在するマーク40Aの認識(抽出)を行い、次のステップ110では認識した全てのマーク40Aについて、画像A上での位置(XA ,YA )を演算する。そしてステップ112では、画像A中に存在する全てのマーク40Aについて、情報入力空間内での3次元座標(x,y,z)と、画像A上での位置(XA ,YA )とを対応させ、ビデオカメラ36Aの格子点位置情報として記憶装置24に記憶させる。
【0045】
次のステップ114〜120では、上記のステップ106〜112と同様にしてビデオカメラ36Bに対する処理を行う。すなわち、ステップ114ではビデオカメラ36Bが情報入力空間を撮像することによって得られた画像(以下画像Bと称する)を撮像制御装置34を介して取り込み、ステップ116ではステップ114で取り込んだ画像B中に存在するマーク40Aの認識(抽出)を行い、次のステップ118では認識した全てのマーク40Aについて、画像B上での位置(XB ,YB )を演算する。そしてステップ120では、画像B中に存在する全てのマーク40Aについて、情報入力空間内での3次元座標(x,y,z)と、画像B上での位置(XB ,YB )とを対応させ、ビデオカメラ36Bの格子点位置情報として記憶装置24に記憶させる。
【0046】
次のステップ122では、マーク板40が最終位置(マーク板40の移動範囲のうちステップ100における所定位置と反対側の端部に相当する位置)迄移動したか否か判定する。ステップ122の判定が否定された場合にはステップ124へ移行し、マーク板駆動装置38により、マーク板40を所定方向に一定距離(詳しくは、マーク板40上におけるマーク40Aの間隔に一致する距離)だけ移動させた後にステップ102に戻る。
【0047】
上記のように、マーク板40が最終位置に移動する迄、ステップ102〜124が繰り返されることにより、マーク板40に記録されている多数のマーク40Aは、情報入力空間内に一定間隔で格子状に並ぶ多数の格子点に対応する位置へ移動され、ビデオカメラ36Aの格子点位置情報として、各格子点の情報入力空間内での3次元座標と画像A上での位置とが対応されて記憶装置24に記憶されると共に、ビデオカメラ36Bの格子点位置情報として、各格子点の情報入力空間内での3次元座標と画像B上での位置とが対応されて記憶装置24に記憶されることになる。
【0048】
なお、マーク板40及びマーク板駆動装置38は、上記の格子点位置情報初期設定処理においてのみ用いられ、後述する処理では用いないので、上記の処理を実行した後に、マーク板40及びマーク板駆動装置38を撤去するようにしてもよい。
【0049】
またマーク40Aが記録されたマーク板40に代えて、透明な平板にLED等の多数の発光素子がマトリクス状に配設されたマーク板を用い、マーク板を一定距離ずつステップ移動させると共に、ステップ移動における各位置で多数の発光素子を順に点灯させることを繰り返すことによって上記の処理を行うようにしてもよい。また発光素子が取付けられたハンドを備え、該ハンドを情報入力空間内の任意の位置に移動可能とされたロボットアーム装置を用い、ロボットアーム装置によって各格子点に対応する各位置に発光素子を移動させて点灯させることを繰り返すことによって上記処理を行うことも可能である。
【0050】
次に図6のフローチャートを参照し、上記の格子点位置情報初期設定処理が行われた後にコントローラ22で定常的に実行される指示判断処理について説明する。なお、この指示判断処理は情報入力空間に到来した情報入力者10からの指示の判断等を行うものである。
【0051】
ステップ150では、ビデオカメラ36Aから出力される画像Aを表す画像データ、及びビデオカメラ36Bから出力される画像Bを表す画像データを各々取り込み、取り込んだ画像A及び画像Bの画像データに基づいて、情報入力空間内に情報入力者10が到来したか(存在しているか)否か判定する。
【0052】
コントローラ22が指示判断処理を実行しているときには、図10に示すように、照明制御装置30は照明装置32A、32Bを交互に点灯させ、撮像制御装置34は、ビデオカメラ36Aによる情報入力空間の撮像が照明装置32Aが点灯しているときに行われ、ビデオカメラ36Bによる情報入力空間の撮像が照明装置32Bが点灯しているときに行われるように制御する。
【0053】
ビデオカメラ36Aの撮像範囲は照明装置32Aによる床面上の照明範囲が撮像範囲から外れるように調整されているので、照明装置32Aによる床面上の照明範囲内に情報入力者10の荷物やゴミ等の非認識対象物50A(図3参照)が存在していたとしても、この非認識対象物50Aがビデオカメラ36Aの撮像範囲に入ることはない。また、床面上のビデオカメラ36Aによって撮像される範囲内に非認識対象物50B(図3参照)が存在していたとしても、非認識対象物50Bは照明装置32Aによる照明範囲から外れているので、画像A中に存在する非認識対象物50Bに相当する画像部の輝度は非常に低くなる。
【0054】
同様に、ビデオカメラ36Bの撮像範囲は照明装置32Bによる床面上の照明範囲が撮像範囲から外れるように調整されているので、照明装置32Bによって照明される床面上に非認識対象物50Bが存在していたとしても、この非認識対象物50Bがビデオカメラ36Bの撮像範囲に入ることはない。また、床面上のビデオカメラ36Bによって撮像される範囲内に非認識対象物50Aが存在していたとしても、画像B中に存在する非認識対象物50Bに相当する画像部の輝度は非常に低くなる。
【0055】
従って、先のステップ150の判定は、例えば画像A及び画像B中に、高輝度でかつ所定値以上の面積の画像部が存在しているか否か等の極めて簡単な判断処理で済む。ステップ150の判定が否定された場合には、判定が肯定される迄待機する。
【0056】
情報入力空間に情報入力者10が到来すると、ステップ150の判定が肯定されてステップ152へ移行し、基準点・特徴点座標演算処理を起動する。この処理は本発明の演算手段に対応する処理であり、コントローラ22において、指示判断処理と並行して実行される。以下、この基準点・特徴点座標演算処理について、図7のフローチャートを参照して説明する。
【0057】
ステップ210ではビデオカメラ36A、36Bから画像A及び画像Bのデータを各々取り込み、次のステップ212では取り込んだ画像A及び画像Bから、情報入力者10の全体像に相当する画像部を各々抽出する。この情報入力者10の全体像に相当する画像部についても、高輝度の画素から成る所定値以上の面積の連続した領域を判断することで容易に抽出することができる。
【0058】
ステップ214では、情報入力者10の全体像に相当する画像部に基づき、情報入力者10の身長を求める。図11に示すように、点Oに位置しているビデオカメラ36の結像レンズの焦点距離をf、点Oを通る鉛直線と情報入力空間の床面との交点Qと点Oとの距離をH、点Qと情報入力者10が立っている床面上の点Pとの距離をR、情報入力者10の頭頂部に相当する点P’と点Pとの距離hを情報入力者10の身長とする。また、点POQの成す角度をθ、点P’OQの成す角度をθ’、ビデオカメラ36のエリアセンサの受光面に結像される情報入力者10の像の長さをh’、点Pに対応する受光面上の結像点を点p、点P’に対応する受光面上の結像点を点p’、受光面の中心oと点pとの距離をr、受光面の中心oと点p’との距離をr’とすると、角度θ、θ’、距離r、r’は次の(1)〜(4)式から求めることができる。
【0059】
θ =tan-1(R/H) …(1)
θ’=tan-1{R/(H−h)} …(2)
r =fθ …(3)
r’=fθ’ …(4)
従って、情報入力者10の身長h及び距離Rは次の(5)式及び(6)式によって求めることができる。
【0060】
h=H{1−tan(r/f)/tan(r’/f)} …(5)
R=Htan(r/f) …(6)
距離H及び焦点距離fは既知であるので、ステップ214ではビデオカメラ36A、36Bの撮像によって得られた画像A及び画像Bの何れかから距離r、r’を求め、これを(5)式に代入することにより情報入力者10の身長hを求めることができる。また、ステップ214では、画像A及び画像Bの各々から距離rを求め、これを(6)式に各々代入して距離Rを各々求めることにより、情報入力者10の床面上の位置(2次元座標)を求める。
【0061】
次のステップ216では、ステップ214で求めた情報入力者10の身長h及び情報入力者10の床面上の位置に基づき、情報入力者10の基準点P0 の3次元座標(x0 ,y0 ,z0 )を決定する。なお基準点P0 としては、例えば情報入力者10の背中に相当する点(図17に示す点P0 )を用いることができる。この場合、情報入力者10の身長hに基づいて情報入力者10の背中に相当する基準点P0 の床面からの高さ(例えばz0 の値)を割り出し、情報入力者10の床面上の位置(平面座標)を基準点P0 の平面座標(例えばx0 、y0 の値)として設定することにより、基準点P0 の3次元座標を決定することができる。なお、情報入力者10の背中に相当する点に代えて、情報入力者10の胸部に相当する点や、情報入力者10の腕の付け根に相当する点等を用いてもよい。
【0062】
ステップ218では、画像A及び画像B上での情報入力者10の全体像に相当する画像部の形状に基づいて、情報入力者10が指等によりディスプレイ12側を指し示す動作(指示動作)を行っているか否か判定する。情報入力者10から見たディスプレイ12の方向は既知であるので、ステップ218の判定は、例えば情報入力者10の全体像に相当する画像部において、情報入力者10の手に相当すると判断できる高さ位置に、情報入力者10から見たディスプレイ12の方向に向かって突出している部分が有るか否かを判断することで実現できる。
【0063】
これにより、情報入力者10が、図12(A)に示す直立状態から、図12(B)又は(C)に示すように腕を上げて手をディスプレイ12側に向ければ、情報入力者10が指示動作を行っていると判定されることになる。ステップ218の判定が否定された場合には、特徴点の3次元座標の演算(詳細は後述)を行うことなくステップ210に戻り、情報入力者10が指示動作を行う迄ステップ210〜218を繰り返す。
【0064】
情報入力者10が指示動作を行うと、ステップ218の判定が肯定され、ステップ220へ移行する。ステップ220では、ビデオカメラ36Aから取り込んだ画像Aを表す画像データに基づいて、画像A中に存在する情報入力者10の特徴点Px を抽出し、画像A上での特徴点Px の位置(XA ,YA )を演算する。情報入力者10の特徴点Px としては、ディスプレイ12側を指し示す動作を行っている指の先端に相当する点等を用いることができる。この場合、情報入力者10の全体像を表す画像部のうち、情報入力者10の手に相当すると判断できる高さ位置に、ディスプレイ12の方向に向かって突出している部分の先端の位置を、特徴点Px の位置として演算することができる。
【0065】
これにより、ビデオカメラ36Aによって情報入力者10の手が図13(A)に示すように撮像された場合、特徴点Px の位置として、図13(B)に示す特徴点Px の座標(XA ,YA )が演算されることになる。
【0066】
ステップ222では、記憶装置24に記憶されているビデオカメラ36Aの格子点位置情報に基づき、画像A上での位置が(XA ±dX,YA ±dY)の範囲(図13(B)にハッチングで囲んだ範囲を参照)に入る格子点を全て検索する。なお、このdX及びdYの大きさは、格子点の間隔(マーク40Aの間隔)に基づき、少なくとも1個以上の格子点が抽出されるように定められている。
【0067】
また、本実施形態ではビデオカメラの結像レンズとして広角レンズを用いており、仮にdX及びdYを一定とすると、ビデオカメラと格子点との距離が大きくなるに従って多くの格子点が(XA ±dX,YA ±dY)の範囲に入り、後述する特徴点Px の3次元座標の演算の精度の低下に繋がる。このため、dX及びdYは、3次元座標上でのビデオカメラからの距離が離れるに従って値が小さくなるように設定される。従って、3次元座標上での(XA ±dX,YA ±dY)に相当する範囲は、底面がビデオカメラ側に位置している円錐状(又は楕円錐状)となる。
【0068】
ステップ224では、先のステップ220と同様に、ビデオカメラ36Bから取り込んだ画像Bを表す画像データに基づいて、画像B中に存在する情報入力者10の特徴点Px を抽出し、画像B上での特徴点Px の位置(XB ,YB )を演算する。ステップ226では、先のステップ222と同様に、記憶装置24に記憶されているビデオカメラ36Bの格子点位置情報に基づき、画像B上での位置が(XB ±dX,YB ±dY)の範囲に入る格子点を全て検索する。
【0069】
次のステップ228では、画像A及び画像Bから共通に抽出した格子点を判定する。これにより、情報入力空間内で特徴点Px に近接した位置に存在している格子点のみが複数抽出されることになる。ステップ230では、画像A及び画像Bから共通に抽出した格子点の3次元座標を、格子点位置情報から取り込む。
【0070】
本実施形態では、後述するように特徴点Px の3次元座標を情報入力空間内で特徴点に近接した位置に存在している複数の格子点の3次元座標から内挿によって演算する(具体的には、前記複数の格子点の3次元座標の座標値の重み付き平均により特徴点の3次元座標の座標値を求める)。このため、特徴点Px の3次元座標の演算に先立ち、次のステップ232では、画像A及び画像Bから共通に抽出した各格子点の画像A及び画像B上での位置、画像A上での特徴点Px の位置(XA ,YA )、画像B上での特徴点Px の位置(XB ,YB )に基づいて、画像A及び画像Bから共通に抽出した各格子点の3次元座標からの内挿の割合(各格子点の3次元座標の座標値に対する重み)を決定する。この内挿の割合は、例えば画像A及び画像B上で特徴点と近接した位置に存在している格子点の3次元座標の座標値の重みが大きくなるように決定することができる。
【0071】
そしてステップ234では、画像A及び画像Bから共通に抽出した格子点の3次元座標、及びステップ232で決定した内挿の割合に基づいて、特徴点Px の3次元座標(Xx ,Yx ,Zx )を演算する。
【0072】
上記のようにして特徴点Px の3次元座標を演算するとステップ210へ戻り、ステップ210以降の処理を繰り返す。このように、基準点・特徴点座標演算処理では画像A及び画像Bから情報入力者10の基準点P0 及び特徴点Px (但し、情報入力者10が指示動作を行っている場合)の3次元座標を繰り返し演算するので、基準点・特徴点座標演算処理によって演算される基準点P0 及び特徴点Px の3次元座標の値は、情報入力者10の姿勢や動作の変化に応じて値が逐次更新されることになる。
【0073】
またコントローラ22は、指示判断処理(図6)のステップ152で基準点・特徴点座標演算処理を起動すると、上述した基準点・特徴点座標演算処理と並行して指示判断処理のステップ154以降の処理を実行する。すなわち、ステップ154では距離変換条件設定処理を行う。この距離変換条件設定処理について、図8のフローチャートを参照して説明する。なお、距離変換条件設定処理は請求項2に記載の変換条件設定手段に対応している。
【0074】
ステップ250では、ディスプレイ12に表示している3次元的画像が表す仮想3次元空間において、情報入力者10から見て奥行方向の略中間部(ニュートラルポイントという)に相当する箇所の3次元座標を、記憶装置24に記憶されている座標データ等に基づいて求め(関数式を用いて演算により求めてもよい)、ディスプレイ12の表示面上における前記ニュートラルポイントの位置(ニュートラルポイントの表示位置)を演算し、ディスプレイ12の表示面上の前記演算した表示位置にマーカを表示するよう情報処理装置14に指示する。
【0075】
これにより、情報処理装置14はディスプレイ12の表示面上の前記表示位置にマーカを表示し、表示されたマーカは、仮想3次元空間内のニュートラルポイントに位置しているように情報入力者10に視認されることになる。なお、マーカとしては、例えば図18に示す円形のカーソル52等を用いることができるが、情報入力者10が容易に認識できるものであればよく、任意の形状のマーカを採用することができる。
【0076】
次のステップ252では、ディスプレイ12に表示したマーカを指し示す動作の実行を情報入力者10に要請するメッセージをディスプレイ12に表示するよう情報処理装置14に指示する。これにより、情報処理装置14はディスプレイ14に前記メッセージを表示し、情報入力者10は表示されたメッセージに従って、図12(A)に示す直立状態から、図12(C)に示すように腕を上げて手をディスプレイ12側に向け、ディスプレイ12に表示されている3次元的画像が表す仮想3次元空間内のマーカが存在している方向に手を向けると共に、仮想3次元空間におけるマーカ迄の距離に応じて腕を屈曲又は伸長させる。
【0077】
情報入力者10は、仮想3次元空間において遠方に位置していると認識した物体を指し示すときには腕を伸長させ(図14(A)参照)、仮想3次元空間において近辺に位置していると認識した物体を指し示すときには腕を屈曲させる(図14(C)参照)。前述のように、マーカは仮想3次元空間内のニュートラルポイントに位置しているように視認されるので、このマーカを指し示す動作では、情報入力者10の腕は図14(B)に示すように半ば屈曲された状態となる。
【0078】
次のステップ254では、基準点・特徴点座標演算処理による処理結果(基準点P0 及び特徴点Px の3次元座標)を取り込み、ステップ256では情報入力者がディスプレイ12の表示面を指し示す指示動作を行っているか否か判定する。基準点・特徴点座標演算処理では、情報入力者10が指示動作を行っている場合(ステップ218の判定が肯定された場合)にのみ特徴点Px の3次元座標を演算するので、ステップ254の判定は、特徴点Px の3次元座標が演算されたか否かを判断することで行うことができる。
【0079】
ステップ254の判定が否定された場合にはステップ254に戻り、情報入力者10が指示動作を行う迄ステップ254、256を繰り返す。ステップ256の判定が肯定されるとステップ258へ移行し、ステップ254で取り込んだ基準点P0 及び特徴点Px の3次元座標から基準点P0 と特徴点Px との距離kを演算し、演算結果を距離kmid として、情報入力者10を含む仮想3次元空間における情報入力者10とニュートラルポイントとの距離Lmid (仮想距離)と対応させて記憶する。
【0080】
次のステップ260では、腕を全ストローク分屈曲及び伸長させる動作の実行を情報入力者10に要請するメッセージをディスプレイ12に表示するよう情報処理装置14に指示する。これにより、情報処理装置14はディスプレイに前記メッセージを表示し、情報入力者10は表示されたメッセージに従って、腕を伸長させて図14(A)に示すように腕を真っ直ぐに伸ばした状態にし、続いて腕を屈曲させて図14(C)に示すように腕を折り畳んだ状態にする動作を繰り返す。
【0081】
次のステップ262では、基準点・特徴点座標演算処理による処理結果を取り込み、ステップ264では情報入力者10がディスプレイ12の表示面を指し示す動作を行っているか否か判定する。ステップ264の判定が否定された場合にはステップ262に戻り、情報入力者10が指示動作を行う迄ステップ262、264を繰り返す。ステップ264の判定が肯定されるとステップ266へ移行する。
【0082】
ステップ266では、ステップ262で取り込んだ基準点P0 及び特徴点Px の3次元座標から基準点P0 と特徴点Px との距離kを演算・記憶すると共に、距離kの変化方向が変化(増加方向から減少方向に変化、或いは減少方向から増加方向に変化)したか否か判定する。この判定は、ステップ266を1回目及び2回目に実行するときには無条件で否定されるが、2回目以降の実行時には、今回演算した距離kの値を前回演算した距離kの値と比較して距離kの変化方向を判断し、3回目以降の実行時には、今回判断した距離kの変化方向を前回判断した距離kの変化方向と比較することで前記判定が行われる。
【0083】
上記判定が否定された場合にはステップ262に戻り、ステップ262〜266を繰り返す。一方、距離kの変化方向が変化したときは、腕を真っ直ぐに伸ばした状態(図14(A)参照)か、又は腕を折り畳んだ状態(図14(C)参照)に近い状態であるので、ステップ266の判定が肯定されてステップ268へ移行し、このときの基準点P0 と特徴点Px との距離k(距離kは、腕を真っ直ぐに伸ばした状態で最大、腕を折り畳んだ状態で最小となる)を記憶する。次のステップ270では距離kの最大値kmax 及び最小値kmin を各々取得したか否か判定する。判定が否定された場合にはステップ262に戻り、ステップ262〜270を繰り返す。
【0084】
最大値kmax 及び最小値kmin を各々取得するとステップ272へ移行し、情報入力者10の基準点P0 と特徴点Px との距離kを、情報入力者10と情報入力者10が指し示した箇所との距離L(仮想距離)に変換するための距離変換条件を設定する。この距離変換条件は、3次元的画像が表す仮想3次元空間において、情報入力者10から見て最も手前側の箇所と情報入力者10との距離(仮想距離)をLmin 、情報入力者10から見て最も奥側の箇所と情報入力者10との距離(仮想距離)をLmax 、ニュートラルポイントと情報入力者10との距離(仮想距離)をLmid としたときに、例として図15に示すように、距離kmin が距離Lmin に、距離kmax が距離Lmax に、距離kmid が距離Lmid に各々変換されるように、最小自乗法等を適用して定めることができる。
【0085】
情報入力者10の腕の長さ等には個人差があり、腕を屈曲・伸長させたときの距離kの変化幅(kmax −kmin )にも個人差があるが、上述した距離変換条件設定処理は情報入力空間に情報入力者10が到来する毎に実行され、情報入力者10の基準点P0 と特徴点Px の距離kの最大値及び最小値を求め、距離kの変化幅(kmax −kmin )が、仮想3次元空間内の各箇所と情報入力者10との距離Lの変化幅(Lmax −Lmin )に対応するように距離変換条件を定めているので、情報入力空間に新たな情報入力者10が到来すると、距離変換条件として、到来した情報入力者10の腕の長さ等に応じた適切な変換条件を得ることができる。
【0086】
また、上記の距離変換条件は、情報入力者10がニュートラルポイントを指し示す動作を行ったときの基準点P0 と特徴点Px との距離kも考慮して変換特性を定めているので、情報入力者10の感覚に合致した変換特性となり、情報入力者10によって指し示された箇所と情報入力者10との距離Lを正確に判断することができる。
【0087】
上記のようにして距離変換条件設定処理を行うと、次のステップ156(図6参照)ではクリック動作速度設定処理を行う。このクリック動作速度設定処理について、図9のフローチャートを参照して説明する。なお、クリック動作速度設定処理は請求項4に記載の閾値設定手段に対応している。
【0088】
ステップ290では、クリック動作の実行を情報入力者10に要請するメッセージをディスプレイ12に表示するよう情報処理装置14に指示し、情報処理装置14はディスプレイ12に前記メッセージを表示させる。本実施形態では、情報入力者10が前方に手を素早く移動させる動作(図16(A)参照、以下「前進クリック」という)、及び情報入力者10が後方に手を素早く移動させる動作(図16(B)参照、以下「後進クリック」という)をクリック動作として定めている。ディスプレイ12に前記メッセージが表示されると、情報入力者10は腕を屈曲又は伸長させ、前進クリック動作又は後進クリック動作を繰り返し行う。
【0089】
次のステップ292では、基準点・特徴点座標演算処理による処理結果(基準点P0 及び特徴点Px の3次元座標)を取り込み、ステップ294では情報入力者10がディスプレイ12を指し示す指示動作を行っているか否か判定する。ステップ294の判定が否定された場合にはステップ292に戻り、情報入力者10が指示動作を行う迄ステップ292、294を繰り返す。ステップ294の判定が肯定されるとステップ296へ移行する。
【0090】
ステップ296では、ステップ292で取り込んだ基準点P0 及び特徴点Px の3次元座標から基準点P0 と特徴点Px との距離kを演算する。また、ステップ296は繰り返し実行されるが、2回目以降の実行時には、今回演算した距離kの値と前回演算した距離kの値との差に基づいて距離kの変化速度V(基準点P0 に対する特徴点Px の位置の移動速度)を演算し、演算結果を記憶する。
【0091】
次のステップ298では、クリック動作の実行を要請するメッセージをディスプレイ12に表示してから所定時間が経過したか否か判定する。判定が否定された場合にはステップ292に戻り、ステップ292〜298を繰り返す。従って、クリック動作の実行を要請するメッセージを表示してから所定時間が経過する迄の間は、基準点P0 と特徴点Px との距離kの変化速度Vが繰り返し演算・記憶されることになる。
【0092】
ステップ298の判定が肯定されるとステップ300へ移行し、先に演算・記憶した変化速度Vを取り込み、情報入力者10が1回のクリック動作を行っている間の変化速度Vの推移に基づいてクリック動作速度V0 (請求項3,4に記載の閾値に対応)を設定・記憶する。このクリック動作速度V0 は、後述する処理において、情報入力者10がクリック動作を行ったか否かを判定するための閾値として用いる。このため、情報入力者10がクリック動作を行ったことを確実に判定するために、クリック動作速度V0 としては、例えば情報入力者10の1回のクリック動作における変化速度Vの平均値よりも若干低い値を設定することができる。また、情報入力者10の1回のクリック動作における変化速度Vの最小値をクリック動作速度V0 として設定するようにしてもよい。
【0093】
情報入力者10が腕を屈曲又は伸長させてクリック動作を行ったときの特徴点Px の移動速度(変化速度V)は情報入力者10毎にばらつきがあるが、上記のクリック動作速度設定処理は情報入力空間に情報入力者10が到来する毎に実行されるので、情報入力空間に新たな情報入力者10が到来すると、クリック動作速度V0 として到来した情報入力者10の体格や筋力等に応じた適切な値が新たに設定されることになる。
【0094】
上述したクリック動作速度設定処理を終了すると、指示判断処理(図6参照)のステップ158へ移行し、ステップ158以降で情報入力者10からの指示を判断する判断処理を行う。すなわち、ステップ158では基準点・特徴点座標演算処理による処理結果(基準点P0 及び特徴点Px の3次元座標)を取り込み、ステップ160では情報入力者10が指示動作を行っているか否か判定する。
【0095】
ステップ160の判定が否定された場合にはステップ194へ移行し、情報入力空間から情報入力者10が退去したか否か判定する。この判定についても、先に説明したステップ150と同様に、画像A及び画像Bから高輝度でかつ所定値以上の面積の画像部が無くなったか否か等の極めて簡単な判断処理で済む。上記判定が否定された場合にはステップ158に戻り、情報入力者10が指示動作を行う迄ステップ158、160、194を繰り返す。
【0096】
また、ステップ160の判定が肯定されるとステップ162へ移行し、先のステップ158で取り込んだ基準点P0 及び特徴点Px の3次元座標に基づき、上記の基準点と特徴点とを結ぶ仮想線(図17の仮想線54参照)と、ディスプレイ12の表示面を含む平面と、の交点(図17の点S参照)の座標(平面座標)を演算する。そして次のステップ164では、ステップ162で求めた交点Sの座標に基づいて、情報入力者10がディスプレイ12の表示面上を指し示しているか否か判定する。この判定が否定された場合にはステップ194へ移行し、ステップ158〜164、ステップ194を繰り返す。
【0097】
一方、ステップ164の判定が肯定された場合は、ディスプレイ12に表示されている3次元的画像が表す仮想3次元空間内の特定箇所を情報入力者10が指し示していると判断できる。このためステップ166へ移行し、先に取り込んだ基準点P0 及び特徴点Px の3次元座標に基づき、情報入力者10が指し示している箇所(指示箇所)が存在している方向として、基準点P0 と特徴点Px とを結ぶ仮想線の延びる方向(基準点P0 から特徴点Px に向かう方向)を演算する。
【0098】
ステップ168では、先に取り込んだ基準点P0 及び特徴点Px の3次元座標に基づいて基準点P0 と特徴点Px の距離kを演算し、前述の距離変換条件設定処理(図8参照)で設定した距離変換条件(図15参照)に従って、図18にも示すように、基準点P0 と特徴点Px の距離kを情報入力者10と前記指示箇所との距離L(仮想距離)に変換する。ステップ170では、情報入力者10による指示箇所は、情報入力者10を含む仮想3次元空間において、基準点P0 からステップ166で演算した方向にステップ168で求めた距離Lだけ隔てた箇所であるとみなして、仮想3次元空間における情報入力者10による指示箇所の3次元座標値を演算する。
【0099】
これにより、ディスプレイ12に表示されている3次元的画像が表す仮想3次元空間内の任意の箇所を情報入力者10が指し示したとしても、指し示された箇所の3次元座標を判断することができる。なお、上記のステップ166〜170は本発明の判断手段に対応している。
【0100】
ステップ172では、ステップ170で演算した指示箇所の3次元座標を、記憶装置24に記憶されている座標データに従って、ディスプレイ12の表示面上における指示箇所の位置(2次元座標)に変換し(関数式を用いて演算により求めてもよい)、前記位置にカーソル52が表示されるように情報処理装置14に指示する(図18参照)。なお、ディスプレイ12に表示するカーソル52の大きさを、ステップ168で求めた距離Lの大きさが大きくなるに従って小さくするようにしてもよい。
【0101】
ところで本実施形態では、情報入力者10がディスプレイ12への3次元的画像の表示倍率の変更(ズームイン又はズームアウト)を指示することも可能とされており、情報入力者10による仮想3次元空間内の特定箇所を指し示している動作と、情報入力者10による3次元的画像のディスプレイ12への表示倍率の変更を指示する動作と、を区別するために、一例として情報入力者10が指示動作を行うときには、情報入力者10が手の形を人指し指以外の指を折り曲げた形(図19(A)参照)とし、情報入力者10が表示倍率の変更を指示するときには、情報入力者10が手の形を親指以外の指を伸ばした形(図19(B)参照)とすることを予め定めている。
【0102】
次のステップ174では、情報入力者10の手が特定の形(親指以外の指を伸ばした形)になっているか否か、すなわち情報入力者10が3次元的画像の表示倍率の変更を指示しているか否か判定する。なお、このステップ174は、請求項5に記載の判定手段に対応している。
【0103】
ステップ174の判定が否定された場合には、情報入力者10は3次元的画像の表示倍率の変更を指示する動作を行っていないと判断してステップ176へ移行し、先のステップ168で演算された距離kの変化が有ったか否か判定する。なお、ステップ168は情報入力者10がディスプレイ12の表示面を指し示す動作を行っている間(ステップ164の判定が肯定されている間)繰り返し実行されるが、ステップ168で最初に距離kが演算されたときには、距離kの変化の有無を判定できないのでステップ176の判定は無条件に否定される。
【0104】
ステップ176の判定が肯定された場合にはステップ178へ移行し、距離kの変化速度Vを演算し、演算した変化速度Vが閾値(クリック動作速度設定処理によって設定されたクリック動作速度V0 )以上か否か判定する。なお、ステップ178についても、ステップ168で最初に距離kが演算されたときには、距離kの変化速度Vを演算することができないので判定は無条件に否定される。ステップ176又はステップ178の判定が否定された場合には、情報入力者10はクリック動作を行っていないと判断し、ステップ194へ移行する。
【0105】
また、ステップ176、178の判定が各々肯定された場合には情報入力者10がクリック動作を行ったと判断し、ステップ180において距離kの変化方向を判定し、判定結果に応じて分岐する。距離kが増加方向に変化していた場合には、情報入力者10が腕を素早く伸長させる前進クリック動作を行ったと判断できるので、ステップ182へ移行し、前進クリックが有ったことを表す情報を情報処理装置14に出力し、ステップ194へ移行する。また、距離kが減少方向に変化していた場合には、情報入力者10が腕を素早く屈曲させる後進クリック動作を行ったと判断できるので、ステップ184へ移行し、後進クリックが有ったことを表す情報を情報処理装置14に出力し、ステップ194へ移行する。
【0106】
情報処理装置14では、前進クリックが有ったことを表す情報又は後進クリックが有ったことを表す情報が入力されると、情報入力者10による現在の指示箇所がクリックされたと判断し、前進クリックが有った場合には現在の指示箇所に対応する第1の処理を、後進クリックが有った場合には現在の指示箇所に対応する第2の処理(第1の処理と異なる処理)を行う。なお、この第1の処理、第2の処理は、請求項4に記載の所定の処理(より詳しくは、請求項3に記載の第1の所定の処理、第2の所定の処理)に対応しており、例えば仮想3次元空間内の指示箇所に関連する処理(指示箇所に位置している物体に関連する処理)を行うことができる(具体例は後述)。
【0107】
このように、ステップ178〜184は、実際に第1の処理、第2の処理を行う情報処理装置14と共に請求項3,4に記載の処理手段に対応している。
【0108】
一方、ステップ174の判定が肯定された場合にはステップ186へ移行し、先のステップ168で演算された距離kの変化が有るか否か判定する。なお、このステップ186についても、ステップ168で最初に距離kが演算されたときには、距離kの変化の有無を判定できないので判定は無条件に否定される。ステップ186の判定が否定された場合には、情報入力者10の手の形は3次元的画像の表示倍率の変更を指示するときの形になっているものの、表示倍率をどの程度変更するかが指示されていないとみなしてステップ194へ移行する。
【0109】
一方、ステップ186の判定が肯定された場合にはステップ188へ移行し、距離kの変化量を演算し、所定の変換条件に従って距離kの変化量を3次元的画像の表示倍率の変更量に変換する。ステップ190では、ステップ188で演算した表示倍率の変更量に応じてディスプレイ12への3次元的画像の表示倍率が変更され、かつ情報入力者10による現在の指示箇所(ステップ170で演算した3次元座標に対応する箇所)がディスプレイ12の表示面上の略中心に位置するように、ディスプレイ12に3次元的画像を再表示するよう情報処理装置14に指示する。
【0110】
これにより、例として図20(A)に示すように、宇宙空間を表す3次元的画像をディスプレイ12に表示し、情報入力者10が前記3次元的画像中のスペースシャトル54を指し示している状態で、情報入力者10によって3次元的画像の拡大表示(ズームイン)が指示された場合には、図20(B)に示すように、ディスプレイ12の表示面の中心にスペースシャトル54が位置し、かつ指示された表示倍率の変更量に応じて3次元的画像が拡大表示されるように3次元的画像が再表示されることになる。
【0111】
また、前記状態で3次元的画像の縮小表示(ズームアウト)が指示された場合には、図20(C)に示すように、ディスプレイ12の表示面の中心にスペースシャトル54が位置し、かつ指示された表示倍率の変更量に応じて3次元的画像が縮小表示されるように3次元的画像が再表示されることになる。
【0112】
このように、ステップ186〜190の処理は、実際に3次元的画像の表示を制御する情報処理装置14と共に、請求項5に記載の表示制御手段に対応している。なお、上記の表示倍率の変更に伴って、仮想3次元空間内の各箇所と情報入力者10との仮想距離も変化するので、前述のステップ190では仮想距離の変化に応じた距離変換条件の修正も行う。次のステップ192では、再表示した3次元的画像に応じてカーソル52を再表示し、ステップ194へ移行する。
【0113】
上記処理により、情報入力空間に到来した情報入力者10が、ディスプレイ12に表示されている3次元的画像が表す仮想3次元空間内の任意の箇所を指し示す動作を行うと、ディスプレイ12の表示面上の指し示した箇所に対応する位置にカーソル52が表示され、前記情報入力者10が前進クリック動作又は後進クリック動作を行うと、所望の処理(例えば指し示した箇所に関連する処理)が実行されることになる。
【0114】
また、前記情報入力者10が、手の形を親指以外の指を伸ばした形とし、ディスプレイ12に表示されている3次元的画像の表示倍率が所望の倍率となるように腕を屈曲又は伸長させれば、ディスプレイ12に表示されている3次元的画像の表示倍率が所望の倍率に変更され、指し示している箇所を中心として3次元的画像が再表示されることになる。なお、腕を大きく屈曲又は伸長させても3次元的画像の表示倍率の変化が不足していた場合には、一旦、手の形を人指し指以外の指を折り曲げた形として腕の屈曲・伸長度合いを戻した後に、再度表示倍率の変更を指示する動作を行うようにしてもよい。
【0115】
なお、情報入力空間から情報入力者10が退去するとステップ194の判定が肯定され、ステップ196で基準点・特徴点座標演算処理(図7)の実行を停止させた後にステップ150に戻り、情報入力空間に情報入力者10が再度到来する迄待機する。そして、情報入力空間に情報入力者10が再度到来すると、ステップ152以降の処理が繰り返される。
【0116】
ハンドポインティング入力装置20のコントローラ22において、上記の指示判断処理を実行することにより、情報入力者10によるディスプレイ12上の表示面上の指示位置及びクリック動作の有無をリアルタイムで判断することができるので、情報処理処理装置14で実行される処理と組み合わせることで、以下で説明するように種々の利用形態での利用が可能となる。
【0117】
例えば多数の船舶が並んでいる状況を俯瞰撮影した3次元的画像をディスプレイ12に表示し、3次元的画像が表す仮想3次元空間内の特定の船舶を利用者(情報入力者)が指し示している状態で、特定の指示(例えば前進クリック)が有った場合には、例えば前記船舶の諸元を表示し、他の特定の指示(例えば後進クリック)が有った場合には、例えば前記船舶と関連のある船舶を他の船舶と区別して表示し、拡大表示が指示された場合には前記船舶を中心として拡大表示させる等により、船舶データベース検索用のインタフェースとして利用することができる。なお、船舶に代えて、自動車や航空機、自転車、電気製品、機械部品等の各種データベースの検索に利用することも可能であることは言うまでもない。
【0118】
また、例えばビルディングを設計する過程で作成されたCADデータに基づいて、鉄骨が組み上がった状況での前記ビルディング内部を撮像したに相当する3次元的画像の画像データを生成し、前記3次元的画像をディスプレイ12に表示すると共に、利用者からの指示に応じて視点が前記ビルディング内を移動しているかのように3次元的画像の表示を切り換え、3次元的画像が表す仮想3次元空間内の特定箇所を設計者(情報入力者)が指し示している状態で、特定の指示(例えば前進クリック)が有った場合には、例えば指示箇所を設備配管の配設位置の始点又は終点として記憶し、他の特定の指示(例えば後進クリック)が有った場合には、例えば各種設備配管を一覧表示して設備配管の種類を選択させ、選択されると前記始点から終点の間に前記選択された設備配管を配設した状況を3次元的画像に重ねて表示する等により、設備配管の配設状況を立体的に確認することを可能とし、ビルディング等の建設物内部の設備配管等の設計を支援する設計支援システムに利用することができる。
【0119】
更に、例えばクレーンの遠隔操作室にディスプレイ12を配設し、クレーンに取付けた複数台のビデオカメラが作業状況を撮像することで得られる3次元的画像をディスプレイ12に表示し、3次元的画像が表す仮想3次元空間内の特定箇所を操作者(情報入力者)が指し示している状態で、特定の指示(例えば前進クリック)が有った場合には例えば指示箇所に向けてクレーンのアームを回転移動させ、他の特定の指示(例えば後進クリック)が有った場合には例えば指示箇所に向けてクレーンのアームを上下移動させる等により、高所に行くことなくクレーンの操作が可能な立体操作システムに利用することができる。
【0120】
また、例えば車両が位置している状況を表す3次元的画像をディスプレイ12に表示し、利用者(情報入力者)が例えば車両のボンネットを指し示している状態で特定の指示(例えば前進クリック)が有った場合には車両のボンネットが開くように3次元的画像を切り換え、更に、利用者が例えば車両のエンジンを指し示している状態で特定の指示(例えば前進クリック)が有った場合にはエンジンの性能等を3次元的画像に重ねて表示し、他の特定の指示(例えば後進クリック)が有った場合には指示の取り消しが指示されたと判定してエンジンの性能等の表示を消去する等により、車両の仮想ショールームに利用することもできる。この場合、例えば先に説明した表示倍率の変更を指示する動作を車両の向きを変える動作として用い、例えば利用者が車両の前方側を指し示している状態でズームイン又はズームアウトに相当する動作が行われた場合に、車両全体を時計回り又は反時計回りに回転させるようにしてもよい。
【0121】
更に、例えばディスプレイ12、ハンドポインティング入力装置20及び情報処理装置14をアミューズメント施設の3次元シミュレーションゲームを行うゲーム機として動作させることも可能である。
【0122】
なお、上記では2台のビデオカメラ36A、36Bを設けた例を説明したが、これに限定されるものではなく、より多数のビデオカメラによって情報入力空間を各々撮像し、情報入力者10からの指示を判断するようにしてもよい。
【0123】
また、上記では距離変換条件設定処理において、情報入力者10がニュートラルポイントを指し示したときの基準点P0 と特徴点Px の距離kも考慮して距離変換条件を設定するようにしていたが、これに限定されるものではなく、距離kの最大値kmax 及び最小値kmin のみに基づいて距離変換条件を設定するようにしてもよい。この場合、距離変換条件の変換特性は線形(例えば距離kに比例して距離Lが変化する変換特性)であってもよいが、特に3次元的画像が表す仮想3次元空間が非常に奥行きのある空間である場合(例えば宇宙空間を表す3次元的画像を表示手段に表示した場合等)には、変換特性を非線形(例えば基準点と特徴点との距離の変化のn乗(n≧2)に比例して認識対象者と特定箇所との距離を変化させる変換特性等)とすることが好ましい。
【0124】
また、上記では情報入力者10がディスプレイ12に表示された3次元的画像が表す仮想3次元空間内の任意の箇所を態様を例に説明したが、情報入力者が指し示す対象は仮想的な3次元空間に限定されるものではなく、本発明は、情報入力者が実際の3次元空間内の任意の箇所を指し示す場合にも適用可能である。情報入力者が実際の3次元空間内の任意の箇所を指し示す利用形態としては、例えば劇場等において、スポットライトの照射方向や、アレイ状に配置された多数のスピーカによって形成される音響ビームの方向を、オペレータ(情報入力者)が指し示した方向に向ける場合等が挙げられる。
【0125】
【発明の効果】
以上説明したように請求項1記載の発明は、認識対象者が3次元空間内の特定箇所を指し示している状況を複数の方向から撮像して得られた複数の画像から認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求め、基準点から特徴点に向かう方向に基づき特定箇所が存在している方向を判断すると共に、基準点と特徴点との距離を所定の変換条件に従って認識対象者と特定箇所との距離に変換することにより、基準点から特徴点に向かう方向に沿った特定箇所の位置を判断し、特定箇所の3次元座標を判断するので、情報入力者が3次元空間内の任意の箇所を指し示す場合にも、指し示された箇所の3次元座標を判断でき、認識対象者が腕を無理に伸ばす等の極端な動作を行うことなく、認識対象者から見て3次元空間内の極めて遠方に位置している箇所を指し示すことも可能となる、という優れた効果を有する。
【0126】
請求項2記載の発明は、請求項1の発明において、認識対象者が腕を屈曲及び伸長させる動作を行ったときの基準点と特徴点との距離の変化幅に基づいて、基準点と特徴点との距離を認識対象者と特定箇所との距離に変換する変換条件の変換特性を設定するので、個々の認識対象者の体格に応じた変換特性を得ることができ、個々の認識対象者の体格のばらつきに拘らず認識対象者が指し示した特定箇所の奥行方向に沿った位置を正確に判断できる、という効果を有する。
【0127】
請求項3記載の発明は、認識対象者が3次元空間内の特定箇所を指し示している状況を複数の方向から撮像して得られた複数の画像から認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求め、基準点から特徴点に向かう方向に基づき特定箇所が存在している方向を判断すると共に、基準点と特徴点との距離に基づいて基準点から特徴点に向かう方向に沿った特定箇所の位置を判断し、特定箇所の3次元座標を判断すると共に、基準点と特徴点との距離が閾値以上の変化速度で増加した場合には第1の所定の処理を行い、基準点と特徴点との距離が閾値以上の変化速度で減少した場合には第2の所定の処理を行うので、情報入力者が3次元空間内の任意の箇所を指し示す場合にも、指し示された箇所の3次元座標を判断できると共に、認識対象者による第1の所定の処理又は第2の所定の処理の実行を指示する動作を確実に検出することができ、第1の所定処理及び第2の所定の処理のうち認識対象者によって選択された処理を確実に実行することができる、という優れた効果を有する。
【0128】
請求項4記載の発明は、認識対象者が3次元空間内の特定箇所を指し示している状況を複数の方向から撮像して得られた複数の画像から認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求め、基準点から特徴点に向かう方向に基づき特定箇所が存在している方向を判断すると共に、基準点と特徴点との距離に基づいて基準点から特徴点に向かう方向に沿った特定箇所の位置を判断し、特定箇所の3次元座標を判断すると共に、基準点と特徴点との距離の変化速度が閾値以上の場合に所定の処理を行い、かつ、認識対象者が腕を屈曲又は伸長させる動作を行ったときの基準点と特徴点との距離の変化速度に基づいて前記閾値を予め設定するので、情報入力者が3次元空間内の任意の箇所を指し示す場合にも、指し示された箇所の3次元座標を判断できると共に、個々の認識対象者の体格や筋力等のばらつきに拘らず、認識対象者による所定の処理の実行を指示する動作を確実に検知して所定の処理を実行することができる、という優れた効果を有する。
【0129】
請求項5記載の発明は、請求項1、請求項3及び請求項4の何れかの発明において、認識対象者の手が前記特定の形になっている状態で、基準点と特徴点との距離が変化した場合には、表示手段に表示されている3次元的画像が前記距離の変化に応じて拡大又は縮小表示されるように制御するので、上記効果に加え、認識対象者による3次元的画像の表示倍率の変更指示に応じて、表示手段に表示する3次元的画像の表示倍率を確実に変更することができる、という効果を有する。
【図面の簡単な説明】
【図1】情報入力空間の周辺を示す斜視図である。
【図2】本実施形態に係るハンドポインティング入力装置の概略構成を示すブロック図である。
【図3】照明装置の照明範囲とビデオカメラの撮像範囲との関係の一例を示す概略図である。
【図4】マーク板の一例を示す情報入力空間の斜視図である。
【図5】格子点位置情報初期設定処理を示すフローチャートである。
【図6】指示判断処理を示すフローチャートである。
【図7】基準点・特徴点座標演算処理を示すフローチャートである。
【図8】距離変換条件設定処理を示すフローチャートである。
【図9】クリック動作速度設定処理を示すフローチャートである。
【図10】照明装置A、Bの点灯・消灯、ビデオカメラの撮像によって得られる画像の出力(取り込み)のタイミングを示すタイミングチャートである。
【図11】情報入力者の身長及び床面上の位置の演算を説明するための、情報入力空間の側面図である。
【図12】(A)乃至(C)は情報入力者の動作の一例を示すイメージ図である。
【図13】(A)はビデオカメラにより撮像された情報入力者の手を示すイメージ図、(B)は特徴点の座標及び特徴点の3次元座標を求めるための格子点の検索範囲を示す概念図である。
【図14】(A)は指示箇所が遠方に位置している場合、(B)は指示箇所が中間的な距離に位置している場合、(C)は指示箇所が近辺に位置している場合の、情報入力者の動作を各々を示すイメージ図である。
【図15】情報入力者の基準点と特徴点との距離kを、情報入力者と情報入力者が指示した箇所との距離L(仮想距離)に変換するための距離変換条件の一例を示す線図である。
【図16】(A)は前進クリック動作、(B)は後進クリック動作を説明するためのイメージ図である。
【図17】情報入力者が指し示しているディスプレイ上の位置の判定を説明するための、(A)は情報入力空間の平面図、(B)は情報入力空間の側面図である。
【図18】情報入力者の基準点と特徴点との距離kの、情報入力者と情報入力者が指示した箇所との距離L(仮想距離)への変換を説明するための概念図である。
【図19】(A)は特定の箇所を指し示す動作を行うとき、(B)は3次元的画像の表示倍率の変更を指示するときの手の形の一例を各々示すイメージ図である。
【図20】(A)は表示倍率変更前の3次元的画像の一例、(B)は指示に応じて拡大表示した3次元的画像の一例、(C)は指示に応じて縮小表示した3次元的画像の一例を各々示すイメージ図である。
【符号の説明】
10 情報入力者
12 ディスプレイ
14 情報処理装置
20 ハンドポインティング入力装置
22 コントローラ
36 ビデオカメラ
Claims (5)
- 互いに異なる複数の方向から認識対象者を撮像する撮像手段と、
認識対象者が3次元空間内の特定箇所を指し示している状況を前記撮像手段が複数の方向から撮像することで得られた複数の画像から前記認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める演算手段と、
前記基準点から前記特徴点に向かう方向に基づいて前記3次元空間内の前記特定箇所が存在している方向を判断すると共に、前記基準点と前記特徴点との距離を所定の変換条件に従って認識対象者と前記特定箇所との距離に変換することにより、前記基準点から前記特徴点に向かう方向に沿った前記3次元空間内の前記特定箇所の位置を判断し、前記3次元空間内の前記特定箇所の3次元座標を判断する判断手段と、
を含むハンドポインティング装置。 - 腕を屈曲及び伸長させる動作を行うよう認識対象者に要請し、認識対象者が腕を屈曲及び伸長させる動作を行ったときの前記基準点と前記特徴点との距離の変化幅に基づいて、前記基準点と前記特徴点との距離を認識対象者と前記特定箇所との距離に変換する変換条件を予め設定する変換条件設定手段を更に備えたことを特徴とする請求項1記載のハンドポインティング装置。
- 互いに異なる複数の方向から認識対象者を撮像する撮像手段と、
認識対象者が3次元空間内の特定箇所を指し示している状況を前記撮像手段が複数の方向から撮像することで得られた複数の画像から前記認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める演算手段と、
前記基準点から前記特徴点に向かう方向に基づいて前記3次元空間内の前記特定箇所が存在している方向を判断すると共に、前記基準点と前記特徴点との距離に基づいて前記基準点から前記特徴点に向かう方向に沿った前記3次元空間内の前記特定箇所の位置を判断し、前記3次元空間内の前記特定箇所の3次元座標を判断する判断手段と、
前記基準点と前記特徴点との距離の変化速度を検出し、前記基準点と前記特徴点との距離が前記閾値以上の変化速度で増加した場合には第1の所定の処理を行い、前記基準点と前記特徴点との距離が前記閾値以上の変化速度で減少した場合には前記第1の所定の処理と異なる第2の所定の処理を行う処理手段と、
を含むハンドポインティング装置。 - 互いに異なる複数の方向から認識対象者を撮像する撮像手段と、
認識対象者が3次元空間内の特定箇所を指し示している状況を前記撮像手段が複数の方向から撮像することで得られた複数の画像から前記認識対象者に相当する画像部を抽出し、認識対象者が腕を屈曲又は伸長させることで位置が変化する特徴点及び認識対象者が腕を屈曲及び伸長させても位置が変化しない基準点の3次元座標を求める演算手段と、
前記基準点から前記特徴点に向かう方向に基づいて前記3次元空間内の前記特定箇所が存在している方向を判断すると共に、前記基準点と前記特徴点との距離に基づいて前記基準点から前記特徴点に向かう方向に沿った前記3次元空間内の前記特定箇所の位置を判断し、前記3次元空間内の前記特定箇所の3次元座標を判断する判断手段と、
前記基準点と前記特徴点との距離の変化速度を検出し、検出した前記基準点と前記特徴点との距離の変化速度が閾値以上の場合に所定の処理を行う処理手段と、
前記処理手段に所定の処理を行わせるために腕を屈曲又は伸長させる動作を行うよう認識対象者に要請し、認識対象者が腕を屈曲又は伸長させる動作を行ったときの前記基準点と前記特徴点との距離の変化速度に基づいて前記閾値を予め設定する閾値設定手段と、
を含むハンドポインティング装置。 - 3次元的画像を表示するための表示手段と、
前記表示手段に3次元的画像を表示させる表示制御手段と、
認識対象者の手が特定の形になったか否かを判定する判定手段と、
を更に備え、
認識対象者は、前記表示手段に表示された3次元的画像が表す仮想的な3次元空間内の特定箇所を指し示し、
前記表示制御手段は、前記判定手段によって認識対象者の手が前記特定の形になっていると判定されている状態で、前記基準点と前記特徴点との距離が変化した場合には、前記表示手段に表示されている3次元的画像が前記基準点と前記特徴点との距離の変化に応じて拡大又は縮小表示されるように前記表示手段を制御する
ことを特徴とする請求項1、請求項3及び請求項4の何れか1項記載のハンドポインティング装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29678897A JP3795647B2 (ja) | 1997-10-29 | 1997-10-29 | ハンドポインティング装置 |
US09/177,428 US6434255B1 (en) | 1997-10-29 | 1998-10-23 | Hand pointing apparatus |
KR1019980046007A KR100331693B1 (ko) | 1997-10-29 | 1998-10-27 | 핸드포인팅장치 |
EP98120405A EP0913790B1 (en) | 1997-10-29 | 1998-10-28 | Hand pointing apparatus |
DE69817498T DE69817498T2 (de) | 1997-10-29 | 1998-10-28 | Handzeigegerät |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29678897A JP3795647B2 (ja) | 1997-10-29 | 1997-10-29 | ハンドポインティング装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11134089A JPH11134089A (ja) | 1999-05-21 |
JP3795647B2 true JP3795647B2 (ja) | 2006-07-12 |
Family
ID=17838146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29678897A Expired - Fee Related JP3795647B2 (ja) | 1997-10-29 | 1997-10-29 | ハンドポインティング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6434255B1 (ja) |
EP (1) | EP0913790B1 (ja) |
JP (1) | JP3795647B2 (ja) |
KR (1) | KR100331693B1 (ja) |
DE (1) | DE69817498T2 (ja) |
Families Citing this family (140)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7116763B2 (en) * | 1998-06-10 | 2006-10-03 | Henry Sifuentes | Voice and motion activated telephone |
GB2345538B (en) * | 1998-11-06 | 2003-12-17 | David James | Optical tracker |
JP2000222117A (ja) * | 1999-01-29 | 2000-08-11 | Takenaka Komuten Co Ltd | ハンドポインティング装置、指示位置表示方法及び記録媒体 |
US7113918B1 (en) * | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
US6519359B1 (en) * | 1999-10-28 | 2003-02-11 | General Electric Company | Range camera controller for acquiring 3D models |
US6753879B1 (en) * | 2000-07-03 | 2004-06-22 | Intel Corporation | Creating overlapping real and virtual images |
US6531999B1 (en) | 2000-07-13 | 2003-03-11 | Koninklijke Philips Electronics N.V. | Pointing direction calibration in video conferencing and other camera-based system applications |
JP2004523811A (ja) * | 2000-09-26 | 2004-08-05 | ユージェニオ・バスタマンテ | 入力信号の提供 |
JP2002196877A (ja) * | 2000-12-25 | 2002-07-12 | Hitachi Ltd | イメージセンサを用いた電子機器 |
JP2002196874A (ja) * | 2000-12-27 | 2002-07-12 | Ntt Docomo Inc | 手書きデータ入力装置及び方法並びに個人認証装置及び方法 |
US6600475B2 (en) * | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
DE10133126A1 (de) * | 2001-07-07 | 2003-01-16 | Philips Corp Intellectual Pty | Richtungssensitives Audioaufnahmesystem mit Anzeige von Aufnahmegebiet und/oder Störquelle |
JP2003084229A (ja) * | 2001-09-14 | 2003-03-19 | Takenaka Komuten Co Ltd | 指示位置表示装置及び方法 |
DE10207880C1 (de) * | 2002-02-21 | 2003-07-31 | Demag Cranes & Components Gmbh | Steuereinrichtung zum Steuern eines Hebezeugs |
US20030164875A1 (en) * | 2002-03-01 | 2003-09-04 | Myers Kenneth J. | System and method for passive three-dimensional data acquisition |
US20030164841A1 (en) * | 2002-03-01 | 2003-09-04 | Edward Greenberg | System and method for passive three-dimensional data acquisition |
US7274803B1 (en) * | 2002-04-02 | 2007-09-25 | Videomining Corporation | Method and system for detecting conscious hand movement patterns and computer-generated visual feedback for facilitating human-computer interaction |
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
JP3734167B2 (ja) | 2002-07-10 | 2006-01-11 | マツダ株式会社 | 企画支援プログラム、方法、装置並びに記録媒体 |
US6996460B1 (en) * | 2002-10-03 | 2006-02-07 | Advanced Interfaces, Inc. | Method and apparatus for providing virtual touch interaction in the drive-thru |
KR100575906B1 (ko) * | 2002-10-25 | 2006-05-02 | 미츠비시 후소 트럭 앤드 버스 코포레이션 | 핸드 패턴 스위치 장치 |
US7317812B1 (en) | 2002-11-15 | 2008-01-08 | Videomining Corporation | Method and apparatus for robustly tracking objects |
AU2003301043A1 (en) | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
WO2004097612A2 (en) * | 2003-05-01 | 2004-11-11 | Delta Dansk Elektronik, Lys & Akustik | A man-machine interface based on 3-d positions of the human body |
JP2004334590A (ja) * | 2003-05-08 | 2004-11-25 | Denso Corp | 操作入力装置 |
JP3752246B2 (ja) * | 2003-08-11 | 2006-03-08 | 学校法人慶應義塾 | ハンドパターンスイッチ装置 |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
CN102034197A (zh) | 2003-10-24 | 2011-04-27 | 瑞克楚斯系统公司 | 管理交互式视频显示系统的方法和系统 |
GB2407635B (en) * | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
WO2005078558A1 (en) * | 2004-02-16 | 2005-08-25 | Simone Soria | A process for generating command signals, in particular for disabled users |
JP2005242694A (ja) | 2004-02-26 | 2005-09-08 | Mitsubishi Fuso Truck & Bus Corp | ハンドパターンスイッチ装置 |
WO2005091651A2 (en) * | 2004-03-18 | 2005-09-29 | Reactrix Systems, Inc. | Interactive video display system |
WO2005104010A2 (en) | 2004-04-15 | 2005-11-03 | Gesture Tek, Inc. | Tracking bimanual movements |
US7893920B2 (en) | 2004-05-06 | 2011-02-22 | Alpine Electronics, Inc. | Operation input device and method of operation input |
JP4563723B2 (ja) * | 2004-05-10 | 2010-10-13 | 株式会社竹中工務店 | 指示動作認識装置及び指示動作認識プログラム |
EP2487624B1 (en) | 2005-01-07 | 2020-02-19 | Qualcomm Incorporated(1/3) | Detecting and tracking objects in images |
JP2006244329A (ja) * | 2005-03-07 | 2006-09-14 | Hitachi Ltd | 携帯端末および情報処理装置、システム |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
JP5424373B2 (ja) * | 2006-03-09 | 2014-02-26 | 任天堂株式会社 | 画像処理装置、画像処理プログラム、画像処理システム、および画像処理方法 |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US8384665B1 (en) * | 2006-07-14 | 2013-02-26 | Ailive, Inc. | Method and system for making a selection in 3D virtual environment |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US20080231926A1 (en) * | 2007-03-19 | 2008-09-25 | Klug Michael A | Systems and Methods for Updating Dynamic Three-Dimensional Displays with User Input |
CN101689244B (zh) * | 2007-05-04 | 2015-07-22 | 高通股份有限公司 | 用于紧凑设备的基于相机的用户输入 |
JP5430572B2 (ja) | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
US8031210B2 (en) * | 2007-09-30 | 2011-10-04 | Rdv Systems Ltd. | Method and apparatus for creating a composite image |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
MY147059A (en) * | 2007-11-23 | 2012-10-15 | Mimos Berhad | Apparatus and method for multiple-touch spatial sensors |
JP5734661B2 (ja) * | 2007-11-29 | 2015-06-17 | コーニンクレッカ フィリップス エヌ ヴェ | ユーザインタフェースを提供する方法 |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US20090237356A1 (en) * | 2008-03-24 | 2009-09-24 | Microsoft Corporation | Optical pointing device |
JP5120754B2 (ja) * | 2008-03-28 | 2013-01-16 | 株式会社国際電気通信基礎技術研究所 | 動作検出装置 |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
KR200452031Y1 (ko) | 2008-08-12 | 2011-02-01 | (주)티원시스템즈 | 공간 터치를 이용한 선택 메뉴 인식 시스템 |
DE112008003983T5 (de) * | 2008-09-15 | 2011-07-21 | Hewlett-Packard Development Co., L.P., Tex. | Berührungsbildschirmanzeige mit mehreren Kameras |
US8788977B2 (en) * | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US8379987B2 (en) * | 2008-12-30 | 2013-02-19 | Nokia Corporation | Method, apparatus and computer program product for providing hand segmentation for gesture analysis |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
JP4701424B2 (ja) * | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
US8396252B2 (en) * | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
TWI431512B (zh) | 2010-06-23 | 2014-03-21 | Ind Tech Res Inst | 三維控制端點之辨識方法及應用其之電腦可讀取媒體 |
KR20120000161A (ko) * | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치 |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
WO2012030872A1 (en) | 2010-09-02 | 2012-03-08 | Edge3 Technologies Inc. | Method and apparatus for confusion learning |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
JP5640680B2 (ja) | 2010-11-11 | 2014-12-17 | ソニー株式会社 | 情報処理装置、立体視表示方法及びプログラム |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
KR101381928B1 (ko) * | 2011-02-18 | 2014-04-07 | 주식회사 브이터치 | 포인터를 사용하지 않는 가상 터치 장치 및 방법 |
JP5798183B2 (ja) * | 2011-04-22 | 2015-10-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | ポインティング制御装置とその集積回路、およびポインティング制御方法 |
US9123272B1 (en) | 2011-05-13 | 2015-09-01 | Amazon Technologies, Inc. | Realistic image lighting and shading |
KR101235432B1 (ko) * | 2011-07-11 | 2013-02-22 | 김석중 | 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법 |
US9041734B2 (en) | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
US9030487B2 (en) * | 2011-08-01 | 2015-05-12 | Lg Electronics Inc. | Electronic device for displaying three-dimensional image and method of using the same |
US10088924B1 (en) | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
EP2755115A4 (en) * | 2011-09-07 | 2015-05-06 | Nitto Denko Corp | METHOD OF DETECTING INPUT BODY MOTION, AND INPUT DEVICE IMPLEMENTING THE SAME |
KR20140068927A (ko) * | 2011-09-07 | 2014-06-09 | 닛토덴코 가부시키가이샤 | 사용자 인터페이스 표시 장치 |
US8947351B1 (en) | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
US8884928B1 (en) | 2012-01-26 | 2014-11-11 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
CN108469899B (zh) * | 2012-03-13 | 2021-08-10 | 视力移动技术有限公司 | 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法 |
US9063574B1 (en) | 2012-03-14 | 2015-06-23 | Amazon Technologies, Inc. | Motion detection systems for electronic devices |
CN103324327B (zh) * | 2012-03-22 | 2016-04-06 | 深圳泰山在线科技有限公司 | 虚拟屏实现方法和系统 |
US9285895B1 (en) | 2012-03-28 | 2016-03-15 | Amazon Technologies, Inc. | Integrated near field sensor for display devices |
KR101533320B1 (ko) * | 2012-04-23 | 2015-07-03 | 주식회사 브이터치 | 포인터가 불필요한 3차원 객체 정보 획득 장치 |
JP2013242850A (ja) * | 2012-04-27 | 2013-12-05 | Nitto Denko Corp | 表示入力装置 |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
WO2013190538A1 (en) * | 2012-06-20 | 2013-12-27 | Pointgrab Ltd. | Method for touchless control of a device |
WO2014016987A1 (ja) * | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元ユーザインタフェース装置及び3次元操作方法 |
US9541997B2 (en) * | 2012-07-27 | 2017-01-10 | Nec Solution Innovators, Ltd. | Three-dimensional user interface apparatus and three-dimensional operation method |
TWI496090B (zh) | 2012-09-05 | 2015-08-11 | Ind Tech Res Inst | 使用深度影像的物件定位方法與裝置 |
US9423886B1 (en) | 2012-10-02 | 2016-08-23 | Amazon Technologies, Inc. | Sensor connectivity approaches |
CN104813258B (zh) * | 2012-11-22 | 2017-11-10 | 夏普株式会社 | 数据输入装置 |
WO2014106219A1 (en) * | 2012-12-31 | 2014-07-03 | Burachas Giedrius Tomas | User centric interface for interaction with visual display that recognizes user intentions |
US9035874B1 (en) | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
CN104035552B (zh) * | 2013-03-08 | 2017-08-25 | 广州三星通信技术研究有限公司 | 三维操作方法和三维操作装置 |
US20140282275A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Detection of a zooming gesture |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
EP2977924A1 (en) * | 2013-03-19 | 2016-01-27 | NEC Solution Innovators, Ltd. | Three-dimensional unlocking device, three-dimensional unlocking method and program |
JP2016529533A (ja) * | 2013-05-31 | 2016-09-23 | フリーダム サイエンティフィック インコーポレイテッド | ベクトルに基づくカスタマイズ可能な指示インディシア |
US9269012B2 (en) | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
US11199906B1 (en) | 2013-09-04 | 2021-12-14 | Amazon Technologies, Inc. | Global user input management |
CN105612473B (zh) * | 2013-09-12 | 2018-08-28 | 三菱电机株式会社 | 操作输入装置及方法 |
US10055013B2 (en) | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
EP2851281B1 (en) * | 2013-09-19 | 2016-04-06 | Airbus Operations GmbH | System and method for interactive visualization of information in an aircraft cabin |
US9367203B1 (en) | 2013-10-04 | 2016-06-14 | Amazon Technologies, Inc. | User interface techniques for simulating three-dimensional depth |
JP6170457B2 (ja) * | 2014-03-27 | 2017-07-26 | 京セラドキュメントソリューションズ株式会社 | プレゼンテーション管理装置およびプレゼンテーション管理プログラム |
CN104978012B (zh) | 2014-04-03 | 2018-03-16 | 华为技术有限公司 | 一种指向交互方法、装置及系统 |
US10452195B2 (en) | 2014-12-30 | 2019-10-22 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
JP6472252B2 (ja) * | 2015-01-20 | 2019-02-20 | Nttテクノクロス株式会社 | 仮想タッチパネルポインティングシステム |
JP6087963B2 (ja) * | 2015-02-17 | 2017-03-01 | レノボ・シンガポール・プライベート・リミテッド | ステレオ・カメラによる物体の存在の判別方法、デバイス制御システム、およびコンピュータ・プログラム |
FI20155599A (fi) | 2015-08-21 | 2017-02-22 | Konecranes Global Oy | Nostolaitteen ohjaaminen |
CN108140358A (zh) * | 2015-09-29 | 2018-06-08 | 富士胶片株式会社 | 附带距离图像获取装置的投影装置以及投影方法 |
CN105536205A (zh) * | 2015-12-08 | 2016-05-04 | 天津大学 | 一种基于单目视频人体动作感知的上肢训练系统 |
EP3316117A1 (en) | 2016-10-31 | 2018-05-02 | Nokia Technologies OY | Controlling content displayed in a display |
EP3316186B1 (en) | 2016-10-31 | 2021-04-28 | Nokia Technologies Oy | Controlling display of data to a person via a display apparatus |
JP2020086939A (ja) * | 2018-11-26 | 2020-06-04 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7048520B2 (ja) * | 2019-01-31 | 2022-04-05 | 株式会社日立製作所 | 頭部装着型表示装置および仮想空間表示制御方法 |
JP7198416B2 (ja) * | 2019-05-29 | 2023-01-04 | トヨタ紡織株式会社 | 乗物用調光システム |
JP2021189659A (ja) * | 2020-05-28 | 2021-12-13 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4402053A (en) * | 1980-09-25 | 1983-08-30 | Board Of Regents For Education For The State Of Rhode Island | Estimating workpiece pose using the feature points method |
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
JPH02132510A (ja) * | 1988-11-12 | 1990-05-22 | Sony Corp | 入力装置 |
JP3114813B2 (ja) | 1991-02-27 | 2000-12-04 | 日本電信電話株式会社 | 情報入力方法 |
US5168531A (en) * | 1991-06-27 | 1992-12-01 | Digital Equipment Corporation | Real-time recognition of pointing information from video |
JPH0519957A (ja) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報の入力方法 |
JP2746790B2 (ja) * | 1992-03-02 | 1998-05-06 | 富士写真フイルム株式会社 | 立体画像記録方法および立体画像記録装置 |
JP2853451B2 (ja) * | 1992-05-22 | 1999-02-03 | ヤマハ株式会社 | 動作検出装置および楽音制御装置 |
JPH05324181A (ja) * | 1992-05-26 | 1993-12-07 | Takenaka Komuten Co Ltd | ハンドポインティング式入力装置 |
EP0829799A3 (en) | 1992-05-26 | 1998-08-26 | Takenaka Corporation | Wall computer module |
JP3218716B2 (ja) * | 1992-07-31 | 2001-10-15 | ソニー株式会社 | 入力装置、及び入力システム |
US5499306A (en) * | 1993-03-08 | 1996-03-12 | Nippondenso Co., Ltd. | Position-and-attitude recognition method and apparatus by use of image pickup means |
US5454043A (en) * | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
JPH0793089A (ja) * | 1993-09-22 | 1995-04-07 | Hitachi Ltd | 画像編集装置 |
JPH07182100A (ja) * | 1993-12-22 | 1995-07-21 | Toshiba Corp | 3次元表示ポインティング装置 |
JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
JP3630712B2 (ja) * | 1994-02-03 | 2005-03-23 | キヤノン株式会社 | ジェスチャー入力方法及びその装置 |
JP3529510B2 (ja) * | 1995-09-28 | 2004-05-24 | 株式会社東芝 | 情報入力装置および情報入力装置の制御方法 |
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
JPH08329222A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | 3次元位置認識装置 |
JPH0916312A (ja) * | 1995-06-28 | 1997-01-17 | Nomura Kogeisha:Kk | 立体画像表示装置用入力装置 |
JPH0962437A (ja) * | 1995-08-23 | 1997-03-07 | Nec Corp | コンピュータ入力装置 |
JPH09212288A (ja) * | 1996-01-31 | 1997-08-15 | Canon Inc | 情報入力システムおよび情報入力方法 |
JP3749369B2 (ja) | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
-
1997
- 1997-10-29 JP JP29678897A patent/JP3795647B2/ja not_active Expired - Fee Related
-
1998
- 1998-10-23 US US09/177,428 patent/US6434255B1/en not_active Expired - Fee Related
- 1998-10-27 KR KR1019980046007A patent/KR100331693B1/ko not_active IP Right Cessation
- 1998-10-28 DE DE69817498T patent/DE69817498T2/de not_active Expired - Lifetime
- 1998-10-28 EP EP98120405A patent/EP0913790B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP0913790B1 (en) | 2003-08-27 |
DE69817498T2 (de) | 2004-06-17 |
KR19990037502A (ko) | 1999-05-25 |
KR100331693B1 (ko) | 2002-09-26 |
EP0913790A1 (en) | 1999-05-06 |
DE69817498D1 (de) | 2003-10-02 |
JPH11134089A (ja) | 1999-05-21 |
US6434255B1 (en) | 2002-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3795647B2 (ja) | ハンドポインティング装置 | |
EP1329838B1 (en) | Pointing device using the image of the hand | |
JP4278979B2 (ja) | ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム | |
KR101650799B1 (ko) | 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법 | |
CN108885792B (zh) | 使用物理长度单位进行的货板检测 | |
JP4608326B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
US20150206003A1 (en) | Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose | |
KR20020025198A (ko) | 타켓을 위치시키는 방법 및 장치, 이미지 처리기, 그리고타켓 및 타켓 포인트 식별 방법 | |
JP5526465B2 (ja) | 爪位置データ検出装置及び爪位置データ検出方法、並びに爪位置データ検出プログラム | |
JP2020052979A (ja) | 情報処理装置およびプログラム | |
JP3792907B2 (ja) | ハンドポインティング装置 | |
KR101256046B1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
CN108572730B (zh) | 用于使用深度感知相机与计算机实现的交互式应用程序进行交互的系统和方法 | |
JPH08328735A (ja) | ハンドポインティング入力装置 | |
KR20110097504A (ko) | 사용자 모션 인식 방법 및 장치 | |
JP4563723B2 (ja) | 指示動作認識装置及び指示動作認識プログラム | |
KR101536753B1 (ko) | 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템 | |
JP2003076488A (ja) | 指示位置判断装置及び方法 | |
JPH07160412A (ja) | 指示位置検出方法 | |
JP2000222098A (ja) | ハンドポインティング装置、指示位置表示方法及び記録媒体 | |
JP2001194128A (ja) | 焦点光源付ステレオカメラによる3次元面形状推定方法 | |
CN111158489B (zh) | 一种基于摄像头的手势交互方法及手势交互系统 | |
JP2003228458A (ja) | 指示動作認識装置及び方法 | |
KR20150073146A (ko) | 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템 | |
JP2000222117A (ja) | ハンドポインティング装置、指示位置表示方法及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060413 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090421 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100421 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100421 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110421 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110421 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120421 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120421 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130421 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130421 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140421 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |