JPH10326148A - ハンドポインティング装置 - Google Patents
ハンドポインティング装置Info
- Publication number
- JPH10326148A JPH10326148A JP36962897A JP36962897A JPH10326148A JP H10326148 A JPH10326148 A JP H10326148A JP 36962897 A JP36962897 A JP 36962897A JP 36962897 A JP36962897 A JP 36962897A JP H10326148 A JPH10326148 A JP H10326148A
- Authority
- JP
- Japan
- Prior art keywords
- recognition target
- image
- person
- imaging
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
Abstract
判定に要する時間を短縮する。 【解決手段】 情報入力者10が到来する情報入力空間の
上方には、互いに異なる方向から情報入力者10を照明す
るように照射範囲が調整された近赤外光照明装置32A,32
B が配設されている。また情報入力空間の上方には、近
赤外光に感度を有するビデオカメラ36A,36B が互いに異
なる箇所に配設されている。ビデオカメラ36A は照明装
置32A による床面上の照明範囲が撮像範囲から外れるよ
うに撮像範囲が調整されており、ビデオカメラ36B は照
明装置32B による床面上の照明範囲が撮像範囲から外れ
るように撮像範囲が調整されている。図示しないコント
ローラは、ビデオカメラ36A,36B の撮像によって得られ
た画像に基づいて情報入力者10を認識し、情報入力者が
指し示した位置を判断する。
Description
グ装置に係り、特に、認識対象者を撮像し、認識対象者
が指し示した位置又は方向を判断するハンドポインティ
ング装置に関する。
プレイ、ディスプレイの近傍に到来した情報入力者を照
明する照明装置、到来した情報入力者を互いに異なる方
向から撮像する複数の撮像手段を備え、到来した情報入
力者がディスプレイ上の任意の位置を指等によって指し
示した状況を複数の撮像手段によって撮像し、撮像によ
って得られた複数の画像に基づいて情報入力者を認識
し、情報入力者が指示したディスプレイ上の位置を判断
し、ディスプレイ上の指示位置にカーソル等を表示する
と共に、情報入力者が親指を上げるクリック動作を行っ
たことを検出すると、ディスプレイ上の指示位置がクリ
ックされたと認識して所定の処理を行うハンドポインテ
ィング入力装置が知られている(例えば特開平4-271423
号公報、特開平 5-19957号公報、特開平5-324181号公報
等参照)。
れば、情報入力者がキーボードやマウス等の入力機器に
触れることなく、情報処理装置に対して各種の指示を与
えたり、各種の情報を入力することが可能となるので、
情報処理装置を利用するための操作の簡素化を実現でき
る。
ポインティング入力装置を実際に運用する環境下では、
認識対象物体である情報入力者の周囲に、例えば情報入
力者の荷物やゴミ等の認識対象でない物体が存在してい
る可能性がある。照明装置から射出された照明光は情報
入力者の周囲にも照射されるので、上記のような非認識
対象物体が情報入力者の周囲に存在していると、撮像手
段の撮像によって得られた画像中に、非認識対象物体が
高輝度の物体として存在することになり、非認識対象物
体を情報入力者と誤認識する可能性が高い。
は、情報入力者の認識の精度を高くする必要があり、例
えば、輝度の他に複数の画像特徴量も用いて総合的に情
報入力者を認識する等の煩雑な画像処理(例えば画像特
徴量の1つである輪郭形状に基づくパターンマッチング
等)を行う必要がある。従って、撮像によって得られた
画像に基づき認識等の画像処理を行う画像処理部に多大
な負荷が加わるので、情報入力者からの指示の判定に時
間がかかる原因になっていた。そして、情報入力者から
の指示の判定に要する時間を短縮するためには処理速度
の高い画像処理部を用いる必要があり、装置のコストが
嵩むという問題があった。
での情報入力者の特徴点(例えば人指し指の先端等)の
位置から、演算によって特徴点の3次元座標を求め、情
報入力者が指示したディスプレイ上の位置を判定してい
たが、特徴点の3次元座標を求めるための演算処理が複
雑であり、上記と同様に、情報入力者からの指示の判定
に時間がかかる原因になっていた。
動作として予め定めておき、クリック動作として親指を
上げる動作のみを検出するようにしていたが、動作とし
ての自由度が低く、使い勝手が悪いという問題があっ
た。しかし、クリック動作として親指を上げる動作以外
に別の動作も検出するようにすると、クリック動作を検
出するための処理が煩雑になり、クリック動作の検出に
時間がかかるという問題があった。
で、構成が簡単で、認識対象者からの指示の判定に要す
る時間を短縮することができるハンドポインティング装
置を得ることが目的である。
定に時間がかかることなく、認識対象者が指示するため
の動作の自由度を向上させることができるハンドポイン
ティング装置を得ることが目的である。
に請求項1記載の発明に係るハンドポインティング装置
は、認識対象者を照明する照明手段と、互いに異なる位
置に配置され、前記照明手段によって照明された認識対
象者が撮像範囲内に入り、かつ前記照明手段によって照
明される床面上の照明範囲が撮像範囲から外れるように
撮像範囲が各々調整された複数の撮像手段と、認識対象
者が特定の位置又は方向を指し示している状況を前記複
数の撮像手段が各々撮像することで得られた複数の画像
に基づいて、前記画像中の前記認識対象者に相当する画
像部を抽出し、認識対象者が指し示した位置又は方向を
判断する判断手段と、を含んで構成している。
ィスプレイの表示面等の面上の特定の位置を指し示して
もよいし、特定の方向(例えば認識対象者から見て特定
の物体が存在している方向)を指し示してもよい。判断
手段は、認識対象者が特定の位置又は方向を指し示して
いる状況を複数の撮像手段が各々撮像することで得られ
た複数の画像に基づいて、画像中の認識対象者に相当す
る画像部を抽出し、認識対象者が指し示した位置又は方
向を判断する。この指し示した特定の位置又は方向の判
断は、具体的には、認識対象者の特徴点(認識対象者が
特定の位置又は方向を指し示す動作に応じて位置が変化
する点、例えば指し示す動作を行っている認識対象者の
身体の所定部分(例えば手、指等)の先端や、認識対象
者が把持している指示器の先端等)の3次元座標を演算
し、認識対象者の位置と前記特徴点の3次元座標に基づ
いて行うことができる。
手段の撮像範囲が、照明手段によって照明された認識対
象者が撮像範囲内に入り、かつ照明手段によって照明さ
れる床面上の照明範囲が撮像範囲から外れるように各々
調整されている。これにより、認識対象者の周囲の床面
上に荷物やゴミ等の非認識対象物体が存在していたとし
ても、この非認識対象物体が撮像手段の撮像範囲内に入
る可能性が低くなると共に、仮に非認識対象物体が撮像
範囲内に入っていたとしてもその輝度は低くなるので、
撮像手段の撮像によって得られた画像についても、非認
識対象物体に相当する画像部が存在する確率が低く、か
つ前記画像部が存在していたとしてもその輝度が低くな
る。
する画像部の抽出において、複雑な画像処理を行うこと
なく、認識対象者に相当する画像部を簡単な処理により
短時間で抽出することができる。従って、処理速度の高
い画像処理部等を用いることで構成が複雑化することな
く、認識対象者からの指示の判定に要する時間を短縮す
ることができる。
ィング装置は、互いに異なる方向から認識対象者を照明
する複数の照明手段と、互いに異なる位置に配置され、
前記照明手段によって照明された認識対象者が撮像範囲
内に入り、かつ互いに異なる照明手段によって照明され
る床面上の互いに異なる照明範囲が撮像範囲から外れる
ように、撮像範囲が各々調整された複数の撮像手段と、
認識対象者が特定の位置又は方向を指し示しているとき
に、複数の照明手段の何れか1つを順に点灯させると共
に、複数の照明手段の各々の点灯時に、点灯している照
明手段によって照明される床面上の照明範囲が撮像範囲
から外れている撮像手段によって前記認識対象者を撮像
させ、該撮像によって得られた画像を出力させる制御手
段と、前記複数の撮像手段から各々出力された複数の画
像に基づいて、前記画像中の認識対象者に相当する画像
部を抽出し、認識対象者が指し示した位置又は方向を判
断する判断手段と、を含んで構成している。
向から認識対象者を照明する複数の照明手段が設けられ
ており、複数の撮像手段は、互いに異なる位置に配置さ
れ、照明手段によって照明された認識対象者が撮像範囲
内に入り、かつ互いに異なる照明手段によって照明され
る床面上の互いに異なる照明範囲が撮像範囲から外れる
ように、撮像範囲が各々調整されている。これにより、
認識対象者の周囲の床面上に荷物やゴミ等の非認識対象
物体が存在していたとしても、この非認識対象物体が各
撮像手段の撮像範囲内に入る可能性が低くなる。
又は方向を指し示しているときに複数の照明手段の何れ
か1つを順に点灯させると共に、複数の照明手段の各々
の点灯時に、点灯している照明手段による床面上の照明
範囲が撮像範囲から外れている撮像手段によって認識対
象者を撮像させ、該撮像によって得られた画像を出力さ
せる。これにより、仮に非認識対象物体が撮像範囲内に
入っていたとしても、その輝度が低い状況で各撮像手段
での撮像が行われ、撮像によって得られた画像が出力さ
れることになる。
各々出力された複数の画像に基づいて、画像中の認識対
象者に相当する画像部を抽出し、認識対象者が指し示し
た位置又は方向を判断する。これにより、請求項1の発
明と同様に、非認識対象物体に相当する画像部が存在す
る確率が低く、かつ該画像部が存在していたとしてもそ
の輝度が低い複数の画像に基づいて、認識対象者に相当
する画像部の抽出が行われるので、複雑な画像処理を行
うことなく、認識対象者に相当する画像部を簡単な処理
により短時間で抽出することができる。従って、処理速
度の高い画像処理部等を用いることで構成が複雑化する
ことなく、認識対象者からの指示の判定に要する時間を
短縮することができる。
ィング装置は、互いに異なる方向から認識対象者を照明
する複数の照明手段と、前記照明手段によって照明され
た認識対象者を互いに異なる方向から撮像する複数の撮
像手段と、認識対象者が特定の位置又は方向を指し示し
ているときに、前記複数の照明手段の何れか1つを順に
点灯させると共に、複数の照明手段の各々の点灯時に同
一の撮像手段の撮像によって各々得られた複数の画像を
比較し、前記複数の画像中の前記認識対象者に相当する
画像部とそれ以外の画像部とを判別することを、複数の
撮像手段に対して各々行う判別手段と、前記判別手段に
よる判別結果に基づいて、前記複数の撮像手段の各々が
撮像した画像から認識対象者に相当する画像部を各々抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、を含んで構成している。
識対象者が特定の位置又は方向を指し示しているときに
複数の照明手段の何れか1つを順に点灯させると共に、
複数の照明手段の各々の点灯時に同一の撮像手段の撮像
によって各々得られた複数の画像を比較し、複数の画像
中の認識対象者に相当する画像部とそれ以外の画像部と
を判別することを、複数の撮像手段に対して各々行う。
向が互いに異なっているので、複数の照明手段の各々の
点灯時に同一の撮像手段の撮像によって各々得られる複
数の画像において、認識対象者に相当する画像部につい
ては常に高い輝度となるが、認識対象者の周囲の床面上
に荷物やゴミ等の非認識対象物体が存在していたとする
と、該非認識対象物体に相当する画像部については、撮
像時の照明の方向によって輝度が大きく変動する。従っ
て、画像中の各画像部の輝度を前記複数の画像に亘って
比較(例えば輝度の平均値や最低値を各画像部毎に比
較)する、という非常に簡単な処理により、画像中の認
識対象者に相当する画像部とそれ以外の画像部とを判別
することができる。
果に基づいて、複数の撮像手段の各々が撮像した画像か
ら認識対象者に相当する画像部を各々抽出し、認識対象
者が指し示した位置又は方向を判断するので、複雑な画
像処理を行うことなく、認識対象者に相当する画像部を
簡単な処理により短時間で抽出することができ、処理速
度の高い画像処理部等を用いることで構成が複雑化する
ことなく、認識対象者からの指示の判定に要する時間を
短縮することができる。
ィング装置は、認識対象者を照明する照明手段と、前記
照明手段によって照明された認識対象者を互いに異なる
方向から撮像する複数の撮像手段と、認識対象者が特定
の位置又は方向を指し示している状況を前記複数の撮像
手段が各々撮像することで得られた複数の画像に基づい
て、前記画像中の前記認識対象者に相当する画像部を抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、前記認識対象者の周囲の床面上に非認識対
象物体が停滞することを阻止する阻止手段と、を含んで
構成している。
囲の床面上に非認識対象物体が停滞することを阻止する
阻止手段が設けられている。これにより、認識対象者の
周囲に非認識対象物体が停滞することが阻止されるの
で、撮像手段の撮像によって得られた画像中に非認識対
象物体に相当する画像部が存在することを防止すること
ができ、判断手段では、前記画像に基づいて、認識対象
者に相当する画像部を抽出し、認識対象者が指し示した
位置又は方向を判断するので、複雑な画像処理を行うこ
となく、認識対象者に相当する画像部を簡単な処理によ
り短時間で抽出することができる。従って、処理速度の
高い画像処理部等を用いることで構成が複雑化すること
なく、認識対象者からの指示の判定に要する時間を短縮
することができる。
対象者の周囲の床面上に形成した傾斜面(スロープ)が
挙げられる。これにより、大きさが比較的大きい非認識
対象物体(例えば認識対象者の荷物等)が認識対象者の
周囲に載置されたとしても、該非認識対象物体が傾斜面
上を滑り落ちることになるので、認識対象者の荷物等の
非認識対象物体が認識対象者の周囲に載置されることが
阻止される。
に空気の流れを発生させるファン等の空気流発生手段を
適用してもよい。これにより、大きさが比較的小さい非
認識対象物体(例えば小さなゴミや塵埃等)は、発生さ
れた空気流によって吹き飛ばされるので、小さなゴミ等
の非認識対象物体が認識対象者の周囲に滞留することが
阻止される。また阻止手段として、認識対象者の周囲に
水等を貯留する貯留槽を配設してもよいし、更に前記貯
留槽を環状とし、貯留槽内を水等が循環するように構成
し、これを阻止手段としてもよい。
ィング装置は、所定箇所に到来した認識対象者を照明す
る照明手段と、前記照明手段によって照明された認識対
象者を互いに異なる方向から撮像する複数の撮像手段
と、前記所定箇所付近に位置している複数の仮想点の各
々の3次元座標と各撮像手段の撮像によって得られる各
画像上での前記複数の仮想点の各々の位置とを対応付け
る情報を記憶する記憶手段と、認識対象者が特定の位置
又は方向を指し示している状況を複数の撮像手段が各々
撮像することで得られた複数の画像に基づいて、各画像
中の前記認識対象者に相当する画像部を抽出して認識対
象者の特徴点の前記各画像上での位置を求め、前記各画
像上での特徴点の位置及び前記記憶手段に記憶された情
報に基づいて前記特徴点の3次元座標を求め、求めた特
徴点の3次元座標に基づいて認識対象者が指し示した位
置又は方向を判断する判断手段と、を含んで構成してい
る。
位置している複数の仮想点の各々の3次元座標と複数の
撮像手段の各々の撮像によって得られる各画像上での複
数の仮想点の各々の位置とを対応付ける情報が記憶手段
に記憶されている。判断手段は、認識対象者が特定の位
置又は方向を指し示している状況を複数の撮像手段が各
々撮像することで得られた複数の画像に基づいて、各画
像中の認識対象者に相当する画像部を抽出して認識対象
者の特徴点の各画像上での位置を求め、各画像上での特
徴点の位置及び前記記憶手段に記憶された情報に基づい
て前記特徴点の3次元座標を求め、認識対象者が指し示
した位置又は方向を判断する。
所付近に位置している複数の仮想点の各々の3次元座標
と、各撮像手段の撮像によって得られる各画像上での複
数の仮想点の位置との対応が、記憶手段に記憶されてい
る情報により予め判明しており、認識対象者の特徴点の
3次元座標を前記情報に基づいて求めているので、非常
に簡単な処理で認識対象者の特徴点の3次元座標を求め
ることができる。従って、処理速度の高い画像処理部等
を用いることで構成が複雑化することなく、認識対象者
からの指示の判定に要する時間を短縮することができ
る。
対象者の特徴点の3次元座標を精度良く求めるために
は、多数の仮想点について、各々の3次元座標と各画像
上での各々の位置とを対応付けて記憶しておくことが望
ましいが、更に好ましくは、請求項6に記載したよう
に、記憶手段に、所定箇所付近に一定間隔で格子状に並
ぶ多数の仮想点について、各々の3次元座標と前記各画
像上での各々の位置との対応を表す情報が記憶されてい
ることが望ましい。
間隔で格子状に並んでいるので、特徴点が所定箇所付近
の何れの位置に位置していたとしても、特徴点に近接し
た位置に仮想点が存在していることになる。3次元座標
上で近接した位置に存在している可能性の高い仮想点の
3次元座標に基づいて特徴点の3次元座標を求めること
により、特徴点の3次元座標上での位置に拘らず、特徴
点の3次元座標を精度良く求めることができる。
隔で格子状に並んでいる場合、特徴点の3次元座標は、
例えば以下のようにして求めることができる。すなわ
ち、請求項7記載の発明は、請求項6の発明において、
判断手段は、複数の撮像手段の撮像によって得られる各
画像上での特徴点の位置を各々求めた後に、画像上での
位置が前記特徴点を包含する所定範囲内である仮想点を
前記各画像から各々抽出し、前記各画像から共通に抽出
された仮想点の3次元座標に基づいて前記特徴点の3次
元座標を求めることを特徴としている。
上での特徴点の位置を各々求めた後に、画像上での位置
が特徴点を包含する所定範囲内である仮想点を各画像か
ら各々抽出する。これにより、3次元座標上で特徴点に
近接した位置に存在している可能性がある仮想点が全て
抽出される。なお、前記所定範囲の広さは仮想点の間隔
に応じて定めることができる。また判断手段は、各画像
から共通に抽出された仮想点の3次元座標に基づいて特
徴点の3次元座標を求めている。撮像手段の撮像によっ
て得られる画像は撮像範囲内の状況を平面に投影した画
像であるので、3次元座標が異なっているものの撮像手
段から重なって見える位置関係にある点は撮像によって
得られた画像上での位置が等しいが、各画像から共通に
抽出された仮想点は3次元座標上で特徴点に近接した位
置に存在している仮想点であるので、前記共通に抽出さ
れた仮想点の3次元座標から特徴点の3次元座標を求め
ることにより、特徴点の3次元座標を更に精度良く求め
ることができる。
象者が到来する所定箇所と撮像手段との位置関係が正確
に一定である場合には、所定箇所付近に位置している複
数の仮想点の各々の3次元座標、及び各撮像手段の撮像
によって得られる各画像上での複数の仮想点の各々の位
置を実験等により測定し、測定結果に基づいて固定的に
設定することも可能であるが、前記位置関係にばらつき
があったり、個々のハンドポインティング装置毎に前記
位置関係が大幅に異なる設計となっている等の場合に
は、記憶手段に記憶する情報を設定し直す必要がある。
求項5又は請求項6の発明において、前記仮想点の位置
にマーカが位置している状況を前記複数の撮像手段によ
って撮像させ、前記仮想点の3次元座標と各撮像手段の
撮像によって得られた各画像上でのマーカの位置とに基
づいて、仮想点の3次元座標と前記各画像上での仮想点
の位置とを対応付ける情報を生成し、前記記憶手段に記
憶させる生成手段を更に備えたことを特徴としている。
た画像上での識別が容易なものであればよく、例えば特
有の色に着色されたマークや、LED等の発光源を用い
ることができる。また、所定位置にマーカを位置させる
ことは、人間が行ってもよいし、マーカを任意の位置に
移動可能な移動手段を設けて自動的に行ってもよい。移
動手段によってマーカを移動させる場合には、移動手段
によるマーカの移動量から所定位置の3次元座標を求め
ることができる。
と前記各画像上での仮想点の位置とを対応付ける情報が
生成手段によって自動的に生成されるので、認識対象者
が到来する所定箇所と撮像手段との位置関係にばらつき
があったり、個々のハンドポインティング装置毎に前記
位置関係が大幅に異なる設計となっている等の場合であ
っても、仮想点の3次元座標と前記各画像上での仮想点
の位置とを精度良く対応付ける情報を自動的に得ること
ができる。
ィング装置は、認識対象者を照明する照明手段と、前記
照明手段によって照明された認識対象者を互いに異なる
方向から撮像する複数の撮像手段と、認識対象者が特定
の位置又は方向を指し示している状況を前記複数の撮像
手段が各々撮像することで得られた複数の画像に基づい
て、前記画像中の前記認識対象者に相当する画像部を抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、前記複数の画像中の前記認識対象者の身体
の所定部分に相当する画像部を抽出し、前記画像部の面
積又は輪郭の形状又は輪郭線の長さの変化を検出する第
1の検出手段と、前記第1の検出手段によって前記画像
部の面積又は輪郭の形状又は輪郭線の長さの変化が検出
された場合に所定の処理を実行する処理手段と、を含ん
で構成している。
認識対象者の身体の所定部分(例えば手や腕等)に相当
する画像部を抽出し、前記画像部の面積又は輪郭の形状
又は輪郭線の長さの変化を検出する第1の検出手段が設
けられており、処理手段は、前記画像部の面積又は輪郭
の形状又は輪郭線の長さの変化が検出された場合に所定
の処理を実行する。上記の画像部の面積、輪郭の形状、
輪郭線の長さは、比較的簡単に検出できると共に、認識
対象者が身体の所定部分を動せば、それが予め定められ
ていない動作であったとしても、殆どの場合、前記所定
部分に相当する画像部の面積、輪郭の形状、輪郭線の長
さは変化する。
示するための認識対象者の動作の自由度が向上すると共
に、該動作を短時間で検出することができるので、認識
対象者からの指示を短時間で判定することができる。
を指し示す動作では、指し示す位置や方向を変更した場
合であっても、指先等は一般に腕の付け根付近を中心と
する仮想的な球面に沿って移動するのみであり、指先等
と腕の付け根を含む胴体部との距離は殆ど変化しない。
るハンドポインティング装置は、認識対象者を照明する
照明手段と、前記照明手段によって照明された認識対象
者を互いに異なる方向から撮像する複数の撮像手段と、
認識対象者が特定の位置又は方向を指し示している状況
を前記複数の撮像手段が各々撮像することで得られた複
数の画像に基づいて、前記画像中の前記認識対象者に相
当する画像部を抽出し、認識対象者が腕を屈曲又は伸長
させることで位置が変化する特徴点及び認識対象者が腕
を屈曲及び伸長させても位置が変化しない基準点の3次
元座標を求め、特徴点及び基準点の3次元座標に基づい
て認識対象者が指し示した位置又は方向を判断する判断
手段と、前記基準点と前記特徴点との距離を演算し、基
準点と特徴点との距離の変化に基づいて所定の処理を実
行する処理手段と、を含んで構成している。
複数の画像から認識対象者に相当する画像部を抽出し、
認識対象者が腕を屈曲又は伸長させることで位置が変化
する特徴点及び認識対象者が腕を屈曲及び伸長させても
位置が変化しない基準点の3次元座標を求め、特徴点及
び基準点の3次元座標に基づいて認識対象者が指し示し
た位置又は方向を判断する。また処理手段は、基準点と
特徴点との距離を演算し、基準点と特徴点との距離の変
化に基づいて所定の処理を実行する。なお特徴点として
は、例えば認識対象者の手や指等の先端、或いは認識対
象者が把持している指示器の先端等に相当する点を用い
ることができ、基準点としては、例えば認識対象者の胴
体部(例えば胸部や腕の付け根等)に相当する点を用い
ることができる。
向が認識対象者から見て指示対象としての位置又は方向
に対応するように、基準点に対する特徴点の方向を調節
する動作を行えば、指し示した位置又は方向が判断手段
によって判断され、認識対象者が腕を屈曲又は伸長させ
る動作を行えば、基準点と特徴点との距離が変化し、こ
の距離の変化に基づいて所定の処理が行われることにな
る。
及び特徴点の位置関係から認識対象者が指し示した位置
又は方向が判断されると共に、基準点及び特徴点の距離
(相対位置)の変化に基づいて所定の処理の実行が指示
されたか否かが判断されるので、撮像手段による撮像方
向を、指の上げ下げ等の動作を考慮することなく、基準
点及び特徴点が確実に検出できるように定めることがで
きると共に、所定の処理の実行が指示されたか否かを判
定するために、新たな画像特徴量を検出する必要もな
い。そして、基準点と特徴点の距離は人間が特定の位置
や特定の方向を指し示す動作では殆ど変化しない。従っ
て、請求項10の発明によれば、認識対象者による所定
の処理の実行を指示する動作(腕を屈曲又は伸長させる
動作)を短時間で確実に検出することができ、認識対象
者からの指示を短時間で判定することができる。
ば基準点と特徴点との距離が変化したときに認識対象者
が指し示していた位置又は方向に関連する処理を実行す
ることができるが、腕を屈曲又は伸長させる動作は、上
記の所定の処理の実行を指示するための動作として極め
て自然な動作であるので、所定の処理の実行を指示する
動作を、認識対象者が違和感を感ずることなく行うこと
ができる。
基準点と特徴点との距離の変化方向には2種類ある(距
離が増加する方向及び減少する方向)ので、請求項11
に記載したように、基準点と特徴点との距離が増加した
場合には第1の所定の処理を行い、基準点と特徴点との
距離が減少した場合には前記第1の所定の処理と異なる
第2の所定の処理を行うようにしてもよい。
伸長させる動作(この場合、基準点と特徴点との距離は
増加する)を行うと第1の所定の処理が行われ、認識対
象者が腕を屈曲させる動作(この場合、基準点と特徴点
との距離は減少する)を行うと第2の所定の処理が行わ
れるので、マウスの左クリックと右クリックのように、
第1の所定の処理及び第2の所定の処理のうち実行させ
るべき処理を認識対象者が選択することが可能となる。
そして、認識対象者が上記の何れかの動作を行うことに
より、第1の所定の処理及び第2の所定の処理のうち認
識対象者によって選択された処理を確実に実行すること
ができる。
づいて所定の処理の実行が指示されたか否かを判断する
ことは、具体的には、例えば基準点と特徴点との距離の
変化の大きさに基づいて、距離の変化が所定値以上とな
った場合に所定の処理の実行が指示されたと判断するこ
とも可能ではあるが、所定の処理の実行を意図しない別
の動作において基準点と特徴点との距離が大きく変化し
たとすると、認識対象者からの指示を誤判断する可能性
もある。
ように、処理手段は、基準点と特徴点との距離の変化速
度を検出し、検出した変化速度が閾値以上の場合にのみ
所定の処理を実行することが好ましい。
の距離の変化速度を検出し、検出した変化速度が閾値以
上の場合にのみ所定の処理を実行するので、認識対象者
が、腕を素早く屈曲又は伸長させる、という特有の動作
を行うことによって、基準点と特徴点との距離の変化速
度が閾値以上になって所定の処理が実行されることにな
る。これにより、認識対象者による所定の処理の実行を
指示する動作の認識率が向上し、認識対象者が所定の処
理の実行を指示する動作を行った場合にのみ、これを確
実に検知して所定の処理を実行することができる。
共に、認識対象者の筋力等も一定ではないので、処理手
段に所定の処理を行わせるために認識対象者が腕を素早
く屈曲又は伸長させる動作を行ったとしても、基準点と
特徴点との距離の変化速度は個々の認識対象者毎にばら
つきがある。従って、所定の処理を行わせるために認識
対象者が腕を素早く屈曲又は伸長させる動作を行ったと
しても検知できなかったり、逆に認識対象者が前記動作
を行っていないにも拘らず前記動作を誤検知することも
考えられる。
12の発明において、処理手段に所定の処理を行わせる
ために腕を屈曲又は伸長させる動作を行うよう認識対象
者に要請し、認識対象者が腕を屈曲又は伸長させる動作
を行ったときの基準点と特徴点との距離の変化速度に基
づいて前記閾値を予め設定する閾値設定手段を更に備え
たことを特徴としている。
定の処理を行わせるために認識対象者が腕を屈曲又は伸
長させる動作(腕を素早く屈曲又は伸長させる動作)を
行ったときの基準点と特徴点との距離の変化速度に基づ
いて、処理手段が所定の処理を行うか否かの閾値を予め
設定するので、個々の認識対象者の体格や筋力等に応じ
た閾値を得ることができる。そして、この閾値を用いて
所定の処理の実行が指示されたか否かを判断することに
より、個々の認識対象者の体格や筋力等のばらつきに拘
らず、認識対象者による所定の処理の実行を指示する動
作を確実に検知して所定の処理を実行することができ
る。
て、請求項14に記載したように、認識対象者の腕が下
げられたか否かを検出する第2の検出手段を設け、処理
手段は、第2の検出手段によって認識対象者の腕が下げ
られたことが検出された場合には、処理を実行又は停止
している状態を継続するようにすれば、ある処理を継続
して実行させるために、認識対象者が継続的に腕を上げ
続ける必要がなくなるので、認識対象者の負担を軽減す
ることができる。
施形態の一例を詳細に説明する。図1に示すように、本
発明の認識対象者としての情報入力者10が到来する箇
所の壁面には大画面ディスプレイ12が埋め込まれてい
る。なお、ディスプレイ12としては液晶ディスプレイ
(LCD)やプラズマディスプレイ、ブラウン管、光フ
ァイバディスプレイ等の周知の表示手段を適用できる。
タ等から成る情報処理装置14に接続されており(図2
参照)、情報処理装置14により、各種の情報が表示面
上に図形、表、文字、画像等の種々の表示形態で表示さ
れる。本実施形態において、情報入力者10は、ディス
プレイ12の前方の図1に示した箇所(情報入力空間)
に到来し、ディスプレイ12の表示面上の各種情報が表
示されている位置を指し示すと共に、クリック動作(詳
細は後述)を行うことにより、情報処理装置14に対し
て各種の指示を与えたり各種の処理を実行させる。
は、本実施形態に係るハンドポインティング入力装置2
0のコントローラ22が接続されている。コントローラ
22は、CPU22A、ROM22B、RAM22C、
入出力インタフェース22Dを備えており、これらがバ
スを介して互いに接続されて構成されている。入出力イ
ンタフェース22Dには情報処理装置14が接続されて
いると共に、記憶内容を書換え可能な不揮発性の記憶装
置24、各種の情報を表示するためのディスプレイ2
6、オペレータが各種の指示やデータを入力するための
キーボード28が接続されている。
ェース22Dには照明制御装置30が接続されており、
この照明制御装置30には、近赤外域の波長の光をビー
ム状に射出する複数の近赤外光照明装置32A、32B
が接続されている。図1に示すように、近赤外光照明装
置32A、32Bは、情報入力空間の上方の互いに異な
る箇所に配設されており、情報入力空間に到来した情報
入力者10を、互いに異なる方向から照明するように照
射範囲が調整されている(図3も参照)。照明制御装置
30は、コントローラ22から指示に応じて照明装置3
2A、32Bの点灯・消灯を制御する。
22Dには撮像制御装置34が接続されており、この撮
像制御装置34には、情報入力空間の上方の互いに異な
る箇所に配設された(図1参照)複数のビデオカメラ3
6A、36Bが接続されている。ビデオカメラ36A、
36Bは、図示は省略するが、近赤外光に感度を有する
CCD等から成るエリアセンサを備えていると共に、入
射光をエリアセンサの受光面に結像させる結像レンズの
光入射側に、近赤外域の波長の光のみを透過するフィル
タが設けられている。
Aは、情報入力空間に到来した情報入力者10が撮像範
囲内に入り、かつ照明装置32Aから射出された光が結
像レンズに直接入射せず、かつ撮像範囲の中心が、情報
入力空間内において、照明装置32Aによる照明範囲の
中心と床面から所定高さで交差するように向きが調整さ
れている。従ってビデオカメラ36Aは、照明装置32
Aによる床面上の照明範囲が撮像範囲から外れるように
撮像範囲が調整されている。同様にビデオカメラ36B
は、情報入力空間に到来した情報入力者10が撮像範囲
内に入り、かつ照明装置32Bから射出された光が結像
レンズに直接入射せず、かつ撮像範囲の中心が、情報入
力空間内において、照明装置32Bによる照明範囲の中
心と床面から所定高さで交差するように向きが調整され
ている。
は、互いに異なる照明装置によって照明される床面上の
照明範囲が撮像範囲から外れるように撮像範囲が各々調
整されており、請求項1、より詳しくは請求項2に記載
の撮像手段に対応している。
ェース22Dにはマーク板駆動装置38も接続されてい
る。図4に示すように、ハンドポインティング入力装置
20は、情報入力空間の近傍に配設されたマーク板40
を備えている。マーク板40は、透明な平板に多数のマ
ーク40Aがマトリクス状に等間隔で記録されて構成さ
れており、マーク40Aの配列方向に直交する方向(図
4の矢印A方向)に沿って情報入力空間を横切るように
移動可能とされている。なおマーク40Aは、画像上で
の認識が容易な色(例えば赤色)に着色されている。マ
ーク板駆動装置38は、コントローラ22からの指示に
応じてマーク板40を図4の矢印A方向に沿って移動さ
せる。
ドポインティング入力装置20が設置された際に行われ
る格子点位置情報初期設定処理について、図5のフロー
チャートを参照して説明する。
8により、マーク板40を所定位置(マーク板40の移
動範囲の端部に相当する位置)に移動させる。次のステ
ップ102では、現在のマーク板40の位置において、
マーク板40に記録されている多数のマーク40Aの情
報入力空間内での3次元座標(x,y,z)を各々演算
する。ステップ104では撮像制御装置34を介し、ビ
デオカメラ36A、36Bによって情報入力空間を撮像
させ、次のステップ106では、ビデオカメラ36Aが
情報入力空間を撮像することによって得られた画像(以
下画像Aと称する)を撮像制御装置34を介して取り込
む。
り込んだ画像A中に存在するマーク40Aの認識(抽
出)を行い、次のステップ110では認識した全てのマ
ーク40Aについて、画像A上での位置(XA ,YA )
を演算する。そしてステップ112では、画像A中に存
在する全てのマーク40Aについて、情報入力空間内で
の3次元座標(x,y,z)と、画像A上での位置(X
A ,YA )とを対応させ、ビデオカメラ36Aの格子点
位置情報として記憶装置24に記憶させる。
ステップ106〜112と同様にしてビデオカメラ36
Bに対する処理を行う。すなわち、ステップ114では
ビデオカメラ36Bが情報入力空間を撮像することによ
って得られた画像(以下画像Bと称する)を撮像制御装
置34を介して取り込み、ステップ116ではステップ
114で取り込んだ画像B中に存在するマーク40Aの
認識(抽出)を行い、次のステップ118では認識した
全てのマーク40Aについて、画像B上での位置
(XB ,YB )を演算する。そしてステップ120で
は、画像B中に存在する全てのマーク40Aについて、
情報入力空間内での3次元座標(x,y,z)と、画像
B上での位置(XB ,YB )とを対応させ、ビデオカメ
ラ36Bの格子点位置情報として記憶装置24に記憶さ
せる。
最終位置(マーク板40の移動範囲のうちステップ10
0における所定位置と反対側の端部に相当する位置)迄
移動したか否か判定する。ステップ122の判定が否定
された場合にはステップ124へ移行し、マーク板駆動
装置38により、マーク板40を所定方向に一定距離
(詳しくは、マーク板40上におけるマーク40Aの間
隔に一致する距離)だけ移動させた後にステップ102
に戻る。
移動する迄、ステップ102〜124が繰り返されるこ
とにより、マーク板40に記録されている多数のマーク
40Aは、情報入力空間内に一定間隔で格子状に並ぶ多
数の格子点(請求項6に記載の仮想点に相当)に対応す
る位置へ移動され、ビデオカメラ36Aの格子点位置情
報として、各格子点の情報入力空間内での3次元座標と
画像A上での位置とが対応されて記憶装置24に記憶さ
れると共に、ビデオカメラ36Bの格子点位置情報とし
て、各格子点の情報入力空間内での3次元座標と画像B
上での位置とが対応されて記憶装置24に記憶されるこ
とになる。
項8に記載の生成手段に対応しており、上記処理によっ
て初期設定される格子点位置情報は、請求項5及び請求
項8に記載の「仮想点の3次元座標と画像上での仮想点
の位置とを対応付ける情報」に相当し、記憶装置24は
本発明の記憶手段に対応している。なお、マーク板40
及びマーク板駆動装置38は、上記の格子点位置情報初
期設定処理においてのみ用いられ、後述する処理では用
いないので、上記の処理を実行した後に、マーク板40
及びマーク板駆動装置38を撤去するようにしてもよ
い。
の格子点位置情報初期設定処理が行われた後に、コント
ローラ22で定常的に実行される照明制御処理について
説明する。ステップ130では、照明制御装置30によ
り照明装置32Aを点灯させると共に照明装置32Bを
消灯させる。ステップ132では、ビデオカメラ36A
によって情報入力空間を撮像させ、ビデオカメラ36A
から画像を出力させる。ステップ134では照明装置3
2Aの点灯を開始してから所定時間経過したか否か判定
し、判定が肯定される迄待機する。
ップ136へ移行し、照明制御装置30により照明装置
32Aを消灯させると共に照明装置32Bを点灯させ
る。ステップ138では、ビデオカメラ36Bによって
情報入力空間を撮像させ、ビデオカメラ36Bから画像
を出力させる。ステップ140では照明装置32Bの点
灯を開始してから所定時間経過したか否か判定し、判定
が肯定される迄待機する。そして、ステップ140の判
定が肯定されるとステップ130へ戻る。
ように、照明装置32A及び照明装置32Bは所定時間
毎に交互に点灯されると共に、照明装置32Aが点灯し
ているときにビデオカメラ36Aの撮像が行われ、ビデ
オカメラ36Aの撮像によって得られた画像Aを表す画
像データが撮像制御装置34を介してコントローラ22
に出力され、照明装置32Bが点灯しているときにビデ
オカメラ36Bの撮像が行われ、ビデオカメラ36Bの
撮像によって得られた画像Bを表す画像データが撮像制
御装置34を介してコントローラ22に出力される。上
記の照明制御処理は請求項2に記載の制御手段に対応し
ている。
っているので、撮像によって得られる画像中の情報入力
者10に相当する画像部の輝度が、可視光が射出される
ディスプレイ12の輝度の変化や、情報入力者10の肌
の色や服の色の影響を受けて変化することはなく、後述
する指示判断処理において、情報入力者10に相当する
画像部を高精度に抽出することができる。また、情報入
力空間の近傍に、近赤外域の波長の光が射出されないよ
うに処理した蛍光灯を配置したとしても、この影響を受
けることはない。更に、近赤外光が照射されていること
を情報入力者10に感知されることがないので、上記の
ように照明装置32A、32Bを交互に点灯させても、
情報入力者10に不快感を与えることはない。
の照明制御処理と並行してコントローラ22で所定時間
毎に繰り返し実行される、情報入力者10からの指示を
判断する指示判断処理について説明する。
から出力される画像Aを表す画像データ、及びビデオカ
メラ36Bから出力される画像Bを表す画像データを、
図7に示すタイミングで各々取り込む。次のステップ1
52では、ステップ150で取り込んだ画像A、画像B
の画像データに基づいて、情報入力空間内に情報入力者
10が存在しているか否か判定する。
による情報入力空間の撮像は照明装置32Aのみが点灯
しているときに行われ、ビデオカメラ36Aの撮像範囲
は照明装置32Aによる床面上の照明範囲が撮像範囲か
ら外れるように調整されている。従って、照明装置32
Aによる床面上の照明範囲内に情報入力者10の荷物や
ゴミ等の非認識対象物50A(図3参照)が存在してい
たとしても、この非認識対象物50Aがビデオカメラ3
6Aの撮像範囲に入ることはない。また、床面上のビデ
オカメラ36Aによって撮像される範囲内に非認識対象
物50B(図3参照)が存在していた場合には、非認識
対象物50Bはビデオカメラ36Aによって撮像される
ことになるが、非認識対象物50Bは照明装置32Aに
よる照明範囲から外れているので、画像A中に存在する
非認識対象物50Bに相当する画像部の輝度は非常に低
くなる。
空間の撮像についても照明装置32Bのみが点灯してい
るときに行われ、ビデオカメラ36Bの撮像範囲は照明
装置32Bによる床面上の照明範囲が撮像範囲から外れ
るように調整されている。従って、照明装置32Bによ
って照明される床面上に非認識対象物50Bが存在して
いたとしても、この非認識対象物50Bがビデオカメラ
36Bの撮像範囲に入ることはない。また、床面上のビ
デオカメラ36Bによって撮像される範囲内に非認識対
象物50Aが存在していた場合には、ビデオカメラ36
Bによって非認識対象物50Bが撮像され、画像B中に
非認識対象物50Bに相当する画像部が存在することに
なるが、上記と同様にその輝度は非常に低い。
画像A及び画像B中に、高輝度でかつ所定値以上の面積
の画像部が存在しているか否か等の極めて簡単な判断処
理により、情報入力空間内に情報入力者10が存在して
いるか否かを判定することができる。ステップ152の
判定が否定された場合には、何ら処理を行うことなく指
示判断処理を終了する。
場合にはステップ154へ移行する。なお、ステップ1
54以降の処理は本発明の判断手段に対応している。ス
テップ154では画像A及び画像Bから、情報入力者1
0の全体像に相当する画像部を各々抽出する。この情報
入力者10の全体像に相当する画像部についても、高輝
度の画素から成る所定値以上の面積の連続した領域を判
断することで容易に抽出することができる。
体像に相当する画像部に基づき、情報入力者10の身長
を求める。図9に示すように、点Oに位置しているビデ
オカメラ36の結像レンズの焦点距離をf、点Oを通る
鉛直線と情報入力空間の床面との交点Qと点Oとの距離
をH、点Qと情報入力者10が立っている床面上の点P
との距離をR、情報入力者10の頭頂部に相当する点
P’と点Pとの距離hを情報入力者10の身長とする。
また、点POQの成す角度をθ、点P’OQの成す角度
をθ’、ビデオカメラ36のエリアセンサの受光面に結
像される情報入力者の像の長さをh’、点Pに対応する
受光面上の結像点を点p、点P’に対応する受光面上の
結像点を点p’、受光面の中心oと点pとの距離をr、
受光面の中心oと点p’との距離をr’とすると、角度
θ、θ’、距離r、r’は次の(1)〜(4)式から求
めることができる。
Rは次の(5)式及び(6)式によって求めることがで
きる。
ステップ156ではビデオカメラ36A、36Bの撮像
によって得られた画像A及び画像Bの何れかから距離
r、r’を求め、これを(5)式に代入することにより
情報入力者10の身長hを求めることができる。また、
ステップ156では、画像A及び画像Bの各々から距離
rを求め、これを(6)式に各々代入して距離Rを各々
求めることにより、情報入力者10の床面上の位置(2
次元座標)を求める。
で求めた情報入力者10の身長h及び情報入力者の床面
上の位置に基づき、情報入力者10の基準点P0 の3次
元座標(x0 ,y0 ,z0 )を決定する。なお基準点P
0 としては、例えば情報入力者10の背中に相当する点
(図11に示す点P0 )等を用いることができる。この
場合、情報入力者10の身長hに基づいて情報入力者1
0の背中に相当する基準点P0 の床面からの高さ(例え
ばz0 の値)を割り出し、情報入力者10の床面上の位
置(平面座標)を基準点P0 の平面座標(例えばx0 、
y0 の値)として設定することにより、基準点P0 の3
次元座標を決定することができる。
での情報入力者10の全体像に相当する画像部の形状に
基づいて、情報入力者10が指示動作(指等によりディ
スプレイ12側を指し示す動作)を行っているか否か判
定する。情報入力者10から見たディスプレイ12の方
向は既知であるので、ステップ159の判定は、例えば
情報入力者10の全体像に相当する画像部において、情
報入力者10の手に相当すると判断できる高さ位置に、
情報入力者10から見たディスプレイ12の方向に向か
って突出している部分が有るか否かを判断することで実
現できる。
(A)に示す直立状態から、図12(B)又は(C)に
示すように手をディスプレイ12側に向ければ、情報入
力者10が指示動作を行っていると判定されることにな
る。ステップ159の判定が否定された場合には、何ら
処理を行うことなく指示判断処理を一旦終了するが、ス
テップ159の判定が肯定された場合には、ステップ1
60へ移行する。
から取り込んだ画像Aを表す画像データに基づいて、画
像A中に存在する情報入力者10の特徴点Px を抽出
し、画像A上での特徴点Px の位置(XA ,YA )を演
算する。情報入力者10の特徴点Px としては、ディス
プレイ12側を指し示す動作を行っている指の先端に相
当する点等を用いることができる。この場合、情報入力
者10の全体像を表す画像部のうち、情報入力者10の
手に相当すると判断できる高さ位置に、ディスプレイ1
2の方向に向かって突出している部分の先端の位置を、
特徴点Px の位置として演算することができる。
報入力者10の手が図10(A)に示すように撮像され
た場合、特徴点Px の位置として、図10(B)に示す
特徴点Px の座標(XA ,YA )が演算されることにな
る。
されているビデオカメラ36Aの格子点位置情報に基づ
き、画像A上での位置が(XA ±dX,YA ±dY)の
範囲(図10(B)にハッチングで囲んだ範囲を参照)
に入る格子点を全て検索する。なお、このdX及びdY
の大きさは、格子点の間隔(マーク40Aの間隔)に基
づき、少なくとも1個以上の格子点が抽出されるように
定められている。
レンズとして広角レンズを用いており、仮にdX及びd
Yを一定とすると、ビデオカメラと格子点との距離が大
きくなるに従って多くの格子点が(XA ±dX,YA ±
dY)の範囲に入り、後述する特徴点Px の3次元座標
の演算の精度の低下に繋がる。このため、dX及びdY
は、3次元座標上でのビデオカメラからの距離が離れる
に従って値が小さくなるように設定される。従って、3
次元座標上での(XA ±dX,YA ±dY)に相当する
範囲は、底面がビデオカメラ側に位置している円錐状
(又は楕円錐状)となる。このステップ162は、請求
項6に記載の「画像上での位置が特徴点を包含する所定
範囲内である仮想点を抽出する」ことに対応している。
と同様に、ビデオカメラ36Bから取り込んだ画像Bを
表す画像データに基づいて、画像B中に存在する情報入
力者10の特徴点Px を抽出し、画像B上での特徴点P
x の位置(XB ,YB )を演算する。ステップ166で
は、先のステップ162と同様に、記憶装置24に記憶
されているビデオカメラ36Bの格子点位置情報に基づ
き、画像B上での位置が(XB ±dX,YB ±dY)の
範囲に入る格子点を全て検索する。このステップ166
も、請求項7に記載の「画像上での位置が特徴点を包含
する所定範囲内である仮想点を抽出する」ことに対応し
ている。
Bから共通に抽出した格子点を判定する。これにより、
情報入力空間内で特徴点Px に近接した位置に存在して
いる格子点のみが複数抽出されることになる。ステップ
170では、画像A及び画像Bから共通に抽出した格子
点の3次元座標を、格子点位置情報から取り込む。
Px の3次元座標を、情報入力空間内で特徴点に近接し
た位置に存在している複数の格子点の3次元座標から内
挿によって演算する(具体的には、前記複数の格子点の
3次元座標の座標値の重み付き平均により特徴点の3次
元座標の座標値を求める)。このため、特徴点Px の3
次元座標を演算するに先立ち、次のステップ172で
は、画像A及び画像Bから共通に抽出した各格子点の画
像A及び画像B上での位置、画像A上での特徴点Px の
位置(XA ,YA )、画像B上での特徴点Px の位置
(XB ,YB )に基づいて、画像A及び画像Bから共通
に抽出した各格子点の3次元座標からの内挿の割合(各
格子点の3次元座標の座標値に対する重み)を決定す
る。この内挿の割合は、例えば画像A及び画像B上で特
徴点と近接した位置に存在している格子点の3次元座標
の座標値の重みが大きくなるように決定することができ
る。
ら共通に抽出した格子点の3次元座標、及びステップ1
72で決定した内挿の割合に基づいて、特徴点Px の3
次元座標(Xx ,Yx ,Zx )を演算する。
で演算した情報入力者の基準点P0の3次元座標と、ス
テップ174で演算した特徴点の3次元座標とに基づ
き、情報入力者10が指し示している方向として、上記
の基準点と特徴点とを結ぶ仮想線(図11の仮想線54
参照)の延びる方向を求め、情報入力者10が指し示し
ている位置として、大画面ディスプレイ12の表示面を
含む平面と前記仮想線の交点(図11の点S参照)の座
標(平面座標)を演算する。
で求めた座標に基づいて、情報入力者10が大画面ディ
スプレイ12の表示面上を指し示しているか否か判定す
る。判定が否定された場合には、ステップ180で監視
フラグ(クリック動作を監視するためのフラグ)を0に
して指示判断処理を終了する。一方、ステップ178の
判定が肯定された場合には、ステップ176で演算した
情報入力者10が指し示している位置を表す座標を情報
処理装置14に出力する。これにより、情報処理装置1
4では、情報入力者10が指し示していると判断された
ディスプレイ12の表示面上の所定位置にカーソルを表
示する等の処理を行う。
の第1の検出手段に対応しており、情報入力者10がク
リック動作を行ったか否かを判定する。なお、本実施形
態ではクリック動作が、情報入力者が自身の手(請求項
9に記載の所定部分に相当)を動かすあらゆる動作(例
えば手首の屈曲や回転、任意の指の曲げ伸ばし等)とし
て定義されている。ステップ184では、画像A中に存
在する情報入力者10の手に相当する画像部を抽出し、
該画像部の面積を求めると共に、画像B中に存在する情
報入力者10の手に相当する画像部を抽出し、該画像部
の面積を求める。
否か判定する。ステップ186の判定が否定された場合
は、指示判断処理を前回行ったときには情報入力者10
がディスプレイ12の表示面上を指し示していなかった
場合であるので、ステップ188で監視フラグを1にし
て、次のステップ190では、後にクリック動作の判定
を行うために、ステップ184で演算した情報入力者の
手に相当する画像部の面積をRAM22Cに記憶し、指
示判断処理を一旦終了する。
場合は、情報入力者10がディスプレイ12の表示面上
を継続的に指し示している場合であるので、ステップ1
92へ移行し、ステップ184で演算した面積を、RA
M22C等に記憶されている面積(情報入力者10がデ
ィスプレイ12の表示面上を指し示すことを開始したと
き、すなわち過去にステップ188で監視フラグを1に
したときに演算した面積)と比較し、情報入力者10の
手に相当する画像部の面積に所定値以上の変化が有った
か否か判定する。ステップ192の判定が否定された場
合には、情報入力者10がクリック動作を行っていない
と判断し、何ら処理を行うことなく指示判断処理を終了
する。
(例えば図12(B)に示す状態から図12(C)に示
す状態への変化、或いはその逆の変化)、任意の指の曲
げ伸ばし等の動作を行うと、画像A及び画像B中に存在
する情報入力者10の手に相当する画像部の面積が所定
値以上変化することによってステップ192の判定が肯
定される。ステップ192の判定が肯定されると、ステ
ップ194で「クリック有り」を表す情報を情報処理装
置14に出力し、次のステップ196で監視フラグを0
にした後に指示判断処理を終了する。
入力者10によって指し示されているディスプレイ12
の表示面上の所定位置(ステップ182で入力された座
標に相当する位置)がクリックされたと判断し、ディス
プレイ12の表示面上の所定位置に表示している情報に
応じた処理を行う。この処理は、請求項9に記載の処理
手段で実行される「所定の処理」に対応している。
トローラ22において、上記の指示判断処理を所定時間
毎に繰り返し実行することにより、情報入力者10によ
るディスプレイ12上の表示面上の指示位置及びクリッ
ク動作の有無をリアルタイムで判断することができるの
で、情報処理処理装置14で実行される処理と組み合わ
せることで、以下で説明するように種々の利用形態での
利用が可能となる。
に設置し、情報処理装置14がディスプレイ12に商品
の広告等を表示する場合に、本実施形態に係るハンドポ
インティング入力装置20を設ければ、到来した利用者
(情報入力者)の指示に応じて特定の商品を詳しく説明
する画面を表示する等のように、利用者との双方向のコ
ミュニケーションが可能となる。また、利用者に課金用
のカードを所持させるようにすれば、このカードにより
課金することで利用者が商品を購入することも可能とな
る。
ントランスに設置し、情報処理装置14がディスプレイ
12にビル内を案内する案内図等を表示する場合に、本
実施形態に係るハンドポインティング入力装置20を設
ければ、到来した利用者(情報入力者)の指示に応じて
ビル内のうち利用者が訪問する箇所を詳しく説明する画
面や、訪問する箇所迄の経路を示す画面を表示する等の
ように、利用者との双方向のコミュニケーションが可能
となる。
の他のマニュアルを持ち込めないことが一般的である
が、例えばディスプレイ12をクリーンルームの外部
に、クリーンルーム内から視認可能に配置し、ハンドポ
インティング入力装置20によって判断したクリーンル
ーム内の作業者からの指示に応じて取扱説明書やその他
のマニュアルの内容をディスプレイ12に表示するよう
にすれば、クリーンルーム内とクリーンルーム外との双
方向のコミュニケーションが可能となり、クリーンルー
ム内での作業の効率が向上する。
ハンドポインティング入力装置20及び情報処理装置1
4をアミューズメント施設のゲーム機として動作させた
り、会議のプレゼンテーションにおいて、ディスプレイ
12に説明用の資料を表示しディスプレイ12の表示面
上の任意の位置を指し示す際に適用することも可能であ
る。
面上の照明範囲がビデオカメラ36Aの撮像範囲から外
れるように調整すると共に、照明装置32Bによる床面
上の照明範囲がビデオカメラ36Bの撮像範囲から外れ
るように調整し、照明装置32Aのみが点灯していると
きにビデオカメラ36Aによる撮像を行い、照明装置3
2Bのみが点灯しているときにビデオカメラ36Bによ
る撮像を行うことにより、情報入力者10に相当する画
像部の抽出が容易な画像A及び画像Bを得ていたが、こ
れに限定されるものではなく、照明装置32による床面
上の照明範囲がビデオカメラ36の撮像範囲内に入って
いたとしても、情報入力者10に相当する画像部の抽出
が容易な画像を得ることは可能である。
撮像範囲が、照明装置32Aによる床面上の照明範囲及
び照明装置32Bによる床面上の照明範囲を含んでお
り、照明装置32Aによって照明される床面上に存在し
ている非認識対象物50A、照明装置32Bによって照
明される床面上に存在している非認識対象物50Bは、
ビデオカメラ36によって各々撮像される。このような
場合には、図14に示す照明制御処理を行えばよい。
250で照明装置32Aを点灯させると共に照明装置3
2Bを消灯させた後に、ステップ252ではビデオカメ
ラ36によって情報入力空間を撮像させ、ステップ25
4ではビデオカメラ36から出力された画像データ(該
画像データが表す画像を便宜的に第1の画像という)を
取り込んでRAM22Cに記憶する。ステップ256で
は、照明装置32Aを点灯させてから所定時間Tが経過
したか否か判定し、所定時間Tが経過する迄待機する。
ステップ256の判定が肯定されるとステップ258へ
移行し、照明装置32Bを点灯させると共に、照明装置
32Bを点灯させてから所定時間t0 経過後に照明装置
32Aを消灯させる(但し、t0 <T:図15参照)。
によって情報入力空間を撮像させ、ステップ262では
ビデオカメラ36から出力された画像データ(該画像デ
ータが表す画像を便宜的に第2の画像という)を取り込
む。ステップ264では、ステップ254でRAM22
Cに記憶した第1の画像を表す画像データと、ステップ
262で取り込んだ第2の画像を表す画像データに基づ
いて、或る画素について第1の画像上での輝度値と第2
の画像上での輝度値のうち低輝度の輝度値を選択し、選
択した輝度値を前記画素の輝度値として採用することを
全ての画素について行うことにより、新たな画像データ
を生成し、生成した画像データを出力する。
に、照明装置32Aが点灯している期間と照明装置32
Bが点灯している期間とが所定時間t0 だけオーバラッ
プしているので、情報入力者10は常に照明されるが、
図13に示すように、非認識対象物50Aは照明装置3
2Aが点灯しているときにのみ照明され、非認識対象物
50Bは照明装置32Bが点灯しているときにのみ照明
される。従って、ステップ262の処理により、情報入
力者10に相当する画像部のみが高輝度となっている画
像、すなわち情報入力者10に相当する画像部の抽出が
容易な画像(を表す画像データ)が得られることにな
る。
を点灯させてから所定時間Tが経過したか否か判定し、
所定時間Tが経過する迄待機する。ステップ266の判
定が肯定されるとステップ268へ移行し、照明装置3
2Aを点灯させると共に、照明装置32Aを点灯させて
から所定時間t0 経過後に照明装置32Bを消灯させた
後にステップ252へ戻る。
別手段に対応している。なお、上記では説明を簡単にす
るために、図13にビデオカメラ36を1台のみ示し、
図14には1台のビデオカメラ36に対する処理のみを
示しているが、情報入力空間を各々異なる方向から撮像
する複数台のビデオカメラ36が設けられている場合で
あっても、各ビデオカメラ36に対して上記の処理を各
々行えば、情報入力者10に相当する画像部の抽出が容
易な画像を各々得ることができる。
置32A、32Bの点消灯のタイミングと同期して、照
明装置32A及び照明装置32Bの何れか一方が点灯し
ている期間にのみ画像データの取込みを行うようにして
いたが、例えば照明装置32A、32Bの点消灯のタイ
ミングと無関係に、所定時間T(図14及び図15参
照)の整数分の1の周期で画像データの取込みを行い、
2×Tの周期でステップ264の処理を行うようにして
もよい。
毎に低輝度の値を選択することに代えて、例えばオーバ
ラップ期間t0 を挟んで照明装置32Aと照明装置32
Bを一定周期で交互に点灯させ(これにより、照明装置
32A、32Bの点灯のデューティー比は各々50+α
%になる:αはオーバラップ期間に相当)、各画素につ
いて、照明装置32A、32Bの点灯の1サイクルにお
ける平均輝度を各画素の輝度として採用するようにして
もよいし、照明装置32A、32Bの点灯の1サイクル
における各画素毎の輝度の変化に対し、ローパスフィル
タや高速フーリエ変換等により輝度変化の直流成分のみ
を取り出し、取り出した輝度変化の直流成分に相当する
輝度値を各画素の輝度値として採用するようにしてもよ
い。上記の場合にも、照明装置32A、32Bの点灯の
1サイクルの間、照明装置32A又は照明装置32Bに
よって常に照明される情報入力者10に相当する画素に
ついては、輝度値として比較的高輝度の値が採用され、
情報入力者10に相当する画像部の抽出が容易な画像を
得ることができる。
抽出が容易な画像を得るために、図16に示すように、
情報入力空間の床面上に傾斜台58を配設してもよい。
この傾斜台58は、情報入力空間に到来した情報入力者
10を囲むように傾斜面58Aが形成されており、請求
項4に記載の阻止手段に対応している。これにより、例
えば情報入力者10が荷物等を携行して情報入力空間に
到来したとしても、情報入力者10が前記荷物等を自身
の近くに置くことは傾斜台58によって阻止され、情報
入力者10から離れた箇所、すなわちビデオカメラ36
の撮像範囲外に荷物等が置かれることになる。従って、
ビデオカメラ36の撮像によって得られる画像中に、情
報入力者10の荷物等の非認識対象物に相当する画像部
が存在することが防止され、情報入力者10に相当する
画像部の抽出が容易な画像を得ることができる。
象物として比較的小さなゴミや塵埃等が滞留する場合に
は、情報入力者10の周囲に空気の流れを発生させるフ
ァン等を設け、上記のような非認識対象物を空気流によ
って吹き飛ばすようにしてもよい。また情報入力者10
の周囲に水等を貯留する貯留槽を配設してもよいし、更
に貯留槽を環状とし、貯留槽内を水等が循環するように
構成しても、情報入力者10の周囲に非認識対象物が滞
留することを阻止できる。
ク40Aがマトリクス状に等間隔で記録されて構成され
たマーク板40を用いて格子点位置情報を設定するよう
にしていたが、これに限定されるものではなく、図17
に示すように、透明な平板にLED等の多数の発光素子
62A(請求項8記載のマーカに対応)がマトリクス状
に配設されたマーク板62を用いてもよい。
は、発光素子62Aを1個ずつ順に点灯させると共に、
各発光素子62Aを点灯させる毎に、点灯している発光
素子62Aの3次元座標を演算し、ビデオカメラ36
A、36Bによって情報入力空間を撮像させ、画像A、
画像B上での発光素子62Aの位置を演算し、発光素子
62Aの3次元座標と画像A、画像B上での発光素子6
2Aの位置とを対応させて格子点位置情報として記憶装
置24に記憶させ、マーク板62の全ての発光素子62
Aを点灯させた後に、マーク板駆動装置38によってマ
ーク板62を一定量移動させることを繰り返すようにす
ればよい。
て、図18に示すように、アーム66Aの先端に取付け
られたハンド66Bを情報入力空間内の任意の位置に移
動可能で、ハンド66Bに発光素子68(請求項8記載
のマーカに対応)が取付けられたロボットアーム装置6
6を用いてもよい。この場合、格子点位置情報初期設定
処理では、発光素子68を点灯させ、情報入力空間内に
一定間隔で格子状に並ぶ多数の格子点に対応する各位置
へ発光素子68を移動させると共に、発光素子68が前
記各位置に位置する毎に、発光素子68の3次元座標を
演算し、ビデオカメラ36A、36Bによって情報入力
空間を撮像させ、画像A、画像B上での発光素子68の
位置を演算し、発光素子68の3次元座標と画像A、画
像B上での発光素子68の位置とを対応させて格子点位
置情報として記憶装置24に記憶させるようにすればよ
い。
板62、ロボットアーム装置66等を駆動することで、
情報入力空間内に一定間隔で格子状に並ぶ多数の格子点
に対応する各位置にマーカ(マーク40A又は発光素子
62A又は発光素子68)を自動的に位置させることに
代えて、オペレータが、前記多数の格子点に対応する各
位置にマーカを手動で位置させ、この状況を撮像するこ
とにより格子点位置情報の設定のみを自動的に行うよう
にしてもよい。
報入力者10が指示動作を行っていないとき(ステップ
159の判定が否定された場合)には、ディスプレイ1
2の表示面上の情報入力者10が指し示している位置の
座標の演算・情報処理装置14への出力を行わないの
で、結果として、情報入力者10が指示動作を行ってい
ないときにはディスプレイ12にカーソル等が表示され
ないことになる。従って、ディスプレイ12にカーソル
等を継続的に表示させるためには、カーソル等を表示さ
せたい位置を情報入力者10が指し示し続ける必要があ
り、情報入力者10の負担が大きいという問題がある。
処理に代えて、図19に示す指示判断処理を行うように
してもよい。この指示判断処理では、図8の指示判断処
理のステップ150、152と同様に、ステップ230
でビデオカメラ36A、36Bから出力される画像デー
タを取り込み、次のステップ232では、取り込んだ画
像データ基づいて情報入力空間内に情報入力者10が存
在しているか否か判定する。
へ移行し、到来フラグ(情報入力者10が情報入力空間
に到来していることを表すフラグ)が1か否か判定す
る。到来フラグの初期値は0であるので、最初はステッ
プ280の判定は否定され、何ら処理を行うことなく指
示判断処理を一旦終了する。なお、情報入力空間に情報
入力者が到来していないときには、情報処理装置14は
ディスプレイ12に所定の呼び込み画面(情報入力空間
の近傍を通りかかった人を情報入力空間に呼び込む画
面)を表示させる。
来すると、ステップ232の判定が肯定されてステップ
234へ移行し、到来フラグが0か否か判定する。ステ
ップ234の判定が肯定されるとステップ236へ移行
し、情報入力空間に情報入力者が到来したことを情報処
理装置14に通知する。これにより情報処理装置14
は、ディスプレイ12に表示する画面を呼び込み画面か
ら初期画面(例えば商品の広告であれば商品の一覧を示
した画面等)に切替える。
情報入力者が到来したので、到来フラグを1にすると共
に、指示フラグ(情報入力者10がディスプレイ12の
表示面上を指し示していることを表すフラグ)及び監視
フラグを0にして、ステップ240へ移行する。なお、
ステップ234の判定が否定された場合、すなわち指示
判断処理を前回実行したときから情報入力空間に継続的
に情報入力者が居る場合には、ステップ236、238
の処理を行うことなくステップ240へ移行する。
トのステップ154乃至ステップ158と同様に、ビデ
オカメラ36A、36Bの撮像によって得られた画像か
ら情報入力者10の全体像に相当する画像部を抽出し、
情報入力者10の身長h及び床面上の位置を演算し、情
報入力者10の基準点の3次元座標を決定する。そして
次のステップ242では、図8のフローチャートのステ
ップ159と同様に、情報入力者10が指示動作を行っ
ているか否か判定する。判定が否定された場合には、ス
テップ270で指示フラグが1か否か判定し、この判定
も否定された場合には指示判断処理を一旦終了する。
示す直立している状態から、図12(B)又は(C)に
示すように手をディスプレイ12側に向けると、ステッ
プ242の判定が肯定されてステップ244へ移行す
る。ステップ244では、図8のフローチャートのステ
ップ160乃至ステップ176と同様にして情報入力者
10の特徴点の3次元座標を演算し、情報入力者10が
指し示している位置を演算する。
ディスプレイ12の表示面上を指し示しているか否か判
定する。判定が否定された場合にはステップ270へ移
行するが、判定が肯定された場合には、ステップ247
で指示フラグを1にした後に、ステップ248でディス
プレイ12の表示面上の情報入力者10が指し示してい
る位置の座標を情報処理装置14に出力すると共に、前
記座標をRAM22C等に記憶する。これにより、情報
処理装置14では、ディスプレイ12の表示面上の情報
入力者10が指し示している位置にカーソル等を表示す
る。
図8のフローチャートのステップ184乃至ステップ1
96の処理を同様にしてクリック動作を検出する。すな
わち、画像中に存在する情報入力者10の手に相当する
画像部を抽出し、その面積を求め(ステップ250)、
監視フラグが1か否か判定する(ステップ252)。判
定が否定された場合は、監視フラグを1にして(ステッ
プ254)、先に演算した情報入力者の手に相当する画
像部の面積を記憶し(ステップ256)、指示判断処理
を一旦終了する。
場合は、ステップ250で演算した面積を、RAM22
C等に記憶されている面積と比較し、情報入力者10の
手に相当する画像部の面積に所定値以上の変化が有った
か否か判定する(ステップ258)。判定が否定された
場合には、情報入力者10がクリック動作を行っていな
いと判断し、何ら処理を行うことなく指示判断処理を終
了するが、判定が肯定された場合には、「クリック有
り」を表す情報を情報処理装置14に出力し(ステップ
260:これにより、情報処理装置14ではディスプレ
イ12に表示している画面の切替え等の所定の処理を実
行する)、監視フラグ及び指示フラグを0にして(ステ
ップ262)、指示判断処理を終了する。
の表示面上を指し示した後に、クリック動作を行うこと
なく腕を下ろした場合には、ステップ242の判定が否
定されてステップ270へ移行するが、このときには指
示フラグが1であるのでステップ270の判定が肯定さ
れ、ステップ272へ移行する。ステップ272では、
ステップ248で演算しRAM22Cに記憶している、
ディスプレイ12の表示面上の情報入力者10が指し示
している位置の座標を情報処理装置14に出力する。こ
れにより、情報処理装置14は、情報入力者10が腕を
下ろす前にカーソルを表示していた位置に、継続してカ
ーソルを表示させる。
記載の処理手段による処理に対応しており、上記のステ
ップ270は、ステップ242、247と共に請求項1
4に記載の第2の検出手段に対応している。
12(B)又は(C)に示す姿勢から図12(A)に示
す姿勢に変化したとしても、カーソルの表示が継続され
るので、情報入力者10がカーソルを継続して表示させ
たい等の場合にも(例えば会議のプレゼンテーション
等)、情報入力者10が継続的に腕を上げ続ける必要が
なくなるので、情報入力者10の負担を軽減することが
できる。
退去すると、それが情報処理装置14における一連の処
理の途中であったとしても、ステップ232の判定が否
定され、ステップ280へ移行する。情報入力者10が
情報入力空間から退去したときには、到来フラグは1に
なっているので、ステップ280の判定が肯定され、ス
テップ282で情報入力空間から情報入力者10が退去
したことを情報処理装置14に通知する。これにより、
情報処理装置14は実行途中の処理があれば該処理の実
行を中止すると共に、ディスプレイ12に表示している
画面を呼び込み画面に切替える。次のステップ284で
は到来フラグを0にして、指示判断処理を一旦終了す
る。
0が居ない間は常に呼び込み画面がディスプレイに表示
され、情報入力空間に情報入力者10が到来する毎に、
情報処理装置14では、ディスプレイ12への初期画面
の表示から始まる一連の処理が行われることになる。
理では、情報入力者が自身の手を動かすあらゆる動作
(例えば手首の屈曲や回転、任意の指の曲げ伸ばし等)
をクリック動作として定義していたが、これに限定され
るものではなく、情報入力者10が手を前方に素早く移
動させる動作(図22(A)参照、以下「前進クリッ
ク」という)、及び情報入力者10が手を後方に素早く
移動させる動作(図22(B)参照、以下「後進クリッ
ク」という)をクリック動作としてもよい。上記のクリ
ック動作は、図8や図19に示した指示判断処理に代え
て、例えば図20に示す指示判断処理を行うことで検知
することができる。
は、まずステップ310において、図8のフローチャー
トのステップ152、図19のフローチャートのステッ
プ232と同様に、情報入力空間内に情報入力者10が
到来したか(存在しているか)否かを判定する。この判
定も、例えば画像A及び画像B中に高輝度でかつ所定値
以上の面積の画像部が存在しているか否か等の極めて簡
単な判断処理で済む。ステップ310の判定が否定され
た場合には、判定が肯定される迄待機する。情報入力空
間に情報入力者10が到来すると、ステップ310の判
定が肯定されてステップ312へ移行し、クリック動作
速度設定処理を実行する。
図21のフローチャートを参照して説明する。なお、ク
リック動作速度設定処理は請求項13に記載の閾値設定
手段に対応している。ステップ290では、クリック動
作の実行を情報入力者10に要請するメッセージをディ
スプレイ12に表示するよう情報処理装置14に指示
し、情報処理装置14はディスプレイ12に前記メッセ
ージを表示させる。ディスプレイ12に前記メッセージ
が表示されると、情報入力者10は腕を屈曲又は伸長さ
せ、前進クリック動作又は後進クリック動作を繰り返し
行う。
座標演算処理(図8のフローチャートのステップ154
乃至ステップ176と同様の処理)を行って基準点P0
及び特徴点Px の3次元座標を求め、ステップ294で
は情報入力者10がディスプレイ12を指し示す指示動
作を行っているか否か判定する。ステップ294の判定
が否定された場合にはステップ292に戻り、情報入力
者10が指示動作を行う迄ステップ292、294を繰
り返す。ステップ294の判定が肯定されるとステップ
296へ移行する。
り込んだ基準点P0 及び特徴点Pxの3次元座標から基
準点P0 と特徴点Px との距離kを演算する。また、ス
テップ296は繰り返し実行されるが、2回目以降の実
行時には、今回演算した距離kの値と前回演算した距離
kの値との差に基づいて距離kの変化速度V(基準点P
0 に対する特徴点Px の位置の移動速度)を演算し、演
算結果を記憶する。
実行を要請するメッセージをディスプレイ12に表示し
てから所定時間が経過したか否か判定する。判定が否定
された場合にはステップ292に戻り、ステップ292
〜298を繰り返す。従って、クリック動作の実行を要
請するメッセージを表示してから所定時間が経過する迄
の間は、基準点P0 と特徴点Px との距離kの変化速度
Vが繰り返し演算・記憶されることになる。
ップ300へ移行し、先に演算・記憶した変化速度Vを
取り込み、情報入力者10が1回のクリック動作を行っ
ている間の変化速度Vの推移に基づいてクリック動作速
度V0 (請求項12及び請求項13に記載の閾値に対
応)を設定・記憶する。このクリック動作速度V0 は、
後述する処理において、情報入力者10がクリック動作
を行ったか否かを判定するための閾値として用いる。こ
のため、情報入力者10がクリック動作を行ったことを
確実に判定するために、クリック動作速度V0 として
は、例えば情報入力者10の1回のクリック動作におけ
る変化速度Vの平均値よりも若干低い値を設定すること
ができる。また、情報入力者10の1回のクリック動作
における変化速度Vの最小値をクリック動作速度V0 と
して設定するようにしてもよい。
クリック動作を行ったときの特徴点Px の移動速度(変
化速度V)は情報入力者10毎にばらつきがあるが、上
記のクリック動作速度設定処理は情報入力空間に情報入
力者10が到来する毎に実行されるので、情報入力空間
に新たな情報入力者10が到来すると、クリック動作速
度V0 として到来した情報入力者10の体格や筋力等に
応じた適切な値が新たに設定されることになる。
すると、指示判断処理(図20)のステップ314へ移
行し、基準点・特徴点座標演算処理(図8のフローチャ
ートのステップ154乃至ステップ176と同様の処
理)を行って基準点P0 及び特徴点Px の3次元座標を
求める。次のステップ316では、ステップ314で求
めた基準点P0 及び特徴点Px の3次元座標に基づい
て、情報入力者10が指示動作を行っているか否か判定
する。
はステップ334へ移行し、情報入力空間から情報入力
者10が退去したか否か判定する。この判定について
も、先に説明したステップ310と同様に、画像A及び
画像Bから高輝度でかつ所定値以上の面積の画像部が無
くなったか否か等の極めて簡単な判断処理で済む。上記
判定が否定された場合にはステップ314に戻り、情報
入力者10が指示動作を行う迄ステップ314、31
6、334を繰り返す。
とステップ318へ移行し、ステップ314で求めた基
準点P0 及び特徴点Px の3次元座標に基づいて、図8
のフローチャートのステップ176と同様に、情報入力
者10が指し示している位置として、大画面ディスプレ
イ12の表示面を含む平面と、基準点と特徴点とを結ぶ
仮想線と、の交点の座標を演算する。次のステップ32
0では、ステップ318で求めた座標に基づいて、情報
入力者10が大画面ディスプレイ12の表示面上を指し
示しているか否か判定する。
は何ら処理を行うことなくステップ334へ移行する
が、前記判定が肯定された場合は、ステップ322にお
いて、ステップ318で演算した座標を情報処理装置1
4に出力し、情報処理装置14に対してカーソルの表示
を指示する。これにより、情報処理装置14では、情報
入力者10が指し示していると判断されたディスプレイ
12の表示面上の所定位置にカーソルを表示する等の処
理を行う。
特徴点Px の3次元座標に基づいて基準点P0 と特徴点
Px の距離kを演算し、距離kの変化が有ったか否か判
定する。なお、ステップ324は情報入力者10がディ
スプレイ12の表示面を指し示す動作を行っている間
(ステップ320の判定が肯定されている間)繰り返し
実行されるが、ステップ324で最初に距離kが演算さ
れたときには、距離kの変化の有無を判定できないので
ステップ324の判定は無条件に否定される。
場合にはステップ326へ移行し、距離kの変化速度V
を演算し、演算した変化速度Vが閾値(クリック動作速
度設定処理によって設定されたクリック動作速度V0 )
以上か否か判定する。なお、ステップ326について
も、ステップ324で最初に距離kが演算されたときに
は距離kの変化速度Vを演算することができないので、
判定は無条件に否定される。ステップ324又はステッ
プ326の判定が否定された場合には、情報入力者10
はクリック動作を行っていないと判断し、何ら処理を行
うことなくステップ334へ移行する。
々肯定された場合には情報入力者10がクリック動作を
行ったと判断し、ステップ328において距離kの変化
方向を判定し、判定結果に応じて分岐する。距離kが増
大方向に変化していた場合には、情報入力者10が腕を
素早く伸長させる前進クリック動作を行ったと判断でき
るので、ステップ330へ移行し、前進クリックが有っ
たことを表す情報を情報処理装置14に出力し、ステッ
プ334へ移行する。また、距離kが減少方向に変化し
ていた場合には、情報入力者10が腕を素早く屈曲させ
る後進クリック動作を行ったと判断できるので、ステッ
プ332へ移行し、後進クリックが有ったことを表す情
報を情報処理装置14に出力した後に、ステップ334
へ移行する。
ったことを表す情報又は後進クリックが有ったことを表
す情報が入力されると、情報入力者10による現在の指
示箇所がクリックされたと判断し、前進クリックが有っ
た場合には現在の指示箇所に対応する第1の処理を、後
進クリックが有った場合には現在の指示箇所に対応する
第2の処理(第1の処理と異なる処理)を行う。なお、
この第1の処理、第2の処理は、請求項10に記載の所
定の処理(より詳しくは、請求項11に記載の第1の所
定の処理、第2の所定の処理)に対応している。
実際に第1の処理、第2の処理を行う情報処理装置14
と共に、請求項10に記載の処理手段(より詳しくは請
求項11及び請求項12に記載の処理手段)に対応して
いる。なお、情報入力空間から情報入力者10が退去し
た場合には、ステップ334の判定が肯定されてステッ
プ310に戻る。
作は、ディスプレイ12の表示面上の特定の箇所を指し
示して選択する動作として極めて自然な動作であるの
で、認識対象者は違和感を感ずることなくクリック動作
を行うことができる。また、上記では、基準点と特徴点
との距離kの変化に基づいて、クリック動作が行われた
か否か及び行われたクリック動作が前進クリック動作か
後進クリック動作かを判断することができるので、クリ
ック動作の検知を短時間で行うことができる。また、ク
リック動作として2種類のクリック動作(前進クリック
動作及び後進クリック動作)を定義しているので、情報
入力者10が、第1の処理及び第2の処理を選択的に実
行させることができる。
進クリック動作を行った後の人間の自然な手の動きは、
クリック動作を行う前の位置(ニュートラルポジショ
ン)に戻ろうとする動きであるので、前進クリック動作
を行った後のニュートラルポジションに戻ろうとする手
の動きを後進クリック動作と誤検知したり、後進クリッ
ク動作を行った後のニュートラルポジションに戻ろうと
する手の動きを前進クリック動作を誤検知することを防
止するために、前進クリック動作又は後進クリック動作
を検知した後のニュートラルポジションに戻ろうとする
手の動きを無視することが望ましい。これは、例えば前
進クリック動作又は後進クリック動作を検知してからク
リック動作の検知を所定時間停止したり、或いは前進ク
リック動作又は後進クリック動作を検知する前の距離k
の値をニュートラルポジションに相当する値として予め
記憶しておき、前進クリック動作又は後進クリック動作
を検知してから距離kの値が前記ニュートラルポジショ
ンに相当する値になる迄の間、クリック動作の検知を停
止することによって実現することができる。
図19に示した指示判断処理と同様に、情報入力者10
が腕を下ろした場合に、腕を下ろす前にカーソルを表示
していた位置に、継続してカーソルを表示させるように
してもよいことは言うまでもない。
び特徴点の3次元座標に基づいて情報入力者10が指し
示している位置を演算していたが、これに限定されるも
のではなく、ビデオカメラ36の撮像によって得られた
画像から情報入力者10の全体像に相当する画像部を抽
出し(図23の画像部72を参照)、情報入力者10の
身長h及び床面上の位置を演算し、更に、太さ等の情報
入力者に関する他のパラメータを決定した後に、身長h
を含む各種パラメータに基づいて、情報入力者10の全
体像をダミーモデル74(図23参照)に変換し、この
ダミーモデルに基づいて、ディスプレイ12の表示面上
を指し示す動作を含む、情報入力者の各種動作の認識を
行うようにしてもよい。
例えば手を振る等のように、情報入力者の全体像からは
認識が困難な動作も認識することができる。そして、例
えば情報入力者が手を振る動作を「取消し」を意味する
動作と定義しておき、情報入力者が手を振る動作を行っ
たことを認識したときには、その前に認識した情報入力
者の動作に応じて実行した処理を中止させることも可能
となる。
レイ12の表示面上の任意の位置を指し示す態様を例に
説明したが、情報入力者が指し示す対象はディスプレイ
に限定されるものではなく、情報入力者が任意の方向を
指し示したり、情報入力者との距離が不定の任意の物体
を指し示すようにしてもよい。
は、指示判断処理(例えば図8のフローチャートのステ
ップ176)において、情報入力者の基準点と特徴点と
を結ぶ仮想線の延びる方向を求めるようにすることで、
情報入力者によって指し示された方向を判断できる。ま
た、情報入力者が、情報入力者との距離が不定の任意の
物体を指し示す場合には、先のステップ176におい
て、仮想線の延びる方向を求めた後に、該仮想線を延長
した先に存在する物体を判定することで、情報入力者が
指し示している物体を判断することができる。
態としては、例えば劇場等において、スポットライトの
照射方向や、アレイ状に配置された多数のスピーカによ
って形成される音響ビームの方向を、オペレータ(情報
入力者)が指し示した方向に向ける場合等が挙げられ
る。
離が不定の任意の物体を指し示す利用形態としては、例
えば建設現場や工場等においてクレーンやその他の機械
をオペレータ(情報入力者)の指示に応じて動作させる
場合、或いはホームオートメーションにおいて情報入力
者が各種設備機器に対して各種の指示を行う場合等が挙
げられる。
A、36Bを設けた例を説明したが、これに限定される
ものではなく、より多数のビデオカメラによって情報入
力空間を各々撮像し、情報入力者10からの指示を判断
するようにしてもよい。
は、複数の撮像手段の撮像範囲を、照明手段によって照
明された認識対象者が撮像範囲内に入り、かつ照明手段
によって照明される床面上の照明範囲が撮像範囲から外
れるように各々調整するようにしたので、構成が簡単
で、認識対象者からの指示の判定に要する時間を短縮す
ることができる、という優れた効果を有する。
に配置される複数の撮像手段の撮像範囲を、照明手段に
よって照明された認識対象者が撮像範囲内に入り、かつ
互いに異なる照明手段によって照明される床面上の互い
に異なる照明範囲が撮像範囲から外れるように各々調整
し、認識対象者が特定の位置又は方向を指し示している
ときに複数の照明手段の何れか1つを順に点灯させると
共に、各照明手段の点灯時に、点灯している照明手段に
よる床面上の照明範囲が撮像範囲から外れている撮像手
段によって認識対象者を撮像させるので、構成が簡単
で、認識対象者からの指示の判定に要する時間を短縮す
ることができる、という優れた効果を有する。
から認識対象者を照明する複数の照明手段を設け、認識
対象者が特定の位置又は方向を指し示しているときに複
数の照明手段の何れか1つを順に点灯させると共に、各
照明手段の点灯時に同一の撮像手段の撮像によって各々
得られた複数の画像を比較し、複数の画像中の認識対象
者に相当する画像部とそれ以外の画像部とを判別するこ
とを、複数の撮像手段に対して各々行い、判別結果に基
づいて複数の画像から認識対象者に相当する画像部を各
々抽出するので、構成が簡単で、認識対象者からの指示
の判定に要する時間を短縮することができる、という優
れた効果を有する。
の床面上に非認識対象物体が停滞することを阻止する阻
止手段を設けたので、構成が簡単で、認識対象者からの
指示の判定に要する時間を短縮することができる、とい
う優れた効果を有する。
する所定箇所付近に位置している複数の仮想点の各々の
3次元座標と各撮像手段の撮像によって得られる各画像
上での複数の仮想点の各々の位置とを対応付ける情報を
記憶手段に記憶し、複数の撮像手段の撮像によって得ら
れた各画像上での特徴点の位置及び記憶手段に記憶され
た情報に基づいて特徴点の3次元座標を求めているの
で、構成が簡単で、認識対象者からの指示の判定に要す
る時間を短縮することができる、という優れた効果を有
する。
おいて、記憶手段に、所定箇所付近に一定間隔で格子状
に並ぶ多数の仮想点について、各々の3次元座標と前記
各画像上での各々の位置との対応を表す情報が記憶され
ているので、上記効果に加え、特徴点の3次元座標上で
の位置に拘らず、特徴点の3次元座標を精度良く求める
ことができる、という効果を有する。
おいて、複数の撮像手段の撮像によって得られる各画像
上での特徴点の位置を各々求めた後に、画像上での位置
が特徴点を包含する所定範囲内である仮想点を各画像か
ら各々抽出し、各画像から共通に抽出された仮想点の3
次元座標に基づいて特徴点の3次元座標を求めているの
で、上記効果に加え、特徴点の3次元座標を更に精度良
く求めることができる、という効果を有する。
項6の発明において、仮想点の位置にマーカが位置して
いる状況を複数の撮像手段によって撮像させ、仮想点の
3次元座標と各画像上での仮想点の位置とを対応付ける
情報を生成し、記憶手段に記憶させるようにしたので、
上記効果に加え、仮想点の3次元座標と前記各画像上で
の仮想点の位置とを精度良く対応付ける情報を自動的に
得ることができる、という効果を有する。
記認識対象者の身体の所定部分に相当する画像部の面積
又は輪郭の形状又は輪郭線の長さの変化が検出された場
合に所定の処理を実行するようにしたので、認識対象者
からの指示の判定に時間がかかることなく、認識対象者
が指示するための動作の自由度を向上させることができ
る、という優れた効果を有する。
を屈曲又は伸長させることで位置が変化する特徴点及び
認識対象者が腕を屈曲及び伸長させても位置が変化しな
い基準点の3次元座標に基づいて認識対象者が指し示し
た位置又は方向を判断すると共に、基準点と特徴点との
距離の変化に基づいて所定の処理を実行するようにした
ので、認識対象者による所定の処理の実行を指示する動
作を短時間で確実に検出することができ、認識対象者か
らの指示を短時間で判定することができる、という優れ
た効果を有する。
明において、基準点と特徴点との距離が増加した場合に
は第1の所定の処理を行い、基準点と特徴点との距離が
減少した場合には第1の所定の処理と異なる第2の所定
の処理を行うので、上記効果に加え、第1の所定処理及
び第2の所定の処理のうち実行させるべき処理を認識対
象者が選択することが可能となると共に、第1の所定処
理及び第2の所定の処理のうち認識対象者によって選択
された処理を確実に実行することができる、という効果
を有する。
請求項11の発明において、基準点と特徴点との距離の
変化速度を検出し、検出した変化速度が閾値以上の場合
にのみ所定の処理を実行するようにしたので、上記効果
に加え、認識対象者が所定の処理の実行を指示する動作
を行った場合に、これを確実に検知して所定の処理を実
行することができる、という効果を有する。
明において、所定の処理を行わせるために腕を屈曲又は
伸長させる動作を行うよう認識対象者に要請し、認識対
象者が腕を屈曲又は伸長させる動作を行ったときの基準
点と特徴点との距離の変化速度に基づいて前記閾値を予
め設定するようにしたので、上記効果に加え、個々の認
識対象者の体格や筋力等のばらつきに拘らず、認識対象
者による所定の処理の実行を指示する動作を確実に検知
して所定の処理を実行することができる、という効果を
有する。
求項10の発明において、認識対象者の腕が下げられた
ことが検出された場合には、処理を実行又は停止してい
る状態を継続するようにしたので、上記効果に加え、認
識対象者の負担を軽減することができる、という効果を
有する。
置の概略構成を示すブロック図である。
との関係の一例を示す概略図である。
ある。
ートである。
灯・消灯、ビデオカメラの撮像によって得られる画像の
出力(取り込み)のタイミングを示すタイミングチャー
トである。
明するための、情報入力空間の側面図である。
入力者の手を示すイメージ図、(B)は特徴点の座標及
び特徴点の3次元座標を求めるための格子点の検索範囲
を示す概念図である。
の位置の判定を説明するための、(A)は情報入力空間
の平面図、(B)は情報入力空間の側面図である。
を示すイメージ図である。
囲との関係の他の例を示す概略図である。
すフローチャートである。
の点灯・消灯のタイミングを示すタイミングチャートで
ある。
様を示す斜視図である。
図である。
移動させる例を示す情報入力空間の斜視図である。
である。
である。
ートである。
リック動作を説明するためのイメージ図である。
のイメージ図である。
Claims (14)
- 【請求項1】 認識対象者を照明する照明手段と、 互いに異なる位置に配置され、前記照明手段によって照
明された認識対象者が撮像範囲内に入り、かつ前記照明
手段によって照明される床面上の照明範囲が撮像範囲か
ら外れるように撮像範囲が各々調整された複数の撮像手
段と、 認識対象者が特定の位置又は方向を指し示している状況
を前記複数の撮像手段が各々撮像することで得られた複
数の画像に基づいて、前記画像中の前記認識対象者に相
当する画像部を抽出し、認識対象者が指し示した位置又
は方向を判断する判断手段と、 を含むハンドポインティング装置。 - 【請求項2】 互いに異なる方向から認識対象者を照明
する複数の照明手段と、 互いに異なる位置に配置され、前記照明手段によって照
明された認識対象者が撮像範囲内に入り、かつ互いに異
なる照明手段によって照明される床面上の互いに異なる
照明範囲が撮像範囲から外れるように、撮像範囲が各々
調整された複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示しているとき
に、複数の照明手段の何れか1つを順に点灯させると共
に、複数の照明手段の各々の点灯時に、点灯している照
明手段によって照明される床面上の照明範囲が撮像範囲
から外れている撮像手段によって前記認識対象者を撮像
させ、該撮像によって得られた画像を出力させる制御手
段と、 前記複数の撮像手段から各々出力された複数の画像に基
づいて、前記画像中の認識対象者に相当する画像部を抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、 を含むハンドポインティング装置。 - 【請求項3】 互いに異なる方向から認識対象者を照明
する複数の照明手段と、 前記照明手段によって照明された認識対象者を互いに異
なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示しているとき
に、前記複数の照明手段の何れか1つを順に点灯させる
と共に、複数の照明手段の各々の点灯時に同一の撮像手
段の撮像によって各々得られた複数の画像を比較し、前
記複数の画像中の前記認識対象者に相当する画像部とそ
れ以外の画像部とを判別することを、複数の撮像手段に
対して各々行う判別手段と、 前記判別手段による判別結果に基づいて、前記複数の撮
像手段の各々が撮像した画像から認識対象者に相当する
画像部を各々抽出し、認識対象者が指し示した位置又は
方向を判断する判断手段と、 を含むハンドポインティング装置。 - 【請求項4】 認識対象者を照明する照明手段と、 前記照明手段によって照明された認識対象者を互いに異
なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示している状況
を前記複数の撮像手段が各々撮像することで得られた複
数の画像に基づいて、前記画像中の前記認識対象者に相
当する画像部を抽出し、認識対象者が指し示した位置又
は方向を判断する判断手段と、 前記認識対象者の周囲の床面上に非認識対象物体が停滞
することを阻止する阻止手段と、 を含むハンドポインティング装置。 - 【請求項5】 所定箇所に到来した認識対象者を照明す
る照明手段と、 前記照明手段によって照明された認識対象者を互いに異
なる方向から撮像する複数の撮像手段と、 前記所定箇所付近に位置している複数の仮想点の各々の
3次元座標と各撮像手段の撮像によって得られる各画像
上での前記複数の仮想点の各々の位置とを対応付ける情
報を記憶する記憶手段と、 認識対象者が特定の位置又は方向を指し示している状況
を複数の撮像手段が各々撮像することで得られた複数の
画像に基づいて、各画像中の前記認識対象者に相当する
画像部を抽出して認識対象者の特徴点の前記各画像上で
の位置を求め、前記各画像上での特徴点の位置及び前記
記憶手段に記憶された情報に基づいて前記特徴点の3次
元座標を求め、求めた特徴点の3次元座標に基づいて認
識対象者が指し示した位置又は方向を判断する判断手段
と、 を含むハンドポインティング装置。 - 【請求項6】 前記記憶手段は、前記所定箇所付近に一
定間隔で格子状に並ぶ多数の仮想点について、各々の3
次元座標と前記各画像上での各々の位置とを対応付ける
情報を記憶することを特徴とする請求項5記載のハンド
ポインティング装置。 - 【請求項7】 前記判断手段は、複数の撮像手段の撮像
によって得られる各画像上での前記特徴点の位置を各々
求めた後に、画像上での位置が前記特徴点を包含する所
定範囲内である仮想点を前記各画像から各々抽出し、前
記各画像から共通に抽出された仮想点の3次元座標に基
づいて前記特徴点の3次元座標を求めることを特徴とす
る請求項6記載のハンドポインティング装置。 - 【請求項8】 前記仮想点の位置にマーカが位置してい
る状況を前記複数の撮像手段によって撮像させ、前記仮
想点の3次元座標と各撮像手段の撮像によって得られた
各画像上でのマーカの位置とに基づいて、仮想点の3次
元座標と前記各画像上での仮想点の位置とを対応付ける
情報を生成し、前記記憶手段に記憶させる生成手段を更
に備えたことを特徴とする請求項5又は請求項6記載の
ハンドポインティング装置。 - 【請求項9】 認識対象者を照明する照明手段と、 前記照明手段によって照明された認識対象者を互いに異
なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示している状況
を前記複数の撮像手段が各々撮像することで得られた複
数の画像に基づいて、前記画像中の前記認識対象者に相
当する画像部を抽出し、認識対象者が指し示した位置又
は方向を判断する判断手段と、 前記複数の画像中の前記認識対象者の身体の所定部分に
相当する画像部を抽出し、前記画像部の面積又は輪郭の
形状又は輪郭線の長さの変化を検出する第1の検出手段
と、 前記第1の検出手段によって前記画像部の面積又は輪郭
の形状又は輪郭線の長さの変化が検出された場合に所定
の処理を実行する処理手段と、 を含むハンドポインティング装置。 - 【請求項10】 認識対象者を照明する照明手段と、 前記照明手段によって照明された認識対象者を互いに異
なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示している状況
を前記複数の撮像手段が各々撮像することで得られた複
数の画像に基づいて、前記画像中の前記認識対象者に相
当する画像部を抽出し、認識対象者が腕を屈曲又は伸長
させることで位置が変化する特徴点及び認識対象者が腕
を屈曲及び伸長させても位置が変化しない基準点の3次
元座標を求め、特徴点及び基準点の3次元座標に基づい
て認識対象者が指し示した位置又は方向を判断する判断
手段と、 前記基準点と前記特徴点との距離を演算し、基準点と特
徴点との距離の変化に基づいて所定の処理を実行する処
理手段と、 を含むハンドポインティング装置。 - 【請求項11】 前記処理手段は、前記基準点と前記特
徴点との距離が増加した場合には第1の所定の処理を行
い、前記基準点と前記特徴点との距離が減少した場合に
は前記第1の所定の処理と異なる第2の所定の処理を行
うことを特徴とする請求項10記載のハンドポインティ
ング装置。 - 【請求項12】 前記処理手段は、前記基準点と前記特
徴点との距離の変化速度を検出し、検出した変化速度が
閾値以上の場合にのみ所定の処理を実行することを特徴
とする請求項10又は請求項11記載のハンドポインテ
ィング装置。 - 【請求項13】 前記処理手段に所定の処理を行わせる
ために腕を屈曲又は伸長させる動作を行うよう認識対象
者に要請し、認識対象者が腕を屈曲又は伸長させる動作
を行ったときの前記基準点と前記特徴点との距離の変化
速度に基づいて前記閾値を予め設定する閾値設定手段を
更に備えたことを特徴とする請求項12記載のハンドポ
インティング装置。 - 【請求項14】 前記複数の画像中の前記認識対象者の
腕に相当する画像部を抽出し、認識対象者の腕が下げら
れたか否かを検出する第2の検出手段を更に備え、 前記処理手段は、前記第2の検出手段によって前記認識
対象者の腕が下げられたことが検出された場合には処理
を実行又は停止している状態を継続することを特徴とす
る請求項9又は請求項10記載のハンドポインティング
装置。
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36962897A JP3749369B2 (ja) | 1997-03-21 | 1997-12-29 | ハンドポインティング装置 |
DE69824225T DE69824225T2 (de) | 1997-03-21 | 1998-03-18 | Das Bild einer Hand verwendende Hinweisvorrichtung |
DE69829424T DE69829424T2 (de) | 1997-03-21 | 1998-03-18 | Hinweisvorrichtung, die das Bild einer Hand verwendet |
US09/040,436 US6385331B2 (en) | 1997-03-21 | 1998-03-18 | Hand pointing device |
EP03008193A EP1329838B1 (en) | 1997-03-21 | 1998-03-18 | Pointing device using the image of the hand |
EP03008194A EP1329839B1 (en) | 1997-03-21 | 1998-03-18 | Pointing device using the image of the hand |
DE69828912T DE69828912T2 (de) | 1997-03-21 | 1998-03-18 | Hinweisvorrichtung, die das Bild einer Hand verwendet |
EP98104954A EP0866419B1 (en) | 1997-03-21 | 1998-03-18 | Pointing device using the image of the hand |
KR1019980009762A KR100328648B1 (ko) | 1997-03-21 | 1998-03-20 | 핸드포인팅장치 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6860297 | 1997-03-21 | ||
JP9-68602 | 1997-03-21 | ||
JP36962897A JP3749369B2 (ja) | 1997-03-21 | 1997-12-29 | ハンドポインティング装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10326148A true JPH10326148A (ja) | 1998-12-08 |
JP3749369B2 JP3749369B2 (ja) | 2006-02-22 |
Family
ID=26409810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36962897A Expired - Fee Related JP3749369B2 (ja) | 1997-03-21 | 1997-12-29 | ハンドポインティング装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6385331B2 (ja) |
EP (3) | EP1329838B1 (ja) |
JP (1) | JP3749369B2 (ja) |
KR (1) | KR100328648B1 (ja) |
DE (3) | DE69828912T2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11134089A (ja) * | 1997-10-29 | 1999-05-21 | Takenaka Komuten Co Ltd | ハンドポインティング装置 |
JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
JP2000222117A (ja) * | 1999-01-29 | 2000-08-11 | Takenaka Komuten Co Ltd | ハンドポインティング装置、指示位置表示方法及び記録媒体 |
JP2003084229A (ja) * | 2001-09-14 | 2003-03-19 | Takenaka Komuten Co Ltd | 指示位置表示装置及び方法 |
JP2003533817A (ja) * | 2000-05-17 | 2003-11-11 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 |
KR100799766B1 (ko) | 2006-10-25 | 2008-02-01 | 엠텍비젼 주식회사 | 포인터 이동 제어 장치 |
KR100814289B1 (ko) | 2006-11-14 | 2008-03-18 | 서경대학교 산학협력단 | 실시간 동작 인식 장치 및 그 방법 |
WO2008123500A1 (ja) * | 2007-03-30 | 2008-10-16 | National Institute Of Information And Communications Technology | 空中映像インタラクション装置及びそのプログラム |
JP2009240370A (ja) * | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | 動作検出装置 |
JP2014142695A (ja) * | 2013-01-22 | 2014-08-07 | Ricoh Co Ltd | 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム |
JP2020188479A (ja) * | 2009-09-30 | 2020-11-19 | ロヴィ ガイズ, インコーポレイテッド | 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法 |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6256046B1 (en) * | 1997-04-18 | 2001-07-03 | Compaq Computer Corporation | Method and apparatus for visual sensing of humans for active public interfaces |
DE19806024A1 (de) * | 1998-02-13 | 1999-08-19 | Siemens Nixdorf Inf Syst | Verfahren zur Überwachung eines Gerätebedienungsvorganges und mit diesem überwachte Selbstbedienungseinrichtung |
TW464800B (en) * | 1998-10-07 | 2001-11-21 | Intel Corp | A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system |
US6690357B1 (en) | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
WO2000075860A1 (en) * | 1999-06-08 | 2000-12-14 | Soffix, S.R.L. | Electronic writing/display apparatus and respective method of operation |
EP1074943A3 (en) * | 1999-08-06 | 2004-03-24 | Canon Kabushiki Kaisha | Image processing method and apparatus |
US6738041B2 (en) | 1999-10-29 | 2004-05-18 | Intel Corporation | Using video information to control cursor position |
US6531999B1 (en) | 2000-07-13 | 2003-03-11 | Koninklijke Philips Electronics N.V. | Pointing direction calibration in video conferencing and other camera-based system applications |
US20040246234A1 (en) * | 2001-03-01 | 2004-12-09 | Luis Serra | Display apparatus |
US6711280B2 (en) * | 2001-05-25 | 2004-03-23 | Oscar M. Stafsudd | Method and apparatus for intelligent ranging via image subtraction |
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
US20030165048A1 (en) * | 2001-12-07 | 2003-09-04 | Cyrus Bamji | Enhanced light-generated interface for use with electronic devices |
WO2003071410A2 (en) * | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
JP3762309B2 (ja) * | 2002-02-18 | 2006-04-05 | キヤノン株式会社 | 位置方向測定装置および情報処理方法 |
US6973579B2 (en) * | 2002-05-07 | 2005-12-06 | Interdigital Technology Corporation | Generation of user equipment identification specific scrambling code for the high speed shared control channel |
US7165029B2 (en) | 2002-05-09 | 2007-01-16 | Intel Corporation | Coupled hidden Markov model for audiovisual speech recognition |
US7209883B2 (en) * | 2002-05-09 | 2007-04-24 | Intel Corporation | Factorial hidden markov model for audiovisual speech recognition |
US20030212552A1 (en) * | 2002-05-09 | 2003-11-13 | Liang Lu Hong | Face recognition procedure useful for audiovisual speech recognition |
JP4149213B2 (ja) * | 2002-07-12 | 2008-09-10 | 本田技研工業株式会社 | 指示位置検出装置及び自律ロボット |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
US7526120B2 (en) * | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
US20040066500A1 (en) * | 2002-10-02 | 2004-04-08 | Gokturk Salih Burak | Occupancy detection and measurement system and method |
DE60215504T2 (de) | 2002-10-07 | 2007-09-06 | Sony France S.A. | Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik |
US7171043B2 (en) | 2002-10-11 | 2007-01-30 | Intel Corporation | Image recognition using hidden markov models and coupled hidden markov models |
US7472063B2 (en) * | 2002-12-19 | 2008-12-30 | Intel Corporation | Audio-visual feature fusion and support vector machine useful for continuous speech recognition |
US7203368B2 (en) * | 2003-01-06 | 2007-04-10 | Intel Corporation | Embedded bayesian network for pattern recognition |
JP3849645B2 (ja) * | 2003-01-20 | 2006-11-22 | ソニー株式会社 | 監視装置 |
JP4286556B2 (ja) * | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
US7618323B2 (en) * | 2003-02-26 | 2009-11-17 | Wms Gaming Inc. | Gaming machine system having a gesture-sensing mechanism |
FR2853423B1 (fr) * | 2003-03-20 | 2005-07-15 | Simag Dev | Dispositif de saisie comportant un capteur optique suivi d'un moyen de filtrage |
DE602004006190T8 (de) * | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US7439074B2 (en) * | 2003-09-30 | 2008-10-21 | Hoa Duc Nguyen | Method of analysis of alcohol by mass spectrometry |
US7746321B2 (en) | 2004-05-28 | 2010-06-29 | Erik Jan Banning | Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor |
WO2006003599A1 (en) * | 2004-06-29 | 2006-01-12 | Philips Intellectual Property & Standards Gmbh | Personal gesture signature |
WO2006027423A1 (fr) * | 2004-08-09 | 2006-03-16 | Simag Developpement | Dispositif de saisie comportant un capteur optique suivi d’un moyen de filtrage |
US8009871B2 (en) | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
CN101536494B (zh) | 2005-02-08 | 2017-04-26 | 奥布隆工业有限公司 | 用于基于姿势的控制系统的系统和方法 |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
JP4654773B2 (ja) * | 2005-05-31 | 2011-03-23 | 富士フイルム株式会社 | 情報処理装置、動画像符号化装置、情報処理方法及び情報処理プログラム |
US9285897B2 (en) | 2005-07-13 | 2016-03-15 | Ultimate Pointer, L.L.C. | Easily deployable interactive direct-pointing system and calibration method therefor |
KR100815159B1 (ko) | 2005-12-08 | 2008-03-19 | 한국전자통신연구원 | 다수의 카메라를 이용한 손 추적 3 차원 입력 장치 및 그방법 |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US8537111B2 (en) | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
US8407725B2 (en) * | 2007-04-24 | 2013-03-26 | Oblong Industries, Inc. | Proteins, pools, and slawx in processing environments |
US20090278915A1 (en) * | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
US9823747B2 (en) | 2006-02-08 | 2017-11-21 | Oblong Industries, Inc. | Spatial, multi-modal control device for use with spatial operating system |
EP2004299A2 (en) * | 2006-03-22 | 2008-12-24 | Home Focus Development Limited | Interactive playmat |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
JP2008052029A (ja) * | 2006-08-24 | 2008-03-06 | Takata Corp | 撮像システム、車両乗員検出システム、作動装置制御システム、車両 |
US8356254B2 (en) * | 2006-10-25 | 2013-01-15 | International Business Machines Corporation | System and method for interacting with a display |
KR100851977B1 (ko) * | 2006-11-20 | 2008-08-12 | 삼성전자주식회사 | 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치. |
WO2008131565A1 (en) * | 2007-04-26 | 2008-11-06 | Roberto Rosso | Communications control bus and apparatus for controlling multiple electronic hardware devices |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US9952673B2 (en) | 2009-04-02 | 2018-04-24 | Oblong Industries, Inc. | Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9740922B2 (en) | 2008-04-24 | 2017-08-22 | Oblong Industries, Inc. | Adaptive tracking system for spatial input devices |
US8723795B2 (en) | 2008-04-24 | 2014-05-13 | Oblong Industries, Inc. | Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes |
US9684380B2 (en) | 2009-04-02 | 2017-06-20 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9495013B2 (en) | 2008-04-24 | 2016-11-15 | Oblong Industries, Inc. | Multi-modal gestural interface |
US10642364B2 (en) | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
US20100066673A1 (en) * | 2008-09-16 | 2010-03-18 | Shang Tai Yeh | Laser pointer capable of detecting a gesture associated therewith and representing the gesture with a function |
JP5183398B2 (ja) * | 2008-09-29 | 2013-04-17 | 株式会社日立製作所 | 入力装置 |
WO2010038822A1 (ja) * | 2008-10-01 | 2010-04-08 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、情報記憶媒体及びプログラム |
US8788977B2 (en) | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US9317128B2 (en) | 2009-04-02 | 2016-04-19 | Oblong Industries, Inc. | Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control |
JP2010257089A (ja) | 2009-04-22 | 2010-11-11 | Xiroku:Kk | 光学式位置検出装置 |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
JP4701424B2 (ja) * | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
KR100969927B1 (ko) * | 2009-08-17 | 2010-07-14 | (주)예연창 | 사용자 지향적 비접촉식 상호 작용 디스플레이 장치 |
US9933852B2 (en) | 2009-10-14 | 2018-04-03 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
JP2011166332A (ja) * | 2010-02-08 | 2011-08-25 | Hitachi Consumer Electronics Co Ltd | 情報処理装置 |
US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
US9405444B2 (en) | 2010-10-01 | 2016-08-02 | Z124 | User interface with independent drawer control |
KR20120051212A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치 |
US9440144B2 (en) | 2011-04-21 | 2016-09-13 | Sony Interactive Entertainment Inc. | User identified to a controller |
US9123272B1 (en) | 2011-05-13 | 2015-09-01 | Amazon Technologies, Inc. | Realistic image lighting and shading |
KR101235432B1 (ko) * | 2011-07-11 | 2013-02-22 | 김석중 | 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법 |
US9041734B2 (en) | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
US10088924B1 (en) | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
JP2013070368A (ja) | 2011-09-05 | 2013-04-18 | Panasonic Corp | テレビ対話システム、端末および方法 |
US8947351B1 (en) | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
US9495012B2 (en) | 2011-09-27 | 2016-11-15 | Z124 | Secondary single screen mode activation through user interface activation |
US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
US8884928B1 (en) | 2012-01-26 | 2014-11-11 | Amazon Technologies, Inc. | Correcting for parallax in electronic displays |
US9063574B1 (en) | 2012-03-14 | 2015-06-23 | Amazon Technologies, Inc. | Motion detection systems for electronic devices |
US9285895B1 (en) | 2012-03-28 | 2016-03-15 | Amazon Technologies, Inc. | Integrated near field sensor for display devices |
US9587804B2 (en) * | 2012-05-07 | 2017-03-07 | Chia Ming Chen | Light control systems and methods |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
WO2013190538A1 (en) * | 2012-06-20 | 2013-12-27 | Pointgrab Ltd. | Method for touchless control of a device |
CN102968208B (zh) * | 2012-09-05 | 2015-10-07 | 广东威创视讯科技股份有限公司 | 面阵摄像头定位图像有效区域调整方式的选择方法和系统 |
US9423886B1 (en) | 2012-10-02 | 2016-08-23 | Amazon Technologies, Inc. | Sensor connectivity approaches |
US8933882B2 (en) * | 2012-12-31 | 2015-01-13 | Intentive Inc. | User centric interface for interaction with visual display that recognizes user intentions |
US9734582B2 (en) | 2013-02-21 | 2017-08-15 | Lg Electronics Inc. | Remote pointing method |
US9035874B1 (en) | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
US9524028B2 (en) | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
US9829984B2 (en) | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
US9717118B2 (en) | 2013-07-16 | 2017-07-25 | Chia Ming Chen | Light control systems and methods |
US9269012B2 (en) | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
US11199906B1 (en) | 2013-09-04 | 2021-12-14 | Amazon Technologies, Inc. | Global user input management |
US10055013B2 (en) | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
US9367203B1 (en) | 2013-10-04 | 2016-06-14 | Amazon Technologies, Inc. | User interface techniques for simulating three-dimensional depth |
US9990046B2 (en) | 2014-03-17 | 2018-06-05 | Oblong Industries, Inc. | Visual collaboration interface |
US10406967B2 (en) | 2014-04-29 | 2019-09-10 | Chia Ming Chen | Light control systems and methods |
US10088971B2 (en) * | 2014-12-10 | 2018-10-02 | Microsoft Technology Licensing, Llc | Natural user interface camera calibration |
JP6710946B2 (ja) * | 2015-12-01 | 2020-06-17 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
JP6586891B2 (ja) * | 2016-01-13 | 2019-10-09 | セイコーエプソン株式会社 | プロジェクター及びプロジェクターの制御方法 |
US10529302B2 (en) | 2016-07-07 | 2020-01-07 | Oblong Industries, Inc. | Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold |
CN106383500A (zh) * | 2016-09-05 | 2017-02-08 | 湖北工业大学 | 一种智能建筑门窗幕墙系统 |
JP6255129B1 (ja) * | 2017-04-18 | 2017-12-27 | 京セラ株式会社 | 電子機器 |
JP7380453B2 (ja) * | 2020-07-01 | 2023-11-15 | トヨタ自動車株式会社 | サーバ装置、情報処理システム、及びシステムの動作方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04271423A (ja) * | 1991-02-27 | 1992-09-28 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法 |
JPH0519957A (ja) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報の入力方法 |
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3906555A1 (de) * | 1989-03-02 | 1989-07-06 | Zeiss Carl Fa | Auflicht-objektbeleuchtungseinrichtung |
JPH0474285A (ja) | 1990-07-17 | 1992-03-09 | Medama Kikaku:Kk | 特定人又は物の位置検出表示装置 |
DE4142614A1 (de) * | 1991-10-14 | 1993-04-15 | Tropf Hermann Dr Ing | Vorrichtung und verfahren zum erkennen von objekten, wie unregelmaessigkeiten in oberflaechen oder dergleichen |
EP0571702A3 (en) * | 1992-05-26 | 1994-10-12 | Takenaka Corp | Handheld input device and wall computer unit. |
JPH05324181A (ja) | 1992-05-26 | 1993-12-07 | Takenaka Komuten Co Ltd | ハンドポインティング式入力装置 |
IT1264225B1 (it) * | 1993-09-24 | 1996-09-23 | Sintecna S R L | Dispositivo per il puntamento del cursore sullo schermo di sistemi interattivi |
JPH07160412A (ja) * | 1993-12-10 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | 指示位置検出方法 |
JP2552427B2 (ja) * | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US5900863A (en) * | 1995-03-16 | 1999-05-04 | Kabushiki Kaisha Toshiba | Method and apparatus for controlling computer without touching input device |
JPH08329222A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | 3次元位置認識装置 |
-
1997
- 1997-12-29 JP JP36962897A patent/JP3749369B2/ja not_active Expired - Fee Related
-
1998
- 1998-03-18 EP EP03008193A patent/EP1329838B1/en not_active Expired - Lifetime
- 1998-03-18 EP EP03008194A patent/EP1329839B1/en not_active Expired - Lifetime
- 1998-03-18 US US09/040,436 patent/US6385331B2/en not_active Expired - Fee Related
- 1998-03-18 DE DE69828912T patent/DE69828912T2/de not_active Expired - Fee Related
- 1998-03-18 DE DE69824225T patent/DE69824225T2/de not_active Expired - Fee Related
- 1998-03-18 EP EP98104954A patent/EP0866419B1/en not_active Expired - Lifetime
- 1998-03-18 DE DE69829424T patent/DE69829424T2/de not_active Expired - Fee Related
- 1998-03-20 KR KR1019980009762A patent/KR100328648B1/ko not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04271423A (ja) * | 1991-02-27 | 1992-09-28 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法 |
JPH0519957A (ja) * | 1991-07-15 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報の入力方法 |
JPH08328735A (ja) * | 1995-06-02 | 1996-12-13 | Takenaka Komuten Co Ltd | ハンドポインティング入力装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11134089A (ja) * | 1997-10-29 | 1999-05-21 | Takenaka Komuten Co Ltd | ハンドポインティング装置 |
JP2000181601A (ja) * | 1998-12-18 | 2000-06-30 | Fujitsu General Ltd | 情報表示システム |
JP2000222117A (ja) * | 1999-01-29 | 2000-08-11 | Takenaka Komuten Co Ltd | ハンドポインティング装置、指示位置表示方法及び記録媒体 |
JP4768196B2 (ja) * | 2000-05-17 | 2011-09-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 |
JP2003533817A (ja) * | 2000-05-17 | 2003-11-11 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 |
JP2003084229A (ja) * | 2001-09-14 | 2003-03-19 | Takenaka Komuten Co Ltd | 指示位置表示装置及び方法 |
KR100799766B1 (ko) | 2006-10-25 | 2008-02-01 | 엠텍비젼 주식회사 | 포인터 이동 제어 장치 |
KR100814289B1 (ko) | 2006-11-14 | 2008-03-18 | 서경대학교 산학협력단 | 실시간 동작 인식 장치 및 그 방법 |
WO2008123500A1 (ja) * | 2007-03-30 | 2008-10-16 | National Institute Of Information And Communications Technology | 空中映像インタラクション装置及びそのプログラム |
JP5212991B2 (ja) * | 2007-03-30 | 2013-06-19 | 独立行政法人情報通信研究機構 | 空中映像インタラクション装置及びそのプログラム |
US8985774B2 (en) | 2007-03-30 | 2015-03-24 | National Institute Of Information And Communication Technology | Floating image interaction device and its program |
JP2009240370A (ja) * | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | 動作検出装置 |
JP2020188479A (ja) * | 2009-09-30 | 2020-11-19 | ロヴィ ガイズ, インコーポレイテッド | 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法 |
JP2014142695A (ja) * | 2013-01-22 | 2014-08-07 | Ricoh Co Ltd | 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR19980080509A (ko) | 1998-11-25 |
EP1329839A3 (en) | 2003-07-30 |
DE69824225T2 (de) | 2005-06-23 |
DE69828912D1 (de) | 2005-03-10 |
EP0866419A3 (en) | 2001-05-23 |
EP0866419B1 (en) | 2004-06-02 |
US20010043719A1 (en) | 2001-11-22 |
US6385331B2 (en) | 2002-05-07 |
EP0866419A2 (en) | 1998-09-23 |
EP1329839A2 (en) | 2003-07-23 |
EP1329838A2 (en) | 2003-07-23 |
DE69828912T2 (de) | 2005-07-28 |
JP3749369B2 (ja) | 2006-02-22 |
DE69829424D1 (de) | 2005-04-21 |
EP1329838A3 (en) | 2003-08-06 |
EP1329839B1 (en) | 2005-03-16 |
EP1329838B1 (en) | 2005-02-02 |
KR100328648B1 (ko) | 2002-07-31 |
DE69824225D1 (de) | 2004-07-08 |
DE69829424T2 (de) | 2006-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3749369B2 (ja) | ハンドポインティング装置 | |
JP3795647B2 (ja) | ハンドポインティング装置 | |
KR101118654B1 (ko) | 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법 | |
CN102033702A (zh) | 影像显示装置及其显示控制方法 | |
JPH0844490A (ja) | インターフェイス装置 | |
JP2006209359A (ja) | 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム | |
JP2004078977A (ja) | インターフェイス装置 | |
JP3792907B2 (ja) | ハンドポインティング装置 | |
CN109219426B (zh) | 康复训练辅助控制装置以及计算机能够读取的记录介质 | |
JP5221939B2 (ja) | 位置特定装置および動作指示装置並びに自走式ロボット | |
WO2013025011A1 (ko) | 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템 | |
JPH1080886A (ja) | 視覚制御ロボット | |
JP3138145U (ja) | 脳トレーニング装置 | |
KR101536753B1 (ko) | 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템 | |
JP2003076488A (ja) | 指示位置判断装置及び方法 | |
JPH07160412A (ja) | 指示位置検出方法 | |
US11195525B2 (en) | Operation terminal, voice inputting method, and computer-readable recording medium | |
JP2015018485A (ja) | 電子制御装置、制御方法、及び制御プログラム | |
JP2000222098A (ja) | ハンドポインティング装置、指示位置表示方法及び記録媒体 | |
KR20150073146A (ko) | 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템 | |
JPH06301477A (ja) | 3次元空間に対する指示位置の入力装置 | |
JP2021071788A (ja) | 撮影システム | |
JP3376207B2 (ja) | 視線検出装置及びその方法 | |
US11682154B2 (en) | Moving image processing method of a moving image viewed by a viewing user, a server device controlling the moving image, and a computer program thereof | |
EP4270317A1 (en) | Foot shape measurement apparatus and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051201 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091209 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101209 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111209 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121209 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |