JPH10326148A - ハンドポインティング装置 - Google Patents

ハンドポインティング装置

Info

Publication number
JPH10326148A
JPH10326148A JP36962897A JP36962897A JPH10326148A JP H10326148 A JPH10326148 A JP H10326148A JP 36962897 A JP36962897 A JP 36962897A JP 36962897 A JP36962897 A JP 36962897A JP H10326148 A JPH10326148 A JP H10326148A
Authority
JP
Japan
Prior art keywords
recognition target
image
person
imaging
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP36962897A
Other languages
English (en)
Other versions
JP3749369B2 (ja
Inventor
Kenichi Harakawa
健一 原川
Kenichi Unno
健一 海野
Norio Igawa
憲男 井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP36962897A priority Critical patent/JP3749369B2/ja
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to EP03008193A priority patent/EP1329838B1/en
Priority to DE69824225T priority patent/DE69824225T2/de
Priority to DE69829424T priority patent/DE69829424T2/de
Priority to US09/040,436 priority patent/US6385331B2/en
Priority to EP03008194A priority patent/EP1329839B1/en
Priority to DE69828912T priority patent/DE69828912T2/de
Priority to EP98104954A priority patent/EP0866419B1/en
Priority to KR1019980009762A priority patent/KR100328648B1/ko
Publication of JPH10326148A publication Critical patent/JPH10326148A/ja
Application granted granted Critical
Publication of JP3749369B2 publication Critical patent/JP3749369B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Abstract

(57)【要約】 【課題】 簡単な構成により、認識対象者からの指示の
判定に要する時間を短縮する。 【解決手段】 情報入力者10が到来する情報入力空間の
上方には、互いに異なる方向から情報入力者10を照明す
るように照射範囲が調整された近赤外光照明装置32A,32
B が配設されている。また情報入力空間の上方には、近
赤外光に感度を有するビデオカメラ36A,36B が互いに異
なる箇所に配設されている。ビデオカメラ36A は照明装
置32A による床面上の照明範囲が撮像範囲から外れるよ
うに撮像範囲が調整されており、ビデオカメラ36B は照
明装置32B による床面上の照明範囲が撮像範囲から外れ
るように撮像範囲が調整されている。図示しないコント
ローラは、ビデオカメラ36A,36B の撮像によって得られ
た画像に基づいて情報入力者10を認識し、情報入力者が
指し示した位置を判断する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はハンドポインティン
グ装置に係り、特に、認識対象者を撮像し、認識対象者
が指し示した位置又は方向を判断するハンドポインティ
ング装置に関する。
【0002】
【従来の技術】従来より、所定の情報を表示するディス
プレイ、ディスプレイの近傍に到来した情報入力者を照
明する照明装置、到来した情報入力者を互いに異なる方
向から撮像する複数の撮像手段を備え、到来した情報入
力者がディスプレイ上の任意の位置を指等によって指し
示した状況を複数の撮像手段によって撮像し、撮像によ
って得られた複数の画像に基づいて情報入力者を認識
し、情報入力者が指示したディスプレイ上の位置を判断
し、ディスプレイ上の指示位置にカーソル等を表示する
と共に、情報入力者が親指を上げるクリック動作を行っ
たことを検出すると、ディスプレイ上の指示位置がクリ
ックされたと認識して所定の処理を行うハンドポインテ
ィング入力装置が知られている(例えば特開平4-271423
号公報、特開平 5-19957号公報、特開平5-324181号公報
等参照)。
【0003】上記のハンドポインティング入力装置によ
れば、情報入力者がキーボードやマウス等の入力機器に
触れることなく、情報処理装置に対して各種の指示を与
えたり、各種の情報を入力することが可能となるので、
情報処理装置を利用するための操作の簡素化を実現でき
る。
【0004】
【発明が解決しようとする課題】しかしながら、ハンド
ポインティング入力装置を実際に運用する環境下では、
認識対象物体である情報入力者の周囲に、例えば情報入
力者の荷物やゴミ等の認識対象でない物体が存在してい
る可能性がある。照明装置から射出された照明光は情報
入力者の周囲にも照射されるので、上記のような非認識
対象物体が情報入力者の周囲に存在していると、撮像手
段の撮像によって得られた画像中に、非認識対象物体が
高輝度の物体として存在することになり、非認識対象物
体を情報入力者と誤認識する可能性が高い。
【0005】この情報入力者の誤認識を回避するために
は、情報入力者の認識の精度を高くする必要があり、例
えば、輝度の他に複数の画像特徴量も用いて総合的に情
報入力者を認識する等の煩雑な画像処理(例えば画像特
徴量の1つである輪郭形状に基づくパターンマッチング
等)を行う必要がある。従って、撮像によって得られた
画像に基づき認識等の画像処理を行う画像処理部に多大
な負荷が加わるので、情報入力者からの指示の判定に時
間がかかる原因になっていた。そして、情報入力者から
の指示の判定に要する時間を短縮するためには処理速度
の高い画像処理部を用いる必要があり、装置のコストが
嵩むという問題があった。
【0006】また従来は、撮像によって得られた画像上
での情報入力者の特徴点(例えば人指し指の先端等)の
位置から、演算によって特徴点の3次元座標を求め、情
報入力者が指示したディスプレイ上の位置を判定してい
たが、特徴点の3次元座標を求めるための演算処理が複
雑であり、上記と同様に、情報入力者からの指示の判定
に時間がかかる原因になっていた。
【0007】また従来は、親指を上げる動作をクリック
動作として予め定めておき、クリック動作として親指を
上げる動作のみを検出するようにしていたが、動作とし
ての自由度が低く、使い勝手が悪いという問題があっ
た。しかし、クリック動作として親指を上げる動作以外
に別の動作も検出するようにすると、クリック動作を検
出するための処理が煩雑になり、クリック動作の検出に
時間がかかるという問題があった。
【0008】本発明は上記事実を考慮して成されたもの
で、構成が簡単で、認識対象者からの指示の判定に要す
る時間を短縮することができるハンドポインティング装
置を得ることが目的である。
【0009】また本発明は、認識対象者からの指示の判
定に時間がかかることなく、認識対象者が指示するため
の動作の自由度を向上させることができるハンドポイン
ティング装置を得ることが目的である。
【0010】
【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係るハンドポインティング装置
は、認識対象者を照明する照明手段と、互いに異なる位
置に配置され、前記照明手段によって照明された認識対
象者が撮像範囲内に入り、かつ前記照明手段によって照
明される床面上の照明範囲が撮像範囲から外れるように
撮像範囲が各々調整された複数の撮像手段と、認識対象
者が特定の位置又は方向を指し示している状況を前記複
数の撮像手段が各々撮像することで得られた複数の画像
に基づいて、前記画像中の前記認識対象者に相当する画
像部を抽出し、認識対象者が指し示した位置又は方向を
判断する判断手段と、を含んで構成している。
【0011】本発明において、認識対象者は、例えばデ
ィスプレイの表示面等の面上の特定の位置を指し示して
もよいし、特定の方向(例えば認識対象者から見て特定
の物体が存在している方向)を指し示してもよい。判断
手段は、認識対象者が特定の位置又は方向を指し示して
いる状況を複数の撮像手段が各々撮像することで得られ
た複数の画像に基づいて、画像中の認識対象者に相当す
る画像部を抽出し、認識対象者が指し示した位置又は方
向を判断する。この指し示した特定の位置又は方向の判
断は、具体的には、認識対象者の特徴点(認識対象者が
特定の位置又は方向を指し示す動作に応じて位置が変化
する点、例えば指し示す動作を行っている認識対象者の
身体の所定部分(例えば手、指等)の先端や、認識対象
者が把持している指示器の先端等)の3次元座標を演算
し、認識対象者の位置と前記特徴点の3次元座標に基づ
いて行うことができる。
【0012】また請求項1記載の発明では、複数の撮像
手段の撮像範囲が、照明手段によって照明された認識対
象者が撮像範囲内に入り、かつ照明手段によって照明さ
れる床面上の照明範囲が撮像範囲から外れるように各々
調整されている。これにより、認識対象者の周囲の床面
上に荷物やゴミ等の非認識対象物体が存在していたとし
ても、この非認識対象物体が撮像手段の撮像範囲内に入
る可能性が低くなると共に、仮に非認識対象物体が撮像
範囲内に入っていたとしてもその輝度は低くなるので、
撮像手段の撮像によって得られた画像についても、非認
識対象物体に相当する画像部が存在する確率が低く、か
つ前記画像部が存在していたとしてもその輝度が低くな
る。
【0013】このため、判断手段での認識対象者に相当
する画像部の抽出において、複雑な画像処理を行うこと
なく、認識対象者に相当する画像部を簡単な処理により
短時間で抽出することができる。従って、処理速度の高
い画像処理部等を用いることで構成が複雑化することな
く、認識対象者からの指示の判定に要する時間を短縮す
ることができる。
【0014】請求項2記載の発明に係るハンドポインテ
ィング装置は、互いに異なる方向から認識対象者を照明
する複数の照明手段と、互いに異なる位置に配置され、
前記照明手段によって照明された認識対象者が撮像範囲
内に入り、かつ互いに異なる照明手段によって照明され
る床面上の互いに異なる照明範囲が撮像範囲から外れる
ように、撮像範囲が各々調整された複数の撮像手段と、
認識対象者が特定の位置又は方向を指し示しているとき
に、複数の照明手段の何れか1つを順に点灯させると共
に、複数の照明手段の各々の点灯時に、点灯している照
明手段によって照明される床面上の照明範囲が撮像範囲
から外れている撮像手段によって前記認識対象者を撮像
させ、該撮像によって得られた画像を出力させる制御手
段と、前記複数の撮像手段から各々出力された複数の画
像に基づいて、前記画像中の認識対象者に相当する画像
部を抽出し、認識対象者が指し示した位置又は方向を判
断する判断手段と、を含んで構成している。
【0015】請求項2記載の発明では、互いに異なる方
向から認識対象者を照明する複数の照明手段が設けられ
ており、複数の撮像手段は、互いに異なる位置に配置さ
れ、照明手段によって照明された認識対象者が撮像範囲
内に入り、かつ互いに異なる照明手段によって照明され
る床面上の互いに異なる照明範囲が撮像範囲から外れる
ように、撮像範囲が各々調整されている。これにより、
認識対象者の周囲の床面上に荷物やゴミ等の非認識対象
物体が存在していたとしても、この非認識対象物体が各
撮像手段の撮像範囲内に入る可能性が低くなる。
【0016】また制御手段は、認識対象者が特定の位置
又は方向を指し示しているときに複数の照明手段の何れ
か1つを順に点灯させると共に、複数の照明手段の各々
の点灯時に、点灯している照明手段による床面上の照明
範囲が撮像範囲から外れている撮像手段によって認識対
象者を撮像させ、該撮像によって得られた画像を出力さ
せる。これにより、仮に非認識対象物体が撮像範囲内に
入っていたとしても、その輝度が低い状況で各撮像手段
での撮像が行われ、撮像によって得られた画像が出力さ
れることになる。
【0017】そして、判断手段は、複数の撮像手段から
各々出力された複数の画像に基づいて、画像中の認識対
象者に相当する画像部を抽出し、認識対象者が指し示し
た位置又は方向を判断する。これにより、請求項1の発
明と同様に、非認識対象物体に相当する画像部が存在す
る確率が低く、かつ該画像部が存在していたとしてもそ
の輝度が低い複数の画像に基づいて、認識対象者に相当
する画像部の抽出が行われるので、複雑な画像処理を行
うことなく、認識対象者に相当する画像部を簡単な処理
により短時間で抽出することができる。従って、処理速
度の高い画像処理部等を用いることで構成が複雑化する
ことなく、認識対象者からの指示の判定に要する時間を
短縮することができる。
【0018】請求項3記載の発明に係るハンドポインテ
ィング装置は、互いに異なる方向から認識対象者を照明
する複数の照明手段と、前記照明手段によって照明され
た認識対象者を互いに異なる方向から撮像する複数の撮
像手段と、認識対象者が特定の位置又は方向を指し示し
ているときに、前記複数の照明手段の何れか1つを順に
点灯させると共に、複数の照明手段の各々の点灯時に同
一の撮像手段の撮像によって各々得られた複数の画像を
比較し、前記複数の画像中の前記認識対象者に相当する
画像部とそれ以外の画像部とを判別することを、複数の
撮像手段に対して各々行う判別手段と、前記判別手段に
よる判別結果に基づいて、前記複数の撮像手段の各々が
撮像した画像から認識対象者に相当する画像部を各々抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、を含んで構成している。
【0019】請求項3記載の発明では、判別手段が、認
識対象者が特定の位置又は方向を指し示しているときに
複数の照明手段の何れか1つを順に点灯させると共に、
複数の照明手段の各々の点灯時に同一の撮像手段の撮像
によって各々得られた複数の画像を比較し、複数の画像
中の認識対象者に相当する画像部とそれ以外の画像部と
を判別することを、複数の撮像手段に対して各々行う。
【0020】複数の照明手段は認識対象者を照明する方
向が互いに異なっているので、複数の照明手段の各々の
点灯時に同一の撮像手段の撮像によって各々得られる複
数の画像において、認識対象者に相当する画像部につい
ては常に高い輝度となるが、認識対象者の周囲の床面上
に荷物やゴミ等の非認識対象物体が存在していたとする
と、該非認識対象物体に相当する画像部については、撮
像時の照明の方向によって輝度が大きく変動する。従っ
て、画像中の各画像部の輝度を前記複数の画像に亘って
比較(例えば輝度の平均値や最低値を各画像部毎に比
較)する、という非常に簡単な処理により、画像中の認
識対象者に相当する画像部とそれ以外の画像部とを判別
することができる。
【0021】そして判断手段は、判別手段による判別結
果に基づいて、複数の撮像手段の各々が撮像した画像か
ら認識対象者に相当する画像部を各々抽出し、認識対象
者が指し示した位置又は方向を判断するので、複雑な画
像処理を行うことなく、認識対象者に相当する画像部を
簡単な処理により短時間で抽出することができ、処理速
度の高い画像処理部等を用いることで構成が複雑化する
ことなく、認識対象者からの指示の判定に要する時間を
短縮することができる。
【0022】請求項4記載の発明に係るハンドポインテ
ィング装置は、認識対象者を照明する照明手段と、前記
照明手段によって照明された認識対象者を互いに異なる
方向から撮像する複数の撮像手段と、認識対象者が特定
の位置又は方向を指し示している状況を前記複数の撮像
手段が各々撮像することで得られた複数の画像に基づい
て、前記画像中の前記認識対象者に相当する画像部を抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、前記認識対象者の周囲の床面上に非認識対
象物体が停滞することを阻止する阻止手段と、を含んで
構成している。
【0023】請求項4記載の発明では、認識対象者の周
囲の床面上に非認識対象物体が停滞することを阻止する
阻止手段が設けられている。これにより、認識対象者の
周囲に非認識対象物体が停滞することが阻止されるの
で、撮像手段の撮像によって得られた画像中に非認識対
象物体に相当する画像部が存在することを防止すること
ができ、判断手段では、前記画像に基づいて、認識対象
者に相当する画像部を抽出し、認識対象者が指し示した
位置又は方向を判断するので、複雑な画像処理を行うこ
となく、認識対象者に相当する画像部を簡単な処理によ
り短時間で抽出することができる。従って、処理速度の
高い画像処理部等を用いることで構成が複雑化すること
なく、認識対象者からの指示の判定に要する時間を短縮
することができる。
【0024】なお、この阻止手段としては、例えば認識
対象者の周囲の床面上に形成した傾斜面(スロープ)が
挙げられる。これにより、大きさが比較的大きい非認識
対象物体(例えば認識対象者の荷物等)が認識対象者の
周囲に載置されたとしても、該非認識対象物体が傾斜面
上を滑り落ちることになるので、認識対象者の荷物等の
非認識対象物体が認識対象者の周囲に載置されることが
阻止される。
【0025】また、阻止手段として、認識対象者の周囲
に空気の流れを発生させるファン等の空気流発生手段を
適用してもよい。これにより、大きさが比較的小さい非
認識対象物体(例えば小さなゴミや塵埃等)は、発生さ
れた空気流によって吹き飛ばされるので、小さなゴミ等
の非認識対象物体が認識対象者の周囲に滞留することが
阻止される。また阻止手段として、認識対象者の周囲に
水等を貯留する貯留槽を配設してもよいし、更に前記貯
留槽を環状とし、貯留槽内を水等が循環するように構成
し、これを阻止手段としてもよい。
【0026】請求項5記載の発明に係るハンドポインテ
ィング装置は、所定箇所に到来した認識対象者を照明す
る照明手段と、前記照明手段によって照明された認識対
象者を互いに異なる方向から撮像する複数の撮像手段
と、前記所定箇所付近に位置している複数の仮想点の各
々の3次元座標と各撮像手段の撮像によって得られる各
画像上での前記複数の仮想点の各々の位置とを対応付け
る情報を記憶する記憶手段と、認識対象者が特定の位置
又は方向を指し示している状況を複数の撮像手段が各々
撮像することで得られた複数の画像に基づいて、各画像
中の前記認識対象者に相当する画像部を抽出して認識対
象者の特徴点の前記各画像上での位置を求め、前記各画
像上での特徴点の位置及び前記記憶手段に記憶された情
報に基づいて前記特徴点の3次元座標を求め、求めた特
徴点の3次元座標に基づいて認識対象者が指し示した位
置又は方向を判断する判断手段と、を含んで構成してい
る。
【0027】請求項5記載の発明では、所定箇所付近に
位置している複数の仮想点の各々の3次元座標と複数の
撮像手段の各々の撮像によって得られる各画像上での複
数の仮想点の各々の位置とを対応付ける情報が記憶手段
に記憶されている。判断手段は、認識対象者が特定の位
置又は方向を指し示している状況を複数の撮像手段が各
々撮像することで得られた複数の画像に基づいて、各画
像中の認識対象者に相当する画像部を抽出して認識対象
者の特徴点の各画像上での位置を求め、各画像上での特
徴点の位置及び前記記憶手段に記憶された情報に基づい
て前記特徴点の3次元座標を求め、認識対象者が指し示
した位置又は方向を判断する。
【0028】このように、請求項5の発明では、所定箇
所付近に位置している複数の仮想点の各々の3次元座標
と、各撮像手段の撮像によって得られる各画像上での複
数の仮想点の位置との対応が、記憶手段に記憶されてい
る情報により予め判明しており、認識対象者の特徴点の
3次元座標を前記情報に基づいて求めているので、非常
に簡単な処理で認識対象者の特徴点の3次元座標を求め
ることができる。従って、処理速度の高い画像処理部等
を用いることで構成が複雑化することなく、認識対象者
からの指示の判定に要する時間を短縮することができ
る。
【0029】ところで、請求項5の発明において、認識
対象者の特徴点の3次元座標を精度良く求めるために
は、多数の仮想点について、各々の3次元座標と各画像
上での各々の位置とを対応付けて記憶しておくことが望
ましいが、更に好ましくは、請求項6に記載したよう
に、記憶手段に、所定箇所付近に一定間隔で格子状に並
ぶ多数の仮想点について、各々の3次元座標と前記各画
像上での各々の位置との対応を表す情報が記憶されてい
ることが望ましい。
【0030】請求項6の発明では、多数の仮想点が一定
間隔で格子状に並んでいるので、特徴点が所定箇所付近
の何れの位置に位置していたとしても、特徴点に近接し
た位置に仮想点が存在していることになる。3次元座標
上で近接した位置に存在している可能性の高い仮想点の
3次元座標に基づいて特徴点の3次元座標を求めること
により、特徴点の3次元座標上での位置に拘らず、特徴
点の3次元座標を精度良く求めることができる。
【0031】また、上記のように多数の仮想点が一定間
隔で格子状に並んでいる場合、特徴点の3次元座標は、
例えば以下のようにして求めることができる。すなわ
ち、請求項7記載の発明は、請求項6の発明において、
判断手段は、複数の撮像手段の撮像によって得られる各
画像上での特徴点の位置を各々求めた後に、画像上での
位置が前記特徴点を包含する所定範囲内である仮想点を
前記各画像から各々抽出し、前記各画像から共通に抽出
された仮想点の3次元座標に基づいて前記特徴点の3次
元座標を求めることを特徴としている。
【0032】請求項7の発明では、判断手段が、各画像
上での特徴点の位置を各々求めた後に、画像上での位置
が特徴点を包含する所定範囲内である仮想点を各画像か
ら各々抽出する。これにより、3次元座標上で特徴点に
近接した位置に存在している可能性がある仮想点が全て
抽出される。なお、前記所定範囲の広さは仮想点の間隔
に応じて定めることができる。また判断手段は、各画像
から共通に抽出された仮想点の3次元座標に基づいて特
徴点の3次元座標を求めている。撮像手段の撮像によっ
て得られる画像は撮像範囲内の状況を平面に投影した画
像であるので、3次元座標が異なっているものの撮像手
段から重なって見える位置関係にある点は撮像によって
得られた画像上での位置が等しいが、各画像から共通に
抽出された仮想点は3次元座標上で特徴点に近接した位
置に存在している仮想点であるので、前記共通に抽出さ
れた仮想点の3次元座標から特徴点の3次元座標を求め
ることにより、特徴点の3次元座標を更に精度良く求め
ることができる。
【0033】なお、記憶手段に記憶する情報は、認識対
象者が到来する所定箇所と撮像手段との位置関係が正確
に一定である場合には、所定箇所付近に位置している複
数の仮想点の各々の3次元座標、及び各撮像手段の撮像
によって得られる各画像上での複数の仮想点の各々の位
置を実験等により測定し、測定結果に基づいて固定的に
設定することも可能であるが、前記位置関係にばらつき
があったり、個々のハンドポインティング装置毎に前記
位置関係が大幅に異なる設計となっている等の場合に
は、記憶手段に記憶する情報を設定し直す必要がある。
【0034】上記を考慮し、請求項8記載の発明は、請
求項5又は請求項6の発明において、前記仮想点の位置
にマーカが位置している状況を前記複数の撮像手段によ
って撮像させ、前記仮想点の3次元座標と各撮像手段の
撮像によって得られた各画像上でのマーカの位置とに基
づいて、仮想点の3次元座標と前記各画像上での仮想点
の位置とを対応付ける情報を生成し、前記記憶手段に記
憶させる生成手段を更に備えたことを特徴としている。
【0035】なお、上記のマーカは撮像によって得られ
た画像上での識別が容易なものであればよく、例えば特
有の色に着色されたマークや、LED等の発光源を用い
ることができる。また、所定位置にマーカを位置させる
ことは、人間が行ってもよいし、マーカを任意の位置に
移動可能な移動手段を設けて自動的に行ってもよい。移
動手段によってマーカを移動させる場合には、移動手段
によるマーカの移動量から所定位置の3次元座標を求め
ることができる。
【0036】請求項8の発明では、仮想点の3次元座標
と前記各画像上での仮想点の位置とを対応付ける情報が
生成手段によって自動的に生成されるので、認識対象者
が到来する所定箇所と撮像手段との位置関係にばらつき
があったり、個々のハンドポインティング装置毎に前記
位置関係が大幅に異なる設計となっている等の場合であ
っても、仮想点の3次元座標と前記各画像上での仮想点
の位置とを精度良く対応付ける情報を自動的に得ること
ができる。
【0037】請求項9記載の発明に係るハンドポインテ
ィング装置は、認識対象者を照明する照明手段と、前記
照明手段によって照明された認識対象者を互いに異なる
方向から撮像する複数の撮像手段と、認識対象者が特定
の位置又は方向を指し示している状況を前記複数の撮像
手段が各々撮像することで得られた複数の画像に基づい
て、前記画像中の前記認識対象者に相当する画像部を抽
出し、認識対象者が指し示した位置又は方向を判断する
判断手段と、前記複数の画像中の前記認識対象者の身体
の所定部分に相当する画像部を抽出し、前記画像部の面
積又は輪郭の形状又は輪郭線の長さの変化を検出する第
1の検出手段と、前記第1の検出手段によって前記画像
部の面積又は輪郭の形状又は輪郭線の長さの変化が検出
された場合に所定の処理を実行する処理手段と、を含ん
で構成している。
【0038】請求項9記載の発明では、複数の画像中の
認識対象者の身体の所定部分(例えば手や腕等)に相当
する画像部を抽出し、前記画像部の面積又は輪郭の形状
又は輪郭線の長さの変化を検出する第1の検出手段が設
けられており、処理手段は、前記画像部の面積又は輪郭
の形状又は輪郭線の長さの変化が検出された場合に所定
の処理を実行する。上記の画像部の面積、輪郭の形状、
輪郭線の長さは、比較的簡単に検出できると共に、認識
対象者が身体の所定部分を動せば、それが予め定められ
ていない動作であったとしても、殆どの場合、前記所定
部分に相当する画像部の面積、輪郭の形状、輪郭線の長
さは変化する。
【0039】従って、処理手段に所定の処理の実行を指
示するための認識対象者の動作の自由度が向上すると共
に、該動作を短時間で検出することができるので、認識
対象者からの指示を短時間で判定することができる。
【0040】ところで、人間が特定の位置や特定の方向
を指し示す動作では、指し示す位置や方向を変更した場
合であっても、指先等は一般に腕の付け根付近を中心と
する仮想的な球面に沿って移動するのみであり、指先等
と腕の付け根を含む胴体部との距離は殆ど変化しない。
【0041】上記に着目し、請求項10記載の発明に係
るハンドポインティング装置は、認識対象者を照明する
照明手段と、前記照明手段によって照明された認識対象
者を互いに異なる方向から撮像する複数の撮像手段と、
認識対象者が特定の位置又は方向を指し示している状況
を前記複数の撮像手段が各々撮像することで得られた複
数の画像に基づいて、前記画像中の前記認識対象者に相
当する画像部を抽出し、認識対象者が腕を屈曲又は伸長
させることで位置が変化する特徴点及び認識対象者が腕
を屈曲及び伸長させても位置が変化しない基準点の3次
元座標を求め、特徴点及び基準点の3次元座標に基づい
て認識対象者が指し示した位置又は方向を判断する判断
手段と、前記基準点と前記特徴点との距離を演算し、基
準点と特徴点との距離の変化に基づいて所定の処理を実
行する処理手段と、を含んで構成している。
【0042】請求項10記載の発明に係る判断手段は、
複数の画像から認識対象者に相当する画像部を抽出し、
認識対象者が腕を屈曲又は伸長させることで位置が変化
する特徴点及び認識対象者が腕を屈曲及び伸長させても
位置が変化しない基準点の3次元座標を求め、特徴点及
び基準点の3次元座標に基づいて認識対象者が指し示し
た位置又は方向を判断する。また処理手段は、基準点と
特徴点との距離を演算し、基準点と特徴点との距離の変
化に基づいて所定の処理を実行する。なお特徴点として
は、例えば認識対象者の手や指等の先端、或いは認識対
象者が把持している指示器の先端等に相当する点を用い
ることができ、基準点としては、例えば認識対象者の胴
体部(例えば胸部や腕の付け根等)に相当する点を用い
ることができる。
【0043】これにより、基準点から特徴点に向かう方
向が認識対象者から見て指示対象としての位置又は方向
に対応するように、基準点に対する特徴点の方向を調節
する動作を行えば、指し示した位置又は方向が判断手段
によって判断され、認識対象者が腕を屈曲又は伸長させ
る動作を行えば、基準点と特徴点との距離が変化し、こ
の距離の変化に基づいて所定の処理が行われることにな
る。
【0044】このように、請求項10の発明は、基準点
及び特徴点の位置関係から認識対象者が指し示した位置
又は方向が判断されると共に、基準点及び特徴点の距離
(相対位置)の変化に基づいて所定の処理の実行が指示
されたか否かが判断されるので、撮像手段による撮像方
向を、指の上げ下げ等の動作を考慮することなく、基準
点及び特徴点が確実に検出できるように定めることがで
きると共に、所定の処理の実行が指示されたか否かを判
定するために、新たな画像特徴量を検出する必要もな
い。そして、基準点と特徴点の距離は人間が特定の位置
や特定の方向を指し示す動作では殆ど変化しない。従っ
て、請求項10の発明によれば、認識対象者による所定
の処理の実行を指示する動作(腕を屈曲又は伸長させる
動作)を短時間で確実に検出することができ、認識対象
者からの指示を短時間で判定することができる。
【0045】なお処理手段は、所定の処理として、例え
ば基準点と特徴点との距離が変化したときに認識対象者
が指し示していた位置又は方向に関連する処理を実行す
ることができるが、腕を屈曲又は伸長させる動作は、上
記の所定の処理の実行を指示するための動作として極め
て自然な動作であるので、所定の処理の実行を指示する
動作を、認識対象者が違和感を感ずることなく行うこと
ができる。
【0046】また、腕を屈曲又は伸長させる動作に伴う
基準点と特徴点との距離の変化方向には2種類ある(距
離が増加する方向及び減少する方向)ので、請求項11
に記載したように、基準点と特徴点との距離が増加した
場合には第1の所定の処理を行い、基準点と特徴点との
距離が減少した場合には前記第1の所定の処理と異なる
第2の所定の処理を行うようにしてもよい。
【0047】請求項11の発明では、認識対象者が腕を
伸長させる動作(この場合、基準点と特徴点との距離は
増加する)を行うと第1の所定の処理が行われ、認識対
象者が腕を屈曲させる動作(この場合、基準点と特徴点
との距離は減少する)を行うと第2の所定の処理が行わ
れるので、マウスの左クリックと右クリックのように、
第1の所定の処理及び第2の所定の処理のうち実行させ
るべき処理を認識対象者が選択することが可能となる。
そして、認識対象者が上記の何れかの動作を行うことに
より、第1の所定の処理及び第2の所定の処理のうち認
識対象者によって選択された処理を確実に実行すること
ができる。
【0048】なお、基準点と特徴点との距離の変化に基
づいて所定の処理の実行が指示されたか否かを判断する
ことは、具体的には、例えば基準点と特徴点との距離の
変化の大きさに基づいて、距離の変化が所定値以上とな
った場合に所定の処理の実行が指示されたと判断するこ
とも可能ではあるが、所定の処理の実行を意図しない別
の動作において基準点と特徴点との距離が大きく変化し
たとすると、認識対象者からの指示を誤判断する可能性
もある。
【0049】これを考慮すると、請求項12に記載した
ように、処理手段は、基準点と特徴点との距離の変化速
度を検出し、検出した変化速度が閾値以上の場合にのみ
所定の処理を実行することが好ましい。
【0050】請求項12の発明では、基準点と特徴点と
の距離の変化速度を検出し、検出した変化速度が閾値以
上の場合にのみ所定の処理を実行するので、認識対象者
が、腕を素早く屈曲又は伸長させる、という特有の動作
を行うことによって、基準点と特徴点との距離の変化速
度が閾値以上になって所定の処理が実行されることにな
る。これにより、認識対象者による所定の処理の実行を
指示する動作の認識率が向上し、認識対象者が所定の処
理の実行を指示する動作を行った場合にのみ、これを確
実に検知して所定の処理を実行することができる。
【0051】また、認識対象者の体格は一定ではないと
共に、認識対象者の筋力等も一定ではないので、処理手
段に所定の処理を行わせるために認識対象者が腕を素早
く屈曲又は伸長させる動作を行ったとしても、基準点と
特徴点との距離の変化速度は個々の認識対象者毎にばら
つきがある。従って、所定の処理を行わせるために認識
対象者が腕を素早く屈曲又は伸長させる動作を行ったと
しても検知できなかったり、逆に認識対象者が前記動作
を行っていないにも拘らず前記動作を誤検知することも
考えられる。
【0052】このため請求項13記載の発明は、請求項
12の発明において、処理手段に所定の処理を行わせる
ために腕を屈曲又は伸長させる動作を行うよう認識対象
者に要請し、認識対象者が腕を屈曲又は伸長させる動作
を行ったときの基準点と特徴点との距離の変化速度に基
づいて前記閾値を予め設定する閾値設定手段を更に備え
たことを特徴としている。
【0053】請求項13記載の発明では、処理手段に所
定の処理を行わせるために認識対象者が腕を屈曲又は伸
長させる動作(腕を素早く屈曲又は伸長させる動作)を
行ったときの基準点と特徴点との距離の変化速度に基づ
いて、処理手段が所定の処理を行うか否かの閾値を予め
設定するので、個々の認識対象者の体格や筋力等に応じ
た閾値を得ることができる。そして、この閾値を用いて
所定の処理の実行が指示されたか否かを判断することに
より、個々の認識対象者の体格や筋力等のばらつきに拘
らず、認識対象者による所定の処理の実行を指示する動
作を確実に検知して所定の処理を実行することができ
る。
【0054】また請求項9又は請求項10の発明におい
て、請求項14に記載したように、認識対象者の腕が下
げられたか否かを検出する第2の検出手段を設け、処理
手段は、第2の検出手段によって認識対象者の腕が下げ
られたことが検出された場合には、処理を実行又は停止
している状態を継続するようにすれば、ある処理を継続
して実行させるために、認識対象者が継続的に腕を上げ
続ける必要がなくなるので、認識対象者の負担を軽減す
ることができる。
【0055】
【発明の実施の形態】以下、図面を参照して本発明の実
施形態の一例を詳細に説明する。図1に示すように、本
発明の認識対象者としての情報入力者10が到来する箇
所の壁面には大画面ディスプレイ12が埋め込まれてい
る。なお、ディスプレイ12としては液晶ディスプレイ
(LCD)やプラズマディスプレイ、ブラウン管、光フ
ァイバディスプレイ等の周知の表示手段を適用できる。
【0056】ディスプレイ12はパーソナルコンピュー
タ等から成る情報処理装置14に接続されており(図2
参照)、情報処理装置14により、各種の情報が表示面
上に図形、表、文字、画像等の種々の表示形態で表示さ
れる。本実施形態において、情報入力者10は、ディス
プレイ12の前方の図1に示した箇所(情報入力空間)
に到来し、ディスプレイ12の表示面上の各種情報が表
示されている位置を指し示すと共に、クリック動作(詳
細は後述)を行うことにより、情報処理装置14に対し
て各種の指示を与えたり各種の処理を実行させる。
【0057】図2に示すように、情報処理装置14に
は、本実施形態に係るハンドポインティング入力装置2
0のコントローラ22が接続されている。コントローラ
22は、CPU22A、ROM22B、RAM22C、
入出力インタフェース22Dを備えており、これらがバ
スを介して互いに接続されて構成されている。入出力イ
ンタフェース22Dには情報処理装置14が接続されて
いると共に、記憶内容を書換え可能な不揮発性の記憶装
置24、各種の情報を表示するためのディスプレイ2
6、オペレータが各種の指示やデータを入力するための
キーボード28が接続されている。
【0058】また、コントローラ22の入出力インタフ
ェース22Dには照明制御装置30が接続されており、
この照明制御装置30には、近赤外域の波長の光をビー
ム状に射出する複数の近赤外光照明装置32A、32B
が接続されている。図1に示すように、近赤外光照明装
置32A、32Bは、情報入力空間の上方の互いに異な
る箇所に配設されており、情報入力空間に到来した情報
入力者10を、互いに異なる方向から照明するように照
射範囲が調整されている(図3も参照)。照明制御装置
30は、コントローラ22から指示に応じて照明装置3
2A、32Bの点灯・消灯を制御する。
【0059】コントローラ22の入出力インタフェース
22Dには撮像制御装置34が接続されており、この撮
像制御装置34には、情報入力空間の上方の互いに異な
る箇所に配設された(図1参照)複数のビデオカメラ3
6A、36Bが接続されている。ビデオカメラ36A、
36Bは、図示は省略するが、近赤外光に感度を有する
CCD等から成るエリアセンサを備えていると共に、入
射光をエリアセンサの受光面に結像させる結像レンズの
光入射側に、近赤外域の波長の光のみを透過するフィル
タが設けられている。
【0060】また図3に示すように、ビデオカメラ36
Aは、情報入力空間に到来した情報入力者10が撮像範
囲内に入り、かつ照明装置32Aから射出された光が結
像レンズに直接入射せず、かつ撮像範囲の中心が、情報
入力空間内において、照明装置32Aによる照明範囲の
中心と床面から所定高さで交差するように向きが調整さ
れている。従ってビデオカメラ36Aは、照明装置32
Aによる床面上の照明範囲が撮像範囲から外れるように
撮像範囲が調整されている。同様にビデオカメラ36B
は、情報入力空間に到来した情報入力者10が撮像範囲
内に入り、かつ照明装置32Bから射出された光が結像
レンズに直接入射せず、かつ撮像範囲の中心が、情報入
力空間内において、照明装置32Bによる照明範囲の中
心と床面から所定高さで交差するように向きが調整され
ている。
【0061】このように、ビデオカメラ36A、36B
は、互いに異なる照明装置によって照明される床面上の
照明範囲が撮像範囲から外れるように撮像範囲が各々調
整されており、請求項1、より詳しくは請求項2に記載
の撮像手段に対応している。
【0062】また、コントローラ22の入出力インタフ
ェース22Dにはマーク板駆動装置38も接続されてい
る。図4に示すように、ハンドポインティング入力装置
20は、情報入力空間の近傍に配設されたマーク板40
を備えている。マーク板40は、透明な平板に多数のマ
ーク40Aがマトリクス状に等間隔で記録されて構成さ
れており、マーク40Aの配列方向に直交する方向(図
4の矢印A方向)に沿って情報入力空間を横切るように
移動可能とされている。なおマーク40Aは、画像上で
の認識が容易な色(例えば赤色)に着色されている。マ
ーク板駆動装置38は、コントローラ22からの指示に
応じてマーク板40を図4の矢印A方向に沿って移動さ
せる。
【0063】次に本実施形態の作用として、まず、ハン
ドポインティング入力装置20が設置された際に行われ
る格子点位置情報初期設定処理について、図5のフロー
チャートを参照して説明する。
【0064】ステップ100では、マーク板駆動装置3
8により、マーク板40を所定位置(マーク板40の移
動範囲の端部に相当する位置)に移動させる。次のステ
ップ102では、現在のマーク板40の位置において、
マーク板40に記録されている多数のマーク40Aの情
報入力空間内での3次元座標(x,y,z)を各々演算
する。ステップ104では撮像制御装置34を介し、ビ
デオカメラ36A、36Bによって情報入力空間を撮像
させ、次のステップ106では、ビデオカメラ36Aが
情報入力空間を撮像することによって得られた画像(以
下画像Aと称する)を撮像制御装置34を介して取り込
む。
【0065】ステップ108では、ステップ106で取
り込んだ画像A中に存在するマーク40Aの認識(抽
出)を行い、次のステップ110では認識した全てのマ
ーク40Aについて、画像A上での位置(XA ,YA
を演算する。そしてステップ112では、画像A中に存
在する全てのマーク40Aについて、情報入力空間内で
の3次元座標(x,y,z)と、画像A上での位置(X
A ,YA )とを対応させ、ビデオカメラ36Aの格子点
位置情報として記憶装置24に記憶させる。
【0066】次のステップ114〜120では、上記の
ステップ106〜112と同様にしてビデオカメラ36
Bに対する処理を行う。すなわち、ステップ114では
ビデオカメラ36Bが情報入力空間を撮像することによ
って得られた画像(以下画像Bと称する)を撮像制御装
置34を介して取り込み、ステップ116ではステップ
114で取り込んだ画像B中に存在するマーク40Aの
認識(抽出)を行い、次のステップ118では認識した
全てのマーク40Aについて、画像B上での位置
(XB ,YB )を演算する。そしてステップ120で
は、画像B中に存在する全てのマーク40Aについて、
情報入力空間内での3次元座標(x,y,z)と、画像
B上での位置(XB ,YB )とを対応させ、ビデオカメ
ラ36Bの格子点位置情報として記憶装置24に記憶さ
せる。
【0067】次のステップ122では、マーク板40が
最終位置(マーク板40の移動範囲のうちステップ10
0における所定位置と反対側の端部に相当する位置)迄
移動したか否か判定する。ステップ122の判定が否定
された場合にはステップ124へ移行し、マーク板駆動
装置38により、マーク板40を所定方向に一定距離
(詳しくは、マーク板40上におけるマーク40Aの間
隔に一致する距離)だけ移動させた後にステップ102
に戻る。
【0068】上記のように、マーク板40が最終位置に
移動する迄、ステップ102〜124が繰り返されるこ
とにより、マーク板40に記録されている多数のマーク
40Aは、情報入力空間内に一定間隔で格子状に並ぶ多
数の格子点(請求項6に記載の仮想点に相当)に対応す
る位置へ移動され、ビデオカメラ36Aの格子点位置情
報として、各格子点の情報入力空間内での3次元座標と
画像A上での位置とが対応されて記憶装置24に記憶さ
れると共に、ビデオカメラ36Bの格子点位置情報とし
て、各格子点の情報入力空間内での3次元座標と画像B
上での位置とが対応されて記憶装置24に記憶されるこ
とになる。
【0069】上記の格子点位置情報初期設定処理は請求
項8に記載の生成手段に対応しており、上記処理によっ
て初期設定される格子点位置情報は、請求項5及び請求
項8に記載の「仮想点の3次元座標と画像上での仮想点
の位置とを対応付ける情報」に相当し、記憶装置24は
本発明の記憶手段に対応している。なお、マーク板40
及びマーク板駆動装置38は、上記の格子点位置情報初
期設定処理においてのみ用いられ、後述する処理では用
いないので、上記の処理を実行した後に、マーク板40
及びマーク板駆動装置38を撤去するようにしてもよ
い。
【0070】次に図6のフローチャートを参照し、上記
の格子点位置情報初期設定処理が行われた後に、コント
ローラ22で定常的に実行される照明制御処理について
説明する。ステップ130では、照明制御装置30によ
り照明装置32Aを点灯させると共に照明装置32Bを
消灯させる。ステップ132では、ビデオカメラ36A
によって情報入力空間を撮像させ、ビデオカメラ36A
から画像を出力させる。ステップ134では照明装置3
2Aの点灯を開始してから所定時間経過したか否か判定
し、判定が肯定される迄待機する。
【0071】ステップ134の判定が肯定されるとステ
ップ136へ移行し、照明制御装置30により照明装置
32Aを消灯させると共に照明装置32Bを点灯させ
る。ステップ138では、ビデオカメラ36Bによって
情報入力空間を撮像させ、ビデオカメラ36Bから画像
を出力させる。ステップ140では照明装置32Bの点
灯を開始してから所定時間経過したか否か判定し、判定
が肯定される迄待機する。そして、ステップ140の判
定が肯定されるとステップ130へ戻る。
【0072】上記の照明制御処理により、図7にも示す
ように、照明装置32A及び照明装置32Bは所定時間
毎に交互に点灯されると共に、照明装置32Aが点灯し
ているときにビデオカメラ36Aの撮像が行われ、ビデ
オカメラ36Aの撮像によって得られた画像Aを表す画
像データが撮像制御装置34を介してコントローラ22
に出力され、照明装置32Bが点灯しているときにビデ
オカメラ36Bの撮像が行われ、ビデオカメラ36Bの
撮像によって得られた画像Bを表す画像データが撮像制
御装置34を介してコントローラ22に出力される。上
記の照明制御処理は請求項2に記載の制御手段に対応し
ている。
【0073】本実施形態では、近赤外光により撮像を行
っているので、撮像によって得られる画像中の情報入力
者10に相当する画像部の輝度が、可視光が射出される
ディスプレイ12の輝度の変化や、情報入力者10の肌
の色や服の色の影響を受けて変化することはなく、後述
する指示判断処理において、情報入力者10に相当する
画像部を高精度に抽出することができる。また、情報入
力空間の近傍に、近赤外域の波長の光が射出されないよ
うに処理した蛍光灯を配置したとしても、この影響を受
けることはない。更に、近赤外光が照射されていること
を情報入力者10に感知されることがないので、上記の
ように照明装置32A、32Bを交互に点灯させても、
情報入力者10に不快感を与えることはない。
【0074】次に図8のフローチャートを参照し、上記
の照明制御処理と並行してコントローラ22で所定時間
毎に繰り返し実行される、情報入力者10からの指示を
判断する指示判断処理について説明する。
【0075】ステップ150では、ビデオカメラ36A
から出力される画像Aを表す画像データ、及びビデオカ
メラ36Bから出力される画像Bを表す画像データを、
図7に示すタイミングで各々取り込む。次のステップ1
52では、ステップ150で取り込んだ画像A、画像B
の画像データに基づいて、情報入力空間内に情報入力者
10が存在しているか否か判定する。
【0076】先に説明したように、ビデオカメラ36A
による情報入力空間の撮像は照明装置32Aのみが点灯
しているときに行われ、ビデオカメラ36Aの撮像範囲
は照明装置32Aによる床面上の照明範囲が撮像範囲か
ら外れるように調整されている。従って、照明装置32
Aによる床面上の照明範囲内に情報入力者10の荷物や
ゴミ等の非認識対象物50A(図3参照)が存在してい
たとしても、この非認識対象物50Aがビデオカメラ3
6Aの撮像範囲に入ることはない。また、床面上のビデ
オカメラ36Aによって撮像される範囲内に非認識対象
物50B(図3参照)が存在していた場合には、非認識
対象物50Bはビデオカメラ36Aによって撮像される
ことになるが、非認識対象物50Bは照明装置32Aに
よる照明範囲から外れているので、画像A中に存在する
非認識対象物50Bに相当する画像部の輝度は非常に低
くなる。
【0077】また、ビデオカメラ36Bによる情報入力
空間の撮像についても照明装置32Bのみが点灯してい
るときに行われ、ビデオカメラ36Bの撮像範囲は照明
装置32Bによる床面上の照明範囲が撮像範囲から外れ
るように調整されている。従って、照明装置32Bによ
って照明される床面上に非認識対象物50Bが存在して
いたとしても、この非認識対象物50Bがビデオカメラ
36Bの撮像範囲に入ることはない。また、床面上のビ
デオカメラ36Bによって撮像される範囲内に非認識対
象物50Aが存在していた場合には、ビデオカメラ36
Bによって非認識対象物50Bが撮像され、画像B中に
非認識対象物50Bに相当する画像部が存在することに
なるが、上記と同様にその輝度は非常に低い。
【0078】従って、先のステップ152では、例えば
画像A及び画像B中に、高輝度でかつ所定値以上の面積
の画像部が存在しているか否か等の極めて簡単な判断処
理により、情報入力空間内に情報入力者10が存在して
いるか否かを判定することができる。ステップ152の
判定が否定された場合には、何ら処理を行うことなく指
示判断処理を終了する。
【0079】一方、ステップ152の判定が肯定された
場合にはステップ154へ移行する。なお、ステップ1
54以降の処理は本発明の判断手段に対応している。ス
テップ154では画像A及び画像Bから、情報入力者1
0の全体像に相当する画像部を各々抽出する。この情報
入力者10の全体像に相当する画像部についても、高輝
度の画素から成る所定値以上の面積の連続した領域を判
断することで容易に抽出することができる。
【0080】ステップ156では、情報入力者10の全
体像に相当する画像部に基づき、情報入力者10の身長
を求める。図9に示すように、点Oに位置しているビデ
オカメラ36の結像レンズの焦点距離をf、点Oを通る
鉛直線と情報入力空間の床面との交点Qと点Oとの距離
をH、点Qと情報入力者10が立っている床面上の点P
との距離をR、情報入力者10の頭頂部に相当する点
P’と点Pとの距離hを情報入力者10の身長とする。
また、点POQの成す角度をθ、点P’OQの成す角度
をθ’、ビデオカメラ36のエリアセンサの受光面に結
像される情報入力者の像の長さをh’、点Pに対応する
受光面上の結像点を点p、点P’に対応する受光面上の
結像点を点p’、受光面の中心oと点pとの距離をr、
受光面の中心oと点p’との距離をr’とすると、角度
θ、θ’、距離r、r’は次の(1)〜(4)式から求
めることができる。
【0081】 θ =tan-1(R/H) …(1) θ’=tan-1{R/(H−h)} …(2) r =fθ …(3) r’=fθ’ …(4)
【0082】従って、情報入力者10の身長h及び距離
Rは次の(5)式及び(6)式によって求めることがで
きる。
【0083】 h=H{1−tan(r/f)/tan(r’/f)} …(5) R=Htan(r/f) …(6)
【0084】距離H及び焦点距離fは既知であるので、
ステップ156ではビデオカメラ36A、36Bの撮像
によって得られた画像A及び画像Bの何れかから距離
r、r’を求め、これを(5)式に代入することにより
情報入力者10の身長hを求めることができる。また、
ステップ156では、画像A及び画像Bの各々から距離
rを求め、これを(6)式に各々代入して距離Rを各々
求めることにより、情報入力者10の床面上の位置(2
次元座標)を求める。
【0085】次のステップ158では、ステップ156
で求めた情報入力者10の身長h及び情報入力者の床面
上の位置に基づき、情報入力者10の基準点P0 の3次
元座標(x0 ,y0 ,z0 )を決定する。なお基準点P
0 としては、例えば情報入力者10の背中に相当する点
(図11に示す点P0 )等を用いることができる。この
場合、情報入力者10の身長hに基づいて情報入力者1
0の背中に相当する基準点P0 の床面からの高さ(例え
ばz0 の値)を割り出し、情報入力者10の床面上の位
置(平面座標)を基準点P0 の平面座標(例えばx0
0 の値)として設定することにより、基準点P0 の3
次元座標を決定することができる。
【0086】ステップ159では、画像A及び画像B上
での情報入力者10の全体像に相当する画像部の形状に
基づいて、情報入力者10が指示動作(指等によりディ
スプレイ12側を指し示す動作)を行っているか否か判
定する。情報入力者10から見たディスプレイ12の方
向は既知であるので、ステップ159の判定は、例えば
情報入力者10の全体像に相当する画像部において、情
報入力者10の手に相当すると判断できる高さ位置に、
情報入力者10から見たディスプレイ12の方向に向か
って突出している部分が有るか否かを判断することで実
現できる。
【0087】これにより、情報入力者10が、図12
(A)に示す直立状態から、図12(B)又は(C)に
示すように手をディスプレイ12側に向ければ、情報入
力者10が指示動作を行っていると判定されることにな
る。ステップ159の判定が否定された場合には、何ら
処理を行うことなく指示判断処理を一旦終了するが、ス
テップ159の判定が肯定された場合には、ステップ1
60へ移行する。
【0088】ステップ160では、ビデオカメラ36A
から取り込んだ画像Aを表す画像データに基づいて、画
像A中に存在する情報入力者10の特徴点Px を抽出
し、画像A上での特徴点Px の位置(XA ,YA )を演
算する。情報入力者10の特徴点Px としては、ディス
プレイ12側を指し示す動作を行っている指の先端に相
当する点等を用いることができる。この場合、情報入力
者10の全体像を表す画像部のうち、情報入力者10の
手に相当すると判断できる高さ位置に、ディスプレイ1
2の方向に向かって突出している部分の先端の位置を、
特徴点Px の位置として演算することができる。
【0089】これにより、ビデオカメラ36Aにより情
報入力者10の手が図10(A)に示すように撮像され
た場合、特徴点Px の位置として、図10(B)に示す
特徴点Px の座標(XA ,YA )が演算されることにな
る。
【0090】ステップ162では、記憶装置24に記憶
されているビデオカメラ36Aの格子点位置情報に基づ
き、画像A上での位置が(XA ±dX,YA ±dY)の
範囲(図10(B)にハッチングで囲んだ範囲を参照)
に入る格子点を全て検索する。なお、このdX及びdY
の大きさは、格子点の間隔(マーク40Aの間隔)に基
づき、少なくとも1個以上の格子点が抽出されるように
定められている。
【0091】また、本実施形態ではビデオカメラの結像
レンズとして広角レンズを用いており、仮にdX及びd
Yを一定とすると、ビデオカメラと格子点との距離が大
きくなるに従って多くの格子点が(XA ±dX,YA ±
dY)の範囲に入り、後述する特徴点Px の3次元座標
の演算の精度の低下に繋がる。このため、dX及びdY
は、3次元座標上でのビデオカメラからの距離が離れる
に従って値が小さくなるように設定される。従って、3
次元座標上での(XA ±dX,YA ±dY)に相当する
範囲は、底面がビデオカメラ側に位置している円錐状
(又は楕円錐状)となる。このステップ162は、請求
項6に記載の「画像上での位置が特徴点を包含する所定
範囲内である仮想点を抽出する」ことに対応している。
【0092】ステップ164では、先のステップ160
と同様に、ビデオカメラ36Bから取り込んだ画像Bを
表す画像データに基づいて、画像B中に存在する情報入
力者10の特徴点Px を抽出し、画像B上での特徴点P
x の位置(XB ,YB )を演算する。ステップ166で
は、先のステップ162と同様に、記憶装置24に記憶
されているビデオカメラ36Bの格子点位置情報に基づ
き、画像B上での位置が(XB ±dX,YB ±dY)の
範囲に入る格子点を全て検索する。このステップ166
も、請求項7に記載の「画像上での位置が特徴点を包含
する所定範囲内である仮想点を抽出する」ことに対応し
ている。
【0093】次のステップ168では、画像A及び画像
Bから共通に抽出した格子点を判定する。これにより、
情報入力空間内で特徴点Px に近接した位置に存在して
いる格子点のみが複数抽出されることになる。ステップ
170では、画像A及び画像Bから共通に抽出した格子
点の3次元座標を、格子点位置情報から取り込む。
【0094】本実施形態では、後述するように、特徴点
x の3次元座標を、情報入力空間内で特徴点に近接し
た位置に存在している複数の格子点の3次元座標から内
挿によって演算する(具体的には、前記複数の格子点の
3次元座標の座標値の重み付き平均により特徴点の3次
元座標の座標値を求める)。このため、特徴点Px の3
次元座標を演算するに先立ち、次のステップ172で
は、画像A及び画像Bから共通に抽出した各格子点の画
像A及び画像B上での位置、画像A上での特徴点Px
位置(XA ,YA )、画像B上での特徴点Px の位置
(XB ,YB )に基づいて、画像A及び画像Bから共通
に抽出した各格子点の3次元座標からの内挿の割合(各
格子点の3次元座標の座標値に対する重み)を決定す
る。この内挿の割合は、例えば画像A及び画像B上で特
徴点と近接した位置に存在している格子点の3次元座標
の座標値の重みが大きくなるように決定することができ
る。
【0095】ステップ174では、画像A及び画像Bか
ら共通に抽出した格子点の3次元座標、及びステップ1
72で決定した内挿の割合に基づいて、特徴点Px の3
次元座標(Xx ,Yx ,Zx )を演算する。
【0096】ステップ176では、先のステップ158
で演算した情報入力者の基準点P0の3次元座標と、ス
テップ174で演算した特徴点の3次元座標とに基づ
き、情報入力者10が指し示している方向として、上記
の基準点と特徴点とを結ぶ仮想線(図11の仮想線54
参照)の延びる方向を求め、情報入力者10が指し示し
ている位置として、大画面ディスプレイ12の表示面を
含む平面と前記仮想線の交点(図11の点S参照)の座
標(平面座標)を演算する。
【0097】次のステップ178では、ステップ176
で求めた座標に基づいて、情報入力者10が大画面ディ
スプレイ12の表示面上を指し示しているか否か判定す
る。判定が否定された場合には、ステップ180で監視
フラグ(クリック動作を監視するためのフラグ)を0に
して指示判断処理を終了する。一方、ステップ178の
判定が肯定された場合には、ステップ176で演算した
情報入力者10が指し示している位置を表す座標を情報
処理装置14に出力する。これにより、情報処理装置1
4では、情報入力者10が指し示していると判断された
ディスプレイ12の表示面上の所定位置にカーソルを表
示する等の処理を行う。
【0098】次のステップ184以降は請求項9に記載
の第1の検出手段に対応しており、情報入力者10がク
リック動作を行ったか否かを判定する。なお、本実施形
態ではクリック動作が、情報入力者が自身の手(請求項
9に記載の所定部分に相当)を動かすあらゆる動作(例
えば手首の屈曲や回転、任意の指の曲げ伸ばし等)とし
て定義されている。ステップ184では、画像A中に存
在する情報入力者10の手に相当する画像部を抽出し、
該画像部の面積を求めると共に、画像B中に存在する情
報入力者10の手に相当する画像部を抽出し、該画像部
の面積を求める。
【0099】次のステップ186では監視フラグが1か
否か判定する。ステップ186の判定が否定された場合
は、指示判断処理を前回行ったときには情報入力者10
がディスプレイ12の表示面上を指し示していなかった
場合であるので、ステップ188で監視フラグを1にし
て、次のステップ190では、後にクリック動作の判定
を行うために、ステップ184で演算した情報入力者の
手に相当する画像部の面積をRAM22Cに記憶し、指
示判断処理を一旦終了する。
【0100】一方、ステップ186の判定が肯定された
場合は、情報入力者10がディスプレイ12の表示面上
を継続的に指し示している場合であるので、ステップ1
92へ移行し、ステップ184で演算した面積を、RA
M22C等に記憶されている面積(情報入力者10がデ
ィスプレイ12の表示面上を指し示すことを開始したと
き、すなわち過去にステップ188で監視フラグを1に
したときに演算した面積)と比較し、情報入力者10の
手に相当する画像部の面積に所定値以上の変化が有った
か否か判定する。ステップ192の判定が否定された場
合には、情報入力者10がクリック動作を行っていない
と判断し、何ら処理を行うことなく指示判断処理を終了
する。
【0101】また、情報入力者10が手首の屈曲や回転
(例えば図12(B)に示す状態から図12(C)に示
す状態への変化、或いはその逆の変化)、任意の指の曲
げ伸ばし等の動作を行うと、画像A及び画像B中に存在
する情報入力者10の手に相当する画像部の面積が所定
値以上変化することによってステップ192の判定が肯
定される。ステップ192の判定が肯定されると、ステ
ップ194で「クリック有り」を表す情報を情報処理装
置14に出力し、次のステップ196で監視フラグを0
にした後に指示判断処理を終了する。
【0102】これにより、情報処理装置14では、情報
入力者10によって指し示されているディスプレイ12
の表示面上の所定位置(ステップ182で入力された座
標に相当する位置)がクリックされたと判断し、ディス
プレイ12の表示面上の所定位置に表示している情報に
応じた処理を行う。この処理は、請求項9に記載の処理
手段で実行される「所定の処理」に対応している。
【0103】ハンドポインティング入力装置20のコン
トローラ22において、上記の指示判断処理を所定時間
毎に繰り返し実行することにより、情報入力者10によ
るディスプレイ12上の表示面上の指示位置及びクリッ
ク動作の有無をリアルタイムで判断することができるの
で、情報処理処理装置14で実行される処理と組み合わ
せることで、以下で説明するように種々の利用形態での
利用が可能となる。
【0104】例えばディスプレイ12を地下街等の壁面
に設置し、情報処理装置14がディスプレイ12に商品
の広告等を表示する場合に、本実施形態に係るハンドポ
インティング入力装置20を設ければ、到来した利用者
(情報入力者)の指示に応じて特定の商品を詳しく説明
する画面を表示する等のように、利用者との双方向のコ
ミュニケーションが可能となる。また、利用者に課金用
のカードを所持させるようにすれば、このカードにより
課金することで利用者が商品を購入することも可能とな
る。
【0105】また、例えばディスプレイ12をビルのエ
ントランスに設置し、情報処理装置14がディスプレイ
12にビル内を案内する案内図等を表示する場合に、本
実施形態に係るハンドポインティング入力装置20を設
ければ、到来した利用者(情報入力者)の指示に応じて
ビル内のうち利用者が訪問する箇所を詳しく説明する画
面や、訪問する箇所迄の経路を示す画面を表示する等の
ように、利用者との双方向のコミュニケーションが可能
となる。
【0106】また、クリーンルームには取扱説明書やそ
の他のマニュアルを持ち込めないことが一般的である
が、例えばディスプレイ12をクリーンルームの外部
に、クリーンルーム内から視認可能に配置し、ハンドポ
インティング入力装置20によって判断したクリーンル
ーム内の作業者からの指示に応じて取扱説明書やその他
のマニュアルの内容をディスプレイ12に表示するよう
にすれば、クリーンルーム内とクリーンルーム外との双
方向のコミュニケーションが可能となり、クリーンルー
ム内での作業の効率が向上する。
【0107】更に、例えば大画面のディスプレイ12、
ハンドポインティング入力装置20及び情報処理装置1
4をアミューズメント施設のゲーム機として動作させた
り、会議のプレゼンテーションにおいて、ディスプレイ
12に説明用の資料を表示しディスプレイ12の表示面
上の任意の位置を指し示す際に適用することも可能であ
る。
【0108】なお、上記では、照明装置32Aによる床
面上の照明範囲がビデオカメラ36Aの撮像範囲から外
れるように調整すると共に、照明装置32Bによる床面
上の照明範囲がビデオカメラ36Bの撮像範囲から外れ
るように調整し、照明装置32Aのみが点灯していると
きにビデオカメラ36Aによる撮像を行い、照明装置3
2Bのみが点灯しているときにビデオカメラ36Bによ
る撮像を行うことにより、情報入力者10に相当する画
像部の抽出が容易な画像A及び画像Bを得ていたが、こ
れに限定されるものではなく、照明装置32による床面
上の照明範囲がビデオカメラ36の撮像範囲内に入って
いたとしても、情報入力者10に相当する画像部の抽出
が容易な画像を得ることは可能である。
【0109】図13に示す例では、ビデオカメラ36の
撮像範囲が、照明装置32Aによる床面上の照明範囲及
び照明装置32Bによる床面上の照明範囲を含んでお
り、照明装置32Aによって照明される床面上に存在し
ている非認識対象物50A、照明装置32Bによって照
明される床面上に存在している非認識対象物50Bは、
ビデオカメラ36によって各々撮像される。このような
場合には、図14に示す照明制御処理を行えばよい。
【0110】図14に示す照明制御処理では、ステップ
250で照明装置32Aを点灯させると共に照明装置3
2Bを消灯させた後に、ステップ252ではビデオカメ
ラ36によって情報入力空間を撮像させ、ステップ25
4ではビデオカメラ36から出力された画像データ(該
画像データが表す画像を便宜的に第1の画像という)を
取り込んでRAM22Cに記憶する。ステップ256で
は、照明装置32Aを点灯させてから所定時間Tが経過
したか否か判定し、所定時間Tが経過する迄待機する。
ステップ256の判定が肯定されるとステップ258へ
移行し、照明装置32Bを点灯させると共に、照明装置
32Bを点灯させてから所定時間t0 経過後に照明装置
32Aを消灯させる(但し、t0 <T:図15参照)。
【0111】次のステップ260ではビデオカメラ36
によって情報入力空間を撮像させ、ステップ262では
ビデオカメラ36から出力された画像データ(該画像デ
ータが表す画像を便宜的に第2の画像という)を取り込
む。ステップ264では、ステップ254でRAM22
Cに記憶した第1の画像を表す画像データと、ステップ
262で取り込んだ第2の画像を表す画像データに基づ
いて、或る画素について第1の画像上での輝度値と第2
の画像上での輝度値のうち低輝度の輝度値を選択し、選
択した輝度値を前記画素の輝度値として採用することを
全ての画素について行うことにより、新たな画像データ
を生成し、生成した画像データを出力する。
【0112】この照明制御処理では、図15に示すよう
に、照明装置32Aが点灯している期間と照明装置32
Bが点灯している期間とが所定時間t0 だけオーバラッ
プしているので、情報入力者10は常に照明されるが、
図13に示すように、非認識対象物50Aは照明装置3
2Aが点灯しているときにのみ照明され、非認識対象物
50Bは照明装置32Bが点灯しているときにのみ照明
される。従って、ステップ262の処理により、情報入
力者10に相当する画像部のみが高輝度となっている画
像、すなわち情報入力者10に相当する画像部の抽出が
容易な画像(を表す画像データ)が得られることにな
る。
【0113】次のステップ266では、照明装置32B
を点灯させてから所定時間Tが経過したか否か判定し、
所定時間Tが経過する迄待機する。ステップ266の判
定が肯定されるとステップ268へ移行し、照明装置3
2Aを点灯させると共に、照明装置32Aを点灯させて
から所定時間t0 経過後に照明装置32Bを消灯させた
後にステップ252へ戻る。
【0114】上記の照明制御処理は請求項3に記載の判
別手段に対応している。なお、上記では説明を簡単にす
るために、図13にビデオカメラ36を1台のみ示し、
図14には1台のビデオカメラ36に対する処理のみを
示しているが、情報入力空間を各々異なる方向から撮像
する複数台のビデオカメラ36が設けられている場合で
あっても、各ビデオカメラ36に対して上記の処理を各
々行えば、情報入力者10に相当する画像部の抽出が容
易な画像を各々得ることができる。
【0115】また、図14の照明制御処理では、照明装
置32A、32Bの点消灯のタイミングと同期して、照
明装置32A及び照明装置32Bの何れか一方が点灯し
ている期間にのみ画像データの取込みを行うようにして
いたが、例えば照明装置32A、32Bの点消灯のタイ
ミングと無関係に、所定時間T(図14及び図15参
照)の整数分の1の周期で画像データの取込みを行い、
2×Tの周期でステップ264の処理を行うようにして
もよい。
【0116】また、先のステップ264のように各画素
毎に低輝度の値を選択することに代えて、例えばオーバ
ラップ期間t0 を挟んで照明装置32Aと照明装置32
Bを一定周期で交互に点灯させ(これにより、照明装置
32A、32Bの点灯のデューティー比は各々50+α
%になる:αはオーバラップ期間に相当)、各画素につ
いて、照明装置32A、32Bの点灯の1サイクルにお
ける平均輝度を各画素の輝度として採用するようにして
もよいし、照明装置32A、32Bの点灯の1サイクル
における各画素毎の輝度の変化に対し、ローパスフィル
タや高速フーリエ変換等により輝度変化の直流成分のみ
を取り出し、取り出した輝度変化の直流成分に相当する
輝度値を各画素の輝度値として採用するようにしてもよ
い。上記の場合にも、照明装置32A、32Bの点灯の
1サイクルの間、照明装置32A又は照明装置32Bに
よって常に照明される情報入力者10に相当する画素に
ついては、輝度値として比較的高輝度の値が採用され、
情報入力者10に相当する画像部の抽出が容易な画像を
得ることができる。
【0117】また、情報入力者10に相当する画像部の
抽出が容易な画像を得るために、図16に示すように、
情報入力空間の床面上に傾斜台58を配設してもよい。
この傾斜台58は、情報入力空間に到来した情報入力者
10を囲むように傾斜面58Aが形成されており、請求
項4に記載の阻止手段に対応している。これにより、例
えば情報入力者10が荷物等を携行して情報入力空間に
到来したとしても、情報入力者10が前記荷物等を自身
の近くに置くことは傾斜台58によって阻止され、情報
入力者10から離れた箇所、すなわちビデオカメラ36
の撮像範囲外に荷物等が置かれることになる。従って、
ビデオカメラ36の撮像によって得られる画像中に、情
報入力者10の荷物等の非認識対象物に相当する画像部
が存在することが防止され、情報入力者10に相当する
画像部の抽出が容易な画像を得ることができる。
【0118】また、情報入力者10の周囲に、非認識対
象物として比較的小さなゴミや塵埃等が滞留する場合に
は、情報入力者10の周囲に空気の流れを発生させるフ
ァン等を設け、上記のような非認識対象物を空気流によ
って吹き飛ばすようにしてもよい。また情報入力者10
の周囲に水等を貯留する貯留槽を配設してもよいし、更
に貯留槽を環状とし、貯留槽内を水等が循環するように
構成しても、情報入力者10の周囲に非認識対象物が滞
留することを阻止できる。
【0119】更に、上記では、透明な平板に多数のマー
ク40Aがマトリクス状に等間隔で記録されて構成され
たマーク板40を用いて格子点位置情報を設定するよう
にしていたが、これに限定されるものではなく、図17
に示すように、透明な平板にLED等の多数の発光素子
62A(請求項8記載のマーカに対応)がマトリクス状
に配設されたマーク板62を用いてもよい。
【0120】この場合、格子点位置情報初期設定処理で
は、発光素子62Aを1個ずつ順に点灯させると共に、
各発光素子62Aを点灯させる毎に、点灯している発光
素子62Aの3次元座標を演算し、ビデオカメラ36
A、36Bによって情報入力空間を撮像させ、画像A、
画像B上での発光素子62Aの位置を演算し、発光素子
62Aの3次元座標と画像A、画像B上での発光素子6
2Aの位置とを対応させて格子点位置情報として記憶装
置24に記憶させ、マーク板62の全ての発光素子62
Aを点灯させた後に、マーク板駆動装置38によってマ
ーク板62を一定量移動させることを繰り返すようにす
ればよい。
【0121】また、マーク板40やマーク板62に代え
て、図18に示すように、アーム66Aの先端に取付け
られたハンド66Bを情報入力空間内の任意の位置に移
動可能で、ハンド66Bに発光素子68(請求項8記載
のマーカに対応)が取付けられたロボットアーム装置6
6を用いてもよい。この場合、格子点位置情報初期設定
処理では、発光素子68を点灯させ、情報入力空間内に
一定間隔で格子状に並ぶ多数の格子点に対応する各位置
へ発光素子68を移動させると共に、発光素子68が前
記各位置に位置する毎に、発光素子68の3次元座標を
演算し、ビデオカメラ36A、36Bによって情報入力
空間を撮像させ、画像A、画像B上での発光素子68の
位置を演算し、発光素子68の3次元座標と画像A、画
像B上での発光素子68の位置とを対応させて格子点位
置情報として記憶装置24に記憶させるようにすればよ
い。
【0122】更に、上記のようにマーク板40、マーク
板62、ロボットアーム装置66等を駆動することで、
情報入力空間内に一定間隔で格子状に並ぶ多数の格子点
に対応する各位置にマーカ(マーク40A又は発光素子
62A又は発光素子68)を自動的に位置させることに
代えて、オペレータが、前記多数の格子点に対応する各
位置にマーカを手動で位置させ、この状況を撮像するこ
とにより格子点位置情報の設定のみを自動的に行うよう
にしてもよい。
【0123】また、図8に示した指示判断処理では、情
報入力者10が指示動作を行っていないとき(ステップ
159の判定が否定された場合)には、ディスプレイ1
2の表示面上の情報入力者10が指し示している位置の
座標の演算・情報処理装置14への出力を行わないの
で、結果として、情報入力者10が指示動作を行ってい
ないときにはディスプレイ12にカーソル等が表示され
ないことになる。従って、ディスプレイ12にカーソル
等を継続的に表示させるためには、カーソル等を表示さ
せたい位置を情報入力者10が指し示し続ける必要があ
り、情報入力者10の負担が大きいという問題がある。
【0124】上記を考慮すると、図8に示した指示判断
処理に代えて、図19に示す指示判断処理を行うように
してもよい。この指示判断処理では、図8の指示判断処
理のステップ150、152と同様に、ステップ230
でビデオカメラ36A、36Bから出力される画像デー
タを取り込み、次のステップ232では、取り込んだ画
像データ基づいて情報入力空間内に情報入力者10が存
在しているか否か判定する。
【0125】判定が否定された場合にはステップ280
へ移行し、到来フラグ(情報入力者10が情報入力空間
に到来していることを表すフラグ)が1か否か判定す
る。到来フラグの初期値は0であるので、最初はステッ
プ280の判定は否定され、何ら処理を行うことなく指
示判断処理を一旦終了する。なお、情報入力空間に情報
入力者が到来していないときには、情報処理装置14は
ディスプレイ12に所定の呼び込み画面(情報入力空間
の近傍を通りかかった人を情報入力空間に呼び込む画
面)を表示させる。
【0126】一方、情報入力空間に情報入力者10が到
来すると、ステップ232の判定が肯定されてステップ
234へ移行し、到来フラグが0か否か判定する。ステ
ップ234の判定が肯定されるとステップ236へ移行
し、情報入力空間に情報入力者が到来したことを情報処
理装置14に通知する。これにより情報処理装置14
は、ディスプレイ12に表示する画面を呼び込み画面か
ら初期画面(例えば商品の広告であれば商品の一覧を示
した画面等)に切替える。
【0127】次のステップ238では、情報入力空間に
情報入力者が到来したので、到来フラグを1にすると共
に、指示フラグ(情報入力者10がディスプレイ12の
表示面上を指し示していることを表すフラグ)及び監視
フラグを0にして、ステップ240へ移行する。なお、
ステップ234の判定が否定された場合、すなわち指示
判断処理を前回実行したときから情報入力空間に継続的
に情報入力者が居る場合には、ステップ236、238
の処理を行うことなくステップ240へ移行する。
【0128】ステップ240では、図8のフローチャー
トのステップ154乃至ステップ158と同様に、ビデ
オカメラ36A、36Bの撮像によって得られた画像か
ら情報入力者10の全体像に相当する画像部を抽出し、
情報入力者10の身長h及び床面上の位置を演算し、情
報入力者10の基準点の3次元座標を決定する。そして
次のステップ242では、図8のフローチャートのステ
ップ159と同様に、情報入力者10が指示動作を行っ
ているか否か判定する。判定が否定された場合には、ス
テップ270で指示フラグが1か否か判定し、この判定
も否定された場合には指示判断処理を一旦終了する。
【0129】一方、情報入力者10が、図12(A)に
示す直立している状態から、図12(B)又は(C)に
示すように手をディスプレイ12側に向けると、ステッ
プ242の判定が肯定されてステップ244へ移行す
る。ステップ244では、図8のフローチャートのステ
ップ160乃至ステップ176と同様にして情報入力者
10の特徴点の3次元座標を演算し、情報入力者10が
指し示している位置を演算する。
【0130】次のステップ246では情報入力者10が
ディスプレイ12の表示面上を指し示しているか否か判
定する。判定が否定された場合にはステップ270へ移
行するが、判定が肯定された場合には、ステップ247
で指示フラグを1にした後に、ステップ248でディス
プレイ12の表示面上の情報入力者10が指し示してい
る位置の座標を情報処理装置14に出力すると共に、前
記座標をRAM22C等に記憶する。これにより、情報
処理装置14では、ディスプレイ12の表示面上の情報
入力者10が指し示している位置にカーソル等を表示す
る。
【0131】次のステップ252乃至262の処理は、
図8のフローチャートのステップ184乃至ステップ1
96の処理を同様にしてクリック動作を検出する。すな
わち、画像中に存在する情報入力者10の手に相当する
画像部を抽出し、その面積を求め(ステップ250)、
監視フラグが1か否か判定する(ステップ252)。判
定が否定された場合は、監視フラグを1にして(ステッ
プ254)、先に演算した情報入力者の手に相当する画
像部の面積を記憶し(ステップ256)、指示判断処理
を一旦終了する。
【0132】また、ステップ252の判定が肯定された
場合は、ステップ250で演算した面積を、RAM22
C等に記憶されている面積と比較し、情報入力者10の
手に相当する画像部の面積に所定値以上の変化が有った
か否か判定する(ステップ258)。判定が否定された
場合には、情報入力者10がクリック動作を行っていな
いと判断し、何ら処理を行うことなく指示判断処理を終
了するが、判定が肯定された場合には、「クリック有
り」を表す情報を情報処理装置14に出力し(ステップ
260:これにより、情報処理装置14ではディスプレ
イ12に表示している画面の切替え等の所定の処理を実
行する)、監視フラグ及び指示フラグを0にして(ステ
ップ262)、指示判断処理を終了する。
【0133】また、情報入力者10がディスプレイ12
の表示面上を指し示した後に、クリック動作を行うこと
なく腕を下ろした場合には、ステップ242の判定が否
定されてステップ270へ移行するが、このときには指
示フラグが1であるのでステップ270の判定が肯定さ
れ、ステップ272へ移行する。ステップ272では、
ステップ248で演算しRAM22Cに記憶している、
ディスプレイ12の表示面上の情報入力者10が指し示
している位置の座標を情報処理装置14に出力する。こ
れにより、情報処理装置14は、情報入力者10が腕を
下ろす前にカーソルを表示していた位置に、継続してカ
ーソルを表示させる。
【0134】このカーソルの表示の継続は請求項14に
記載の処理手段による処理に対応しており、上記のステ
ップ270は、ステップ242、247と共に請求項1
4に記載の第2の検出手段に対応している。
【0135】上記により、情報入力者10の姿勢が、図
12(B)又は(C)に示す姿勢から図12(A)に示
す姿勢に変化したとしても、カーソルの表示が継続され
るので、情報入力者10がカーソルを継続して表示させ
たい等の場合にも(例えば会議のプレゼンテーション
等)、情報入力者10が継続的に腕を上げ続ける必要が
なくなるので、情報入力者10の負担を軽減することが
できる。
【0136】また、情報入力者10が情報入力空間から
退去すると、それが情報処理装置14における一連の処
理の途中であったとしても、ステップ232の判定が否
定され、ステップ280へ移行する。情報入力者10が
情報入力空間から退去したときには、到来フラグは1に
なっているので、ステップ280の判定が肯定され、ス
テップ282で情報入力空間から情報入力者10が退去
したことを情報処理装置14に通知する。これにより、
情報処理装置14は実行途中の処理があれば該処理の実
行を中止すると共に、ディスプレイ12に表示している
画面を呼び込み画面に切替える。次のステップ284で
は到来フラグを0にして、指示判断処理を一旦終了す
る。
【0137】これにより、情報入力空間に情報入力者1
0が居ない間は常に呼び込み画面がディスプレイに表示
され、情報入力空間に情報入力者10が到来する毎に、
情報処理装置14では、ディスプレイ12への初期画面
の表示から始まる一連の処理が行われることになる。
【0138】また、図8及び図19に示した指示判断処
理では、情報入力者が自身の手を動かすあらゆる動作
(例えば手首の屈曲や回転、任意の指の曲げ伸ばし等)
をクリック動作として定義していたが、これに限定され
るものではなく、情報入力者10が手を前方に素早く移
動させる動作(図22(A)参照、以下「前進クリッ
ク」という)、及び情報入力者10が手を後方に素早く
移動させる動作(図22(B)参照、以下「後進クリッ
ク」という)をクリック動作としてもよい。上記のクリ
ック動作は、図8や図19に示した指示判断処理に代え
て、例えば図20に示す指示判断処理を行うことで検知
することができる。
【0139】すなわち、図20に示す指示判断処理で
は、まずステップ310において、図8のフローチャー
トのステップ152、図19のフローチャートのステッ
プ232と同様に、情報入力空間内に情報入力者10が
到来したか(存在しているか)否かを判定する。この判
定も、例えば画像A及び画像B中に高輝度でかつ所定値
以上の面積の画像部が存在しているか否か等の極めて簡
単な判断処理で済む。ステップ310の判定が否定され
た場合には、判定が肯定される迄待機する。情報入力空
間に情報入力者10が到来すると、ステップ310の判
定が肯定されてステップ312へ移行し、クリック動作
速度設定処理を実行する。
【0140】このクリック動作速度設定処理について、
図21のフローチャートを参照して説明する。なお、ク
リック動作速度設定処理は請求項13に記載の閾値設定
手段に対応している。ステップ290では、クリック動
作の実行を情報入力者10に要請するメッセージをディ
スプレイ12に表示するよう情報処理装置14に指示
し、情報処理装置14はディスプレイ12に前記メッセ
ージを表示させる。ディスプレイ12に前記メッセージ
が表示されると、情報入力者10は腕を屈曲又は伸長さ
せ、前進クリック動作又は後進クリック動作を繰り返し
行う。
【0141】次のステップ292では、基準点・特徴点
座標演算処理(図8のフローチャートのステップ154
乃至ステップ176と同様の処理)を行って基準点P0
及び特徴点Px の3次元座標を求め、ステップ294で
は情報入力者10がディスプレイ12を指し示す指示動
作を行っているか否か判定する。ステップ294の判定
が否定された場合にはステップ292に戻り、情報入力
者10が指示動作を行う迄ステップ292、294を繰
り返す。ステップ294の判定が肯定されるとステップ
296へ移行する。
【0142】ステップ296では、ステップ292で取
り込んだ基準点P0 及び特徴点Pxの3次元座標から基
準点P0 と特徴点Px との距離kを演算する。また、ス
テップ296は繰り返し実行されるが、2回目以降の実
行時には、今回演算した距離kの値と前回演算した距離
kの値との差に基づいて距離kの変化速度V(基準点P
0 に対する特徴点Px の位置の移動速度)を演算し、演
算結果を記憶する。
【0143】次のステップ298では、クリック動作の
実行を要請するメッセージをディスプレイ12に表示し
てから所定時間が経過したか否か判定する。判定が否定
された場合にはステップ292に戻り、ステップ292
〜298を繰り返す。従って、クリック動作の実行を要
請するメッセージを表示してから所定時間が経過する迄
の間は、基準点P0 と特徴点Px との距離kの変化速度
Vが繰り返し演算・記憶されることになる。
【0144】ステップ298の判定が肯定されるとステ
ップ300へ移行し、先に演算・記憶した変化速度Vを
取り込み、情報入力者10が1回のクリック動作を行っ
ている間の変化速度Vの推移に基づいてクリック動作速
度V0 (請求項12及び請求項13に記載の閾値に対
応)を設定・記憶する。このクリック動作速度V0 は、
後述する処理において、情報入力者10がクリック動作
を行ったか否かを判定するための閾値として用いる。こ
のため、情報入力者10がクリック動作を行ったことを
確実に判定するために、クリック動作速度V0 として
は、例えば情報入力者10の1回のクリック動作におけ
る変化速度Vの平均値よりも若干低い値を設定すること
ができる。また、情報入力者10の1回のクリック動作
における変化速度Vの最小値をクリック動作速度V0
して設定するようにしてもよい。
【0145】情報入力者10が腕を屈曲又は伸長させて
クリック動作を行ったときの特徴点Px の移動速度(変
化速度V)は情報入力者10毎にばらつきがあるが、上
記のクリック動作速度設定処理は情報入力空間に情報入
力者10が到来する毎に実行されるので、情報入力空間
に新たな情報入力者10が到来すると、クリック動作速
度V0 として到来した情報入力者10の体格や筋力等に
応じた適切な値が新たに設定されることになる。
【0146】上述したクリック動作速度設定処理を終了
すると、指示判断処理(図20)のステップ314へ移
行し、基準点・特徴点座標演算処理(図8のフローチャ
ートのステップ154乃至ステップ176と同様の処
理)を行って基準点P0 及び特徴点Px の3次元座標を
求める。次のステップ316では、ステップ314で求
めた基準点P0 及び特徴点Px の3次元座標に基づい
て、情報入力者10が指示動作を行っているか否か判定
する。
【0147】ステップ316の判定が否定された場合に
はステップ334へ移行し、情報入力空間から情報入力
者10が退去したか否か判定する。この判定について
も、先に説明したステップ310と同様に、画像A及び
画像Bから高輝度でかつ所定値以上の面積の画像部が無
くなったか否か等の極めて簡単な判断処理で済む。上記
判定が否定された場合にはステップ314に戻り、情報
入力者10が指示動作を行う迄ステップ314、31
6、334を繰り返す。
【0148】また、ステップ316の判定が肯定される
とステップ318へ移行し、ステップ314で求めた基
準点P0 及び特徴点Px の3次元座標に基づいて、図8
のフローチャートのステップ176と同様に、情報入力
者10が指し示している位置として、大画面ディスプレ
イ12の表示面を含む平面と、基準点と特徴点とを結ぶ
仮想線と、の交点の座標を演算する。次のステップ32
0では、ステップ318で求めた座標に基づいて、情報
入力者10が大画面ディスプレイ12の表示面上を指し
示しているか否か判定する。
【0149】ステップ320の判定が否定された場合に
は何ら処理を行うことなくステップ334へ移行する
が、前記判定が肯定された場合は、ステップ322にお
いて、ステップ318で演算した座標を情報処理装置1
4に出力し、情報処理装置14に対してカーソルの表示
を指示する。これにより、情報処理装置14では、情報
入力者10が指し示していると判断されたディスプレイ
12の表示面上の所定位置にカーソルを表示する等の処
理を行う。
【0150】次のステップ324では、基準点P0 及び
特徴点Px の3次元座標に基づいて基準点P0 と特徴点
x の距離kを演算し、距離kの変化が有ったか否か判
定する。なお、ステップ324は情報入力者10がディ
スプレイ12の表示面を指し示す動作を行っている間
(ステップ320の判定が肯定されている間)繰り返し
実行されるが、ステップ324で最初に距離kが演算さ
れたときには、距離kの変化の有無を判定できないので
ステップ324の判定は無条件に否定される。
【0151】一方、ステップ324の判定が肯定された
場合にはステップ326へ移行し、距離kの変化速度V
を演算し、演算した変化速度Vが閾値(クリック動作速
度設定処理によって設定されたクリック動作速度V0
以上か否か判定する。なお、ステップ326について
も、ステップ324で最初に距離kが演算されたときに
は距離kの変化速度Vを演算することができないので、
判定は無条件に否定される。ステップ324又はステッ
プ326の判定が否定された場合には、情報入力者10
はクリック動作を行っていないと判断し、何ら処理を行
うことなくステップ334へ移行する。
【0152】また、ステップ324、326の判定が各
々肯定された場合には情報入力者10がクリック動作を
行ったと判断し、ステップ328において距離kの変化
方向を判定し、判定結果に応じて分岐する。距離kが増
大方向に変化していた場合には、情報入力者10が腕を
素早く伸長させる前進クリック動作を行ったと判断でき
るので、ステップ330へ移行し、前進クリックが有っ
たことを表す情報を情報処理装置14に出力し、ステッ
プ334へ移行する。また、距離kが減少方向に変化し
ていた場合には、情報入力者10が腕を素早く屈曲させ
る後進クリック動作を行ったと判断できるので、ステッ
プ332へ移行し、後進クリックが有ったことを表す情
報を情報処理装置14に出力した後に、ステップ334
へ移行する。
【0153】情報処理装置14では、前進クリックが有
ったことを表す情報又は後進クリックが有ったことを表
す情報が入力されると、情報入力者10による現在の指
示箇所がクリックされたと判断し、前進クリックが有っ
た場合には現在の指示箇所に対応する第1の処理を、後
進クリックが有った場合には現在の指示箇所に対応する
第2の処理(第1の処理と異なる処理)を行う。なお、
この第1の処理、第2の処理は、請求項10に記載の所
定の処理(より詳しくは、請求項11に記載の第1の所
定の処理、第2の所定の処理)に対応している。
【0154】このように、ステップ324〜332は、
実際に第1の処理、第2の処理を行う情報処理装置14
と共に、請求項10に記載の処理手段(より詳しくは請
求項11及び請求項12に記載の処理手段)に対応して
いる。なお、情報入力空間から情報入力者10が退去し
た場合には、ステップ334の判定が肯定されてステッ
プ310に戻る。
【0155】上述した指示判断処理におけるクリック動
作は、ディスプレイ12の表示面上の特定の箇所を指し
示して選択する動作として極めて自然な動作であるの
で、認識対象者は違和感を感ずることなくクリック動作
を行うことができる。また、上記では、基準点と特徴点
との距離kの変化に基づいて、クリック動作が行われた
か否か及び行われたクリック動作が前進クリック動作か
後進クリック動作かを判断することができるので、クリ
ック動作の検知を短時間で行うことができる。また、ク
リック動作として2種類のクリック動作(前進クリック
動作及び後進クリック動作)を定義しているので、情報
入力者10が、第1の処理及び第2の処理を選択的に実
行させることができる。
【0156】ところで、上記の前進クリック動作又は後
進クリック動作を行った後の人間の自然な手の動きは、
クリック動作を行う前の位置(ニュートラルポジショ
ン)に戻ろうとする動きであるので、前進クリック動作
を行った後のニュートラルポジションに戻ろうとする手
の動きを後進クリック動作と誤検知したり、後進クリッ
ク動作を行った後のニュートラルポジションに戻ろうと
する手の動きを前進クリック動作を誤検知することを防
止するために、前進クリック動作又は後進クリック動作
を検知した後のニュートラルポジションに戻ろうとする
手の動きを無視することが望ましい。これは、例えば前
進クリック動作又は後進クリック動作を検知してからク
リック動作の検知を所定時間停止したり、或いは前進ク
リック動作又は後進クリック動作を検知する前の距離k
の値をニュートラルポジションに相当する値として予め
記憶しておき、前進クリック動作又は後進クリック動作
を検知してから距離kの値が前記ニュートラルポジショ
ンに相当する値になる迄の間、クリック動作の検知を停
止することによって実現することができる。
【0157】また、上述した指示判断処理においても、
図19に示した指示判断処理と同様に、情報入力者10
が腕を下ろした場合に、腕を下ろす前にカーソルを表示
していた位置に、継続してカーソルを表示させるように
してもよいことは言うまでもない。
【0158】また、上記では情報入力者10の基準点及
び特徴点の3次元座標に基づいて情報入力者10が指し
示している位置を演算していたが、これに限定されるも
のではなく、ビデオカメラ36の撮像によって得られた
画像から情報入力者10の全体像に相当する画像部を抽
出し(図23の画像部72を参照)、情報入力者10の
身長h及び床面上の位置を演算し、更に、太さ等の情報
入力者に関する他のパラメータを決定した後に、身長h
を含む各種パラメータに基づいて、情報入力者10の全
体像をダミーモデル74(図23参照)に変換し、この
ダミーモデルに基づいて、ディスプレイ12の表示面上
を指し示す動作を含む、情報入力者の各種動作の認識を
行うようにしてもよい。
【0159】上記のようにダミーモデルを用いた場合、
例えば手を振る等のように、情報入力者の全体像からは
認識が困難な動作も認識することができる。そして、例
えば情報入力者が手を振る動作を「取消し」を意味する
動作と定義しておき、情報入力者が手を振る動作を行っ
たことを認識したときには、その前に認識した情報入力
者の動作に応じて実行した処理を中止させることも可能
となる。
【0160】また、上記では情報入力者10がディスプ
レイ12の表示面上の任意の位置を指し示す態様を例に
説明したが、情報入力者が指し示す対象はディスプレイ
に限定されるものではなく、情報入力者が任意の方向を
指し示したり、情報入力者との距離が不定の任意の物体
を指し示すようにしてもよい。
【0161】情報入力者が任意の方向を指し示す場合に
は、指示判断処理(例えば図8のフローチャートのステ
ップ176)において、情報入力者の基準点と特徴点と
を結ぶ仮想線の延びる方向を求めるようにすることで、
情報入力者によって指し示された方向を判断できる。ま
た、情報入力者が、情報入力者との距離が不定の任意の
物体を指し示す場合には、先のステップ176におい
て、仮想線の延びる方向を求めた後に、該仮想線を延長
した先に存在する物体を判定することで、情報入力者が
指し示している物体を判断することができる。
【0162】情報入力者が任意の方向を指し示す利用形
態としては、例えば劇場等において、スポットライトの
照射方向や、アレイ状に配置された多数のスピーカによ
って形成される音響ビームの方向を、オペレータ(情報
入力者)が指し示した方向に向ける場合等が挙げられ
る。
【0163】また、情報入力者が、情報入力者からの距
離が不定の任意の物体を指し示す利用形態としては、例
えば建設現場や工場等においてクレーンやその他の機械
をオペレータ(情報入力者)の指示に応じて動作させる
場合、或いはホームオートメーションにおいて情報入力
者が各種設備機器に対して各種の指示を行う場合等が挙
げられる。
【0164】また、上記では2台のビデオカメラ36
A、36Bを設けた例を説明したが、これに限定される
ものではなく、より多数のビデオカメラによって情報入
力空間を各々撮像し、情報入力者10からの指示を判断
するようにしてもよい。
【0165】
【発明の効果】以上説明したように請求項1記載の発明
は、複数の撮像手段の撮像範囲を、照明手段によって照
明された認識対象者が撮像範囲内に入り、かつ照明手段
によって照明される床面上の照明範囲が撮像範囲から外
れるように各々調整するようにしたので、構成が簡単
で、認識対象者からの指示の判定に要する時間を短縮す
ることができる、という優れた効果を有する。
【0166】請求項2記載の発明は、互いに異なる位置
に配置される複数の撮像手段の撮像範囲を、照明手段に
よって照明された認識対象者が撮像範囲内に入り、かつ
互いに異なる照明手段によって照明される床面上の互い
に異なる照明範囲が撮像範囲から外れるように各々調整
し、認識対象者が特定の位置又は方向を指し示している
ときに複数の照明手段の何れか1つを順に点灯させると
共に、各照明手段の点灯時に、点灯している照明手段に
よる床面上の照明範囲が撮像範囲から外れている撮像手
段によって認識対象者を撮像させるので、構成が簡単
で、認識対象者からの指示の判定に要する時間を短縮す
ることができる、という優れた効果を有する。
【0167】請求項3記載の発明は、互いに異なる方向
から認識対象者を照明する複数の照明手段を設け、認識
対象者が特定の位置又は方向を指し示しているときに複
数の照明手段の何れか1つを順に点灯させると共に、各
照明手段の点灯時に同一の撮像手段の撮像によって各々
得られた複数の画像を比較し、複数の画像中の認識対象
者に相当する画像部とそれ以外の画像部とを判別するこ
とを、複数の撮像手段に対して各々行い、判別結果に基
づいて複数の画像から認識対象者に相当する画像部を各
々抽出するので、構成が簡単で、認識対象者からの指示
の判定に要する時間を短縮することができる、という優
れた効果を有する。
【0168】請求項4記載の発明は、認識対象者の周囲
の床面上に非認識対象物体が停滞することを阻止する阻
止手段を設けたので、構成が簡単で、認識対象者からの
指示の判定に要する時間を短縮することができる、とい
う優れた効果を有する。
【0169】請求項5記載の発明は、認識対象者が到来
する所定箇所付近に位置している複数の仮想点の各々の
3次元座標と各撮像手段の撮像によって得られる各画像
上での複数の仮想点の各々の位置とを対応付ける情報を
記憶手段に記憶し、複数の撮像手段の撮像によって得ら
れた各画像上での特徴点の位置及び記憶手段に記憶され
た情報に基づいて特徴点の3次元座標を求めているの
で、構成が簡単で、認識対象者からの指示の判定に要す
る時間を短縮することができる、という優れた効果を有
する。
【0170】請求項6記載の発明は、請求項5の発明に
おいて、記憶手段に、所定箇所付近に一定間隔で格子状
に並ぶ多数の仮想点について、各々の3次元座標と前記
各画像上での各々の位置との対応を表す情報が記憶され
ているので、上記効果に加え、特徴点の3次元座標上で
の位置に拘らず、特徴点の3次元座標を精度良く求める
ことができる、という効果を有する。
【0171】請求項7記載の発明は、請求項6の発明に
おいて、複数の撮像手段の撮像によって得られる各画像
上での特徴点の位置を各々求めた後に、画像上での位置
が特徴点を包含する所定範囲内である仮想点を各画像か
ら各々抽出し、各画像から共通に抽出された仮想点の3
次元座標に基づいて特徴点の3次元座標を求めているの
で、上記効果に加え、特徴点の3次元座標を更に精度良
く求めることができる、という効果を有する。
【0172】請求項8記載の発明は、請求項5又は請求
項6の発明において、仮想点の位置にマーカが位置して
いる状況を複数の撮像手段によって撮像させ、仮想点の
3次元座標と各画像上での仮想点の位置とを対応付ける
情報を生成し、記憶手段に記憶させるようにしたので、
上記効果に加え、仮想点の3次元座標と前記各画像上で
の仮想点の位置とを精度良く対応付ける情報を自動的に
得ることができる、という効果を有する。
【0173】請求項9記載の発明は、複数の画像中の前
記認識対象者の身体の所定部分に相当する画像部の面積
又は輪郭の形状又は輪郭線の長さの変化が検出された場
合に所定の処理を実行するようにしたので、認識対象者
からの指示の判定に時間がかかることなく、認識対象者
が指示するための動作の自由度を向上させることができ
る、という優れた効果を有する。
【0174】請求項10記載の発明は、認識対象者が腕
を屈曲又は伸長させることで位置が変化する特徴点及び
認識対象者が腕を屈曲及び伸長させても位置が変化しな
い基準点の3次元座標に基づいて認識対象者が指し示し
た位置又は方向を判断すると共に、基準点と特徴点との
距離の変化に基づいて所定の処理を実行するようにした
ので、認識対象者による所定の処理の実行を指示する動
作を短時間で確実に検出することができ、認識対象者か
らの指示を短時間で判定することができる、という優れ
た効果を有する。
【0175】請求項11記載の発明は、請求項10の発
明において、基準点と特徴点との距離が増加した場合に
は第1の所定の処理を行い、基準点と特徴点との距離が
減少した場合には第1の所定の処理と異なる第2の所定
の処理を行うので、上記効果に加え、第1の所定処理及
び第2の所定の処理のうち実行させるべき処理を認識対
象者が選択することが可能となると共に、第1の所定処
理及び第2の所定の処理のうち認識対象者によって選択
された処理を確実に実行することができる、という効果
を有する。
【0176】請求項12記載の発明は、請求項10又は
請求項11の発明において、基準点と特徴点との距離の
変化速度を検出し、検出した変化速度が閾値以上の場合
にのみ所定の処理を実行するようにしたので、上記効果
に加え、認識対象者が所定の処理の実行を指示する動作
を行った場合に、これを確実に検知して所定の処理を実
行することができる、という効果を有する。
【0177】請求項13記載の発明は、請求項12の発
明において、所定の処理を行わせるために腕を屈曲又は
伸長させる動作を行うよう認識対象者に要請し、認識対
象者が腕を屈曲又は伸長させる動作を行ったときの基準
点と特徴点との距離の変化速度に基づいて前記閾値を予
め設定するようにしたので、上記効果に加え、個々の認
識対象者の体格や筋力等のばらつきに拘らず、認識対象
者による所定の処理の実行を指示する動作を確実に検知
して所定の処理を実行することができる、という効果を
有する。
【0178】請求項14記載の発明は、請求項9又は請
求項10の発明において、認識対象者の腕が下げられた
ことが検出された場合には、処理を実行又は停止してい
る状態を継続するようにしたので、上記効果に加え、認
識対象者の負担を軽減することができる、という効果を
有する。
【図面の簡単な説明】
【図1】情報入力空間の周辺を示す斜視図である。
【図2】本実施形態に係るハンドポインティング入力装
置の概略構成を示すブロック図である。
【図3】照明装置の照明範囲とビデオカメラの撮像範囲
との関係の一例を示す概略図である。
【図4】マーク板の一例を示す情報入力空間の斜視図で
ある。
【図5】格子点位置情報初期設定処理を示すフローチャ
ートである。
【図6】照明制御処理を示すフローチャートである。
【図7】図6の照明制御処理による照明装置A、Bの点
灯・消灯、ビデオカメラの撮像によって得られる画像の
出力(取り込み)のタイミングを示すタイミングチャー
トである。
【図8】指示判断処理を示すフローチャートである。
【図9】情報入力者の身長及び床面上の位置の演算を説
明するための、情報入力空間の側面図である。
【図10】(A)はビデオカメラにより撮像された情報
入力者の手を示すイメージ図、(B)は特徴点の座標及
び特徴点の3次元座標を求めるための格子点の検索範囲
を示す概念図である。
【図11】情報入力者が指し示しているディスプレイ上
の位置の判定を説明するための、(A)は情報入力空間
の平面図、(B)は情報入力空間の側面図である。
【図12】(A)乃至(C)は情報入力者の動作の一例
を示すイメージ図である。
【図13】照明装置の照明範囲とビデオカメラの撮像範
囲との関係の他の例を示す概略図である。
【図14】図13に示す配置における照明制御処理を示
すフローチャートである。
【図15】図14の照明制御処理による照明装置A、B
の点灯・消灯のタイミングを示すタイミングチャートで
ある。
【図16】情報入力空間の床面上に傾斜台を配設した態
様を示す斜視図である。
【図17】マーク板の他の例を示す情報入力空間の斜視
図である。
【図18】ロボットアーム装置によってマーカの位置を
移動させる例を示す情報入力空間の斜視図である。
【図19】指示判断処理の他の例を示すフローチャート
である。
【図20】指示判断処理の他の例を示すフローチャート
である。
【図21】クリック動作速度設定処理を示すフローチャ
ートである。
【図22】(A)は前進クリック動作、(B)は後進ク
リック動作を説明するためのイメージ図である。
【図23】ダミーモデルへのデータ変換を説明するため
のイメージ図である。
【符号の説明】
10 情報入力者 12 大画面ディスプレイ 14 情報処理装置 20 ハンドポインティング入力装置 22 コントローラ 24 記憶装置 32 近赤外光照明装置 36 ビデオカメラ 40 マーク板

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 認識対象者を照明する照明手段と、 互いに異なる位置に配置され、前記照明手段によって照
    明された認識対象者が撮像範囲内に入り、かつ前記照明
    手段によって照明される床面上の照明範囲が撮像範囲か
    ら外れるように撮像範囲が各々調整された複数の撮像手
    段と、 認識対象者が特定の位置又は方向を指し示している状況
    を前記複数の撮像手段が各々撮像することで得られた複
    数の画像に基づいて、前記画像中の前記認識対象者に相
    当する画像部を抽出し、認識対象者が指し示した位置又
    は方向を判断する判断手段と、 を含むハンドポインティング装置。
  2. 【請求項2】 互いに異なる方向から認識対象者を照明
    する複数の照明手段と、 互いに異なる位置に配置され、前記照明手段によって照
    明された認識対象者が撮像範囲内に入り、かつ互いに異
    なる照明手段によって照明される床面上の互いに異なる
    照明範囲が撮像範囲から外れるように、撮像範囲が各々
    調整された複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示しているとき
    に、複数の照明手段の何れか1つを順に点灯させると共
    に、複数の照明手段の各々の点灯時に、点灯している照
    明手段によって照明される床面上の照明範囲が撮像範囲
    から外れている撮像手段によって前記認識対象者を撮像
    させ、該撮像によって得られた画像を出力させる制御手
    段と、 前記複数の撮像手段から各々出力された複数の画像に基
    づいて、前記画像中の認識対象者に相当する画像部を抽
    出し、認識対象者が指し示した位置又は方向を判断する
    判断手段と、 を含むハンドポインティング装置。
  3. 【請求項3】 互いに異なる方向から認識対象者を照明
    する複数の照明手段と、 前記照明手段によって照明された認識対象者を互いに異
    なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示しているとき
    に、前記複数の照明手段の何れか1つを順に点灯させる
    と共に、複数の照明手段の各々の点灯時に同一の撮像手
    段の撮像によって各々得られた複数の画像を比較し、前
    記複数の画像中の前記認識対象者に相当する画像部とそ
    れ以外の画像部とを判別することを、複数の撮像手段に
    対して各々行う判別手段と、 前記判別手段による判別結果に基づいて、前記複数の撮
    像手段の各々が撮像した画像から認識対象者に相当する
    画像部を各々抽出し、認識対象者が指し示した位置又は
    方向を判断する判断手段と、 を含むハンドポインティング装置。
  4. 【請求項4】 認識対象者を照明する照明手段と、 前記照明手段によって照明された認識対象者を互いに異
    なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示している状況
    を前記複数の撮像手段が各々撮像することで得られた複
    数の画像に基づいて、前記画像中の前記認識対象者に相
    当する画像部を抽出し、認識対象者が指し示した位置又
    は方向を判断する判断手段と、 前記認識対象者の周囲の床面上に非認識対象物体が停滞
    することを阻止する阻止手段と、 を含むハンドポインティング装置。
  5. 【請求項5】 所定箇所に到来した認識対象者を照明す
    る照明手段と、 前記照明手段によって照明された認識対象者を互いに異
    なる方向から撮像する複数の撮像手段と、 前記所定箇所付近に位置している複数の仮想点の各々の
    3次元座標と各撮像手段の撮像によって得られる各画像
    上での前記複数の仮想点の各々の位置とを対応付ける情
    報を記憶する記憶手段と、 認識対象者が特定の位置又は方向を指し示している状況
    を複数の撮像手段が各々撮像することで得られた複数の
    画像に基づいて、各画像中の前記認識対象者に相当する
    画像部を抽出して認識対象者の特徴点の前記各画像上で
    の位置を求め、前記各画像上での特徴点の位置及び前記
    記憶手段に記憶された情報に基づいて前記特徴点の3次
    元座標を求め、求めた特徴点の3次元座標に基づいて認
    識対象者が指し示した位置又は方向を判断する判断手段
    と、 を含むハンドポインティング装置。
  6. 【請求項6】 前記記憶手段は、前記所定箇所付近に一
    定間隔で格子状に並ぶ多数の仮想点について、各々の3
    次元座標と前記各画像上での各々の位置とを対応付ける
    情報を記憶することを特徴とする請求項5記載のハンド
    ポインティング装置。
  7. 【請求項7】 前記判断手段は、複数の撮像手段の撮像
    によって得られる各画像上での前記特徴点の位置を各々
    求めた後に、画像上での位置が前記特徴点を包含する所
    定範囲内である仮想点を前記各画像から各々抽出し、前
    記各画像から共通に抽出された仮想点の3次元座標に基
    づいて前記特徴点の3次元座標を求めることを特徴とす
    る請求項6記載のハンドポインティング装置。
  8. 【請求項8】 前記仮想点の位置にマーカが位置してい
    る状況を前記複数の撮像手段によって撮像させ、前記仮
    想点の3次元座標と各撮像手段の撮像によって得られた
    各画像上でのマーカの位置とに基づいて、仮想点の3次
    元座標と前記各画像上での仮想点の位置とを対応付ける
    情報を生成し、前記記憶手段に記憶させる生成手段を更
    に備えたことを特徴とする請求項5又は請求項6記載の
    ハンドポインティング装置。
  9. 【請求項9】 認識対象者を照明する照明手段と、 前記照明手段によって照明された認識対象者を互いに異
    なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示している状況
    を前記複数の撮像手段が各々撮像することで得られた複
    数の画像に基づいて、前記画像中の前記認識対象者に相
    当する画像部を抽出し、認識対象者が指し示した位置又
    は方向を判断する判断手段と、 前記複数の画像中の前記認識対象者の身体の所定部分に
    相当する画像部を抽出し、前記画像部の面積又は輪郭の
    形状又は輪郭線の長さの変化を検出する第1の検出手段
    と、 前記第1の検出手段によって前記画像部の面積又は輪郭
    の形状又は輪郭線の長さの変化が検出された場合に所定
    の処理を実行する処理手段と、 を含むハンドポインティング装置。
  10. 【請求項10】 認識対象者を照明する照明手段と、 前記照明手段によって照明された認識対象者を互いに異
    なる方向から撮像する複数の撮像手段と、 認識対象者が特定の位置又は方向を指し示している状況
    を前記複数の撮像手段が各々撮像することで得られた複
    数の画像に基づいて、前記画像中の前記認識対象者に相
    当する画像部を抽出し、認識対象者が腕を屈曲又は伸長
    させることで位置が変化する特徴点及び認識対象者が腕
    を屈曲及び伸長させても位置が変化しない基準点の3次
    元座標を求め、特徴点及び基準点の3次元座標に基づい
    て認識対象者が指し示した位置又は方向を判断する判断
    手段と、 前記基準点と前記特徴点との距離を演算し、基準点と特
    徴点との距離の変化に基づいて所定の処理を実行する処
    理手段と、 を含むハンドポインティング装置。
  11. 【請求項11】 前記処理手段は、前記基準点と前記特
    徴点との距離が増加した場合には第1の所定の処理を行
    い、前記基準点と前記特徴点との距離が減少した場合に
    は前記第1の所定の処理と異なる第2の所定の処理を行
    うことを特徴とする請求項10記載のハンドポインティ
    ング装置。
  12. 【請求項12】 前記処理手段は、前記基準点と前記特
    徴点との距離の変化速度を検出し、検出した変化速度が
    閾値以上の場合にのみ所定の処理を実行することを特徴
    とする請求項10又は請求項11記載のハンドポインテ
    ィング装置。
  13. 【請求項13】 前記処理手段に所定の処理を行わせる
    ために腕を屈曲又は伸長させる動作を行うよう認識対象
    者に要請し、認識対象者が腕を屈曲又は伸長させる動作
    を行ったときの前記基準点と前記特徴点との距離の変化
    速度に基づいて前記閾値を予め設定する閾値設定手段を
    更に備えたことを特徴とする請求項12記載のハンドポ
    インティング装置。
  14. 【請求項14】 前記複数の画像中の前記認識対象者の
    腕に相当する画像部を抽出し、認識対象者の腕が下げら
    れたか否かを検出する第2の検出手段を更に備え、 前記処理手段は、前記第2の検出手段によって前記認識
    対象者の腕が下げられたことが検出された場合には処理
    を実行又は停止している状態を継続することを特徴とす
    る請求項9又は請求項10記載のハンドポインティング
    装置。
JP36962897A 1997-03-21 1997-12-29 ハンドポインティング装置 Expired - Fee Related JP3749369B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP36962897A JP3749369B2 (ja) 1997-03-21 1997-12-29 ハンドポインティング装置
DE69824225T DE69824225T2 (de) 1997-03-21 1998-03-18 Das Bild einer Hand verwendende Hinweisvorrichtung
DE69829424T DE69829424T2 (de) 1997-03-21 1998-03-18 Hinweisvorrichtung, die das Bild einer Hand verwendet
US09/040,436 US6385331B2 (en) 1997-03-21 1998-03-18 Hand pointing device
EP03008193A EP1329838B1 (en) 1997-03-21 1998-03-18 Pointing device using the image of the hand
EP03008194A EP1329839B1 (en) 1997-03-21 1998-03-18 Pointing device using the image of the hand
DE69828912T DE69828912T2 (de) 1997-03-21 1998-03-18 Hinweisvorrichtung, die das Bild einer Hand verwendet
EP98104954A EP0866419B1 (en) 1997-03-21 1998-03-18 Pointing device using the image of the hand
KR1019980009762A KR100328648B1 (ko) 1997-03-21 1998-03-20 핸드포인팅장치

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6860297 1997-03-21
JP9-68602 1997-03-21
JP36962897A JP3749369B2 (ja) 1997-03-21 1997-12-29 ハンドポインティング装置

Publications (2)

Publication Number Publication Date
JPH10326148A true JPH10326148A (ja) 1998-12-08
JP3749369B2 JP3749369B2 (ja) 2006-02-22

Family

ID=26409810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36962897A Expired - Fee Related JP3749369B2 (ja) 1997-03-21 1997-12-29 ハンドポインティング装置

Country Status (5)

Country Link
US (1) US6385331B2 (ja)
EP (3) EP1329838B1 (ja)
JP (1) JP3749369B2 (ja)
KR (1) KR100328648B1 (ja)
DE (3) DE69828912T2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000222117A (ja) * 1999-01-29 2000-08-11 Takenaka Komuten Co Ltd ハンドポインティング装置、指示位置表示方法及び記録媒体
JP2003084229A (ja) * 2001-09-14 2003-03-19 Takenaka Komuten Co Ltd 指示位置表示装置及び方法
JP2003533817A (ja) * 2000-05-17 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
KR100799766B1 (ko) 2006-10-25 2008-02-01 엠텍비젼 주식회사 포인터 이동 제어 장치
KR100814289B1 (ko) 2006-11-14 2008-03-18 서경대학교 산학협력단 실시간 동작 인식 장치 및 그 방법
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2014142695A (ja) * 2013-01-22 2014-08-07 Ricoh Co Ltd 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム
JP2020188479A (ja) * 2009-09-30 2020-11-19 ロヴィ ガイズ, インコーポレイテッド 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法

Families Citing this family (124)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6256046B1 (en) * 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
DE19806024A1 (de) * 1998-02-13 1999-08-19 Siemens Nixdorf Inf Syst Verfahren zur Überwachung eines Gerätebedienungsvorganges und mit diesem überwachte Selbstbedienungseinrichtung
TW464800B (en) * 1998-10-07 2001-11-21 Intel Corp A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system
US6690357B1 (en) 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
WO2000075860A1 (en) * 1999-06-08 2000-12-14 Soffix, S.R.L. Electronic writing/display apparatus and respective method of operation
EP1074943A3 (en) * 1999-08-06 2004-03-24 Canon Kabushiki Kaisha Image processing method and apparatus
US6738041B2 (en) 1999-10-29 2004-05-18 Intel Corporation Using video information to control cursor position
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US20040246234A1 (en) * 2001-03-01 2004-12-09 Luis Serra Display apparatus
US6711280B2 (en) * 2001-05-25 2004-03-23 Oscar M. Stafsudd Method and apparatus for intelligent ranging via image subtraction
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US20030165048A1 (en) * 2001-12-07 2003-09-04 Cyrus Bamji Enhanced light-generated interface for use with electronic devices
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
JP3762309B2 (ja) * 2002-02-18 2006-04-05 キヤノン株式会社 位置方向測定装置および情報処理方法
US6973579B2 (en) * 2002-05-07 2005-12-06 Interdigital Technology Corporation Generation of user equipment identification specific scrambling code for the high speed shared control channel
US7165029B2 (en) 2002-05-09 2007-01-16 Intel Corporation Coupled hidden Markov model for audiovisual speech recognition
US7209883B2 (en) * 2002-05-09 2007-04-24 Intel Corporation Factorial hidden markov model for audiovisual speech recognition
US20030212552A1 (en) * 2002-05-09 2003-11-13 Liang Lu Hong Face recognition procedure useful for audiovisual speech recognition
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
US20040066500A1 (en) * 2002-10-02 2004-04-08 Gokturk Salih Burak Occupancy detection and measurement system and method
DE60215504T2 (de) 2002-10-07 2007-09-06 Sony France S.A. Verfahren und Gerät zur Analyse von Gesten eines Menschen, z.B. zur Steuerung einer Maschine durch Gestik
US7171043B2 (en) 2002-10-11 2007-01-30 Intel Corporation Image recognition using hidden markov models and coupled hidden markov models
US7472063B2 (en) * 2002-12-19 2008-12-30 Intel Corporation Audio-visual feature fusion and support vector machine useful for continuous speech recognition
US7203368B2 (en) * 2003-01-06 2007-04-10 Intel Corporation Embedded bayesian network for pattern recognition
JP3849645B2 (ja) * 2003-01-20 2006-11-22 ソニー株式会社 監視装置
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US7618323B2 (en) * 2003-02-26 2009-11-17 Wms Gaming Inc. Gaming machine system having a gesture-sensing mechanism
FR2853423B1 (fr) * 2003-03-20 2005-07-15 Simag Dev Dispositif de saisie comportant un capteur optique suivi d'un moyen de filtrage
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7439074B2 (en) * 2003-09-30 2008-10-21 Hoa Duc Nguyen Method of analysis of alcohol by mass spectrometry
US7746321B2 (en) 2004-05-28 2010-06-29 Erik Jan Banning Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
WO2006003599A1 (en) * 2004-06-29 2006-01-12 Philips Intellectual Property & Standards Gmbh Personal gesture signature
WO2006027423A1 (fr) * 2004-08-09 2006-03-16 Simag Developpement Dispositif de saisie comportant un capteur optique suivi d’un moyen de filtrage
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP4654773B2 (ja) * 2005-05-31 2011-03-23 富士フイルム株式会社 情報処理装置、動画像符号化装置、情報処理方法及び情報処理プログラム
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
KR100815159B1 (ko) 2005-12-08 2008-03-19 한국전자통신연구원 다수의 카메라를 이용한 손 추적 3 차원 입력 장치 및 그방법
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8407725B2 (en) * 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US20090278915A1 (en) * 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
EP2004299A2 (en) * 2006-03-22 2008-12-24 Home Focus Development Limited Interactive playmat
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
JP2008052029A (ja) * 2006-08-24 2008-03-06 Takata Corp 撮像システム、車両乗員検出システム、作動装置制御システム、車両
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
WO2008131565A1 (en) * 2007-04-26 2008-11-06 Roberto Rosso Communications control bus and apparatus for controlling multiple electronic hardware devices
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US20100066673A1 (en) * 2008-09-16 2010-03-18 Shang Tai Yeh Laser pointer capable of detecting a gesture associated therewith and representing the gesture with a function
JP5183398B2 (ja) * 2008-09-29 2013-04-17 株式会社日立製作所 入力装置
WO2010038822A1 (ja) * 2008-10-01 2010-04-08 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、情報記憶媒体及びプログラム
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
JP2010257089A (ja) 2009-04-22 2010-11-11 Xiroku:Kk 光学式位置検出装置
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP4701424B2 (ja) * 2009-08-12 2011-06-15 島根県 画像認識装置および操作判定方法並びにプログラム
KR100969927B1 (ko) * 2009-08-17 2010-07-14 (주)예연창 사용자 지향적 비접촉식 상호 작용 디스플레이 장치
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
JP2011166332A (ja) * 2010-02-08 2011-08-25 Hitachi Consumer Electronics Co Ltd 情報処理装置
US8878773B1 (en) 2010-05-24 2014-11-04 Amazon Technologies, Inc. Determining relative motion as input
US9405444B2 (en) 2010-10-01 2016-08-02 Z124 User interface with independent drawer control
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
US9440144B2 (en) 2011-04-21 2016-09-13 Sony Interactive Entertainment Inc. User identified to a controller
US9123272B1 (en) 2011-05-13 2015-09-01 Amazon Technologies, Inc. Realistic image lighting and shading
KR101235432B1 (ko) * 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US9041734B2 (en) 2011-07-12 2015-05-26 Amazon Technologies, Inc. Simulating three-dimensional features
US10088924B1 (en) 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
JP2013070368A (ja) 2011-09-05 2013-04-18 Panasonic Corp テレビ対話システム、端末および方法
US8947351B1 (en) 2011-09-27 2015-02-03 Amazon Technologies, Inc. Point of view determinations for finger tracking
US9495012B2 (en) 2011-09-27 2016-11-15 Z124 Secondary single screen mode activation through user interface activation
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US8884928B1 (en) 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
US9063574B1 (en) 2012-03-14 2015-06-23 Amazon Technologies, Inc. Motion detection systems for electronic devices
US9285895B1 (en) 2012-03-28 2016-03-15 Amazon Technologies, Inc. Integrated near field sensor for display devices
US9587804B2 (en) * 2012-05-07 2017-03-07 Chia Ming Chen Light control systems and methods
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
WO2013190538A1 (en) * 2012-06-20 2013-12-27 Pointgrab Ltd. Method for touchless control of a device
CN102968208B (zh) * 2012-09-05 2015-10-07 广东威创视讯科技股份有限公司 面阵摄像头定位图像有效区域调整方式的选择方法和系统
US9423886B1 (en) 2012-10-02 2016-08-23 Amazon Technologies, Inc. Sensor connectivity approaches
US8933882B2 (en) * 2012-12-31 2015-01-13 Intentive Inc. User centric interface for interaction with visual display that recognizes user intentions
US9734582B2 (en) 2013-02-21 2017-08-15 Lg Electronics Inc. Remote pointing method
US9035874B1 (en) 2013-03-08 2015-05-19 Amazon Technologies, Inc. Providing user input to a computing device with an eye closure
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9717118B2 (en) 2013-07-16 2017-07-25 Chia Ming Chen Light control systems and methods
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US11199906B1 (en) 2013-09-04 2021-12-14 Amazon Technologies, Inc. Global user input management
US10055013B2 (en) 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
US9367203B1 (en) 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10406967B2 (en) 2014-04-29 2019-09-10 Chia Ming Chen Light control systems and methods
US10088971B2 (en) * 2014-12-10 2018-10-02 Microsoft Technology Licensing, Llc Natural user interface camera calibration
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6586891B2 (ja) * 2016-01-13 2019-10-09 セイコーエプソン株式会社 プロジェクター及びプロジェクターの制御方法
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
CN106383500A (zh) * 2016-09-05 2017-02-08 湖北工业大学 一种智能建筑门窗幕墙系统
JP6255129B1 (ja) * 2017-04-18 2017-12-27 京セラ株式会社 電子機器
JP7380453B2 (ja) * 2020-07-01 2023-11-15 トヨタ自動車株式会社 サーバ装置、情報処理システム、及びシステムの動作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04271423A (ja) * 1991-02-27 1992-09-28 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法
JPH0519957A (ja) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 情報の入力方法
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3906555A1 (de) * 1989-03-02 1989-07-06 Zeiss Carl Fa Auflicht-objektbeleuchtungseinrichtung
JPH0474285A (ja) 1990-07-17 1992-03-09 Medama Kikaku:Kk 特定人又は物の位置検出表示装置
DE4142614A1 (de) * 1991-10-14 1993-04-15 Tropf Hermann Dr Ing Vorrichtung und verfahren zum erkennen von objekten, wie unregelmaessigkeiten in oberflaechen oder dergleichen
EP0571702A3 (en) * 1992-05-26 1994-10-12 Takenaka Corp Handheld input device and wall computer unit.
JPH05324181A (ja) 1992-05-26 1993-12-07 Takenaka Komuten Co Ltd ハンドポインティング式入力装置
IT1264225B1 (it) * 1993-09-24 1996-09-23 Sintecna S R L Dispositivo per il puntamento del cursore sullo schermo di sistemi interattivi
JPH07160412A (ja) * 1993-12-10 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> 指示位置検出方法
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5900863A (en) * 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
JPH08329222A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd 3次元位置認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04271423A (ja) * 1991-02-27 1992-09-28 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法
JPH0519957A (ja) * 1991-07-15 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 情報の入力方法
JPH08328735A (ja) * 1995-06-02 1996-12-13 Takenaka Komuten Co Ltd ハンドポインティング入力装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (ja) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd ハンドポインティング装置
JP2000181601A (ja) * 1998-12-18 2000-06-30 Fujitsu General Ltd 情報表示システム
JP2000222117A (ja) * 1999-01-29 2000-08-11 Takenaka Komuten Co Ltd ハンドポインティング装置、指示位置表示方法及び記録媒体
JP4768196B2 (ja) * 2000-05-17 2011-09-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
JP2003533817A (ja) * 2000-05-17 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
JP2003084229A (ja) * 2001-09-14 2003-03-19 Takenaka Komuten Co Ltd 指示位置表示装置及び方法
KR100799766B1 (ko) 2006-10-25 2008-02-01 엠텍비젼 주식회사 포인터 이동 제어 장치
KR100814289B1 (ko) 2006-11-14 2008-03-18 서경대학교 산학협력단 실시간 동작 인식 장치 및 그 방법
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
JP5212991B2 (ja) * 2007-03-30 2013-06-19 独立行政法人情報通信研究機構 空中映像インタラクション装置及びそのプログラム
US8985774B2 (en) 2007-03-30 2015-03-24 National Institute Of Information And Communication Technology Floating image interaction device and its program
JP2009240370A (ja) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International 動作検出装置
JP2020188479A (ja) * 2009-09-30 2020-11-19 ロヴィ ガイズ, インコーポレイテッド 3次元メディアガイダンスアプリケーションをナビゲートするためのシステムおよび方法
JP2014142695A (ja) * 2013-01-22 2014-08-07 Ricoh Co Ltd 情報処理装置、システム、画像投影装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
KR19980080509A (ko) 1998-11-25
EP1329839A3 (en) 2003-07-30
DE69824225T2 (de) 2005-06-23
DE69828912D1 (de) 2005-03-10
EP0866419A3 (en) 2001-05-23
EP0866419B1 (en) 2004-06-02
US20010043719A1 (en) 2001-11-22
US6385331B2 (en) 2002-05-07
EP0866419A2 (en) 1998-09-23
EP1329839A2 (en) 2003-07-23
EP1329838A2 (en) 2003-07-23
DE69828912T2 (de) 2005-07-28
JP3749369B2 (ja) 2006-02-22
DE69829424D1 (de) 2005-04-21
EP1329838A3 (en) 2003-08-06
EP1329839B1 (en) 2005-03-16
EP1329838B1 (en) 2005-02-02
KR100328648B1 (ko) 2002-07-31
DE69824225D1 (de) 2004-07-08
DE69829424T2 (de) 2006-05-04

Similar Documents

Publication Publication Date Title
JP3749369B2 (ja) ハンドポインティング装置
JP3795647B2 (ja) ハンドポインティング装置
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
CN102033702A (zh) 影像显示装置及其显示控制方法
JPH0844490A (ja) インターフェイス装置
JP2006209359A (ja) 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2004078977A (ja) インターフェイス装置
JP3792907B2 (ja) ハンドポインティング装置
CN109219426B (zh) 康复训练辅助控制装置以及计算机能够读取的记录介质
JP5221939B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
WO2013025011A1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JPH1080886A (ja) 視覚制御ロボット
JP3138145U (ja) 脳トレーニング装置
KR101536753B1 (ko) 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템
JP2003076488A (ja) 指示位置判断装置及び方法
JPH07160412A (ja) 指示位置検出方法
US11195525B2 (en) Operation terminal, voice inputting method, and computer-readable recording medium
JP2015018485A (ja) 電子制御装置、制御方法、及び制御プログラム
JP2000222098A (ja) ハンドポインティング装置、指示位置表示方法及び記録媒体
KR20150073146A (ko) 사용자 동작 인식에 기반한 영상 처리 방법 및 시스템
JPH06301477A (ja) 3次元空間に対する指示位置の入力装置
JP2021071788A (ja) 撮影システム
JP3376207B2 (ja) 視線検出装置及びその方法
US11682154B2 (en) Moving image processing method of a moving image viewed by a viewing user, a server device controlling the moving image, and a computer program thereof
EP4270317A1 (en) Foot shape measurement apparatus and computer program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051201

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees