JP2011221699A - 操作指示認識装置及びロボット - Google Patents
操作指示認識装置及びロボット Download PDFInfo
- Publication number
- JP2011221699A JP2011221699A JP2010088586A JP2010088586A JP2011221699A JP 2011221699 A JP2011221699 A JP 2011221699A JP 2010088586 A JP2010088586 A JP 2010088586A JP 2010088586 A JP2010088586 A JP 2010088586A JP 2011221699 A JP2011221699 A JP 2011221699A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- person
- operation instruction
- posture
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】特定の人物のみが確実に操作指示を行うことができ、それ以外の人物による操作指示を禁止する。
【解決手段】操作指示認識装置は、撮像を行い、対応する画像データを出力するカメラ14を有するとともに、カメラ14から出力された画像データに含まれる人物1の手2の領域を検出し、対応する手領域データを生成する手領域検出処理G2を実行し、手領域検出処理G2により生成された手領域データに基づき、手2の領域を検出した人物1が、予め定められた特定の人物1であるかどうかを判定する人物判定処理G3を実行し、人物判定処理G3による判定が満たされた場合に、手領域検出処理G2において生成された手領域データに基づき、特定の人物1の操作指示に対応した特定の手2の姿勢を判定する指示判定処理G4と、を実行する。
【選択図】図7
【解決手段】操作指示認識装置は、撮像を行い、対応する画像データを出力するカメラ14を有するとともに、カメラ14から出力された画像データに含まれる人物1の手2の領域を検出し、対応する手領域データを生成する手領域検出処理G2を実行し、手領域検出処理G2により生成された手領域データに基づき、手2の領域を検出した人物1が、予め定められた特定の人物1であるかどうかを判定する人物判定処理G3を実行し、人物判定処理G3による判定が満たされた場合に、手領域検出処理G2において生成された手領域データに基づき、特定の人物1の操作指示に対応した特定の手2の姿勢を判定する指示判定処理G4と、を実行する。
【選択図】図7
Description
本発明は、カメラで撮影した画像を利用して操作指示の認識を行う操作指示認識装置及びこれを用いたロボットに関する。
今日、人とコンピュータとの間で、情報授受を行うマンマシンインタフェースのために、様々な装置や方法が考案されている。その1つとして、操作対象であるコンピュータ、機器、及びロボットが、カメラにより撮影した画像から操作者の手を検出し、その検出結果を用いて、操作者からの操作指示を認識する手法が既に提唱されている。
そして、上記のような操作指示の認識のために用いられる、人物の手を検出するための従来技術としては、例えば、特許文献1及び特許文献2記載のものがある。
特許文献1には、カメラで撮影された人の手を含む画像から抽出された肌色領域のうち最大のものを手領域とし、さらに手首位置及び指の本数を特定することにより、人の手の状態を検出する技術が開示されている。また、特許文献2には、カメラで撮影された画像から背景差分画像をもとに手領域を抽出した後、手領域を横切る平行線それぞれの画素列を探索し、手領域の輪郭とその画素列との交点の画素を求め、手の指の状態を判定する技術が開示されている。
これらの従来技術の手法を用いることで、例えば操作対象に近い位置に立つ人物が、カメラの撮影視野に対し所定の手の姿勢や形状をとることで、意図する操作を操作対象に認識させ、所望の動作をさせることができる。
しかしながら、上記従来技術を用いて操作対象を操作する場合、以下のような問題がある。すなわち、今後、操作対象であるコンピュータ、機器、及びロボット等が、近傍に複数の人物が存在するような環境で動作する場合が考えられる。そのような場合には、特定の人物、すなわち、操作権限のある本来の操作者のみが確実に操作指示を行えるようにし、それ以外の人物は操作指示できないように、操作者の手とそれ以外の手とを区別して認識する必要がある。上記従来技術では、このような点に特に配慮されていなかった。
本発明の目的は、特定の人物のみが確実に操作指示を行え、それ以外の人物による操作指示を禁止できる操作指示認識装置及びこれを備えたロボットを提供することにある。
上記目的を達成するために、本発明は、撮像を行い、対応する画像データを出力する撮像手段と、前記撮像手段から出力された画像データに含まれる人物の手の領域を検出し、対応する手領域データを生成する手領域検出手段と、前記手領域検出手段により生成された前記手領域データに基づき、前記手の領域を検出した人物が、予め定められた特定の人物であるかどうかを判定する人物判定手段と、前記人物判定手段による判定が満たされた場合に、前記手領域検出手段により生成された前記手領域データに基づき、前記特定の人物の操作指示に対応した特定の手の姿勢を判定する指示判定手段と、を有する。
本発明の操作指示認識装置においては、撮像手段により撮像が行われると、手領域検出手段が撮像手段の画像データから人物の手の領域を検出し、手領域データを生成する。この生成された手領域データに基づき、人物判定手段が、当該手の領域を検出した人物が、予め定められた特定の人物であるかどうかを判定する。特定の人物であると認められ判定が満たされた場合は、指示判定手段が、上記手領域データに基づき、特定の人物の操作指示に対応した特定の手の姿勢を判定する。
これにより、予め定められた特定の人物が、撮像手段の撮像方向において手を用いて操作指示を行うと、その手の姿勢に対応した操作指示が行われたということを認識する。その一方で、上記特定の人物以外の人物が同様に撮像手段の撮像方向において手を用いた操作指示を行ったとしても、当該操作指示は認識しない。したがって、複数の人物が存在する場合であっても、その中の限定された特定の人物のみが確実に操作指示を行うことができ、それ以外の人物による操作指示を禁止することができる。
好ましくは、前記手領域検出手段により生成された前記手領域データを正規化して抽出する手領域抽出手段をさらに有し、前記人物判定手段は、前記手領域検出手段により生成された前記手領域データに基づき、前記手の領域を検出した人物が、前記特定の人物であるかどうかを判定する。
人物判定手段の判定の前に、手領域データを正規化して抽出しておくことにより、人物判定手段は、容易かつ精度よく特定の人物であるかどうかの判定を行うことができる。
また好ましくは、前記特定の人物に係わる手領域データを記憶する第1記憶手段をさらに有し、前記人物判定手段は、前記手領域検出手段により生成された前記手領域データと前記第1記憶手段に記憶された前記特定の人物に係わる手領域データとを比較して、前記特定の人物であるかどうかの判定を行う。
予め、操作指示を認識すべき人物として決定された特定の人物の手領域データを、第1記憶手段に記憶しておく。人物判定手段は、撮像した画像データに対応した手領域データを、当該記憶した手領域データと比較し、判定を行う。これにより、容易かつ確実に、特定の人物であるかどうかの判定を行うことができる。
また好ましくは、前記人物判定手段は、各人物それぞれの、指の長さ又は手の面積を含む手の形状の違いに基づき、前記特定の人物であるかどうかの判定を行う。
人間の手の形状を人それぞれ千差万別であることを利用し、特定の人物であるかどうかの判定を精度よく行うことができる。
また好ましくは、前記特定の人物の所定の手の姿勢に係わる手姿勢データを記憶する第2記憶手段をさらに有し、前記指示判定手段は、前記手領域検出手段により生成された前記手領域データと前記第2記憶手段に記憶された前記特定の人物に係わる手領域データとを比較して、前記特定の手の姿勢の判定を行う。
予め、操作指示として認識すべき姿勢として決定された特定の手の姿勢に係わる手領域データを、第2記憶手段に記憶しておく。指示判定手段は、撮像した画像データに対応した手領域データを、当該記憶した手領域データと比較し、判定を行う。これにより、容易かつ確実に、操作指示に対応した特定の手の姿勢であると判定することができる。
また好ましくは、前記指示判定手段は、各特定の人物それぞれの、指の長さ又は手の面積を含む手の形状の違いに基づき、前記特定の手の姿勢の判定を行う。
一方向から見た人間の手の形状は手の姿勢によって種々変化することを利用し、操作指示に対応した特定の手の姿勢の判定を精度よく行うことができる。
また好ましくは、前記人物判定手段は、前記撮像手段が第1姿勢である手を撮像した前記画像データに対応した手領域データに基づき、前記特定の人物であるかどうかの判定を行い、前記指示判定手段は、前記撮像手段が前記第1姿勢と異なる第2姿勢である手を撮像した前記画像データに対応した手領域データに基づき、前記操作指示に対応した手の姿勢の判定を行う。
これにより、人物判定の際には、比較的大きな面積となる例えば手を広げた姿勢等の第1姿勢での撮像結果に基づき高精度に人物の判定を行うとともに、手姿勢判定の際には、例えば横向きや斜め向きに指差しをした姿勢等の上記第1姿勢と大きく異なる第2姿勢での撮像結果に基づき、操作指示に対応した特定の手の姿勢の判定を高精度に行うことができる。なお、人物判定手段は、第1姿勢として、例えば、パー、グー、チョキ等の複数の姿勢の組み合わせを用い、それぞれの形状を順番に認識することで前記特定の人物であるかどうかを判定してもよい。
また好ましくは、前記手領域検出手段は、Haar−like特徴量を用いた手法、肌色抽出、輪郭抽出、及びテンプレートマッチングのいずれか1つの手法により、前記手の領域を検出する。
撮像手段の画像データに対し、Haar−like特徴量を用いた手法、肌色抽出、輪郭抽出、テンプレートマッチング等を適用することで、効率よく高精度に手の領域を検出することができる。
また上記目的を達成するために、本発明は、人物の手の、少なくとも1種類の姿勢を、操作指示として認識する操作指示認識装置と、複数のリンク、前記複数のリンクのうち隣接するリンクどうしを屈曲可能に連結する複数の関節、及び、駆動対象の前記リンクへの駆動力を発生する少なくとも1つのアクチュエータ、を備えた多関節型のロボットアームと、前記操作指示認識装置の認識結果に応じて、前記少なくとも1つのアクチュエータの駆動を制御する制御手段と、を有するロボットであって、前記操作指示認識装置は、撮像を行い、対応する画像データを出力する撮像手段と、前記撮像手段から出力された画像データに含まれる人物の手の領域を検出し、対応する手領域データを生成する手領域検出手段と、前記手領域検出手段により生成された前記手領域データに基づき、前記手の領域を検出した人物が、予め定められた特定の人物であるかどうかを判定する人物判定手段と、前記人物判定手段による判定が満たされた場合に、前記手領域検出手段により生成された前記手領域データに基づき、前記特定の人物の操作指示に対応した手の姿勢を判定する指示判定手段と、を備え、前記制御手段は、前記指示判定手段により判定された手の姿勢に対応し、前記少なくとも1つのアクチュエータの駆動を制御する。
本発明のロボットは、操作指示認識装置を備える。操作指示認識装置では、撮像手段により撮像が行われると、手領域検出手段が撮像手段の画像データから人物の手の領域を検出し、手領域データを生成する。この生成された手領域データに基づき、人物判定手段が、当該手の領域を検出した人物が、予め定められた特定の人物であるかどうかを判定する。特定の人物であると認められ判定が満たされた場合は、指示判定手段が、上記手領域データに基づき、特定の人物の操作指示に対応した特定の手の姿勢を判定する。これにより、予め定められた特定の人物が、撮像手段の撮像方向において手を用いて操作指示を行うと、その手の姿勢に対応した操作指示が行われたということを認識する。その一方で、上記特定の人物以外の人物が同様に撮像手段の撮像方向において手を用いた操作指示を行ったとしても、当該操作指示は認識しない。
このとき、制御手段は、上記のような操作指示認識装置の認識結果に応じて、ロボットアームに備えられた少なくとも1つのアクチュエータの駆動を制御する。アクチュエータは、複数の関節により屈曲可能に連結された複数のリンクのうち駆動対象のリンクを駆動することで、多関節型のロボットアームを作動させる。これにより、ロボットの周囲に複数の人物が存在する場合であっても、その中の限定された特定の人物のみがロボットに対する操作指示を行って確実にロボットに対し所望の動作をさせることができ、それ以外の人物によるロボットに対する操作指示を禁止することができる。
本発明によれば、特定の人物のみが確実に操作指示を行うことができるとともに、それ以外の人物による操作指示を禁止することができる。
以下、本発明の実施形態を図面を参照しつつ説明する。
図1は、本発明の一実施形態による操作指示認識装置を備えたロボットの利用例を簡略化して示した図である。この図1に示す例において、ロボット100は、頭部101、多関節型アーム105、ロボットハンド104、及び移動用のローラ(図示せず)等を備えている。多関節型アーム105は、複数のリンク102と、隣接するリンク102どうしを屈曲可能に連結する各関節103とを備えている。
また、ロボット100は人間から直接指示を受けるコミュニケーションロボットであり、不特定多数の人物1と対面する機会を持つものの、そのうち予め登録された特定の人物(以下、登録者という)1からの指示にのみ反応して実行するものである。ロボット100への指示は手の動作によるものであり、ロボット100はそれ自体が備えるカメラ14により人物1の手2の画像を検出し、当該手2の画像から上記登録者の認証と操作指示判定を行う。なお、図1中のA部、B部については後述する。
図2は、ロボット100のハードウェア構成を模式的に示すシステムブロック図である。この図2において、ロボット1は、制御手段としてのCPU11と、メモリ12と、大容量記憶装置13と、撮像手段としてのカメラ14と、マイク15と、スピーカ16と、アクチュエータ17とを有している。
CPU11は、所定のプログラムの動作によって各種の演算を行うとともに、他の各部との間で情報の交換や各種の制御指示を出力することで、ロボット100全体を制御する機能を有する。
メモリ12は、ROMやRAMなどを含んで構成されており、後述する各種の処理プログラムの読み出しや、当該処理プログラムを実行する上で必要な情報の書き込み及び読み出しが行われる情報記憶媒体である。
大容量記憶装置13は、ハードディスクなどからなり、後述する各種の登録情報や後述する学習用画像データベースなどの書き込み及び読み出しが行われる不揮発性の情報記憶媒体である。
カメラ14は、上記図1に示すように、当該ロボットの頭部101が向いている方向に対して所定領域の画像(図1中のA部)を撮像する。この例では、CCDやCMOSなどのデジタル撮像素子を備えて直接デジタルデータの画像情報を取得する。
マイク15は、人物1からの音声を入力するものであり、スピーカ16は、人物1に対して音声情報を発音するものである。
アクチュエータ17は、上記リンク102や上記移動用ローラなどを駆動するための例えば回動型のモータである。
ここで、上記ロボット100は、上述したように、カメラ14で撮像した画像の中から人物1の手2に相当する画像領域B(図1参照)だけを検出し、当該手の画像領域Bから上記登録者の認証を行う。そして、登録者と認識した場合だけ、当該手の画像領域Bから判定された操作指示にのみ反応して当該指示に対応する動作を行う。このような一連の制御は、概略的に図3に示す4つの処理により上記CPU11が行う。4つの処理とは、撮像処理G1と、手領域検出処理G2と、人物判定処理G3と、指示判定処理G4であり、これらを順に行って逐次各種の条件を満たした場合にだけ登録者が所望する指示がロボット100に入力され、対応する動作が行われる。
本実施形態の操作指示認識装置は、上記4つのソフトウェア処理を実行する上記CPU11と、上記カメラ14とで構成される。なお、人物1がロボット100に対して操作指示する具体的な内容としては、ロボット100自体の移動やロボットアーム105の回転・移動といった単純動作のほか、もっと複雑な各種動作(物をつかむ、物を運ぶ、物を拾う、かがむ、起き上がる)等を指示可能としてもよい。以下、上記4つの処理についてそれぞれ順を追って説明する。
まず、最初の撮像処理G1は、カメラ14に制御信号を出力して撮像を行わせ、カメラ14から出力された画像データを取得する処理である。この撮像処理G1で取得した画像データは、上記図1中のA部に示すように、カメラ14が撮像した画像全体のデータであり、その中には人物1がカメラ14に向かって差し出した手以外にも様々な物が写り込んでいる。
次に、手領域検出処理G2について説明する。
本実施形態では、この手領域検出処理G2において、公知であるHaar−Like特徴量を利用し、カメラ14で撮像した画像データをラスタスキャンすることで、各請求項記載の第1姿勢としての、手の指を大きく広げた「パー状態」の手領域を検出する。一般にラスタスキャンとは、撮像した画像の全部または一部の領域に対し、最上段の左端の画素から右端の画素へ走査(スキャン)し、続いて一段下の左端から右端へ走査し、さらにもう一段下の左端から右端へ走査し・・・という走査を最下段まで繰り返しつつ、走査した画素のデータを一列に並んだ情報として配列に格納することを指す。
本実施形態では、カメラ14が撮像した画像全体(上記図1中のA部参照)に対し、手領域(この例では手首から先の部分;上記図1中のB部参照)に相当する大きさの画像枠を端から順にずらしながら、画像枠内をラスタスキャンにて走査して、得られたデータを基に人物の手だけを検出している。
なお、上記Haa−Like特徴量等を利用して手領域検出を行う手法に限られず、肌色抽出、輪郭抽出、もしくはテンプレートマッチング等を利用して、手領域を抽出してもよい。いずれの場合も、効率よく高精度に手2の領域を検出することができる。
この手領域検出処理G2で用いる手領域検出器としては、Violaらが提案した方法で用いられる顔検出器と同様のものを用いることができる。すなわち、この手領域検出器は、Adaboostアルゴリズムによって生成される複数の識別器Hk(k=1〜S)を、図4に示すようにカスケード接続した構造を有している。
画像のある領域が手領域か否かを判断するには、まず、1段目の識別器H1でその領域が手領域か否かを判定する。手領域でないと判定した場合は処理を終了し、手領域と判定した場合は2段目の識別器H2に進む。そして、2段目以降の識別器Hkでも手領域か否かの判定を行い、手領域でないと判定した場合は処理を終了し、手領域と判定した場合のみ次の段へと進む。このように構成することで、手領域検出器は、最終段の識別器Hsまで手領域であるとの判定が続いた場合のみその領域が手領域であると判定するので、検出精度が高くなる。また、途中の段で手領域でないと判定した場合は直ちに処理が終了するので、処理速度を速くすることができる。
このとき、各識別器Hkは、それぞれ複数の弱識別器R1,R2,R3,R4を線形結合することによって構成される。弱識別器R1〜4は図5に示すような黒矩形と白矩形からなる矩形フィルターと閾値θの組である。弱識別器R1〜4は、矩形フィルターを手検出の対象となる領域に重ね合わせ、黒矩形に対応する領域内の輝度値の和と白矩形に対応する領域内の輝度値の和との差が閾値θよりも大きいか小さいかを判断し、閾値θよりも大きいときは手であることを示す「1」、小さいときは手でないことを示す「0」を出力する。
手検出の対象となる領域が識別器Hkに入力されると、識別器Hkは、弱識別器R1〜4の出力にその弱識別器R1〜4の信頼度αを掛けた値の総和を算出し、その総和から所定の閾値Thrを減じた値を確信度Conv(k)として算出する。確信度Conv(k)は、その領域に手が含まれていることの確かさを表す値である。そして、識別器Hkは、確信度Conv(k)が正の場合は当該領域が手領域と判定して「+1」を出力し、負の場合は非手領域であると判定して「−1」の値を出力する。
図6は、識別器Hkを生成する手判断学習処理の制御手順を示したフローチャートである。この手判断学習処理は、対象となる1つの識別器Hkが、適切に手であるか手でないかの識別が行えるよう学習させる処理であり、ロボット100に通常動作を行わせる前に予め行うものである。識別器Hkを構成する弱識別器R1〜4の選出はAdaboostアルゴリズムにより行われ、識別器Hkが、予めカメラ14により撮影した(あるいは、ロボット100外部より別途取得してもよい)複数の手のサンプル画像に対し、所望の比較的高い精度で、手であるか手でないかの判断ができるようになるまで繰り返される。
図6において、まず、ステップS1001で、下記式(1)により、図示しない学習用画像データベースに記憶されている手のサンプル画像ごとの重みを初期値W1(i)に設定する。iは各手のサンプル画像に割り当てられる通し番号であり、Mは上記大容量記憶装置13に設定される学習用画像データベースに記憶されているデータの総数である。
・・・(1)
・・・(1)
ステップS1002では、様々な弱識別器R1〜4を全データに対して適用し、下記式(2)により誤り率εtを算出する。添え字tは識別器Hkの更新回数(弱識別器R1〜4を識別器Hkに追加した回数)であり、初期値は1である。
・・・(2)
・・・(2)
ステップS1003では、誤り率εtが最小になる弱識別器R1〜4を、識別器Hkを構成する弱識別器htとして選出する。そして、選出された弱識別器htを識別器Hkに追加し、識別器Hkを更新する。
ステップS1004では、選出された弱識別器htの誤り率εtに基づき、下記式(3)により選出された弱識別器htの信頼度αtを算出する。
・・・(3)
・・・(3)
ステップS1005では、選出された弱識別器htの信頼度αtに基づき、弱識別器htが判定を誤ったデータの重みWt(i)を下記式(4)により増加させ、逆に、判定が正しかったデータの重みWt(i)を下記式(5)により減少させる。さらに、更新後の重みWt(i)をそれらの総和で割って重みWt(i)を正規化する。
・・・(4)
・・・(5)
・・・(4)
・・・(5)
ステップS1006では、下記式(6)により、弱識別器htを全データに適用し、その結果に対応する信頼度αtを掛けた値の総和を求め、その総和から閾値Thrを引いた値を確信度Conv(k)として算出する。形状データの輝度情報がxである。確信度Conv(k)は、0から1の間に正規化されるように、シグモンド関数を使用してもよく、最大値で割ってもよい。
・・・(6)
・・・(6)
ステップS1007では、全データについて確信度Conv(k)の符号の正負に応じて検出対象となる領域が手領域か否かを判断する。そして、手領域、非手領域の判断が正しく行われたデータの数を学習用画像データベースに記憶されているデータの総数Mで割って、検出精度を算出する。
ステップS1008では、所望の検出精度が得られているか否かを判定する。所望の検出精度が得られている場合は、判定が満たされ、ステップS1009に進む。
ステップS1009では、下記式(7)により識別器Hkを構成する。
・・・(7)
以上のようにして、識別器Hkは、データのある領域の輝度情報が入力されると上記式(6)により確信度Conv(k)を算出し、確信度Conv(k)の符号が正の場合は当該領域が手領域と判定して「+1」を出力し、負の場合は非手領域と判定して「−1」を出力する。
・・・(7)
以上のようにして、識別器Hkは、データのある領域の輝度情報が入力されると上記式(6)により確信度Conv(k)を算出し、確信度Conv(k)の符号が正の場合は当該領域が手領域と判定して「+1」を出力し、負の場合は非手領域と判定して「−1」を出力する。
なお、通常、カスケード処理では前段の情報を持ち越さない場合が多いが、識別器Hkにおいて1段目からk段目の確信度Conv(k)の総和Convsumを下記式(8)により算出し、この総和Convsumの符号によって手領域、非手領域を判断するようにしてもよい。このように確信度Conv(k)の総和をとり、以前の段で算出した確信度も反映させたほうが、検出率が高くなることが分かっている。
・・・(8)
一方、ステップS1008で所望の検出精度が得られていない場合、判定は満たされず、ステップS1010で更新回数tに1が加算され、ステップS1002に戻って新たな弱識別器R1〜4の選出及び選出した弱識別器R1〜4の識別器Hkへの追加が行われる。弱識別器R1〜4の追加は所望の検出精度が得られるまで繰り返し行われる。
・・・(8)
一方、ステップS1008で所望の検出精度が得られていない場合、判定は満たされず、ステップS1010で更新回数tに1が加算され、ステップS1002に戻って新たな弱識別器R1〜4の選出及び選出した弱識別器R1〜4の識別器Hkへの追加が行われる。弱識別器R1〜4の追加は所望の検出精度が得られるまで繰り返し行われる。
本実施形態では、このようにして、予め撮像(又は外部より取得)した手の複数のサンプル画像により学習を行うことで各識別器Hkの検出精度を高めることができる。そして、それら識別器Hkをカスケード接続した手領域検出器を用いることで、上記図1中のB部に示すように、その後に実際にカメラ14により撮像を行い人物1の手2の位置を検出する際の処理時間を短縮することができる。これにより、人物1は、ロボット100のカメラ14の前でパー状態の手を差し出すことで、ロボット100に自分の手2を手領域データとして検出させることができる。なお、手領域検出処理G2のうち、ここまでに述べた処理が、各請求項記載の手領域検出手段として機能する。
上記のようにして手領域検出器により手領域データを検出したら、カメラ14が撮像した全体画像(上記図1中のA部参照)から当該検出した手領域データ(上記図1中のB部参照)だけを抽出し、N×Nピクセルに正規化する。なお、本実施形態の例では、10×10ピクセルで正規化する。なお、この処理が、各請求項記載の手領域抽出手段として機能する。その後、さらに1つのピクセル毎、つまり1つの画素毎において、手に対応した色(例えば肌色)に対応するか否かで、1又は0(もしくは白又は黒)の2値化データに変換する(詳しくは後述する)。
次に、人物判定処理G3について説明する。
本実施形態の人物判定処理G3においては、上記手領域検出処理G2によりカメラ14で撮像した画像データより実際に検出・抽出した手領域データが、予め登録された複数の登録者の手領域データ(いずれもパー状態で10×10ピクセルに正規化された2値化データ)のいずれかと、それぞれのヒストグラムどうしの比較により一致しているか否かを判定する。
図7は、登録者情報テーブルを概念的に示した図である。この登録者情報テーブルは、各請求項記載の第1記憶手段及び第2記憶手段として機能する上記大容量記憶装置13に記憶されている。この登録者情報テーブルは、この例では、「登録番号」と、「認証用手領域データ」と、「指示判定用手領域データ」の各項目が設定されている。「登録番号」の項目には、各登録者が登録した順に対応した番号が記録されており、当該登録番号に対応する行に、1人の登録者に関する情報が記録される。
「認証用手領域データ」の項目には、登録番号に対応する登録者のパー状態の手領域データが記録されている。この例では、このパー状態の手領域データは、上記と同じ10×10ピクセルの2値化データのフォーマットで記録されている。
「指示判定用手領域データ」の項目には、登録番号に対応する登録者の指差し指示状態の手領域データが記録されている。この例では、指差し指示状態として、「左90°」方向、「左45°」方向、「右45°」方向、及び「右90°」方向の各方向をそれぞれ指差しする姿勢の、4つの手領域データが記録されている。この指差し指示状態の手領域データも、上記同様、10×10ピクセルの2値化データのフォーマットで記録されている。なお、上記認証用手領域データが、各請求項記載の手姿勢データに相当している。
なお、上記の認証用手領域データと、4つの指示判定用手領域データは、上記カメラ14で撮像した画像データにCPU11が公知の処理を行って上記フォーマットに変換され格納されてもよいし、ロボット100外部より取得され、格納されていてもよい。
図8は、上記CPU11により実行される、人物判定処理G3の具体的な制御手順を示すフローチャートである。
図8において、まず、ステップS305で、上記手領域検出処理G2においてカメラ14の撮像結果より実際に検出・抽出され、上記フォーマット(10×10ピクセルの2値化データ)に従うデータとなっている手領域データを(例えばRAMから)読み込む。
その後、ステップS310へ移り、上記図7に示した登録者情報テーブルから登録番号順に沿って認証用手領域データを1つだけ読み込む。
そして、ステップS315へ移り、上記ステップS305で読み込んだ手領域データと、上記ステップS310で読み込んだ認証用手領域データとが一致するか否か、言い換えれば登録者を認証できたか否か、を判定する(詳細は後述)。2つの手領域データが一致した場合、ステップS315の判定が満たされ、人物判定処理G3を終了して次の指示判定処理G4へ移る。なおこの際、平均値シフト法、EMアルゴリズム等の公知の物体追跡技術を利用してカメラ14の撮影画像中における手領域を追跡し続けてもよい。一方、2つの手領域データが一致しなかった場合、ステップS315の判定は満たされず、ステップS320へ移る。
ステップS320では、この時点で、上記ステップS305で読み込んだ手領域データと、全ての認証用手領域データとの、比較が完了したか否かを判定する。例えば、この時点で登録番号順に沿って最後の登録番号まで比較が完了したか否かを判定すればよい。全ての認証用手領域データとの比較が完了している場合、ステップS320の判定が満たされ、ステップS325に移る。ステップS325では、例えばスピーカ16から認証ができなかった旨を知らせる音声を発音するなどのエラー処理を行い、この処理を終了する。一方、まだ比較していない認証用手領域データが残っている場合、ステップS320の判定が満たされず、ステップS310へ戻り、ステップS310において次の登録番号で認証用手領域データを読み込み、同様の手順を繰り返す。
ここで、上記ステップS315における2つの手領域データの一致判定の詳細について図9を用いて説明する。図9は、手領域データの比較を説明する図である。
図9において、上記図1中のB部に示すような手領域画像は、前述したように上記フォーマットに従って正規化・2値化することで手領域データとなる。このようなフォーマットの手領域データは、各指の長さや手の面積等の、手の形状の違いによって、白色となる画素(又は「1」に対応する画素)の数や配置が異なってくる(各データ例参照)。上記図8のステップS315では、このような白色画素の数とそれらの配置の特徴とを比較することにより、2つの手領域データの一致を判定する。
具体的には、本実施形態では、図10に示すようなヒストグラムに基づいて特徴の比較を行う。つまり、各手領域データに対して、その10×10ピクセルの正方行列配置のうち、各列毎に算出した白色画素数の総和で構成するヒストグラムによって、当該手領域データに関する計量的な特徴付けを行う。図示の例では、ヒストグラムは、手領域データにおける列番号1,2,3,4,5,6,7,8,9,10のそれぞれの列において、総白色画素数が1,3,8,10,8,9,4,2,1[個]となっている。2つの手領域データ(実際に検出された手領域データと認証用手領域データ)からそれぞれ得られるヒストグラムには、各手領域データにおける白色画素の数とともに指の長さや手の大きさ等の特徴も現れるため、それらを比較することで精度の高い照合を行うことができる。
なお、以上説明した人物判定処理G3が各請求項記載の人物判定手段として機能する。
次に、指示判定処理G4について説明する。
本実施形態では、上記のようにしてパー状態の手2の撮像結果から抽出した手領域データに基づき人物判定処理G3を行った後、上記操作指示を表す指さし姿勢(各請求項記載の第2姿勢に相当)の人物1の手2を改めて撮像する。指示判定処理G4では、その改めて撮像した画像から抽出した手領域データが、当該登録者のどの指示判定用手領域データと一致しているかを判定する。本実施形態では、この一致判定においても、上記ヒストグラムに基づく比較を行う。
図11は、上記CPU11により実行される、指示判定処理の具体的な制御手順を示すフローチャートである。
図11において、まず、ステップS405で、カメラ14で改めて撮像した操作指示状態の手領域画像を取得する。この際、例えば、登録者の認証が確認できたために次に手を操作指示状態にするよう促す音声メッセージをスピーカ16から発音し、手の状態が変化したのを確認してからカメラ14が撮像を行い、その撮像した画像を取得してもよい。
その後、ステップS410へ移り、上記ステップS405で撮像した手領域画像から、前述と同様の手法により、上記フォーマット(10×10ピクセルの2値化データ)に従った手領域データを抽出する。
そして、ステップS415へ移り、上記図7に示した登録者情報テーブルから、指示判定用手領域データを1つだけ読み込む。先に図7を用いて説明したように、指示判定用手領域データのいずれもが、方向を指し示す上記指差し姿勢の状態となっている。そこで、このステップS415では、所定の角度順(例えば、「左90°」→「左45°」→「右45°」→「右90°」)に沿って、指示判定用手領域データを1つだけ読み込む。
その後、ステップS420へ移り、上記ステップS410で抽出した手領域データと、上記ステップS415で読み込んだ指示判定用手領域データとが一致するか否かを判定する。なお、本実施形態では、この一致判定においても上記ヒストグラムに基づく比較によって行う。上記2つの手領域データが一致した場合、ステップS420の判定が満たされ、ステップS425へ移る。
ステップS425では、当該指示判定用手領域データに対応する手2の指差し方向、言い換えれば、操作権限を有する登録者である上記特定の人物1の操作指示内容を決定する。その後、ステップS427で、ステップS425で決定した指差し方向に対応した動作指示(前述の単純動作、複雑な各種動作等)を実現するように、少なくとも1つのアクチュエータ17に対し制御信号を出力して駆動制御を行う。ステップS427が完了したら、全体の処理を終了する。
一方、上記ステップS420において、上記2つの手領域データが一致しなかった場合、判定は満たされず、ステップS430へ移る。
ステップS430では、この時点で全ての指示判定用手領域データとの比較判定が完了したか否かを判定する。例えば、この時点で、上記角度順に沿って最後の指示判定用手領域データとの比較を行ったか否かを判定すればよい。全ての指示判定用手領域データとの比較が完了している場合、判定が満たされ、ステップS435に移る。
ステップS435では、例えばスピーカ16から操作指示の判定ができなかった旨を知らせる音声を発音するなどのエラー処理を行い、この処理を終了する。
一方、ステップS430において、まだ比較していない指示判定用手領域データが残っている場合、判定は満たされず、ステップS415へ戻り、ステップS415において角度順に沿って次の指示判定用手領域データを読み込み、同様の手順を繰り返す。
ここで、上記ステップS420における2つの手領域データの一致判定の詳細について図12を用いて説明する。図12は、指示判定用手領域データを説明する図である。
図12(a)〜(d)において、前述したように、上記ステップS405で撮像された操作指示に対応した手領域画像が上記フォーマットに従って正規化・2値化され、手領域データとなっている。図示のように、同一の人物1の手2であっても、指さす方向や姿勢が異なると、白色(又は1対応)となる画素の数や配置が異なってくる。
上記図11のステップS420では、上記ステップS410で新たに抽出された操作指示状態の手領域データのヒストグラムを算出し、上記図7の登録者情報テーブルにおける各指示判定用手領域データのそれぞれについて算出されたヒストグラムと、比較する。そして、各組み合わせでのヒストグラムどうしの差が予め定めたしきい値以下にあるものを、最もよく一致する、すなわち人物1の意図する操作に対応した指さし角度である、と判定する。なお、しきい値以下のものが複数あった場合には、上記のヒストグラムどうしの差が最も小さいものを、人物1の意図する指さし角度であるとすればよい。
あるいは、上記ステップS410で新たに抽出された操作指示状態の手領域データのヒストグラムを算出し、その列ごとのヒストグラムの変化量が予め設定された閾値との大小関係を比較することで指差し部分と拳部分を分離し、左方向への指差しか右方向への指差しかを判断してもよい。
なお、以上説明した指示判定処理G4が各請求項記載の指示判定手段として機能する。
以上説明したように、本実施形態においては、カメラ14により撮像が行われると、手領域検出処理G2において、カメラ14の画像データから人物1の手2の領域を検出し、手領域データを生成する。この生成された手領域データに基づき、人物判定処理G3において、当該手2の領域を検出した人物1が、予め定められた特定の人物1、すなわち操作権限がある者であるかどうかが判定される。上記特定の人物1であると認められた場合は、指示判定処理G4において、検出された人物1の手2の領域の手領域データに基づき、特定の人物1の操作指示に対応した特定の手2の姿勢を判定する。そして、その判定された姿勢に応じてアクチュエータ17が駆動される。
これにより、予め定められた上記特定の人物1が、カメラ14の撮像方向において手2を用いて操作指示を行うと、その手2の姿勢に対応した操作指示が行われたということを認識する。その一方で、上記特定の人物1以外の人物1が同様にカメラ14の撮像方向において手2を用いた操作指示を行ったとしても、当該操作指示は認識しない。したがって、複数の人物1が存在する場合であっても、複数の人物の中の限定された特定の人物のみが確実にロボット100に対する操作指示を行ってロボット100に対し所望の動作をさせることができ、それ以外の人物によるロボット100に対する操作指示を禁止することができる。
また、本実施形態では特に、予め、操作指示を認識すべき人物1として決定された特定の人物1(登録者)の認証用手領域データを、大容量記憶装置13の登録者情報テーブルに記憶しておく。人物判定処理G3においては、撮像した画像データに対応した手領域データを、当該記憶した認証用手領域データと比較し、判定を行う。これにより、人間の手2の形状は人それぞれ千差万別であることを利用して、特定の人物1であるかどうかの判定を精度よく容易に行うことができる。
また、本実施形態では特に、予め、操作指示として認識すべき姿勢として決定された特定の手2の姿勢(前述の例では「左90°」「左45°」「右45°」「右90°」)に係わる指示判定用手領域データを、大容量記憶装置13の登録者情報テーブルに記憶しておく。指示判定処理G4においては、撮像した画像データに対応した手領域データを、当該記憶した指示判定用手領域データと比較し、判定を行う。これにより、一方向から見た人間の手2の形状は手2の姿勢によって種々変化することを利用し、操作指示に対応した特定の手2の姿勢の判定を精度よく容易に行うことができる。
また、本実施形態では特に、人物判定処理G3の判定の前に、手領域データをN×Nピクセル(上記の例ではN=10)に正規化して抽出しておく。これにより、人物判定処理G3において、容易かつ精度よく、特定の人物1であるかどうかの判定を行うことができる。
また、本実施形態では特に、人物判定処理G3においては、比較的大きな面積となるパー状態の手2の姿勢でのカメラ14の撮像結果に基づき高精度に人物1の判定を行う。その後、指示判定処理G4において、横向きや斜め向きに指差しをした姿勢(前述の例では「左90°」「左45°」「右45°」「右90°」)等、上記パー状態と大きく異なる姿勢でのカメラ14の撮像結果に基づき操作指示に対応した特定の手2の姿勢の判定を行うことにより、手2の姿勢を高精度に判定することができる。なお、指差し方向は「左90°」、「左45°」、「右90°」、「右45°」のみに限られず、角度間隔をもっと小刻みにしてもよいし、逆に大ざっぱに変更してもよい。
なお、本発明は、上記実施形態に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。以下、そのような変形例を順を追って説明する。
(1)2つの手領域データの一致判定を画素毎の合致度で行う場合
上記実施形態では、カメラ14から撮像・抽出した手領域データと、図7の登録者情報テーブルから取得した手領域データとの一致判定を、それぞれのヒストグラムの比較により行っていたが、本発明はこれに限られない。例えば、2つの手領域データの間における画素毎での合致度の総体的評価により一致判定を行ってもよい。
上記実施形態では、カメラ14から撮像・抽出した手領域データと、図7の登録者情報テーブルから取得した手領域データとの一致判定を、それぞれのヒストグラムの比較により行っていたが、本発明はこれに限られない。例えば、2つの手領域データの間における画素毎での合致度の総体的評価により一致判定を行ってもよい。
図13は、2つの手領域データの画素毎の合致度を説明する図である。この図13において、図中上側に示す2つの手領域データは、いずれも同じ10×10ピクセルで正規化し、各画素を2値化したフォーマットの手領域データである。そして、これら2つの2値化した手領域データを重ね合わせて示したのが、図中下側の手領域データである。図示する例では、2つの画素g1,g2で合致していないことがわかる。このような非合致の画素数が少ないほど、2つの手領域データが近似して一致する関係となり、非合致の画素数が0である場合には2つの手領域データが完全に一致していると言える。
しかし、非合致の画素数が少ない場合であっても、当該非合致の画素の配置が例えば指先の位置や指の長さといった特徴的な要素で決定的な差異が生じるため、非合致の画素の配置の重要度も考慮した比較が必要となる。このようにして、2つの手領域データの間における画素毎での合致度の総体的評価によっても、当該2つの手領域データの一致判定を高い精度で行うことができる。
以上のような2つの手領域データの一致判定を、上記図8における人物判定処理G3のステップS315の手順や、上記図11における指示判定処理G4のステップS420の手順で行うことで、上記実施形態と同様の精度で、登録者の認証と、操作指示の判定を行うことができる。そして、その結果、上記実施形態と同様の効果を得ることができる。
(2)2つの手領域データの一致判定を白色画素の総数で行う場合
また、カメラ14から撮像・抽出した手領域データと、登録者情報テーブルから取得した手領域データとの一致判定を、それぞれの手に相当する部分の面積、つまり白色画素の総数を比較することにより一致判定を行ってもよい。
また、カメラ14から撮像・抽出した手領域データと、登録者情報テーブルから取得した手領域データとの一致判定を、それぞれの手に相当する部分の面積、つまり白色画素の総数を比較することにより一致判定を行ってもよい。
すなわち、詳細な図示は省略するが、カメラ14から撮像・抽出した手領域データと、図7の登録者情報テーブルから取得した手領域データとで、それぞれの手に相当する部分の面積(白色画素の総数)の差が許容誤差内にある組み合わせでは2つの手領域データが近似して一致する関係となる。そして、同じ面積である場合には2つの手領域データが完全に一致していると言える。また、それぞれの指に相当する部分の長さだけを取り出して比較しても同様に一致性の判定が行える。このようにして、2つの手領域データの間における白色画素の総数の比較によっても、当該2つの手領域データの一致判定を高い精度で行うことができる。
以上のような2つの手領域データの一致判定を、上記図8における人物判定処理G3のステップS315の手順や、上記図11における指示判定処理G4のステップS420の手順で行うことで、上記実施形態と同様の精度で、登録者の認証と、操作指示の判定を行うことができる。そして、その結果、上記実施形態と同様の効果を得ることができる。
(3)その他
上記実施形態のヒストグラムによる手法や上記(1)の面積比較による手法において、例えば前述の10×10ピクセルで正規化した領域を適宜の個数に分割して、各領域ごとに手の形状を認識するようにしてもよい。
上記実施形態のヒストグラムによる手法や上記(1)の面積比較による手法において、例えば前述の10×10ピクセルで正規化した領域を適宜の個数に分割して、各領域ごとに手の形状を認識するようにしてもよい。
上記(2)の手領域部分の面積を利用する手法以外に、パターンマッチング、ニューラルネットワーク等のパターン認識技術でよく利用される手法方法を用いて比較してもよい。
以上においては、全ての登録者の認証用手領域データが一律にパー状態の手である場合(図7参照)を例にとって説明したが、これに限られない。すなわち、各登録者が個人別に決めた特定の手の状態で個人認証を行うようにしてもよい。この場合も、上記同様の効果を得ることができる。またこれを応用して、一般的な手話のように、当該登録者が片手で作りやすい各種の姿勢状態に対応させて、各種操作指示を判定させるようにしてもよい。
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。
その他、一々例示はしないが、本発明は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
1 人物
2 手
11 CPU(制御手段)
13 大容量記憶装置(第1記憶手段、第2記憶手段)
14 カメラ(撮像手段)
17 アクチュエータ
100 ロボット
102 リンク
103 関節
105 ロボットアーム
G2 手領域検出処理(手領域検出手段、手領域抽出手段)
G3 人物判定処理(人物判定手段)
G4 指示判定処理(指示判定手段)
2 手
11 CPU(制御手段)
13 大容量記憶装置(第1記憶手段、第2記憶手段)
14 カメラ(撮像手段)
17 アクチュエータ
100 ロボット
102 リンク
103 関節
105 ロボットアーム
G2 手領域検出処理(手領域検出手段、手領域抽出手段)
G3 人物判定処理(人物判定手段)
G4 指示判定処理(指示判定手段)
Claims (9)
- 撮像を行い、対応する画像データを出力する撮像手段と、
前記撮像手段から出力された画像データに含まれる人物の手の領域を検出し、対応する手領域データを生成する手領域検出手段と、
前記手領域検出手段により生成された前記手領域データに基づき、前記手の領域を検出した人物が、予め定められた特定の人物であるかどうかを判定する人物判定手段と、
前記人物判定手段による判定が満たされた場合に、前記手領域検出手段により生成された前記手領域データに基づき、前記特定の人物の操作指示に対応した特定の手の姿勢を判定する指示判定手段と、
を有することを特徴とする操作指示認識装置。 - 請求項1記載の操作指示認識装置において、
前記手領域検出手段により生成された前記手領域データを正規化して抽出する手領域抽出手段をさらに有し、
前記人物判定手段は、
前記手領域検出手段により生成された前記手領域データに基づき、前記手の領域を検出した人物が、前記特定の人物であるかどうかを判定する
ことを特徴とする操作指示認識装置。 - 請求項1又は請求項2記載の操作指示認識装置において、
前記特定の人物に係わる手領域データを記憶する第1記憶手段をさらに有し、
前記人物判定手段は、
前記手領域検出手段により生成された前記手領域データと前記第1記憶手段に記憶された前記特定の人物に係わる手領域データとを比較して、前記特定の人物であるかどうかの判定を行う
ことを特徴とする操作指示認識装置。 - 請求項3記載の操作指示認識装置において、
前記人物判定手段は、
各人物それぞれの、指の長さ又は手の面積を含む手の形状の違いに基づき、前記特定の人物であるかどうかの判定を行う
ことを特徴とする操作指示認識装置。 - 請求項1乃至請求項4のいずれか1項記載の操作指示認識装置において、
前記特定の人物の所定の手の姿勢に係わる手姿勢データを記憶する第2記憶手段をさらに有し、
前記指示判定手段は、
前記手領域検出手段により生成された前記手領域データと前記第2記憶手段に記憶された前記特定の人物に係わる手領域データとを比較して、前記特定の手の姿勢の判定を行う
ことを特徴とする操作指示認識装置。 - 請求項5記載の操作指示認識装置において、
前記指示判定手段は、
各特定の人物それぞれの、指の長さ又は手の面積を含む手の形状の違いに基づき、前記特定の手の姿勢の判定を行う
ことを特徴とする操作指示認識装置。 - 請求項1乃至請求項6のいずれか1項記載の操作指示認識装置において、
前記人物判定手段は、
前記撮像手段が第1姿勢である手を撮像した前記画像データに対応した手領域データに基づき、前記特定の人物であるかどうかの判定を行い、
前記指示判定手段は、
前記撮像手段が前記第1姿勢と異なる第2姿勢である手を撮像した前記画像データに対応した手領域データに基づき、前記操作指示に対応した手の姿勢の判定を行う
ことを特徴とする操作指示認識装置。 - 請求項1乃至請求項7のいずれか1項記載の操作指示認識装置において、
前記手領域検出手段は、
Haar−like特徴量を用いた手法、肌色抽出、輪郭抽出、及びテンプレートマッチングのいずれか1つの手法により、前記手の領域を検出する
ことを特徴とする操作指示認識装置。 - 人物の手の、少なくとも1種類の姿勢を、操作指示として認識する操作指示認識装置と、
複数のリンク、前記複数のリンクのうち隣接するリンクどうしを屈曲可能に連結する複数の関節、及び、駆動対象の前記リンクへの駆動力を発生する少なくとも1つのアクチュエータ、を備えた多関節型のロボットアームと、
前記操作指示認識装置の認識結果に応じて、前記少なくとも1つのアクチュエータの駆動を制御する制御手段と、
を有するロボットであって、
前記操作指示認識装置は、
撮像を行い、対応する画像データを出力する撮像手段と、
前記撮像手段から出力された画像データに含まれる人物の手の領域を検出し、対応する手領域データを生成する手領域検出手段と、
前記手領域検出手段により生成された前記手領域データに基づき、前記手の領域を検出した人物が、予め定められた特定の人物であるかどうかを判定する人物判定手段と、
前記人物判定手段による判定が満たされた場合に、前記手領域検出手段により生成された前記手領域データに基づき、前記特定の人物の操作指示に対応した手の姿勢を判定する指示判定手段と、
を備え、
前記制御手段は、
前記指示判定手段により判定された手の姿勢に対応し、前記少なくとも1つのアクチュエータの駆動を制御する
ことを特徴とするロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088586A JP2011221699A (ja) | 2010-04-07 | 2010-04-07 | 操作指示認識装置及びロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088586A JP2011221699A (ja) | 2010-04-07 | 2010-04-07 | 操作指示認識装置及びロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011221699A true JP2011221699A (ja) | 2011-11-04 |
Family
ID=45038632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010088586A Pending JP2011221699A (ja) | 2010-04-07 | 2010-04-07 | 操作指示認識装置及びロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011221699A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013099580A1 (ja) * | 2011-12-26 | 2013-07-04 | オリンパスメディカルシステムズ株式会社 | 医療用内視鏡システム |
WO2013145874A1 (ja) * | 2012-03-27 | 2013-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2013168508A1 (ja) | 2012-05-09 | 2013-11-14 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2014102697A (ja) * | 2012-11-20 | 2014-06-05 | Canon Inc | ジェスチャー認識装置、その制御方法およびプログラム |
JP2014104527A (ja) * | 2012-11-27 | 2014-06-09 | Seiko Epson Corp | ロボットシステム、プログラム、生産システム及びロボット |
JP2015524115A (ja) * | 2012-06-08 | 2015-08-20 | クアルコム,インコーポレイテッド | 高速ポーズ検出器 |
-
2010
- 2010-04-07 JP JP2010088586A patent/JP2011221699A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013099580A1 (ja) * | 2011-12-26 | 2013-07-04 | オリンパスメディカルシステムズ株式会社 | 医療用内視鏡システム |
CN103491848A (zh) * | 2011-12-26 | 2014-01-01 | 奥林巴斯医疗株式会社 | 医疗用内窥镜系统 |
WO2013145874A1 (ja) * | 2012-03-27 | 2013-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JPWO2013145874A1 (ja) * | 2012-03-27 | 2015-12-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2013168508A1 (ja) | 2012-05-09 | 2013-11-14 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2015524115A (ja) * | 2012-06-08 | 2015-08-20 | クアルコム,インコーポレイテッド | 高速ポーズ検出器 |
US9646200B2 (en) | 2012-06-08 | 2017-05-09 | Qualcomm Incorporated | Fast pose detector |
JP2014102697A (ja) * | 2012-11-20 | 2014-06-05 | Canon Inc | ジェスチャー認識装置、その制御方法およびプログラム |
JP2014104527A (ja) * | 2012-11-27 | 2014-06-09 | Seiko Epson Corp | ロボットシステム、プログラム、生産システム及びロボット |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990191B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
US11188734B2 (en) | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices | |
JP5574515B2 (ja) | 生体認証デバイス及び方法 | |
CN110326001B (zh) | 使用利用移动设备捕捉的图像执行基于指纹的用户认证的系统和方法 | |
JP4372051B2 (ja) | 手形状認識装置及びその方法 | |
US8311272B2 (en) | Image processing apparatus for identifying an individual object, image processing method, and storage medium | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN109598684B (zh) | 结合孪生网络的相关滤波跟踪方法 | |
JP2011221699A (ja) | 操作指示認識装置及びロボット | |
US20190392129A1 (en) | Identity authentication method | |
KR101384446B1 (ko) | 컴퓨터 판독가능한 기록 매체, 등록 장치, 및 등록 방법 | |
US20020089413A1 (en) | Authentication of a person by hand recognition | |
JP2006277146A (ja) | 照合方法および照合装置 | |
US11580766B2 (en) | Method for detecting at least one biometric trait visible in an input image by means of a convolutional neural network | |
JPH01271884A (ja) | 指紋中心検出装置 | |
JP2004145447A (ja) | 指紋照合装置 | |
JP2003030660A (ja) | 指紋照合装置及び指紋照合方法 | |
Kulkarni et al. | Efficient approach determination for fake biometric Detection | |
JP5914995B2 (ja) | 生体識別装置、及び、生体識別方法 | |
JP2006072429A (ja) | 生体情報登録装置および個人認証装置 | |
JP2006330873A (ja) | 指紋照合装置、方法およびプログラム | |
JP4711045B2 (ja) | 認証装置 | |
Qureshi et al. | Effectiveness of assigning confidence levels to classifiers and a novel feature in fingerprint matching | |
Wu et al. | Alphanumeric shape recognition of fingertip writing trajectory | |
JP2009245231A (ja) | 指の屈伸運動計測を利用した個人認証方法及び個人認証システム |