JP2009080539A - ジェスチャ認識装置及びその方法 - Google Patents

ジェスチャ認識装置及びその方法 Download PDF

Info

Publication number
JP2009080539A
JP2009080539A JP2007247421A JP2007247421A JP2009080539A JP 2009080539 A JP2009080539 A JP 2009080539A JP 2007247421 A JP2007247421 A JP 2007247421A JP 2007247421 A JP2007247421 A JP 2007247421A JP 2009080539 A JP2009080539 A JP 2009080539A
Authority
JP
Japan
Prior art keywords
image
detection
resolution
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007247421A
Other languages
English (en)
Other versions
JP4929109B2 (ja
Inventor
Tsukasa Ike
司 池
Kyoichi Okamoto
恭一 岡本
Satoshi Ishigaki
智 石垣
Kei Sakamoto
圭 坂本
Masahiro Fujita
将洋 藤田
Hisashi Kazama
久 風間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007247421A priority Critical patent/JP4929109B2/ja
Priority to US12/233,693 priority patent/US8405712B2/en
Publication of JP2009080539A publication Critical patent/JP2009080539A/ja
Application granted granted Critical
Publication of JP4929109B2 publication Critical patent/JP4929109B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

【課題】認識対象範囲を狭めたりすることなく、離れた位置で行われるジェスチャを認識できるジェスチャ認識装置を提供する。
【解決手段】画像入力部1、オブジェクト検出部2、制御部3、ジェスチャ認識部4から構成され、低解像度で検出部位が検出されないときに代わりに補助部位を検出し、補助部位の位置に基づき補助部位の位置を推定してその近辺を高解像度の画像から切り出すことにより、オブジェクト検出部2に単位時間当たりに入力される画像の枚数を削減することなく高解像度の画像を用いて検出部位を検出できる。
【選択図】 図1

Description

本発明は、操作者の体の一部または全体を含む画像を撮影し、体の部位の位置及び姿勢を画像処理によって認識するジェスチャ認識装置及びその方法に関する。
現在、テレビやコンピュータ等の機器を操作するためのインターフェース装置としては、リモコンやキーボード、マウスなどの指示装置を用いて操作を行うものが一般的である。しかしながら、これらのインターフェース装置では、指示装置を介しての操作を行うために必ずしも直感的でわかりやすいものとはなっていない。また、指示装置を紛失してしまうとインターフェース装置を利用できなくなってしまう。
そこで、上記問題点を解決するためのインターフェース装置の一つとして、操作者が体の一部または全体を動かしたり姿勢を変化させたりなどすることにより、指示装置を用いることなく機器の操作を実現する、ジェスチャユーザーインターフェース装置に関する技術が提案されてきた。
例えば、特許文献1では、ディスプレイに内蔵されたCCDカメラによって撮影した操作者を含む画像から、操作者の手の形状及び動き(ハンドジェスチャ)を認識し、これに基づき画面に表示されている指示アイコンの形状及び位置を変化させるといった表示制御を行うことにより、ハンドジェスチャによる指示を可能にしたインターフェース装置が開示されている。
一般に、上記特許文献1のように入力画像からジェスチャを認識する装置において、操作者のジェスチャを認識するためには、入力画像上において操作者の体の部位に対応する画像領域が所定の大きさ以上である必要がある。このため、装置が認識するジェスチャの最大距離は、装置に入力される画像の解像度に依存する。従って、装置に入力される画像の解像度を高めることにより、装置からより離れた位置で行われるジェスチャを認識できるようになる。
特開2004−78977公報
しかしながら、一般には装置に対して単位時間当たり入力できるデータ量に制限がある。入力画像が含む撮像領域を変更せずに解像度を高めた場合、入力画像を構成する画素数は増大するため、単位時間当たり入力できる画像の枚数は減少してしまう。これにより、ジェスチャ認識に基づくインターフェース装置では、操作者のジェスチャに対して装置が即座に応答できなくなり、操作性が損なわれてしまうという問題点がある。
一方、入力画像を構成する画素数を一定に保ちながら解像度を高めるためには、入力画像が含む撮像領域を狭める必要がある。これにより、ジェスチャ認識装置が認識する手の水平方向及び垂直方向の認識対象範囲が狭まってしまうため、やはり操作性が損なわれてしまうという問題点がある。
そこで本発明は、上記問題点に鑑みなされたもので、装置に入力される画像の単位時間当たりの枚数を減らしたり、認識対象範囲を狭めたりすることなく、装置からより離れた位置で行われるジェスチャを認識できるジェスチャ認識装置及びその方法を提供することを目的とする。
本発明は、一または数フレーム毎に解像度を切り替えて、動画像を撮像できる撮像部と、前記動画像の中の第1解像度で撮像された第1画像から、ジェスチャを示す操作者の体の部位である検出部位を含む検出領域を検出する第1検出部と、前記検出領域が検出できないときに、前記検出部位を検出するために用いる補助部位を含む補助領域を前記第1解像度で撮像した第2画像から検出する第2検出部と、前記補助領域を検出したときに、前記第1解像度より高い第2解像度によって前記撮像部を用いて第3画像を撮像するように制御する制御部と、前記検出領域と前記補助領域の予め定められた位置関係に基づいて、前記検出領域を前記第3画像から検出する第3検出部と、前記第1画像の全体領域、または、前記第3画像の中の前記検出領域に基づいて、前記ジェスチャを認識するジェスチャ認識部と、を備えるジェスチャ認識装置である。
本発明によれば、ジェスチャ認識の応答性及び水平、垂直方向の認識対象範囲を犠牲にすることなく、装置からより離れた位置で行われるジェスチャを認識できる。
以下、本発明の実施の一形態であるジェスチャ認識装置について、図1〜図8に基づいて説明する。
(1)ジェスチャ認識装置の構成
図1は、第1の実施形態にかかるジェスチャ認識装置の構成を示すブロック図である。
ジェスチャ認識装置は、画像入力部1、オブジェクト検出部2、制御部3、ジェスチャ認識部4から構成される。
画像入力部1は、例えばCCDビデオカメラなどの撮像装置を用いて、操作者の体の一部または全体を含む動画像を撮像し、これをオブジェクト検出部2に供給する。
オブジェクト検出部2は、入力された動画像から、任意の個数の検出部位及び補助部位を検出し、検出したそれぞれの部位を含む領域を検出領域及び補助領域として出力する。ここで、検出部位は、ジェスチャ認識装置において認識対象としている操作者の体の部位であり、補助部位は、検出部位を検出するために用いる操作者の体の別の部位であるものとする。例えば、検出部位として操作者の手を、補助部位として操作者の顔を用いることにより、操作者の手を検出できないときに、操作者の顔を検出することによって操作者の手の位置及び大きさを推定するといったことが考えられる。
制御部3は、オブジェクト検出部2が出力する検出結果に基づいて、画像入力部1が入力する画像の解像度及び撮像領域の制御を行う。
ジェスチャ認識部4は、検出された検出部位に基づいてジェスチャの認識を行う。
各部1〜4の機能は、コンピュータに格納されたプログラムによっても実施可能である。
(2)画像入力部1
図2は、画像入力部1の構成例である。
撮像部11は、例えばCCDカメラなどの撮像装置を用いて、操作者を含む画像を撮像する。ここで、撮像部11は、例えば低解像度と高解像度の2種類の解像度で撮像する機能を有するものとする。
撮像画像切り出し部12は、撮像部11が出力する画像について、その任意の領域を切り出して出力する。
(3)オブジェクト検出部2
オブジェクト検出部2の構成例として、例えば、米国特許出願公開第2002/0102024号に記載されている対象物評価装置を参考にして説明する。
図3は、オブジェクト検出部2のブロック図である。図3に示すように、オブジェクト検出部2は、部分領域画像生成部21と対象物検出部22と辞書格納部23から構成される。
(3−1)部分領域画像生成部21
部分領域画像生成部21は、入力画像上のさまざまな位置にさまざまな大きさの部分領域を設定し、この部分領域内の画像を切り出して対象物検出部22に供給する。ここで部分領域は、例えば図4に示すように、n種類のウィンドウサイズを用意し、そのそれぞれについて画面を走査させることによって設定する。
(3−2)対象物検出部22
対象物検出部22は、入力として与えられた部分領域画像を所定のサイズに正規化を行った上で、辞書格納部23に格納された辞書データを用いることにより、対象物かどうか判定を行う。
対象物であるかどうかの判定は、図5のように直列にm個接続された強識別器S(1),・・・,S(m)によって行われる。これらの強識別器Sは、それぞれn(m)個の弱識別器W(1),・・・,W(n)によって構成されており、各弱識別器Wは、正規化された入力画像中の特定部分を評価することにより、対象物であるかどうかを判定する。
各強識別器Sは、構成するn(m)個の弱識別器Wの判定結果を総合的に評価し、対象物であるかどうかを決定する。直列に接続された全ての強識別器Sが対象物であると決定した場合のみ、対象物検出部22は、入力画像を対象物として決定する。
(3−2−1)弱識別器W
弱識別器Wによる入力画像の評価方法について、図6を用いて説明する。
入力として与えられた部分領域画像は、N×Nの大きさに正規化された後、強識別器iを構成する各弱識別器W(i,1),・・・,W(i,n(i))において対象物かどうか判定される。
対象物判定は、弱識別器W毎に定義されている領域A及び領域Bについて、それぞれ領域内の全画素の輝度値の和SA及びSBを求め、その差を対象物判定閾値Tと比較することにより行う。ここで、領域A及び領域Bは、それぞれ図6に示すような1または2個の矩形領域によって表わされる。具体的な領域A及び領域Bの位置や形状及び対象物判定閾値Tについては、予め対象物画像及び非対象物画像を用いた学習により、対象物と非対象物を効果的に判別できるようなものを選んでおく。
これら弱識別器Wによる判定結果h(i,j,x)は、以下の(1)式によって求められる。
Figure 2009080539
但し、SA(i,j,x)、SB(i,j,x)、T(i,j)は、それぞれ強識別器Siを構成する弱識別器Wjにおいて、入力画像xが与えられたときの領域A及び領域Bの輝度値の和及び対象物判定閾値である。
また、p(i,j)={1,−1}はパリティを意味し、p(i,j)=−1の時は、SA(i,j,x)−SB(i,j,x)がT(i,j)より小さいときに対象物として判定される。
(3−2−2)強識別器i
強識別器iによる判定について説明する。
強識別器iの判定結果H(i,x)は、各弱識別器Wによる評価結果h(i,j,x)から以下の(2)式によって得られる。
Figure 2009080539
ここでα(i,j)は、弱識別器W(i,j)の信頼性を表わしており、これは学習用画像における正答率に基づき決定される。
(3−2−3)最終的判定
対象物検出部22における最終的な判定結果C(x)は、以下の(3)式によって表わされる。
Figure 2009080539
そして、C(x)が1のときに対象物として判定される。
複数種類の対象物について対象物か否かを判定する場合は、対象物毎に識別器を用意してそれぞれの対象物について上記の判定処理を行う。
(3−2−4)その他
なお、上記はジェスチャ認識手法の一例として示したものであり、上記手法に限定されることを意味しない。例えば、入力画像から生成した輪郭画像に対して模範画像との類似性を評価する方法や、入力画像における肌色領域のパターン類似性を評価する方法などを用いることも可能である。
(4)制御部3
制御部3は、オブジェクト検出部2によって検出された検出部位及び補助部位の位置及び大きさに基づき、画像入力部1が入力する画像の解像度及び撮像領域の制御を行う。
(4−1)構成
ここでは、図7を用いて制御部3が行う制御の一例について説明する。図7に示すように、制御部3は、制御状態記憶部31、基準領域選択部32、撮像パラメータ決定部33から構成される。
制御状態記憶部31は、現在のフレームにおける画像入力部1の制御状態を記憶する。ここで、この制御状態としては、例えば画像解像度及び撮像領域を含むものとする。
基準領域選択部32は、オブジェクト検出部2において検出された検出部位及び補助部位から、次のフレームにおける画像入力部1の撮像パラメータを決定する上で基準となる領域を、制御状態記憶部31が記憶している現在のフレームにおける制御状態に応じて選択する。
撮像パラメータ決定部33は、基準領域選択部32によって選択された基準領域の大きさ及び分類名に基づき、次のフレームにおける撮像パラメータを決定し、画像入力部1に対して前記撮像パラメータを出力する。
(4−2)動作
制御部3の動作について、図8を用いて説明する。ここでは、検出部位及び補助部位がそれぞれ操作者の手及び顔である場合を例として説明する。図8は制御部3の状態遷移図である。
図8中の各状態において、M及びSは次フレームにおいて基準領域選択部32が選択する領域の種類を表わしており、Mの状態では検出領域を、Sの状態では補助領域を基準領域として選択する。L及びHは撮像パラメータ決定部33が出力する次フレームにおける画像入力部1の解像度を表わしており、Lは低解像度、Hは高解像度である。
ジェスチャ認識装置の動作開始時、制御部3は状態71となっている。
(4−2−1)状態71
制御部3が状態71であるとき、撮像部11は解像度を低解像度に設定して撮像することにより画像を生成する。この画像を第1画像という。撮像画像切り出し部12は切り出しを行わず第1画像を第1入力画像として用いる。
オブジェクト検出部2は、第1入力画像から検出部位(手)を検出し、検出された検出部位のそれぞれについて、これを含む領域を検出領域として出力する。基準領域選択部32は、検出領域から第1基準に基づいて第1基準領域を選択する。この第1基準領域として手を含む領域を選択する。
基準領域選択部32における第1基準としては、例えば、各検出領域が対象物である確率を前記オブジェクト検出部2が出力するように構成しておき、最も確率の高い領域を選択したり、前のフレームにおいて検出領域を検出できたときはその検出領域に最も近い領域を選択したりすることが考えられる。なお、第1入力画像をそのまま第1基準領域としてもよい。
撮像パラメータ決定部33は、基準領域選択部32が選択した手を含む領域について、その大きさが所定の閾値より大きいかどうか判定する。この閾値より大きい時は、次のフレームにおいても低解像度画像で手を検出できると判断し、制御部3は状態71を継続する。これにより撮像パラメータ決定部33は、次フレームにおける解像度を低解像度に設定する。
手を含む領域が前記閾値より小さいときは、次のフレームでは低解像度画像で手を検出することが困難と判断し、制御部3は状態73に移行する。これにより撮像パラメータ決定部33は、次フレームにおける解像度を高解像度に設定する。
一方、オブジェクト検出部2が手を検出しなかった場合、検出領域が存在しないため基準領域選択部32は第1基準領域を選択できない。
手が検出されない原因としては、撮像部11の撮像領域内に手が存在しないか、手が撮像部11から遠く離れているために低解像度の第1画像上での手を含む領域が小さすぎることが考えられる。
後者の場合、例えば操作者の顔のように手よりも大きく、かつその位置が手の位置と相関関係にある部位を検出することにより手のおおよその位置を推定後、撮像領域をその周辺領域に限定して高解像度で撮像した画像を用いて手を検出することにより、手を検出できる可能性がある。そして、撮像領域を手の推定位置の周辺に限定することにより、入力画像のデータサイズを制限できるため、単位時間当たり入力できる画像の枚数を削減することなく、より遠くにある手を検出することができる。
そこで、制御部3は、顔を検出するために状態72に移行する。
(4−2−2)状態72
制御部3が状態72に移行したとき、撮像部11は解像度を低解像度に設定して撮像することにより第2画像を生成する。この第2画像は、第1画像の次のフレームである。撮像画像切り出し部12は切り出しを行わず、この第2画像を第2入力画像として用いる。
オブジェクト検出部2は、第2入力画像から補助部位(顔)を検出し、検出された補助部位のそれぞれについて、これを含む領域を補助領域として出力する。基準領域選択部32は、この補助領域から第2基準に基づいて第2基準領域を選択する。
基準領域選択部32における第2基準とは、例えば、各検出領域が対象物である確率を前記オブジェクト検出部2が出力するように構成しておき、最も確率の高い領域を選択したりすることが考えられる。なお、補助領域をそのまま第2基準領域としてもよい。
基準領域選択部32によって基準領域(顔を含む領域)が選択された場合、基準領域のサイズが所定の閾値WSより小さいかどうかを判定する。基準領域のサイズがWSより小さければ、手を含む領域のサイズが低解像度画像では検出できないほど小さいと判断し、制御部3は状態73に移行する。すなわち、撮像パラメータ決定部33は、次のフレームにおける解像度を高解像度に設定すると共に、画像切り出し範囲を基準領域の位置に基づき手が存在する可能性のある領域を含む一定範囲に制限する。
基準領域のサイズがWSより大きい場合、及び基準領域が選択されなかった場合、撮像部11の撮像領域内に手が存在しないと判断し、制御部3は状態71に戻る。なお、基準領域のサイズがWSより大きい場合とは、例えば、画像全体に顔が写っている場合などが考えられる。そして、撮像パラメータ決定部33は、次のフレームにおける解像度を低解像度に設定すると共に、画像切り出し範囲を撮像領域全体に設定する。
(4−2−3)状態73
制御部3が状態73であるとき、撮像部11は解像度を高解像度に設定して撮像することにより第3画像を生成する。この第3画像は、第2画像の次のフレームである。撮像画像切り出し部12はこの第3画像から撮像パラメータ決定部33によって決定された撮像領域を切り出すことにより第3入力画像を生成する。オブジェクト検出部2は、第3入力画像から検出部位(手)を検出し、検出された検出部位のそれぞれについて、これを含む領域を検出領域として出力する。
ここで、状態72から移行した場合には、顔の領域と相関関係にある部位を検出することにより手のおおよその位置を推定後、撮像領域をその周辺領域に限定して検出領域とする。
基準領域選択部32は、高解像度の第3画像の検出領域から所定の第3基準に基づいて第3基準領域を選択する。基準領域選択部32における第3基準とは、例えば、各検出領域が対象物である確率を前記オブジェクト検出部2が出力するように構成しておき、最も確率の高い領域を選択したり、前のフレームにおいて検出領域を検出できたときはその検出領域に最も近い領域を選択したりすることが考えられる。なお、検出領域をそのまま第3基準領域としてもよい。
また、基準領域選択部32によって第3基準領域(手を含む領域)が選択された場合、第3基準領域のサイズが所定の閾値WHより小さいかどうかを判定する。
第3基準領域のサイズがWHより大きい場合、検出部位は低解像度画像からでも検出できると判断し、制御部3は状態71に戻る。すなわち、撮像パラメータ決定部33は、次のフレームにおける解像度を低解像度に設定すると共に、画像切り出し範囲を撮像領域全体に設定する。
第3基準領域のサイズがWHより小さい場合、検出部位は高解像度画像でなければ検出できないと判断し、制御部3は状態73を維持する。すなわち、撮像パラメータ決定部33は、次のフレームにおける解像度を高解像度に設定すると共に、画像切り出し範囲を第3基準領域の位置に基づき手が存在する可能性のある領域を含む一定範囲に制限する。
第3基準領域が選択されなかった場合、撮像部11の撮像領域内に手が存在しないと判断し、制御部3は状態71に戻る。
(5)ジェスチャ認識部4
ジェスチャ認識部4は、制御部3によって制御されて検出された検出部位である手の動きに基づいてジェスチャの認識を行う。
すなわち、状態71で手が認識された場合には、オブジェクト検出部2から低解像度の第1画像がそのまま入力して、その低解像度の第1画像から手の領域を再度認識して、その認識した手の形からジェスチャの認識を行う。このジェスチャの認識は、例えば、特許文献1に記載されている認識方法を用いることができる。
また、状態73で手が認識された場合には、オブジェクト検出部2から高解像度の第3画像の中から切り出された第3基準領域が入力して、その高解像度の第3基準領域から手の領域を再度認識して、その認識した手の形からジェスチャの認識を行う。このジェスチャの認識は、同じく特許文献1に記載されている認識方法を用いることができる。
(6)効果
以上のように、本実施形態にかかるジェスチャ認識装置においては、低解像度で検出部位が検出されないときに代わりに補助部位を検出し、補助部位の位置に基づき補助部位の位置を推定してその近辺を高解像度の画像から切り出すことにより、オブジェクト検出部2に単位時間当たりに入力される画像の枚数を削減することなく高解像度の画像を用いて検出部位を検出できる。
これにより、処理速度を犠牲にすることなく、ジェスチャ認識装置からより離れた位置にあるジェスチャを認識することができる。
(7)変更例
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
上記実施形態では、2段階の解像度で説明したが、これに限らず3段階以上の解像度で撮影できる撮像部11を用いてもよい。
例えば、低解像度、中解像度、高解像度の3段階の場合について説明する。このときは、状態72において低解像度で顔領域が検出できないときは、状態71に戻るのでなく、中解像度で顔領域を検出し、その検出ができたときは、状態73において、高解像度で手の領域を検出するものである。
また、上記実施形態では、制御部3では、次のフレームで解像度を切り替えていたが、制御部3の処理速度が遅く遅延する場合には、その遅延分を考慮したkフレーム先で解像度を切り替えてもよい。但し、k>1である。この場合には、撮像部11は、1フレーム毎に解像度を切り替えるのでなく、kフレーム毎に解像度を切り替える。
また、上記実施形態では、状態72で用いる第2画像は、第1画像の次のフレームの画像を用いた。しかし、同じ低解像度の画像で検出するため、第1画像をそのまま用いてもよい。
本発明の一実施形態のジェスチャ認識装置の構成例である。 画像入力部の構成例を示すブロック図である。 オブジェクト検出部の構成例を示すブロック図である。 部分領域生成部が生成する部分領域を説明する図である。 対象物検出部における対象物検出方法について説明するための図である。 対象物検出部における対象物検出方法について説明するための図である。 制御部の構成例を示すブロック図である。 制御部によって行われる制御について説明するための図である。
符号の説明
1 画像入力部
2 オブジェクト検出部
3 制御部
11 撮像部
12 撮像画像切り出し部
21 部分領域生成部
22 対象物検出部
23 辞書格納部
31 制御状態記憶部
32 基準領域選択部
33 撮像パラメータ決定部

Claims (12)

  1. 一または数フレーム毎に解像度を切り替えて、動画像を撮像できる撮像部と、
    前記動画像の中の第1解像度で撮像された第1画像から、ジェスチャを示す操作者の体の部位である検出部位を含む検出領域を検出する第1検出部と、
    前記検出領域が検出できないときに、前記検出部位を検出するために用いる補助部位を含む補助領域を前記第1解像度で撮像した第2画像から検出する第2検出部と、
    前記補助領域を検出したときに、前記第1解像度より高い第2解像度によって前記撮像部を用いて第3画像を撮像するように制御する制御部と、
    前記検出領域と前記補助領域の予め定められた位置関係に基づいて、前記検出領域を前記第3画像から検出する第3検出部と、
    前記第1画像の全体領域、または、前記第3画像の中の前記検出領域に基づいて、前記ジェスチャを認識するジェスチャ認識部と、
    を備えるジェスチャ認識装置。
  2. 前記制御部は、前記第1検出部において検出した前記検出領域のサイズが閾値より小さいときは、前記第3検出部において前記検出領域を検出させ、前記ジェスチャ認識部に、第3画像の検出領域に基づいてジェスチャを認識させる、
    請求項1記載のジェスチャ認識装置。
  3. 前記制御部は、前記第1検出部において検出した前記検出領域のサイズが閾値より大きいときは、前記第1画像の次のフレームの画像も前記第1解像度で撮像するように前記撮像部を制御する、
    請求項1または2記載のジェスチャ認識装置。
  4. 前記制御部は、前記第3検出部において前記検出領域が検出できないとき、または、検出した前記検出領域のサイズが閾値より大きいときは、前記第3画像の次のフレームの画像を前記第1解像度で撮像するように前記撮像部を制御する、
    請求項1記載のジェスチャ認識装置。
  5. 前記制御部は、前記第3検出部において検出した前記検出領域のサイズが閾値より小さいときは、前記第3画像の次のフレームの画像を前記第2解像度で撮像するように前記撮像部を制御する、
    請求項1記載のジェスチャ認識装置。
  6. 前記制御部は、前記第2検出部において前記補助領域が検出できないとき、または、前記補助領域のサイズが閾値より大きいときは、前記第1検出部において前記第2画像の次のフレームの画像から前記検出領域を検出するように制御する、
    請求項1記載のジェスチャ認識装置。
  7. 前記第2検出部で用いる前記第2画像は、前記第1画像の次のフレームの画像、または、前記第1画像と同じ画像である、
    請求項1記載のジェスチャ認識装置。
  8. 前記第3検出部で用いる前記第3画像は、前記第2画像の次のフレームの画像である、
    請求項1記載のジェスチャ認識装置。
  9. 前記第2検出部で検出する補助領域は、前記検出領域よりサイズが大きい領域である、
    請求項1記載のジェスチャ認識装置。
  10. 前記検出部位は前記操作者の手であり、前記補助部位は前記操作者の顔である、
    請求項1記載のジェスチャ認識装置。
  11. 一または数フレーム毎に解像度を切り替え可能な撮像装置から入力した第1解像度で撮像された第1画像から、ジェスチャを示す操作者の体の部位である検出部位を含む検出領域を検出する第1検出ステップと、
    前記検出領域が検出できないときに、前記検出ステップ位を検出するために用いる補助位を含む補助領域を前記第1解像度で撮像した第2画像から検出する第2検出ステップと、
    前記補助領域を検出したときに、前記第1解像度より高い第2解像度によって前記撮像装置を用いて第3画像を撮像するように制御する制御ステップと、
    前記検出領域と前記補助領域の予め定められた位置関係に基づいて、前記検出領域を前記第3画像から検出する第3検出ステップと、
    前記第1画像の全体領域、または、前記第3画像の中の前記検出領域に基づいて、前記ジェスチャを認識するジェスチャ認識ステップと、
    を備えるジェスチャ認識方法。
  12. 一または数フレーム毎に解像度を切り替え可能な撮像装置から入力した第1解像度で撮像された第1画像から、ジェスチャを示す操作者の体の部位である検出部位を含む検出領域を検出する第1検出機能と、
    前記検出領域が検出できないときに、前記検出部位を検出するために用いる補助部位を含む補助領域を前記第1解像度で撮像した第2画像から検出する第2検出機能と、
    前記補助領域を検出したときに、前記第1解像度より高い第2解像度によって前記撮像装置を用いて第3画像を撮像するように制御する制御機能と、
    前記検出領域と前記補助領域の予め定められた位置関係に基づいて、前記検出領域を前記第3画像から検出する第3検出機能と、
    前記第1画像の全体領域、または、前記第3画像の中の前記検出領域に基づいて、前記ジェスチャを認識するジェスチャ認識機能と、
    をコンピュータによって実現するジェスチャ認識プログラム。
JP2007247421A 2007-09-25 2007-09-25 ジェスチャ認識装置及びその方法 Expired - Fee Related JP4929109B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007247421A JP4929109B2 (ja) 2007-09-25 2007-09-25 ジェスチャ認識装置及びその方法
US12/233,693 US8405712B2 (en) 2007-09-25 2008-09-19 Gesture recognition apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007247421A JP4929109B2 (ja) 2007-09-25 2007-09-25 ジェスチャ認識装置及びその方法

Publications (2)

Publication Number Publication Date
JP2009080539A true JP2009080539A (ja) 2009-04-16
JP4929109B2 JP4929109B2 (ja) 2012-05-09

Family

ID=40655264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007247421A Expired - Fee Related JP4929109B2 (ja) 2007-09-25 2007-09-25 ジェスチャ認識装置及びその方法

Country Status (2)

Country Link
US (1) US8405712B2 (ja)
JP (1) JP4929109B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010003074A1 (de) 2009-03-27 2010-11-04 Honda Motor Co., Ltd. Verbrennungsmotor in V-Bauart mit variablem Ventilantrieb
WO2011099092A1 (ja) * 2010-02-09 2011-08-18 パナソニック株式会社 動き認識リモートコントロール受信装置および動き認識リモートコントロール制御方法
JP2011245285A (ja) * 2010-04-30 2011-12-08 National Institute Of Advanced Industrial Science & Technology 移動体の状態推定装置
US9412013B2 (en) 2014-03-03 2016-08-09 Electronics And Telecommunications Research Institute Method and apparatus for recognizing hand motion
CN111095164A (zh) * 2017-06-20 2020-05-01 大众汽车有限公司 用于依据姿态来检测用户输入的方法和设备

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4384240B2 (ja) * 2008-05-28 2009-12-16 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラム
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP2012000165A (ja) * 2010-06-14 2012-01-05 Sega Corp ビデオゲーム装置
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
JP2012113460A (ja) * 2010-11-24 2012-06-14 Sony Corp 情報処理装置および方法、並びにプログラム
US9036898B1 (en) * 2011-01-18 2015-05-19 Disney Enterprises, Inc. High-quality passive performance capture using anchor frames
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9390032B1 (en) * 2012-06-27 2016-07-12 Amazon Technologies, Inc. Gesture camera configurations
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
FR3004570B1 (fr) * 2013-04-11 2016-09-02 Aldebaran Robotics Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
KR101641091B1 (ko) 2013-09-23 2016-07-20 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 모션 인식방법
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US11044445B2 (en) 2017-05-05 2021-06-22 VergeSense, Inc. Method for monitoring occupancy in a work area
US10742940B2 (en) 2017-05-05 2020-08-11 VergeSense, Inc. Method for monitoring occupancy in a work area
US11039084B2 (en) 2017-11-14 2021-06-15 VergeSense, Inc. Method for commissioning a network of optical sensors across a floor space
WO2020190894A1 (en) * 2019-03-15 2020-09-24 VergeSense, Inc. Arrival detection for battery-powered optical sensors
US11620808B2 (en) 2019-09-25 2023-04-04 VergeSense, Inc. Method for detecting human occupancy and activity in a work area

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944668A (ja) * 1995-07-26 1997-02-14 Matsushita Electric Ind Co Ltd 動作開始位置検出方法
JP2001028046A (ja) * 1999-07-15 2001-01-30 Sharp Corp 画像認識装置
JP2004303014A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005078257A (ja) * 2003-08-29 2005-03-24 Fuji Xerox Co Ltd 動作識別装置、及び対象物の姿勢識別装置
JP2006155563A (ja) * 2004-11-05 2006-06-15 Fuji Xerox Co Ltd 動作分析装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
WO2001097164A2 (en) * 2000-06-16 2001-12-20 Lockheed Martin Mission Systems Scaleable object recognition with a belief model
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
EP1394727B1 (en) * 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
US7627142B2 (en) * 2004-04-02 2009-12-01 K-Nfb Reading Technology, Inc. Gesture processing with low resolution images with high resolution processing for optical character recognition for a reading machine
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20060085414A1 (en) * 2004-09-30 2006-04-20 International Business Machines Corporation System and methods for reference resolution

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944668A (ja) * 1995-07-26 1997-02-14 Matsushita Electric Ind Co Ltd 動作開始位置検出方法
JP2001028046A (ja) * 1999-07-15 2001-01-30 Sharp Corp 画像認識装置
JP2004303014A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005078257A (ja) * 2003-08-29 2005-03-24 Fuji Xerox Co Ltd 動作識別装置、及び対象物の姿勢識別装置
JP2006155563A (ja) * 2004-11-05 2006-06-15 Fuji Xerox Co Ltd 動作分析装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010003074A1 (de) 2009-03-27 2010-11-04 Honda Motor Co., Ltd. Verbrennungsmotor in V-Bauart mit variablem Ventilantrieb
WO2011099092A1 (ja) * 2010-02-09 2011-08-18 パナソニック株式会社 動き認識リモートコントロール受信装置および動き認識リモートコントロール制御方法
JP2011245285A (ja) * 2010-04-30 2011-12-08 National Institute Of Advanced Industrial Science & Technology 移動体の状態推定装置
US9412013B2 (en) 2014-03-03 2016-08-09 Electronics And Telecommunications Research Institute Method and apparatus for recognizing hand motion
CN111095164A (zh) * 2017-06-20 2020-05-01 大众汽车有限公司 用于依据姿态来检测用户输入的方法和设备
CN111095164B (zh) * 2017-06-20 2024-02-13 大众汽车有限公司 用于依据姿态来检测用户输入的方法和设备

Also Published As

Publication number Publication date
US8405712B2 (en) 2013-03-26
US20090153655A1 (en) 2009-06-18
JP4929109B2 (ja) 2012-05-09

Similar Documents

Publication Publication Date Title
JP4929109B2 (ja) ジェスチャ認識装置及びその方法
JP5385752B2 (ja) 画像認識装置、その処理方法及びプログラム
WO2021185016A1 (en) Methods and systems for controlling device using hand gestures in multi-user environment
JP4267648B2 (ja) インターフェース装置及びその方法
US9405373B2 (en) Recognition apparatus
JP7447302B2 (ja) デバイスのハンドジェスチャベースの制御のための方法及びシステム
JP2013164834A (ja) 画像処理装置および方法、並びにプログラム
JP2008084287A (ja) 情報処理装置、撮像装置、情報処理システム、装置制御方法及びプログラム
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5693094B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5932082B2 (ja) 認識装置
US20220291755A1 (en) Methods and systems for hand gesture-based control of a device
JP2011095985A (ja) 画像表示装置
JP5376403B2 (ja) 映像表示装置及びプログラム
KR20180074124A (ko) 얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치
WO2011027397A1 (ja) ユーザーインターフェース装置
JP4971114B2 (ja) 物体認識装置、物体認識方法、物体認識プログラム、および該プログラムを格納するコンピュータ可読媒体
JP2008211534A (ja) 顔検知装置
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
JP2007156771A (ja) 画像検知追跡装置、画像検知追跡方法および画像検知追跡プログラム
US20190230296A1 (en) Picture processing device, method of producing picture data, and picture processing program
TWI444909B (zh) 採用奇異值分解進行光線補償處理之手勢影像辨識方法及其系統
JP7130375B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP2024002327A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4929109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees