JP2011192090A - ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム - Google Patents

ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム Download PDF

Info

Publication number
JP2011192090A
JP2011192090A JP2010058543A JP2010058543A JP2011192090A JP 2011192090 A JP2011192090 A JP 2011192090A JP 2010058543 A JP2010058543 A JP 2010058543A JP 2010058543 A JP2010058543 A JP 2010058543A JP 2011192090 A JP2011192090 A JP 2011192090A
Authority
JP
Japan
Prior art keywords
gesture recognition
specific subject
movement
gesture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010058543A
Other languages
English (en)
Other versions
JP5569062B2 (ja
Inventor
Sho Gen
翔 阮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2010058543A priority Critical patent/JP5569062B2/ja
Priority to EP10197375.8A priority patent/EP2367140B1/en
Priority to KR1020110009372A priority patent/KR101208232B1/ko
Priority to US13/035,107 priority patent/US8526675B2/en
Priority to CN201110046806.0A priority patent/CN102193626B/zh
Publication of JP2011192090A publication Critical patent/JP2011192090A/ja
Application granted granted Critical
Publication of JP5569062B2 publication Critical patent/JP5569062B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】特殊な手段を用いず、ユーザにとって自然な操作かつ装置にとって低負荷処理で、ジェスチャの開始と終了とをジェスチャ認識装置に正しく認識させる。
【解決手段】動画に写る認識対象物の動作からジェスチャを認識する、本発明のジェスチャ認識装置100は、動画に写る特定の特徴を有する特定被写体(掌など)を検出する重心追跡部11と、特定被写体の単位時間あたりの移動速度を算出する移動速度判定部12と、特定被写体の移動パターンを抽出する移動パターン抽出部13と、移動速度と移動パターンとが予め定められた条件を満たす場合に、特定被写体の動きを、自装置に対して入力された指示(ジェスチャ認識処理の開始または終了の指示など)として識別する開始終了判断部14とを備えていることを特徴としている。
【選択図】図1

Description

本発明は、認識対象物の動作からジェスチャを認識するジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラムに関するものである。
近年、ジェスチャ認識技術は、人間とコンピュータとのコミュニケーション手段として、知能ロボット、ゲーム、シミュレーション、生産技術など、様々な分野で応用され、発展してきた。具体的には、ジェスチャ認識装置は、ビデオカメラなどで人間の手や指の動きを撮影して得られた動画を画像処理して、特定の部分の、一連の特定の動き(以下、ジェスチャ)を認識する。コンピュータは、ジェスチャ認識装置によって認識されたジェスチャに応じた様々な処理を実行することができる。
上述のように、ユーザインタフェースに応用するジェスチャ認識技術(例えば、テレビリモコンの代わりとして、ユーザの指姿勢(ジェスチャ)などを認識させて、テレビの動作を遠隔制御する技術など)においては、ユーザの動きのどこからどこまでが認識すべきジェスチャにあたるのかをジェスチャ認識装置が正しく判断しなければならない。つまり、ジェスチャ認識装置が、動画における認識処理の開始・終了の時点を正確に判断できることが、誤認識になりにくい、正確なジェスチャ認識を実現するために重要となる。
例えば、特許文献1には、所定色を発光するペンライトをユーザに持たせて、該ペンライトの点灯・消灯により、ジェスチャの開始・終了を装置に認識させる、ジェスチャ認識方法および装置が開示されている。
一方、特殊な手段によって認識処理の開始と終了とを指示しなくとも、ジェスチャをジェスチャとして正しく認識させるという手法も存在する。
例えば、特許文献2には、人間の手の動きの方向を観測信号として捉え、観測信号の所定個数の集合を、あらかじめ用意された、ジェスチャの種類に対応するHMM(隠れマルコフモデル)と比較することにより、ジェスチャを認識するジェスチャ認識装置が開示されている。
また、特許文献3には、連続的に入力されたフレーム画像から、移動物体の動作方向をベクトルとして取得・蓄積して、ジェスチャを表すベクトル特徴量を生成し、前後の状態と比較して、状態の遷移(状態の進行、滞在、後退)を判定することにより、該ベクトル特徴量がジェスチャとして成立するか否かを判定するジェスチャ認識装置が開示されている。
特開平09−311759号公報(1997年12月2日公開) 特開2007−087089号公報(2007年4月5日公開) 特開2007−272839号公報(2007年10月18日公開)
Lars Bretzner 他2名, "Hand Gesture Recognition using Multi-Scale Colour Features, Hierarchical Models and Particle Filtering", Automatic Face and Gesture Recognition, 2002. Proceedings. Fifth IEEE International Conference on Volume, Issue, 20-21 May 2002 Page(s):423-428
しかしながら、特許文献1に記載の方法および装置では、ジェスチャを行うユーザが、ジェスチャ認識装置を使用するために、ペンライトなどの特殊な発光手段を、わざわざ所持していなければならないという問題がある。
また、特許文献2および3に記載のジェスチャ認識装置では、特殊な手段に依存しなくてもよい一方で、すべてのフレーム画像に対して、常に、本来のジェスチャ認識と同等の高負荷の画像認識処理が必要となるという問題がある。特に、特定の指姿勢などの細かいジェスチャを認識するためには、複雑なジェスチャ認識アルゴリズムが必須であるので、装置への負荷はさらに増大する。また、ジェスチャの開始と終了の時点の判断を誤った場合に、ジェスチャが誤認識される可能性が高いという問題がある。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、特殊な手段に依存することなく、ユーザにとって簡単、かつ、装置において低負荷処理で、ジェスチャ認識処理に係る指示を正しく認識するジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラムを実現することにある。
本発明のジェスチャ認識装置は、上記課題を解決するために、動画に写る認識対象物の動作からジェスチャを認識するためのジェスチャ認識処理を実行するジェスチャ認識装置において、上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出手段と、上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出手段と、上記特定被写体の移動パターンを抽出する移動パターン抽出手段と、上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きを、自装置に対して入力された指示として識別する入力指示識別手段とを備えていることを特徴としている。
上記構成によれば、まず、特定被写体検出手段特定の特徴を有する特定被写体を検出する。そして、動画から上記特定被写体の動きが分析される。すなわち、移動速度算出手段が、特定被写体の動きの速さを算出し、移動パターン抽出手段が、特定被写体の動きのパターンを抽出する。
最後に、入力指示識別手段は、特定被写体の移動速度および移動パターンが所定の条件を満たす場合に、当該特定被写体の動きが、自装置に対して入力された指示(例えば、ジェスチャ認識の開始または終了の指示など)を意味するものであると判断する。
上記特定被写体は、動画に写る視覚的な特徴を有しており、特定被写体検出手段が画像処理をして検出することが可能である。このように、ジェスチャ認識装置のユーザインタフェースとして用いる特定被写体は、動画に写る特徴を有していれば何でもよく、特殊な手段である必要がない。
そして、この特定被写体は、移動速度と移動パターンとが分析されるだけである。よって、従来のジェスチャ認識処理のような、色や形状などについての精細な分析は不要であるため、負荷の高い画像処理を行わずに、特定被写体の動きを監視することができる。また、一方、ユーザにとっては、特定被写体を動かすという、ごく自然な操作で、ジェスチャ認識装置に対して指示を送ることができる。
結果として、特殊な手段に依存することなく、ユーザにとって簡単、かつ、装置において低負荷処理で、ジェスチャ認識処理に係る指示を、ジェスチャ認識装置に正しく認識させることが可能になるという効果を奏する。
本発明のジェスチャ認識装置は、動画に写る認識対象物の動作からジェスチャを認識するためのジェスチャ認識処理を実行するジェスチャ認識装置において、上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出手段と、上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出手段と、上記特定被写体の移動パターンを抽出する移動パターン抽出手段と、上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きが、上記ジェスチャ認識処理の開始または終了の指示であると判断する開始終了判断手段とを備えていることを特徴としている。
上記構成によれば、まず、特定被写体検出手段特定の特徴を有する特定被写体を検出する。そして、動画から上記特定被写体の動きが分析される。すなわち、移動速度算出手段が、特定被写体の動きの速さを算出し、移動パターン抽出手段が、特定被写体の動きのパターンを抽出する。
最後に、開始終了判断手段は、特定被写体の移動速度および移動パターンが所定の条件を満たす場合に、当該特定被写体の動きが、ジェスチャ認識の開始または終了を指示していると判断する。
上記特定被写体は、動画に写る視覚的な特徴を有しており、特定被写体検出手段が画像処理をして検出することが可能である。このように、ジェスチャ認識処理の開始終了の指示に用いる特定被写体は、動画に写る特徴を有していれば何でもよく、特殊な手段である必要がない。
そして、この特定被写体は、移動速度と移動パターンとが分析されるだけである。よって、本番のジェスチャ認識処理が、たとえ、色や形状などについての精細な分析が必要な、負荷の高い画像処理であっても、それ以外の時間帯は、負荷の低い処理によって特定被写体の動きを監視することができる。また、ジェスチャ認識処理の開始・終了を意味する特定被写体の動き(移動速度および移動パターン)として、本番のジェスチャ認識処理で用いられるジェスチャとは重複することがないパターン(条件)を予め定めておくことが可能である。よって、ジェスチャとは異なる条件を満たす特定被写体の動きをジェスチャ認識処理の開始・終了の合図として認識するので、特定被写体の動きと、ジェスチャ認識処理で認識されるジェスチャとを混同することなく、開始・終了の合図を正しく認識することができる。一方、ユーザにとっては、特定被写体を動かすという、ごく自然な操作で、開始・終了の合図をジェスチャ認識装置に送ることができる。
結果として、特殊な手段に依存することなく、ユーザにとって簡単、かつ、装置において低負荷処理で、ジェスチャ認識装置にジェスチャの開始と終了とを正しく認識させることが可能になるという効果を奏する。
上記特定被写体検出手段は、ユーザの器官または器官の一部を特定被写体として検出することが好ましい。
上記構成によれば、ユーザは、別途物品を所持しなくても、自分の身体の一部を動かすことにより簡単に、ジェスチャ認識処理の開始・終了をジェスチャ認識装置に対して正確に指示することができる。
さらに、上記特定被写体検出手段は、ユーザの掌を特定被写体として検出してもよい。これにより、ユーザは、手を動かすという簡単で自然な動作を行うだけで、ジェスチャ認識処理の開始・終了をジェスチャ認識装置に対して正確に指示することができる。
ジェスチャ認識装置は、さらに、上記動画に写る認識対象物としてのユーザの指姿勢を識別することによりジェスチャ認識処理を実行するジェスチャ認識手段を備え、上記ジェスチャ認識手段は、上記開始終了判断手段によって判断された開始時点から終了時点までの上記動画のフレームから、上記指姿勢を識別してもよい。
ジェスチャ認識手段は、特定被写体の合図によって、開始から終了までの間のみ、ジェスチャ認識処理を実行すればよい。上記構成は、本番のジェスチャ認識処理が、指姿勢を識別するなどの高負荷処理である場合には、負荷を大幅に削減できるので特に効果が大きい。
なお、開始・終了の合図は、特定被写体の動きを分析して行うため、ジェスチャとして識別される指姿勢とは、分析対象が大きく異なる。したがって、特定被写体が掌であり、ジェスチャ認識対象物が指であって、監視部位が似通っていても、ジェスチャ認識装置は、それによる誤認識を回避し、ジェスチャ認識処理の開始・終了を正確に判断することができる。
上記特定被写体検出手段は、上記動画のフレーム上に、上記特定被写体の少なくとも一部を含む特定被写体領域を特定するとともに、該特定被写体領域の重心位置座標を特定してもよい。
これにより、負荷の低い処理にて、特定被写体の移動速度および移動パターンを分析することが可能となる。
上記移動速度算出手段は、上記特定被写体領域の重心の、上記単位時間あたりの移動距離を、該特定被写体領域のサイズで正規化し、正規化によって得られた重心移動量に基づいて移動速度を算出することが好ましい。
これにより、動作を撮影する撮影部とユーザとの距離などの違いによって生じる、特定被写体の写り方の違いなどを吸収し、より精度よく、ジェスチャ認識処理の開始・終了を判断することができる。
上記移動パターン抽出手段は、上記動画のうちの複数のフレームについて特定された、上記特定被写体領域の重心について、各重心の重心位置座標の分散を移動パターンとして抽出してもよい。
これにより、ユーザは、特定被写体の移動域を調節することにより、開始終了の合図と、ジェスチャとを区別して、正確に、ジェスチャ認識装置に対して指示を送ることができる。
上記入力指示識別手段は、上記移動速度算出手段によって算出された移動速度が所定の閾値より大きく、かつ、上記移動パターン抽出手段によって抽出された重心位置座標の分散が、所定の下限閾値から所定の上限閾値までの範囲にある場合に、上記特定被写体の動きを、上記ジェスチャ認識処理の開始または終了の指示であると判断してもよい。
これにより、ジェスチャ認識装置は、特定被写体が「意図してすばやく小刻みに動く」パターンによって、開始終了の合図を正しく判断することが可能となる。上記パターンは、ジェスチャ認識処理におけるジェスチャのパターンとしては通常用いられることがない。また、ユーザは、特定被写体を上記パターンで動かすことを自然な操作で行える。
結果として、特殊な手段に依存することなく、ユーザにとって簡単、かつ、装置において低負荷処理で、ジェスチャの開始と終了とを正しく認識するジェスチャ認識装置を実現することができる。
上記特定被写体検出手段は、色または形状に特定の特徴を有するユーザの所持品を特定被写体として検出してもよい。
上記入力指示識別手段は、上記特定被写体の上記移動速度と上記移動パターンとに基づいて、上記特定被写体の動きを、ジェスチャとして認識するジェスチャ認識手段であってもよい。
これにより、色や形状などについての精細な分析が必要な、負荷の高い画像処理を行わずに本番のジェスチャ認識処理を実行することが可能になる。したがって、ジェスチャ認識装置における処理負荷を大幅に軽減することが可能となる。なお、本番のジェスチャ認識処理で用いられるジェスチャと、開始・終了の合図とには、それぞれ、互いに似通っていない移動速度または移動パターンの条件をあらかじめ割り当てておけば、誤認識を防ぐことが可能である。
本発明のジェスチャ認識装置の制御方法は、上記課題を解決するために、動画に写る認識対象物の動作からジェスチャを認識するためのジェスチャ認識処理を実行するジェスチャ認識装置の制御方法であって、上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出ステップと、上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出ステップと、上記特定被写体の移動パターンを抽出する移動パターン抽出ステップと、上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きを、自装置に対して入力された指示として識別する入力指示識別ステップとを含むことを特徴としている。
なお、上記ジェスチャ認識装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記ジェスチャ認識装置をコンピュータにて実現させるジェスチャ認識装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明のジェスチャ認識装置は、上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出手段と、上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出手段と、上記特定被写体の移動パターンを抽出する移動パターン抽出手段と、上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きを、自装置に対して入力された指示として識別する入力指示識別手段とを備えていることを特徴としている。
本発明のジェスチャ認識装置の制御方法は、上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出ステップと、上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出ステップと、上記特定被写体の移動パターンを抽出する移動パターン抽出ステップと、上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きを、自装置に対して入力された指示として識別する入力指示識別ステップとを含むことを特徴としている。
したがって、特殊な手段に依存することなく、ユーザにとって簡単、かつ、装置において低負荷処理で、ジェスチャ認識処理に係るユーザからの指示を正しく認識するジェスチャ認識装置を実現できるという効果を奏する。
本発明の実施形態におけるジェスチャ認識装置の要部構成を示すブロック図である。 本発明の実施形態におけるジェスチャ認識装置の開始終了指示処理の概略を示すフローチャートである。 本発明のジェスチャ認識装置(重心追跡部)が検出する掌領域、掌領域サイズ、および、掌領域の重心の具体例を示す図である。 特定被写体(掌)が写る動画の各フレームの具体例を示す図であり、本発明のジェスチャ認識装置(移動速度判定部)が、重心の移動に基づいて、その移動速度を算出する動作を説明する図である。 移動した掌の重心位置座標の分布を示す図であり、本発明のジェスチャ認識装置(移動パターン抽出部)が、この分布に基づいて、分布範囲サイズを算出する動作を説明する図である。 ジェスチャ認識装置の重心追跡部および移動速度判定部における移動速度判定処理の流れを示すフローチャートである。 移動パターン抽出部および開始終了判断部における移動パターンマッチング処理の流れを示すフローチャートである。
≪実施形態1≫
本発明の実施形態について、図面に基づいて説明すると以下の通りである。
本発明のジェスチャ認識装置は、撮影部が撮影する特定被写体の移動速度と移動パターンとに基づいて、ジェスチャの開始、終了を認識する。特定被写体とは、色、形などの特徴がある程度統一された物体を指す。特定被写体は、特殊な手段ではなく、ユーザの身体の一部や、日常的に所持している携行品であることが好ましい。人間の手は、だいたい色も形も統一されている。ユーザの身体の一部であるため、特定被写体として適している。本実施形態では、一例として、ユーザの掌を特定被写体として認識し、ジェスチャの開始、終了を判断するジェスチャ認識装置について説明する。また、本実施形態で説明するジェスチャ認識装置は、一例として、上記判断された開始から終了までの間の本来のジェスチャ認識処理において、手指の姿勢をジェスチャ認識の対象となる被写体(認識対象物)として捉え、ジェスチャの種類を判別するものとする。
〔ジェスチャ認識装置の構成〕
図1は、本発明の実施形態におけるジェスチャ認識装置100の要部構成を示すブロック図である。図1に示すとおり、ジェスチャ認識装置100は、制御部1、撮影部2、および、記憶部3を備える構成となっている。さらに、ジェスチャ認識装置100は、利用環境に応じて、ユーザがジェスチャ認識装置100を操作するための操作部、ジェスチャ認識装置100が外部の装置と通信するための通信部、および、ジェスチャ認識装置100が保持する各種情報をユーザに提示するための表示部などを備えていてもよい。
撮影部2は、ジェスチャの開始、終了を判断するための特定被写体、および、ジェスチャ認識の対象となる被写体(認識対象物)を撮像し、動画データを生成するものである。詳細には、撮影部2は、主に、フレームメモリ、メカ機構、モータ等から構成される。モータは、ズームレンズモータ、フォーカスモータ、シャッターモータ等を含む。撮像素子としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの光電変換素子が用いられる。
なお、ジェスチャ認識装置100は、撮影部2を備えていなくてもよく、この場合、別に設けられた撮影部と、ジェスチャ認識装置100の通信部(図示せず)とが通信網を介して通信し、ジェスチャ認識装置100が上記通信部を介して動画を取得する構成としてもよい。
記憶部3は、ジェスチャ認識装置100が扱う各種データを記憶するものであり、データを揮発的に記憶する一時記憶部と、不揮発的に記憶する記憶装置とが含まれる。一時記憶部は、ジェスチャ認識装置100が実行する各種処理の過程で、演算に使用するデータおよび演算結果等を一時的に記憶するいわゆるワーキングメモリであり、RAMなどで構成される。記憶装置は、制御部1が実行する制御プログラムおよびOSプログラム、ならびに、制御部1が、ジェスチャ認識装置100が有する各種機能を実行するときに読み出す各種データを記憶するものであり、ROMなどで実現される。
制御部1は、ジェスチャ認識装置100が備える各部を統括制御するものであり、機能ブロックとして、少なくとも、認識指示部10とジェスチャ認識部20とを備えている。
認識指示部10は、撮影部2によって得られた動画から、特定被写体の移動速度と移動パターンとを分析し、その分析結果に応じて、ジェスチャ認識処理の開始または終了を指示するものである。つまり、認識指示部10は、上記動画のうち、ジェスチャ認識処理の開始または終了時点をジェスチャ認識部20に指示する。例えば、認識指示部10は、ジェスチャ認識のスイッチのオン/オフの切り替えを行ってもよい。
本実施形態では、ジェスチャ認識装置100は、掌を特定被写体とし、手指の姿勢を本番のジェスチャ認識処理での認識対象物として捉える。いずれもユーザの手を被写体にしている。このような場合、ジェスチャ認識の開始または終了を指示する開始終了指示処理の間と、ジェスチャの種類を判別するジェスチャ認識処理の間とでは、ユーザの手の動きが似通っていないことが好ましい。
ここで、一般に、ジェスチャ認識処理においては、高速の手振りなど、すばやく小刻みに動く動作は、ジェスチャの一種として判別するのに用いられない。そこで、本実施形態では、この、ジェスチャ認識インタフェースには使われていない、すばやく小刻みな動作パターンを特定被写体の動きから検出することにより、ジェスチャ認識の開始・終了を判断する。
より詳細には、認識指示部10は、特定被写体の移動速度と移動パターンとを分析するために、機能的に、重心追跡部11と、移動速度判定部12と、移動パターン抽出部13と、開始終了判断部14とを含む構成となっている。この各部の詳細については後述する。
ジェスチャ認識部20は、認識指示部10からの指示にしたがって、撮影部2によって得られた動画のうち、指示された開始時点から終了時点までの動画から、ジェスチャを検出して、種類を特定し、そのジェスチャの意味を理解するものである。本実施形態では、一例として、ユーザの指の姿勢を検出し、その指姿勢に応じてジェスチャの種類を判別する。ジェスチャ認識部20の認識結果は、認識されたジェスチャに応じた処理を実行するジェスチャ認識装置100の図示しない各種実行部、あるいは、外部の実行装置に供給される。
上述した制御部1の各機能ブロックは、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムを不図示のRAM(random access memory)等の一時記憶部に読み出して実行することで実現できる。
〔ジェスチャ認識装置の処理の流れ〕
上述のジェスチャ認識装置100が、ジェスチャ認識の開始または終了を指示する処理の流れは、概して以下の通りである。図2は、ジェスチャ認識装置100の開始終了指示処理の概略を示すフローチャートである。
動画が取得されると、ジェスチャ認識装置100の重心追跡部11および移動速度判定部12が、移動速度判定処理を実行する(S1)。本実施形態では、重心追跡部11がユーザの掌の重心を追跡し、移動速度判定部12が、上記重心の一定の時間内の移動速度を判定する。その移動速度が所定の閾値以上であれば(S1においてYES)、十分にすばやい動きであると判断される。そして、移動パターン抽出部13が、掌の重心の移動パターンを抽出して、移動パターンマッチング処理を実行する(S2)。具体的には、移動パターン抽出部13は、掌の移動が特定の範囲内に収まっているか否かを判定する。その移動範囲が所定の範囲以内であれば(移動パターンがマッチすれば)、移動パターン抽出部13は、掌の動きが、十分小刻みな動きであると判断する(S2においてYES)。最後に、開始終了判断部14が、当該掌の動きはジェスチャ認識の開始または終了を表していると判断し、ジェスチャ認識部20に対して、ジェスチャ認識の開始または終了を指示する(S3)。
一方、掌の動きが、十分な移動速度を保っていないか(S1においてNO)、あるいは、一定の範囲に収束していなければ(S2においてNO)、その掌の動きはジェスチャ認識の開始・終了とは無関係であるとして、再び掌の動きの監視に戻る。
上記構成および方法によれば、動画から特定被写体の動きが分析された結果、移動速度判定部12が、特定被写体の移動速度が一定以上速いと判断し、かつ、移動パターン抽出部13が、特定被写体の移動パターンが一定範囲内に収束していると判断した場合にのみ、開始終了判断部14が、当該特定被写体の動きが、ジェスチャ認識の開始または終了を指示していると判断する。
これにより、ユーザは、特定被写体をすばやく小刻みに動かすという簡単な動作のみで、ジェスチャ認識装置100に対して、ジェスチャの開始と終了とを正確に指示することが可能となる。
このすばやく小刻みに動かすという単純な動作は、一般に、アプリケーションのジェスチャ認識のインタフェースには、あまり使われていない特別な動作パターンである。この特別な動作パターンを、開始と終了のサインに割り当てているので、本番のジェスチャ認識処理にて、上記動作パターンが、ジェスチャと誤認されてしまうことはない。したがって、ジェスチャの判別の精度を大幅に向上させることが可能である。
また、特定の物の特定の動きを検出することによって、ジェスチャの開始と終了とを正確に判断することができるので、特殊な手段に依存しなくても済み、ユーザに特殊な手段の準備、携行を強いることがない。具体的には、認識指示部10が、開始終了の判断のために監視する特定被写体は、ユーザ自身の特定の器官(手、腕、顔など)や、あるいは、特定の色や特定の形状などを持つ日用携帯品(ボールペン、携帯電話、社員証など)でよい。つまり、ユーザの身体の一部や、日常的に所持している物を特定被写体にすることができるので、ジェスチャ認証のために特殊な手段を態々所持する必要がない。ユーザは、いつでも自然に、簡単な操作でジェスチャ認識の開始と終了とを指示することが可能となる。
さらに、ジェスチャ認識部20は、認識指示部10が指示した間のフレームに対してのみ、ジェスチャ認識処理を実行するので、動画の全フレームに対して、常に高負荷のジェスチャ認識処理を実行せずに済む。特に、指姿勢を認識するなどの高負荷処理を、常に行う必要がなくなるので、ジェスチャ認識装置100の負荷を大幅に軽減することが可能である。
以下では、開始終了指示処理を実行する認識指示部10の構成と処理の流れについてより詳細に説明する。
〔ジェスチャ認識装置の詳細〕
認識指示部10の重心追跡部11は、動画の各フレームから、特定被写体の領域を特定し、特定した領域の重心の座標を算出するものである。本実施形態では、重心追跡部11は、特定被写体としてのユーザの掌を検出し、その掌領域を特定する。掌領域の検出、特定の方法は、従来の技術を適宜採用することが可能である。一例として、非特許文献1に記載されている手の検出方法を採用することができる。この方法によれば、検出されたブロブ特性(blob feature)を掌として定義する。具体的には、図3に示すとおり、重心追跡部11は、肌色の領域の大部分を包含するようにブロブ(円形領域)を定義し、これをそのまま掌領域として特定してもよい。重心追跡部11は、掌領域を円で定義することにより、簡単な計算で掌領域の重心x_cを求めることが可能となる。この方法によれば、複雑な形状の肌色領域を掌領域として検出する場合よりも、計算量を大幅に減らすことができる。あるいは、掌領域は、図3に示すとおり、上記円の外接矩形として定義され、掌領域のサイズh_sizeは、上記外接矩形の面積で定義されてもよい。すなわち、図3に示す例では、掌領域のサイズh_sizeは、w*hで定義される。
あるいは、重心追跡部11は、次式(数1)に基づいて、掌領域の重心x_cを算出しても構わない。すなわち、
Figure 2011192090
である。ここで、X=(x、y)は、検出した掌領域内の点を表し、mはその点の数を表す。
重心追跡部11は、動画の全フレームごとに、掌領域の検出とその重心位置座標の検出とを行ってもよいが、処理効率を考慮して、一定間隔のフレームごと(一定秒ごと)に掌検出を実行することが好ましい。
本実施形態では、重心追跡部11は、その動画のt_int秒(例えば、50ミリ秒など)ごとに、検出時点を設けて、その検出時点の各フレームについて、掌領域の検出とその重心位置座標の検出とを行う。重心追跡部11は、最初のフレーム(Frame 0)の初回の検出を0回目として、i回目に行った検出によって求めた掌領域の重心位置座標を、x_c[i]として記憶部3に記憶する。
本実施形態では、重心追跡部11は、初回(i=0)の検出時点の最初のフレーム(Frame 0)から検出される掌領域のサイズh_size(例えば、図3に示すとおり、h_size=w*h)を算出して記憶部3に記憶しておく。この初回掌領域のサイズh_sizeは、重心の移動量を正規化するために、移動速度判定部12によって参照される。移動速度判定部12は、正規化された重心の移動量に基づいて、スケールの統一された移動速度を算出することができる。
掌の3次元位置または向きによって、フレーム上に写っている掌の大きさはまちまちになるが、短い期間で掌の移動速度を求める場合には、その短期間で上記掌の大きさが極端に変化することはないと想定され、掌領域サイズの多少のばらつきは無視できる程度に影響が小さいと考えられる。そこで、初回の掌領域のサイズで、検出時点の重心から次の検出時点の重心までの距離を、初回掌領域のサイズh_sizeで正規化することにより、各フレームでの重心の移動距離をスケールが統一された移動量として取り扱うことができ、結果として、重心の移動速度のスケールを統一することができる。例えば、ユーザによってカメラの前での立ち位置が違ったり、掌の差し出し方が異なったりして、カメラに写る掌の大きさには大きなばらつきが出ることが想定される。しかし、上述の方法によれば、写っている掌の大きさに対する移動量を抽出できるので、ユーザの写り方の違いによるばらつきを無視することができる。
なお、重心追跡部11が検出した掌領域が、円、矩形などの幾何学的図形である場合には、重心追跡部11は、計算によって掌領域の面積を求めてそれをh_sizeとしてもよい。あるいは、重心追跡部11は、検出された掌領域の外接矩形の面積を掌領域のh_sizeとして取得してもよい。本実施形態では、図3に示すとおり、掌領域(網掛けされた円)の外接矩形の幅wと高さhとを取得して、h_sizeを定義する。
移動速度判定部12は、重心追跡部11が追跡した掌領域の重心の移動速度を算出し、それが一定の速度に達しているか否かを判定するものである。本実施形態では、移動速度判定部12は、検出時点におけるフレーム間での、重心の移動速度をすべて求め、その平均値である平均移動速度を所定の閾値と比較する。
移動速度判定部12は、Frame 0における掌領域の重心位置座標x_c[0]と、t_int秒後のFrame 1における掌領域の重心位置座標x_c[1]との距離を、上記の初回掌領域サイズh_sizeで正規化された重心移動量をt_int秒で割って、移動速度v[0]を求める。
そして、図4に示すとおり、以降のフレーム間でも同様に、i−1回目の検出にて求めた、Frame i−1における重心位置座標x_c[i−1]と、Frame iにおける重心位置座標x_c[i]との距離dをh_sizeで正規化し、それをt_int秒で割って、移動速度v[i−1]を算出することを繰り返す。これは、最後の検出時点であるFrame nにおいて、n回目に検出された重心位置座標x_c[n]の位置までの、移動速度v[n−1]が算出されるまで繰り返される。
移動速度判定部12は、各フレーム間から求めた各移動速度V[i−1]の平均移動速度V_aが所定の閾値T_v以上である場合に、その掌の動きが十分すばやく、開始・終了の指示である可能性があると判断する。ここで、重心追跡部11および移動速度判定部12によって得られたデータは、記憶部3に記憶され、移動パターンマッチング処理を実行する移動パターン抽出部13に引き渡される。
なお、検出時点の時間間隔の値(t_int)、および、速度の閾値(T_v)は、実験または経験から最適なものが選択される。
移動パターン抽出部13は、特定対象物(掌)が動いたときの移動パターンを抽出するものである。開始終了判断部14は、その移動範囲が一定の範囲内に収束しているか否かを判定し、判定結果に応じて、動画における開始または終了の時点をジェスチャ認識部20に指示するものである。
本実施形態では、移動パターン抽出部13は、重心追跡部11が追跡した掌領域の重心位置座標X_c[i]の分散X_vを求める。分散は、開始終了判断部14によって、所定の閾値と比較される。開始終了判断部14は、分散が、所定の閾値T_hとT_lと(T_l<T_h)の範囲内であれば、ジェスチャ認識の開始または終了をジェスチャ認識部20に指示する。
本実施形態では、移動パターン抽出部13は、重心追跡部11が求めた掌の重心位置座標を、重心の移動距離のスケールを統一するために正規化する。より詳細には、移動パターン抽出部13は、掌の重心位置座標の正規化を、検出した重心位置座標の分布から求めた外接矩形のサイズhr_sizeにより行う。上記外接矩形のサイズhr_sizeは、掌の重心の分布範囲サイズを表す。例えば、図5に示すとおり、hr_sizeは、重心の集合のうち、各重心のx座標値の最大値x_maxと最小値x_minとの差を、外接矩形の幅wrとし、y座標値の最大値y_maxと最小値y_minとの差を、外接矩形の高さhrとすることにより求まる。
そして、移動パターン抽出部13は、正規化した重心位置座標X_cn[i]の分散X_vを算出する。具体的には、移動パターン抽出部13は、次式(数2)に基づいて、分散X_vを算出することができる。すなわち、
Figure 2011192090
である。ここで、X_cn[i]は、フレームごとの各重心の、正規化された重心位置座標を表し、
Figure 2011192090
は、すべての重心の平均位置座標を表し、n+1は、重心の個数を表す。
上記方法によれば、重心の移動距離のスケールを統一することができるので、分散の範囲のスケールを統一することができる。例えば、ユーザによってカメラの前での立ち位置が違ったり、掌の差し出し方が異なったりして、カメラに写る掌の大きさには大きなばらつきが出ることが想定される。掌の大きさの違いを考慮しない、正規化しないままの分散値では、共通の閾値で分散の大小を判定することができない。しかし、上述の方法によれば、掌が動いた最大範囲内での分散を抽出できるので、ユーザの写り方の違いによるばらつきを無視して、分散のスケールを統一することができる。
開始終了判断部14は、上述のようにして求められた掌の重心の分散が、所定の閾値T_hとT_lと(T_l<T_h)の間にあれば、意図を持って(無意識の揺れではなく)、かつ、十分小刻みに動いていると判断し、その掌の動きを、ジェスチャ認識の開始または終了の指示であると判断する。そして、開始終了判断部14は、ジェスチャ認識の開始または終了をジェスチャ認識部20に指示する。例えば、ジェスチャ認識処理のスイッチのオン/オフを切り替えることなどを行う。
なお、分散の上限閾値T_h、および、下限閾値T_lは、実験または経験から最適なものが選択される。
以上の各部の処理の流れについて、図6および図7を参照しながら詳細に説明する。
〔移動速度判定処理の流れ〕
図6は、重心追跡部11および移動速度判定部12における移動速度判定処理の流れを示すフローチャートである。
重心追跡部11は、撮影部2が撮影した動画を取得して(S101)、掌の動きの監視を開始する(S102)。具体的には、重心追跡部11は、開始時刻t_0を現在時刻tとして、掌の監視およびフレームの経過時刻の計測を開始し、検出カウンタiを0に設定する。
次に、重心追跡部11は、掌領域とその重心を検出するための、時間間隔t_intを取得する(S103)。t_intは、例えば、50ミリ秒、などであり、予め最適な秒数が定められて記憶部3に記憶されている。
重心追跡部11は、現在時刻tが、監視開始時刻t_0(i=0の場合)であるか、または、現在時刻tが、t_0+i*t_intに到達したかの条件を満たしているか否かを判定し(S104)、条件を満たしていれば(S104においてYES)、その現在時刻tのフレームについて、掌領域の検出(S105)の処理に進む。上記条件が満たされていない場合には(S104においてNO)、動画再生時刻の計測と掌の監視を継続する。すなわち、重心追跡部11は、初回の検出時点で、最初のフレームに対して、掌領域とその重心の検出を行うと、以後、t_int秒間隔で、そのときのフレームを検出時点であると判断する。
重心追跡部11は、i回目の検出において、掌領域の重心座標位置x_c[i]を算出すると、記憶部3において事前に定義されている重心配列X_c[i](i=0、1、2、・・・、n)に、i回目の重心座標位置x_c[i]を格納する(S106)。なお、重心配列X_c[i]およびその各要素である重心座標位置x_c[i]は、x座標値とy座標値との情報を含んでいる。
本実施形態では、S105およびS106が、初回検出時点(0回目の検出)の処理である場合には(S107においてYES)、重心追跡部11は、その最初のフレームから検出された掌領域のサイズh_sizeを取得し、記憶部3に記憶しておく。ここでは、図3に示すとおり、掌領域(網掛けされた円)の外接矩形の幅wと高さhとを取得して、h_sizeを定義する(S108)。続いて、重心追跡部11は、検出カウンタiを一つインクリメントして(S109)、次回検出時点に到達するまで時間の計測および監視を継続する。
一方、S105およびS106の検出時点が、1回目以降の処理である場合には(S107においてNO)、前回の検出時点にて重心が算出されているので、移動速度判定部12が、前回の検出時点の重心から今回の検出時点の重心までの距離(重心の移動距離)と、時間t_intとに基づいて、重心の移動速度を算出する。
具体的には、まず、移動速度判定部12は、前回(i−1回目とする)の検出時点(図4のFrame i−1)で求められた重心x_c[i−1]と、今回(i回目)の検出時点、Frame iで求められた重心x_c[i]との距離dを、S108で取得された初回掌領域サイズh_sizeで正規化し、移動量を算出する。なお、移動量は、距離dの絶対値を使って算出される。これは、移動する掌の重心の位置座標の分散を後述のステップで確認するため、移動の方向は問わないためである。すなわち、移動量は、次式、
移動量=|(x_c[i]−x_c[i−1])/h_size|
によって求まる。移動速度判定部12は、このようにして求めた移動量を、かかった時間(ここでは、時間間隔t_int)で割ることにより、前回(i−1回目)の検出時点から、今回(i回目)の検出時点までの移動速度v[i−1]を算出する。そして、記憶部3において事前に定義されている速度配列V[i−1](i=1、2、・・・、n)に、上記移動速度v[i−1]を格納する(S110)。なお、ここでは、重心との距離dを正規化するための掌領域のサイズh_sizeを、w*hと定義したが、これに限定されず、例えば、掌領域の幅wと高さhのいずれか値の大きい方のみを正規化に用いることもできる。すなわち、h_sizeを、max(w、h)と定義してもよい。あるいは、距離dのベクトルのx軸方向の長さを掌領域の幅wで、距離dのベクトルのy軸方向の長さを掌領域の高さhで正規化してもよい。
そして、今回検出時点(i回目)が、最終の検出時点(n回目)に到達していなければ(S111においてNO)、重心追跡部11は、検出カウンタiを1つインクリメントして(S109)、次回検出時点に到達するまで時間の計測および掌領域の監視を継続する。
一方、最終の検出時点(n回目)に到達し、各フレーム間のn個のすべての移動速度が、速度配列V[i−1](i=1、2、・・・、n)に格納された場合には(S111においてYES)、移動速度判定部12は、速度配列V[i−1]から、当該動画の特定被写体である掌の平均移動速度V_aを算出する(S112)。そして、移動速度判定部12は、あらかじめ定められた平均移動速度の閾値T_vと、上記平均移動速度V_aとを比較する。
平均移動速度V_aが、閾値T_v以下である場合(S113においてNO)、移動速度判定部12は、その掌の動きは早くないと判断し、したがって、ジェスチャ認識の開始・終了の指示ではないと判断する。ここで、取得された動画がまだ続く場合には、各種データが初期化され、S102に戻り以降の処理が繰り返される。
一方、平均移動速度V_aが、閾値T_vよりも大きい場合(S113においてYES)、移動速度判定部12は、その掌の動きが十分すばやく、当該掌の動きは、ジェスチャ認識の開始・終了の指示である可能性があると判断する。
この場合、重心追跡部11によって出力された重心配列X_c[i]および初回掌領域サイズh_sizeと、移動速度判定部12によって出力された速度配列V[i−1]とが、記憶部3に記憶され(S114)、重心追跡部11および移動速度判定部12は、移動速度判定処理を終了する。移動速度判定処理が終了すると、移動パターン抽出部13および開始終了判断部14によって、移動パターンマッチング処理が開始される。
〔移動パターンマッチング処理の流れ〕
図7は、移動パターン抽出部13および開始終了判断部14における移動パターンマッチング処理の流れを示すフローチャートである。
移動パターン抽出部13は、重心追跡部11が出力した、各フレームの重心位置座標(x、y座標)を取得する。すなわち、記憶部3から、重心配列X_c[i]を取得する(S201)。そして、移動パターン抽出部13は、取得した重心配列X_c[i]から、掌の重心の分布を分析し、その分布範囲のサイズ(重心分布範囲サイズhr_size)を特定する(S202)。移動パターン抽出部13は、図5を参照して既に説明したとおり、各重心のx座標値の最大値x_maxと最小値x_minとの差を、幅wrとし、各重心のy座標値の最大値y_maxと最小値y_minとの差を、高さhrとして、重心分布範囲サイズhr_size=wr*hrを定義する。
次に、移動パターン抽出部13は、重心配列X_c[i]の各重心位置座標(x、y座標)を、S202で求めた重心分布範囲サイズhr_sizeで正規化する(S203)。つまり、正規化された各重心位置座標(X_cn[i])を次式、
X_cn[i]=X_c[i]/hr_size
によって求める。ここで、i=0、1、2、・・・、nである。これにより、重心の移動距離のスケールが統一される。
なお、ここでは、各重心位置座標を正規化するための重心分布範囲サイズhr_sizeを、wr*hrと定義したが、これに限定されず、例えば、重心分布範囲サイズの幅wrと高さhrのいずれか値の大きい方のみを正規化に用いることもできる。すなわち、hr_sizeを、max(wr、hr)と定義してもよい。あるいは、x座標を幅wrで、y座標を高さhrで正規化してもよい。
そして、移動パターン抽出部13は、S203で求めた、正規化された掌の重心位置座標の分散X_vを算出する(S204)。分散を算出するための式は、上述の(数2)に示すとおりである。
続いて、開始終了判断部14は、S204にて移動パターン抽出部13によって求められた分散に基づいて、移動パターンがマッチするか否かを判断する。ジェスチャ認識の開始または終了の指示である場合の重心の移動パターンは、微量の無意識な動きとは異なり、意図を持って動かされているので、一定以上の分散を示し、かつ、すばやく小刻みに周期的な動きを繰り返すので、該分散は一定の範囲内に収束すると考えられる。
そこで、開始終了判断部14は、分散X_vを、分散の上限閾値T_h、および、下限閾値T_lと比較して、分散X_vが、上記所定の閾値の範囲内に収まる場合に(S205においてYES)、当該掌の動きが、ジェスチャ認識の開始または終了の移動パターンにマッチしたと判定する(S206)。そして、開始終了判断部14は、上記掌のすばやく小刻みな動作が行われている時点を、ジェスチャ認識処理の開始または終了時点と判断し、ジェスチャ認識部20に通知する(S207)。開始終了判断部14は、開始または終了時点に対応する、動画上のフレーム位置をジェスチャ認識部20に通知してもよいし、ジェスチャ認識部20にジェスチャ認識処理を指示するスイッチが設けられている場合には、そのスイッチのオン/オフを切り替えてもよい。
一方、分散X_vが、上記所定の閾値の範囲内に収まらない場合は(S205においてNO)、上記掌の動きは、開始または終了の移動パターンにマッチしないと判定する(S208)。
開始終了判断部14がS207またはS208の処理を実行し、移動パターンマッチング処理が終了すると、取得された動画がまだ続く場合には、各種データが初期化され、重心追跡部11がS102に戻り以降の処理を繰り返す。
〔変形例1〕
上述の実施形態では、ジェスチャ認識装置100は、2次元画像から検出される特定被写体の2次元の移動距離および移動パターンに基づいて、ジェスチャ認識処理の開始、終了の指示を判定する構成であった。しかし、本発明のジェスチャ認識装置の構成は、これに限定されない。例えば、特定被写体の3次元位置を検出できるキャリブレーション済みの画像システムを使う場合は、特定被写体の移動範囲が一定の3次元空間内に収束することおよび一定以上の移動速度であることを、ジェスチャ認識処理の開始・終了指示として定義することも可能である。
〔変形例2〕
上述の実施形態では、特定被写体の移動速度および移動パターンの判定基準に用いた特定被写体の動きを、本番のジェスチャ認識処理の開始、終了のサインとして用いた。一方、移動速度および移動パターンを判定基準に用いた特定被写体の動きを、本番のジェスチャ認識処理において、アプリケーションでのユーザインタフェースの一種として、すなわち、開始サイン以降、終了サインまでの間に使用されるジェスチャ自体として、取り扱うことも可能である。
この場合、ジェスチャ認識処理の開始・終了のサインと、本番のジェスチャ認識処理で認識されるべきジェスチャとが、類似の動きとなっては、誤認識される虞がある。
そこで、本願発明では、ジェスチャ認識処理の開始・終了のサインに割り当てる移動速度および移動パターンの条件を、各ジェスチャに割り当てる移動速度および移動パターンの条件とは大きく異ならせることによって上記の不都合を解消することが可能である。
例えば、ジェスチャ認識処理の開始・終了のサインには、掌で円を描く運動をある程度高速に行うパターンを割り当て、一方、その他のジェスチャには、円運動とはかけ離れた、上下方向や左右方向に手を振るパターンを割り当てることなどが考えられる。
上記構成によれば、ジェスチャ認識処理の開始・終了の指示に加えて、ジェスチャ自体も、移動速度と移動パターン(分散)との分析によって認識することができる。
よって、処理の負荷をさらに大幅に削減しつつ、特殊な手段に依存することなく、ユーザにとって簡単な操作で、ジェスチャ認識処理に係る指示を正しく認識するジェスチャ認識装置を実現することが可能となる。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、ジェスチャ認識装置100の各ブロック、特に、重心追跡部11、移動速度判定部12、移動パターン抽出部13および開始終了判断部14は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
すなわち、ジェスチャ認識装置100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ認識装置100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ認識装置100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
また、ジェスチャ認識装置100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明のジェスチャ認識装置の構成によれば、ユーザが特殊な手段を用いずに、自然な動作で正確かつ簡単にジェスチャ認識処理の開始、終了を指示することができ、ジェスチャ認識装置が高負荷処理のジェスチャ認識処理を常時行わずに済む。よって、ジェスチャの種類に応じた処理を実行するシステムを利用するあらゆるユースシーンで、装置性能や周辺機器の制約を受けることなく、本発明のジェスチャ認識装置を採用することが可能とである。
1 制御部
2 撮影部
3 記憶部
10 認識指示部
11 重心追跡部(特定被写体検出手段)
12 移動速度判定部(移動速度算出手段)
13 移動パターン抽出部(移動パターン抽出手段)
14 開始終了判断部(入力指示識別手段/開始終了判断手段)
20 ジェスチャ認識部(入力指示識別手段/ジェスチャ認識手段)
100 ジェスチャ認識装置

Claims (13)

  1. 動画に写る認識対象物の動作からジェスチャを認識するためのジェスチャ認識処理を実行するジェスチャ認識装置において、
    上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出手段と、
    上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出手段と、
    上記特定被写体の移動パターンを抽出する移動パターン抽出手段と、
    上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きを、自装置に対して入力された指示として識別する入力指示識別手段とを備えていることを特徴とするジェスチャ認識装置。
  2. 上記入力指示識別手段は、
    上記特定被写体の上記移動速度と上記移動パターンとに基づいて、上記特定被写体の動きを、上記ジェスチャ認識処理の開始または終了の指示であると判断する開始終了判断手段であることを特徴とする請求項1に記載のジェスチャ認識装置。
  3. 上記特定被写体検出手段は、
    ユーザの器官または器官の一部を特定被写体として検出することを特徴とする請求項2に記載のジェスチャ認識装置。
  4. 上記特定被写体検出手段は、
    ユーザの掌を特定被写体として検出することを特徴とする請求項3に記載のジェスチャ認識装置。
  5. 上記動画に写る認識対象物としてのユーザの指姿勢を識別することによりジェスチャ認識処理を実行するジェスチャ認識手段を備え、
    上記ジェスチャ認識手段は、上記開始終了判断手段によって判断された開始時点から終了時点までの上記動画のフレームから、上記指姿勢を識別することを特徴とする請求項4に記載のジェスチャ認識装置。
  6. 上記特定被写体検出手段は、
    上記動画のフレーム上に、上記特定被写体の少なくとも一部を含む特定被写体領域を特定するとともに、該特定被写体領域の重心位置座標を特定することを特徴とする請求項1から5までのいずれか1項に記載のジェスチャ認識装置。
  7. 上記移動速度算出手段は、
    上記特定被写体領域の重心の単位時間あたりの移動距離を、該特定被写体領域のサイズで正規化し、正規化によって得られた重心移動量に基づいて移動速度を算出することを特徴とする請求項6に記載のジェスチャ認識装置。
  8. 上記移動パターン抽出手段は、
    上記動画のうちの複数のフレームについて特定された、上記特定被写体領域の重心について、各重心の重心位置座標の分散を移動パターンとして抽出することを特徴とする請求項6に記載のジェスチャ認識装置。
  9. 上記入力指示識別手段は、
    上記移動速度算出手段によって算出された移動速度が所定の閾値より大きく、かつ、上記移動パターン抽出手段によって抽出された重心位置座標の分散が、所定の下限閾値から所定の上限閾値までの範囲にある場合に、上記特定被写体の動きを、上記ジェスチャ認識処理の開始または終了の指示として識別することを特徴とする請求項8に記載のジェスチャ認識装置。
  10. 上記特定被写体検出手段は、
    色または形状に特定の特徴を有するユーザの所持品を特定被写体として検出することを特徴とする請求項1に記載のジェスチャ認識装置。
  11. 上記入力指示識別手段は、
    上記特定被写体の上記移動速度と上記移動パターンとに基づいて、上記特定被写体の動きを、ジェスチャとして認識するジェスチャ認識手段であることを特徴とする請求項1に記載のジェスチャ認識装置。
  12. 動画に写る認識対象物の動作からジェスチャを認識するためのジェスチャ認識処理を実行するジェスチャ認識装置の制御方法であって、
    上記動画に写る特定の特徴を有する特定被写体を該動画から検出する特定被写体検出ステップと、
    上記特定被写体の単位時間あたりの移動速度を算出する移動速度算出ステップと、
    上記特定被写体の移動パターンを抽出する移動パターン抽出ステップと、
    上記移動速度と上記移動パターンとが予め定められた条件を満たす場合に、上記特定被写体の動きを、自装置に対して入力された指示として識別する入力指示識別ステップとを含むことを特徴とするジェスチャ認識装置の制御方法。
  13. コンピュータに、請求項12に記載のジェスチャ認識装置の制御方法の各ステップを実行させるための制御プログラム。
JP2010058543A 2010-03-15 2010-03-15 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム Active JP5569062B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010058543A JP5569062B2 (ja) 2010-03-15 2010-03-15 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
EP10197375.8A EP2367140B1 (en) 2010-03-15 2010-12-30 Gesture recognition apparatus, method for controlling gesture recognition apparatus, and control program
KR1020110009372A KR101208232B1 (ko) 2010-03-15 2011-01-31 제스처 인식 장치, 제스처 인식 장치의 제어 방법 및 제어 프로그램
US13/035,107 US8526675B2 (en) 2010-03-15 2011-02-25 Gesture recognition apparatus, method for controlling gesture recognition apparatus, and control program
CN201110046806.0A CN102193626B (zh) 2010-03-15 2011-02-25 手势识认装置、手势识认装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010058543A JP5569062B2 (ja) 2010-03-15 2010-03-15 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム

Publications (2)

Publication Number Publication Date
JP2011192090A true JP2011192090A (ja) 2011-09-29
JP5569062B2 JP5569062B2 (ja) 2014-08-13

Family

ID=43991050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010058543A Active JP5569062B2 (ja) 2010-03-15 2010-03-15 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム

Country Status (5)

Country Link
US (1) US8526675B2 (ja)
EP (1) EP2367140B1 (ja)
JP (1) JP5569062B2 (ja)
KR (1) KR101208232B1 (ja)
CN (1) CN102193626B (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5174978B1 (ja) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
JP2013085038A (ja) * 2011-10-06 2013-05-09 Fuji Xerox Co Ltd 電力供給制御装置、画像処理装置、電力供給制御プログラム
CN103218167A (zh) * 2013-04-02 2013-07-24 长安大学 一种车载终端单点触摸手势图形识别方法
JP2013231520A (ja) * 2012-04-27 2013-11-14 Panasonic Corp 空気調和機
JP2013250637A (ja) * 2012-05-30 2013-12-12 Toshiba Corp 認識装置
WO2014030442A1 (ja) * 2012-08-22 2014-02-27 日本電気株式会社 入力装置、入力方法、プログラム、及び、電子看板
EP2706434A2 (en) 2012-08-31 2014-03-12 Omron Corporation Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
KR101374720B1 (ko) 2013-07-15 2014-03-17 전자부품연구원 손동작 기반 가상 마우스 제어장치 및 그 방법
JP2014137818A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
JP2014211754A (ja) * 2013-04-18 2014-11-13 ブラザー工業株式会社 入力装置
KR101534742B1 (ko) * 2013-12-10 2015-07-07 현대자동차 주식회사 차량용 제스처 인식 시스템 및 그 방법
JP2015524115A (ja) * 2012-06-08 2015-08-20 クアルコム,インコーポレイテッド 高速ポーズ検出器
EP2921937A1 (en) 2014-03-17 2015-09-23 Omron Corporation Multimedia apparatus, method of controlling multimedia apparatus, and program of controlling multimedia apparatus
JP2015179438A (ja) * 2014-03-19 2015-10-08 オムロン株式会社 画像処理装置、移動速度判定方法、および移動速度判定プログラム
JP2016162057A (ja) * 2015-02-27 2016-09-05 西日本電信電話株式会社 認証システム、認証方法及びプログラム
JP2017068756A (ja) * 2015-10-01 2017-04-06 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9652850B2 (en) 2012-06-06 2017-05-16 Fujitsu Limited Subject tracking device and subject tracking method
JP2019514102A (ja) * 2015-11-30 2019-05-30 コリア インスティチュート オブ インダストリアル テクノロジー 深度画像を用いた行動パターン分析システム及び方法
JP2020013348A (ja) * 2018-07-18 2020-01-23 学校法人トヨタ学園 ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
WO2020044448A1 (ja) * 2018-08-29 2020-03-05 日本電気株式会社 物体識別装置、物体識別方法およびプログラム記憶媒体
CN117130469A (zh) * 2023-02-27 2023-11-28 荣耀终端有限公司 一种隔空手势识别方法、电子设备及芯片系统

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
US8330611B1 (en) * 2009-01-15 2012-12-11 AvidaSports, LLC Positional locating system and method
US8988240B2 (en) * 2009-01-15 2015-03-24 AvidaSports, LLC Performance metrics
US9767351B2 (en) 2009-01-15 2017-09-19 AvidaSports, LLC Positional locating system and method
GB2474536B (en) * 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US9094813B2 (en) 2011-04-02 2015-07-28 Open Invention Network, Llc System and method for redirecting content based on gestures
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
JP5840399B2 (ja) * 2011-06-24 2016-01-06 株式会社東芝 情報処理装置
KR101233793B1 (ko) * 2011-09-26 2013-02-15 주식회사 매크론 손 동작 인식을 이용한 가상 마우스 구동 방법
EP2590047A1 (en) * 2011-11-04 2013-05-08 Tobii Technology AB Portable device
JP5703194B2 (ja) * 2011-11-14 2015-04-15 株式会社東芝 ジェスチャ認識装置、その方法、及び、そのプログラム
EP2797796A4 (en) * 2011-12-29 2015-09-16 Intel Corp SYSTEMS, METHOD AND DEVICE FOR CONTROLLING GESTURE INITIATIONS AND TERMINATIONS
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
JP5756762B2 (ja) * 2012-01-10 2015-07-29 日本電信電話株式会社 ジェスチャ認識装置及びそのプログラム
CN103218035B (zh) * 2012-01-19 2016-10-05 联想(北京)有限公司 一种手势输入方法及电子设备
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9575652B2 (en) * 2012-03-31 2017-02-21 Microsoft Technology Licensing, Llc Instantiable gesture objects
US9239624B2 (en) * 2012-04-13 2016-01-19 Nokia Technologies Oy Free hand gesture control of automotive user interface
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
TWI463371B (zh) * 2012-06-20 2014-12-01 Pixart Imaging Inc 手勢偵測裝置以及根據速度判斷連續手勢的方法
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
CN102799273B (zh) * 2012-07-11 2015-04-15 华南理工大学 交互控制系统及其交互控制方法
US9196219B1 (en) * 2012-07-18 2015-11-24 Amazon Technologies, Inc. Custom color spectrum for skin detection
US10158898B2 (en) 2012-07-26 2018-12-18 Comcast Cable Communications, Llc Customized options for consumption of content
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9697649B1 (en) 2012-09-04 2017-07-04 Amazon Technologies, Inc. Controlling access to a device
US9218114B1 (en) 2012-09-04 2015-12-22 Amazon Technologies, Inc. Providing time-dependent items
US9167404B1 (en) 2012-09-25 2015-10-20 Amazon Technologies, Inc. Anticipating data use in a wireless device
CN107256089B (zh) * 2012-10-17 2020-07-03 原相科技股份有限公司 以自然影像进行的手势识别方法
KR101450586B1 (ko) * 2012-11-28 2014-10-15 (주) 미디어인터랙티브 동작 인식 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
TWI454971B (zh) * 2012-12-11 2014-10-01 Pixart Imaging Inc 電子裝置控制方法以及使用此電子裝置控制方法的電子裝置
KR101438615B1 (ko) * 2012-12-18 2014-11-03 현대자동차 주식회사 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
US9171223B2 (en) * 2012-12-18 2015-10-27 Hyundai Motor Company System and method for effective section detecting of hand gesture
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9104857B2 (en) * 2013-06-14 2015-08-11 Microsoft Technology Licensing, Llc Gesture-based authentication without retained credentialing gestures
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
CN105393281B (zh) 2013-08-02 2018-02-13 三菱电机株式会社 手势判定装置和方法、手势操作装置
JP6221505B2 (ja) * 2013-08-22 2017-11-01 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR101502085B1 (ko) * 2013-10-04 2015-03-12 주식회사 매크론 안경형 디스플레이 디바이스의 동작인식 입력방법
RU2013146529A (ru) * 2013-10-17 2015-04-27 ЭлЭсАй Корпорейшн Распознавание динамического жеста руки с избирательным инициированием на основе обнаруженной скорости руки
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9437000B2 (en) * 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
CN103978487B (zh) * 2014-05-06 2017-01-11 宁波易拓智谱机器人有限公司 一种基于手势的通用机器人末端位置的操控方法
JP2017525411A (ja) * 2014-06-25 2017-09-07 ケアストリーム ヘルス インク ジェスチャ認識を備えたオペレータインターフェースを用いた口腔内撮像
CN105487646A (zh) * 2014-09-16 2016-04-13 洪永川 一种手势遥控智能终端系统
CN105491425A (zh) * 2014-09-16 2016-04-13 洪永川 识别手势及遥控电视的方法
KR20160036242A (ko) * 2014-09-25 2016-04-04 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 그 제어 방법
CN105035197B (zh) * 2015-04-23 2018-12-07 河南理工大学 基于手势控制的球型机器人
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10268266B2 (en) * 2016-06-29 2019-04-23 Microsoft Technology Licensing, Llc Selection of objects in three-dimensional space
CN109643165A (zh) * 2016-09-01 2019-04-16 三菱电机株式会社 手势判定装置、手势操作装置和手势判定方法
CN108226636B (zh) * 2016-12-15 2021-06-11 欧姆龙株式会社 自动滤波方法和装置
WO2018170713A1 (zh) * 2017-03-21 2018-09-27 深圳市欸阿技术有限公司 基于手势识别的小车控制方法、装置
US10609342B1 (en) * 2017-06-22 2020-03-31 Insight, Inc. Multi-channel sensing system with embedded processing
CN109948569B (zh) * 2019-03-26 2022-04-22 重庆理工大学 一种利用粒子滤波框架的三维混合表情识别方法
CN110434853B (zh) * 2019-08-05 2021-05-14 北京云迹科技有限公司 一种机器人控制方法、装置及存储介质
CN112748805B (zh) * 2021-01-12 2023-07-04 深圳佑驾创新科技有限公司 手势控制方法、装置、计算机设备和存储介质
CN113407023A (zh) * 2021-03-05 2021-09-17 深圳市尊特数码有限公司 一种蓝牙音箱控制方法、系统及设备
CN113510707A (zh) * 2021-07-23 2021-10-19 上海擎朗智能科技有限公司 一种机器人的控制方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005122492A (ja) * 2003-10-16 2005-05-12 Japan Science & Technology Agency 画像に含まれる身体形状を判定する方法及び非接触型ポインティング・デバイスの実現方法
JP2008162376A (ja) * 2006-12-27 2008-07-17 Takata Corp 車両用作動システム、車両

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09311759A (ja) 1996-05-22 1997-12-02 Hitachi Ltd ジェスチャ認識方法および装置
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP2005063092A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
EP1904951A1 (en) * 2005-06-30 2008-04-02 Philips Intellectual Property & Standards GmbH A method of recognizing a motion pattern of an object
JP2007087089A (ja) 2005-09-21 2007-04-05 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
JP4613142B2 (ja) 2006-03-31 2011-01-12 日本システムウエア株式会社 ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
CN101437124A (zh) * 2008-12-17 2009-05-20 三星电子(中国)研发中心 面向电视控制的动态手势识别信号处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005122492A (ja) * 2003-10-16 2005-05-12 Japan Science & Technology Agency 画像に含まれる身体形状を判定する方法及び非接触型ポインティング・デバイスの実現方法
JP2008162376A (ja) * 2006-12-27 2008-07-17 Takata Corp 車両用作動システム、車両

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013085038A (ja) * 2011-10-06 2013-05-09 Fuji Xerox Co Ltd 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP5174978B1 (ja) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 情報処理装置、電子機器およびプログラム
JP2013242889A (ja) * 2012-04-26 2013-12-05 Bank Of Tokyo-Mitsubishi Ufj Ltd 情報処理装置
JP2013231520A (ja) * 2012-04-27 2013-11-14 Panasonic Corp 空気調和機
JP2013250637A (ja) * 2012-05-30 2013-12-12 Toshiba Corp 認識装置
US9652850B2 (en) 2012-06-06 2017-05-16 Fujitsu Limited Subject tracking device and subject tracking method
US9646200B2 (en) 2012-06-08 2017-05-09 Qualcomm Incorporated Fast pose detector
JP2015524115A (ja) * 2012-06-08 2015-08-20 クアルコム,インコーポレイテッド 高速ポーズ検出器
WO2014030442A1 (ja) * 2012-08-22 2014-02-27 日本電気株式会社 入力装置、入力方法、プログラム、及び、電子看板
EP2706434A2 (en) 2012-08-31 2014-03-12 Omron Corporation Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
JP2014137818A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備
CN103218167A (zh) * 2013-04-02 2013-07-24 长安大学 一种车载终端单点触摸手势图形识别方法
JP2014211754A (ja) * 2013-04-18 2014-11-13 ブラザー工業株式会社 入力装置
KR101374720B1 (ko) 2013-07-15 2014-03-17 전자부품연구원 손동작 기반 가상 마우스 제어장치 및 그 방법
KR101534742B1 (ko) * 2013-12-10 2015-07-07 현대자동차 주식회사 차량용 제스처 인식 시스템 및 그 방법
US9383826B2 (en) 2013-12-10 2016-07-05 Hyundai Motor Company System and method for recognizing user's gesture for carrying out operation of vehicle
EP2921937A1 (en) 2014-03-17 2015-09-23 Omron Corporation Multimedia apparatus, method of controlling multimedia apparatus, and program of controlling multimedia apparatus
JP2015179438A (ja) * 2014-03-19 2015-10-08 オムロン株式会社 画像処理装置、移動速度判定方法、および移動速度判定プログラム
JP2016162057A (ja) * 2015-02-27 2016-09-05 西日本電信電話株式会社 認証システム、認証方法及びプログラム
JP2017068756A (ja) * 2015-10-01 2017-04-06 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2019514102A (ja) * 2015-11-30 2019-05-30 コリア インスティチュート オブ インダストリアル テクノロジー 深度画像を用いた行動パターン分析システム及び方法
JP2020013348A (ja) * 2018-07-18 2020-01-23 学校法人トヨタ学園 ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
JP7163649B2 (ja) 2018-07-18 2022-11-01 学校法人トヨタ学園 ジェスチャ検出装置、ジェスチャ検出方法、およびジェスチャ検出制御プログラム
WO2020044448A1 (ja) * 2018-08-29 2020-03-05 日本電気株式会社 物体識別装置、物体識別方法およびプログラム記憶媒体
JPWO2020044448A1 (ja) * 2018-08-29 2021-08-10 日本電気株式会社 物体識別装置、物体識別方法およびコンピュータプログラム
JP7147854B2 (ja) 2018-08-29 2022-10-05 日本電気株式会社 物体識別装置、物体識別方法およびコンピュータプログラム
CN117130469A (zh) * 2023-02-27 2023-11-28 荣耀终端有限公司 一种隔空手势识别方法、电子设备及芯片系统

Also Published As

Publication number Publication date
CN102193626A (zh) 2011-09-21
JP5569062B2 (ja) 2014-08-13
EP2367140B1 (en) 2017-12-20
KR101208232B1 (ko) 2012-12-04
KR20110103848A (ko) 2011-09-21
CN102193626B (zh) 2015-01-21
EP2367140A1 (en) 2011-09-21
US8526675B2 (en) 2013-09-03
US20110222726A1 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP5569062B2 (ja) ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
KR102465532B1 (ko) 객체 인식 방법 및 장치
JP5077956B2 (ja) 情報端末装置
JP5008269B2 (ja) 情報処理装置、情報処理方法
JP6011165B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US8897490B2 (en) Vision-based user interface and related method
US20110304541A1 (en) Method and system for detecting gestures
CN106774850B (zh) 一种移动终端及其交互控制方法
KR101364571B1 (ko) 영상 기반의 손 검출 장치 및 그 방법
US20130335318A1 (en) Method and apparatus for doing hand and face gesture recognition using 3d sensors and hardware non-linear classifiers
Lee et al. Game interface using hand gesture recognition
KR20110129042A (ko) 표정인식을 이용한 휴대 기기의 상호작용 방법
TW201123031A (en) Robot and method for recognizing human faces and gestures thereof
Ghanem et al. A survey on sign language recognition using smartphones
JPWO2011007390A1 (ja) 画像処理装置、及びインターフェース装置
Dardas et al. Hand gesture interaction with a 3D virtual environment
Vasanthan et al. Facial expression based computer cursor control system for assisting physically disabled person
Tu et al. Face and gesture based human computer interaction
CN113114924A (zh) 图像拍摄方法、装置、计算机可读存储介质及电子设备
KR101703690B1 (ko) 홍채 인식 장치 및 그 동작 방법
Pansare et al. Comprehensive performance study of existing techniques in hand gesture recognition system for sign languages
Alhamazani et al. Using depth cameras for recognition and segmentation of hand gestures
Bravenec et al. Multiplatform system for hand gesture recognition
Potnis et al. Real time hand gesture recognition for smart classroom environment
Oudah et al. Elderly Care Based on Hand Gestures Using Kinect Sensor. Computers 2021, 10, 5

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140609

R150 Certificate of patent or registration of utility model

Ref document number: 5569062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250