JP2015172887A - ジェスチャ認識装置およびジェスチャ認識装置の制御方法 - Google Patents

ジェスチャ認識装置およびジェスチャ認識装置の制御方法 Download PDF

Info

Publication number
JP2015172887A
JP2015172887A JP2014048911A JP2014048911A JP2015172887A JP 2015172887 A JP2015172887 A JP 2015172887A JP 2014048911 A JP2014048911 A JP 2014048911A JP 2014048911 A JP2014048911 A JP 2014048911A JP 2015172887 A JP2015172887 A JP 2015172887A
Authority
JP
Japan
Prior art keywords
shape
gesture
representative point
target part
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014048911A
Other languages
English (en)
Other versions
JP6349800B2 (ja
Inventor
田中 清明
Kiyoaki Tanaka
清明 田中
隆義 山下
Takayoshi Yamashita
隆義 山下
みずき 古田
Mizuki Furuta
みずき 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2014048911A priority Critical patent/JP6349800B2/ja
Priority to KR1020150011034A priority patent/KR101631011B1/ko
Priority to EP15152637.3A priority patent/EP2919096B8/en
Priority to EP15152621.7A priority patent/EP2908218B1/en
Priority to EP15152625.8A priority patent/EP2908219A1/en
Priority to CN201510051339.9A priority patent/CN104914989B/zh
Priority to US14/614,823 priority patent/US9557821B2/en
Publication of JP2015172887A publication Critical patent/JP2015172887A/ja
Application granted granted Critical
Publication of JP6349800B2 publication Critical patent/JP6349800B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

【課題】利用者が対象部位を移動させることで行ったジェスチャを認識するジェスチャ認識装置において、利用者の意図通りにジェスチャを認識する。【解決手段】取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置であって、画像を取得する画像取得手段と、前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出手段と、前記抽出した対象部位の形状を特定する対象部位形状特定手段と、前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定手段と、前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識手段と、前記認識したジェスチャに対応する命令を生成するコマンド生成手段と、を有し、前記代表点決定手段は、前記対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する。【選択図】図1

Description

本発明は、ジェスチャによる入力操作を認識するジェスチャ認識装置に関する。
コンピュータや電子機器に対して、ジェスチャによって入力を行うことができる装置が普及の兆しを見せている。
例えば、特許文献1には、利用者が空間上で行ったジェスチャをカメラなどによって撮像し、当該ジェスチャを入力コマンドに変換する入力装置が記載されている。当該装置は、特定のジェスチャと特定の入力コマンドを関連付けて記憶しており、ジェスチャを認識する手段と、認識したジェスチャを入力コマンドに変換する手段を有している。これにより利用者は、機器の前でジェスチャ動作をするだけで、入力デバイスを直接操作することなく任意のコマンドを入力することができる。
特開2012−123608号公報
ジェスチャを認識する入力装置では、一般的に、ジェスチャを行う部位の画像から、当該部位の位置を代表する点(以下、代表点)を抽出し、抽出した代表点の動きを追跡することで、どのようなジェスチャが行われたのかを判別している。例えば、利用者が手のひらを開いて図形を描画するジェスチャを行う場合、手の中心点を検出して、当該中心点の軌跡を追跡することで、ジェスチャによって描画された図形の形状を認識する。
しかし、手を用いてジェスチャを行う場合、代表点を手の中心に設定することが必ずしも良いとは限らない。例えば、人差し指を立ててジェスチャを行う場合、人差し指の先端を追跡したほうが、利用者にとって、より自然な認識結果を得ることができる。このような場合、代表点を手の中心に設定してしまうと、手を大きく動かさずに指先のみを動かしたような場合に、入力が正しく行われないおそれがある。
このように、身体の一部を用いてジェスチャを行う場合、従来のジェスチャ認識装置では、代表点がどこにあるかを適切に判別することができず、結果として、ジェスチャによって表現された軌跡を利用者の意図通りに認識することができないケースがあった。
本発明は上記の課題を考慮してなされたものであり、利用者が対象部位を移動させることで行ったジェスチャを認識するジェスチャ認識装置において、利用者の意図通りにジェスチャを認識する技術を提供することを目的とする。
上記課題を解決するために、本発明に係るジェスチャ認識装置は、ジェスチャを行う身体部位である対象部位の形状を判定し、当該形状を考慮して代表点の位置を決定するという構成をとった。
具体的には、本発明に係るジェスチャ認識装置は、
取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置であって、画像を取得する画像取得手段と、前記取得
した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出手段と、前記抽出した対象部位の形状を特定する対象部位形状特定手段と、前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定手段と、前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識手段と、前記認識したジェスチャに対応する命令を生成するコマンド生成手段と、を有し、前記代表点決定手段は、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定することを特徴とする。
対象部位とは、利用者がジェスチャを行う部位であり、典型的には人間の手であるが、人体全体であってもよいし、利用者が保持している入力用のマーカー等であってもよい。入力されたジェスチャは、対象部位に対応する代表点の動きを追跡することで認識することができるが、本発明に係るジェスチャ認識装置では、対象部位における代表点の位置を、当該対象部位の形状を用いて決定する。
本発明に係るジェスチャ認識装置は、このように対象部位の形状を考慮して代表点の位置を設定することで、対象部位を移動させることで入力されたジェスチャを、利用者の意図通りに認識することができる。
また、前記代表点決定手段は、前記対象部位形状認識手段が特定した対象部位の形状が、突出した部位を含む形状である場合に、当該突出した部位の先端に代表点を設定することを特徴としてもよい。
対象部位の一部が突出した形状である場合、当該突出した部位の動きによってジェスチャ入力を行おうとしている可能性が高い。例えば、利用者が一部の指を立てている場合や、棒状の入力用マーカーを保持している場合などである。このような場合は、当該部位の先端に代表点を設定するようにすることが好ましい。
また、前記対象部位は、人間の手であり、前記代表点決定手段は、前記対象部位形状認識手段が特定した対象部位の形状が、第一の形状であるか、前記第一の形状とは異なる第二の形状であるかを判定し、前記対象部位の形状が第一の形状である場合に、指先に対応する位置に代表点を設定し、前記対象部位の形状が第二の形状である場合に、手の中心に対応する位置に代表点を設定することを特徴としてもよい。
対象部位が人の手である場合、指先を用いてジェスチャを行う場合と、手全体を用いてジェスチャを行う場合の二通りのパターンが考えられる。従って、代表点の位置は、指先か、手の中心のいずれかとすることが好ましい。
手全体ではなく指先を用いてジェスチャを行っていると推定できる場合、指先に対応する位置に代表点を設定する。これにより、指先の小さな動きでジェスチャを行う場合であっても、当該ジェスチャを利用者の意図通りに認識することができる。
また、前記代表点決定手段は、前記対象部位形状認識手段が特定した、対象部位である手の形状が、一部の指が伸展している形状である場合に、第一の形状であると判定し、全ての指が伸展している形状または全ての指が屈曲している形状である場合に、第二の形状であると判定することを特徴としてもよい。また、対象部位である手の形状が、一本の指のみが伸展している形状である場合に、第一の形状であると判定することを特徴としてもよい。
五本の指のうちの一部が伸展している場合、指先を用いてジェスチャを行っていると推定できる。また、全ての指が伸展している場合や、全ての指が屈曲している場合、手全体を動かすことでジェスチャを行っていると推定できる。また、伸展している指を一本のみ検出した場合、指先を用いてジェスチャを行っていると推定することができる。なお、一
部の指が伸展している状態とは、指を全て開いた状態は含まない。
また、前記代表点決定手段は、前記手の中心に対応する位置として、前記対象部位抽出手段によって抽出された、当該手に対応する領域の重心を用いることを特徴としてもよい。
手の中心に対応する位置としては、計算が容易である重心を用いることが好ましい。
また、本発明に係るジェスチャ認識装置は、設定された代表点の位置を利用者に通知する通知手段をさらに有することを特徴としてもよい。
通知手段とは、例えば表示装置や音声出力装置などである。例えば、代表点がどこに設定されているかを画面上に表示してもよい。このように構成することで、利用者は、ジェスチャ認識装置が追跡している点がどこにあるかを知ることができ、よりユーザビリティを向上させることができる。
なお、本発明は、上記手段の少なくとも一部を含むジェスチャ認識装置として特定することができる。また、前記ジェスチャ認識装置の制御方法や、前記ジェスチャ認識装置を動作させるためのプログラム、当該プログラムが記録された記録媒体として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
本発明によれば、利用者が対象部位を移動させることで行ったジェスチャを認識するジェスチャ認識装置において、利用者の意図通りにジェスチャを認識することができる。
第一の実施形態に係るジェスチャ認識システムの構成図である。 ジェスチャ定義データの例を説明する図である。 対象部位の抽出例を説明する図である。 対象部位の形状の違いを説明する図である。 第一の実施形態においてジェスチャ認識装置が行う処理を表すフローチャート図である。 第一の実施形態においてジェスチャ認識装置が行う処理を表すフローチャート図である。 第二の実施形態における通知画面の例である。
(第一の実施形態)
第一の実施形態に係るジェスチャ認識システムの概要について、システム構成図である図1を参照しながら説明する。第一の実施形態に係るジェスチャ認識システムは、ジェスチャ認識装置100および対象機器200からなるシステムである。
ジェスチャ認識装置100は、利用者が行ったジェスチャを、カメラを用いて認識するとともに、当該ジェスチャに対応するコマンドを生成し、対象機器200に送信する装置である。
また、対象機器200は、ジェスチャ認識装置100からコマンドを受信する装置(制御対象の機器)であり、典型的には、テレビ、ビデオレコーダ、コンピュータ、エアコン、テレビ会議システムなどの電気製品である。対象機器200は、有線または無線によって、ジェスチャ認識装置100からコマンドを受信することができれば、どのような機器
であってもよい。本実施形態では、対象機器200はテレビ受信機であり、ジェスチャ認識装置100は、当該テレビに内蔵された装置であるものとする。
ジェスチャ認識装置100について詳細に説明する。ジェスチャ認識装置100は、画像取得部101、ジェスチャ抽出部102、ジェスチャ認識部103、コマンド生成部104を有する。
画像取得部101は、外部から画像を取得する手段である。本実施形態では、テレビ画面の正面上部に取り付けられたカメラ(不図示)を用いて利用者を撮像する。画像取得部101が用いるカメラは、RGB画像を取得するカメラであってもよいし、グレースケール画像や、赤外線画像を取得するカメラであってもよい。また、画像は必ずしもカメラによって取得される必要はなく、例えば、距離センサが生成した、距離の分布を表す画像(距離画像)であってもよい。また、距離センサとカメラの組み合わせ等であってもよい。
画像取得部101が取得する画像(以下、カメラ画像)は、利用者が行ったジェスチャの動きと、当該ジェスチャを行った身体部位の形状を取得することができれば、どのような画像であってもよい。また、カメラ画像の画角は、テレビの視野角と略同一であればよい。
ジェスチャ抽出部102は、画像取得部101が取得したカメラ画像から、ジェスチャを行う身体部位(以下、対象部位)を検出する手段である。本実施形態の場合、利用者は手を用いてジェスチャを行うものとする。ジェスチャ抽出部102は、例えば、カメラ画像の中から、人の手を表す領域を検出する。
また、ジェスチャ抽出部102は、検出した対象部位に対して、当該対象部位の位置を代表する点である代表点を設定し、当該代表点の動きを追跡する。これにより、ジェスチャによって表現された動きを抽出することができる。
対象部位の形状および代表点については、後ほど詳しく説明する。
ジェスチャ認識部103は、ジェスチャ抽出部102が抽出した代表点の動きに基づいて、ジェスチャの内容を特定する手段である。例えば、図2に示したような、代表点の動きとジェスチャの内容を関連付けるデータ(ジェスチャ定義データ)を記憶しており、ジェスチャによって表現された命令の特定を行う。ジェスチャによって表現された命令は、図2に示したように、一連のジェスチャ動作が単独の命令に対応するものであってもよいし、代表点の移動量および移動方向に基づいて、画面に表示されたポインタを移動させる命令であってもよい。
コマンド生成部104は、ジェスチャ認識部103が特定したジェスチャに対応するコマンドを生成する手段である。コマンドとは、対象機器200を制御するための信号であり、電気信号であってもよいし、無線によって変調された信号や、パルス変調された赤外線信号などであってもよい。
ジェスチャ認識装置100は、プロセッサ、主記憶装置、補助記憶装置を有するコンピュータであり、補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、プロセッサによって実行されることによって、前述した各手段が機能する(プロセッサ、主記憶装置、補助記憶装置はいずれも不図示)。
次に、ジェスチャの認識処理について詳しく説明する。
図3は、画像取得部101が取得した画像の例である。すなわち、テレビ画面に正対する利用者を、画面側から見た図である。
ジェスチャの認識処理は、ジェスチャを行う対象部位を画像から検出する処理と、検出した対象部位に対応する代表点を設定する処理と、当該代表点の動きを追跡してジェスチ
ャの内容を特定する処理と、からなる。
まず、対象部位の検出について説明する。
ジェスチャ抽出部102は、取得した画像の中から、人の手が含まれる領域(符号31)を検出する。人の手が含まれる領域は、例えば色彩や形状によって判定してもよいし、特徴点を検出することで判定してもよい。また、予め記憶されたモデルやテンプレート等と比較することで判定してもよい。手の検出には公知の技術を用いることができるため、詳細な説明は省略する。
次に、代表点について説明する。
代表点は、対象部位の位置を代表する点であり、一つの対象部位に対して一つが設定される。例えば、対象部位が人の手である場合、手のひらの中心を表す点(符号32)を代表点とすることができる。
対象部位に対して代表点を設定し、代表点の動きを追跡することで、手の動きによって表されるジェスチャを取得することができる。例えば、「手全体を動かして方向を示す」、「図形を描画する」といったジェスチャを取得することができる。
ここで、図4を参照しながら、従来技術の問題点を説明する。
図4は、カメラ画像の例である(対象部位以外は図示を省略する)。図4(A)は、人差し指の指先を移動するジェスチャを表し、図4(B)は、手のひらを平行に移動するジェスチャを表す。
当該二つのジェスチャは、どちらも「左方向への移動」を意味するものであるが、指を立ててジェスチャを行う場合、指先の細かな動きによってジェスチャを行おうとする場合が多く、手を開いてジェスチャを行う場合、腕全体の大きな動きによってジェスチャを行おうとする場合が多い。従って、対象部位のどの部分に代表点を設定するかで、ジェスチャの認識精度が変わってしまう。
例えば、図4(A)の場合、人差し指の指先に代表点を設定すると、移動距離は符号41で示した距離となるが、手のひらの中心に代表点を設定すると、移動距離は符号42で示した距離となる。すなわち、移動距離によって異なるコマンドが割り当たっていた場合、所望のコマンドと異なるコマンドが入力されてしまうおそれがある。また、移動距離に応じてポインタを移動させたい場合、利用者が所望する移動量が得られないおそれがある。
そこで、本実施形態に係るジェスチャ認識装置では、対象部位の形状を用いて代表点の位置を決定することでジェスチャの認識精度を向上させる。
本実施形態では、対象部位の形状を、立っている指の本数によって識別する。例えば、図4(A)のケースの場合、立っている指の数は1本であり、図4(B)のケースの場合、立っている指の数は5本であると判定する。以降の説明において、指を1本立てた状態を「形状1」と称し、手を開いて指を5本立てた状態を「形状5」と称する。また、「形状n」とは、立っている指がn本あることを意味するものとする。
立っている指の数は、例えば、検出した手の周辺において、指と思われる尖った形状(あるいは突出した部位)を探索することで判定してもよいし、テンプレート画像や、手の骨格モデル等を用いてマッチングを行うことで判定してもよい。指の数の判定には、既知の手法を用いることができるため、詳細な説明は省略する。
本実施形態では、ジェスチャ抽出部102が手の形状を判定し、指先でジェスチャを行っていると判定できる形状であった場合に、指先に対応する位置に代表点を設定する。それ以外の場合は、検出した手の重心に代表点を設定する。指先でジェスチャを行っている
と判定できる形状とは、例えば、立っている指の数が1本である場合(対象部位の形状が「形状1」である場合)とすることができる。
次に、本実施形態に係るジェスチャ認識装置100が行う処理の全体を、処理フローチャートである図5および図6を参照しながら説明する。
図5に示した処理は、画像取得部101およびジェスチャ抽出部102が行う処理である。当該処理は、入力開始を表す操作があった場合(例えば、ジェスチャ入力が必要な機能を対象機器側で起動した際など)に開始してもよいし、対象機器の電源が投入された際に開始してもよい。
まず、画像取得部101がカメラ画像を取得する(ステップS11)。本ステップでは、例えばテレビ画面の正面上部に備えられたカメラを用いて、RGBカラー画像を取得する。
次に、ジェスチャ抽出部102が、取得したカメラ画像から、対象部位(手)の検出を試みる(ステップS12)。対象部位の検出は、前述したように、色や形状を基準として行ってもよいし、パターンマッチング等によって行ってもよい。ここで、対象部位が検出されなかった場合は、所定の時間だけ待機した後に新たに画像を取得し、同様の処理を繰り返す。
次に、ジェスチャ抽出部102が、検出した対象部位の形状を判定する(ステップS13)。本例では、対象部位の形状が形状1であるか、それ以外であるかを判定するものとする。もし、対象部位の形状が、予め定義されたもの以外であった場合は、処理を中断してステップS11へ戻ってもよいし、「該当なし」として処理を続けてもよい。
次に、検出した対象部位の形状が、前回実行時から変化しているかを判定する(ステップS14)。ステップS14が初めて実行された場合は、「変化あり」と判断する。
ステップS14で「変化あり」と判断した場合、ステップS15へ遷移し、ジェスチャ抽出部102が、検出した対象部位に代表点を設定する。具体的には、ステップS13で判定した対象部位の形状が形状1であった場合、伸展している指の先端に代表点を設定し、それ以外の場合、手の重心点に代表点を設定する。
ステップS14で「変化なし」と判断した場合、ステップS16へ遷移する。
次に、ジェスチャ抽出部102が、カメラ画像中における代表点の座標を取得し、ジェスチャ認識部103へ送信する(ステップS16)。
ステップS11〜S16の処理は繰り返し実行され、代表点の座標が、ジェスチャ認識部103へ逐次送信される。
図6に示した処理は、ジェスチャ認識部103およびコマンド生成部104が行う処理である。当該処理は、図5に示した処理と同時に開始される。
ステップS21は、ジェスチャ認識部103が、取得した代表点の座標に基づいてジェスチャを認識する処理である。例えば、図2に示したジェスチャ定義データがあった場合で、代表点の座標が右方向へ100ピクセル以上移動していることを検出した場合、「音量UP」を表すジェスチャがなされたものと判定する。
なお、ジェスチャ抽出部102からジェスチャ認識部103へ送信される情報は、代表点の移動方向および移動量を表すことができれば、必ずしもカメラ画像における座標でなくてもよい。例えば、代表点の座標を、利用者を原点とする座標系に変換したものであってもよいし、移動方向や移動量を表す他のデータであってもよい。
また、カメラ画像中における対象部位の大きさを表す情報を同時に送信するようにしてもよい。ジェスチャ認識装置が取得する対象部位の移動量は、利用者と装置との距離に応じて変わるため、このようにすることで、対象部位の大きさに応じて移動量を補正するこ
とができる。
次に、コマンド生成部104が、認識したジェスチャに対応する制御信号を生成して、対象機器200に送信する(ステップS22)。前述した例では、例えば「音量UP」という命令に対応付いた制御信号(音量を一段階上げる信号)を生成し、対象機器200に送信する。
図5および図6に示した処理は周期的に実行され、入力終了を表す操作があった場合(例えば、ジェスチャ入力を用いた操作を対象機器側で終えた際など)に終了する。
以上説明したように、第一の実施形態に係るジェスチャ認識装置は、ジェスチャを行った対象部位の形状によって、代表点の位置を異なる位置に設定する。これにより、ジェスチャが指先を用いて行われている場合であっても、手全体を用いて行われている場合であっても、当該ジェスチャを正確に認識することができる。
なお、実施形態の説明では、ステップS13にて対象部位の形状を判定しているが、当該ステップは、対象部位を検出した後の一回のみ実行し、ジェスチャが開始された後はスキップするようにしてもよい。このようにすることで、処理量を抑えることができる。
ただし、ジェスチャが終了し、続けて異なるジェスチャが開始される場合もあるため、このような場合は、当該ステップを再度実行するようにしてもよい。例えば、対象部位の形状や大きさが著しく変化した場合や、対象部位が画像からフレームアウトして再度フレームインした場合などは、異なるジェスチャが開始されたと判断し、ステップS13を再度実行するようにしてもよい。また、明示的な操作によって再実行してもよい。
(第二の実施形態)
第二の実施形態は、第一の実施形態に係るジェスチャ認識システムに、代表点の位置を利用者に通知する手段を追加した実施形態である。第二の実施形態に係るジェスチャ認識システムの構成は、以下に説明する点を除き、第一の実施形態と同様である。
第二の実施形態に係るジェスチャ認識装置100が行う処理のフローチャートは、図5および図6と同様であるが、ステップS15で対象部位を設定した場合に、ジェスチャ抽出部102が、対象機器200が有する画面(本例ではテレビ画面)を通して、代表点を設定した位置を利用者に通知するという点において相違する。
図7は、対象機器であるテレビ画面に表示される画像の例である。例えば、検出した対象部位の形状が形状1であった場合、指先を動かすことでジェスチャを行える旨を通知し、それ以外の形状であった場合、手全体を動かすことでジェスチャを行える旨を通知する。
なお、利用者に対して通知を行う方法は、これ以外の方法であってもよい。例えば、文章のみで案内を表示してもよいし、通常の操作画面に案内用のウインドウを追加し、図形や文章を表示してもよい。また、音声等によって通知してもよい。
第二の実施形態によると、システムが追跡する代表点がどこにあるかを利用者が認識することができるため、より直感的なジェスチャ入力を行うことができる。
(変形例)
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。
例えば、実施形態の説明では、ジェスチャ認識装置100を、対象機器200に組み込まれた装置であるとしたが、ジェスチャ認識装置100は独立した装置であってもよい。
また、ジェスチャ認識装置100は、対象機器200上で動作するプログラムとして実
装されてもよい。プログラムとして実装する場合は、メモリに記憶されたプログラムをプロセッサが実行するように構成してもよいし、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などによって実行されるように構成してもよい。
また、実施形態の説明では、カメラを用いて画像を取得する例を挙げたが、ジェスチャを取得し、かつ、対象部位の形状を識別することができれば、例えばネットワーク経由で画像を受信するなど、例示した方法以外によって画像を取得するようにしてもよい。
また、対象部位は、必ずしも人の手でなくてもよい。例えば、他の身体部位であってもよいし、ジェスチャ入力用のマーカー等であってもよい。マーカーを用いる場合、ジェスチャ抽出部102が、マーカーの存在を検出し、当該マーカーの先端に代表点を設定するようにすればよい。
また、本発明における「対象部位の形状」とは、ジェスチャ認識装置が画像を通して認識した形状を意味し、必ずしも対象部位を物理的に変形させたものである必要はない。
また、実施形態の説明では、対象部位の形状について、「形状1」と「それ以外の形状」の二種類を識別するものとしたが、他の形状を識別するようにしてもよい。他の形状とは、例えば、握った状態の手であってもよいし、指が2本立っている状態であってもよい。また、三種類以上の形状を識別するようにしてもよい。いずれの場合も、識別した形状に基づいて代表点の位置を決定し、前述した方法によって処理を行えばよい。
例えば、代表点を設定する位置を下記のようにしてもよい。
形状0である場合:拳の重心を代表点とする
形状1である場合:立っている指の指先を代表点とする
形状2である場合:立っている二本の指先の中点を代表点とする
形状3である場合:立っている三本の指のうち、真ん中の指の指先を代表点とする
形状4および5である場合:手のひらの重心を代表点とする
また、各実施形態の説明では、ステップS12にてカメラ画像から対象部位を検出したのちに、ステップS13にて当該対象部位の形状を識別したが、テンプレートマッチング等によってこれらの処理を同時に実行するようにしてもよい。対象部位が存在する位置と、当該対象部位の形状を取得することができれば、処理の内容および処理順序は特に限定されない。
100・・・ジェスチャ認識装置
101・・・画像取得部
102・・・ジェスチャ抽出部
103・・・ジェスチャ認識部
104・・・コマンド生成部
200・・・対象機器

Claims (10)

  1. 取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置であって、
    画像を取得する画像取得手段と、
    前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出手段と、
    前記抽出した対象部位の形状を特定する対象部位形状特定手段と、
    前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定手段と、
    前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識手段と、
    前記認識したジェスチャに対応する命令を生成するコマンド生成手段と、
    を有し、
    前記代表点決定手段は、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する
    ことを特徴とする、ジェスチャ認識装置。
  2. 前記代表点決定手段は、前記対象部位形状認識手段が特定した対象部位の形状が、突出した部位を含む形状である場合に、当該突出した部位の先端に代表点を設定する
    ことを特徴とする、請求項1に記載のジェスチャ認識装置。
  3. 前記対象部位は、人間の手であり、
    前記代表点決定手段は、前記対象部位形状認識手段が特定した対象部位の形状が、第一の形状であるか、前記第一の形状とは異なる第二の形状であるかを判定し、前記対象部位の形状が第一の形状である場合に、指先に対応する位置に代表点を設定し、前記対象部位の形状が第二の形状である場合に、手の中心に対応する位置に代表点を設定する
    ことを特徴とする、請求項1に記載のジェスチャ認識装置。
  4. 前記代表点決定手段は、前記対象部位形状認識手段が特定した、対象部位である手の形状が、一部の指が伸展している形状である場合に、第一の形状であると判定し、全ての指が伸展している形状または全ての指が屈曲している形状である場合に、第二の形状であると判定する
    ことを特徴とする、請求項3に記載のジェスチャ認識装置。
  5. 前記代表点決定手段は、前記対象部位形状認識手段が特定した、対象部位である手の形状が、一本の指のみが伸展している形状である場合に、第一の形状であると判定する
    ことを特徴とする、請求項3に記載のジェスチャ認識装置。
  6. 前記代表点決定手段は、前記手の中心に対応する位置として、前記対象部位抽出手段によって抽出された、当該手に対応する領域の重心を用いる
    ことを特徴とする、請求項3から5のいずれかに記載のジェスチャ認識装置。
  7. 設定された代表点の位置を利用者に通知する通知手段をさらに有する
    ことを特徴とする、請求項1から6のいずれかに記載のジェスチャ認識装置。
  8. 取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置の制御方法であって、
    画像を取得する画像取得ステップと、
    前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出ステップと、
    前記抽出した対象部位の形状を特定する対象部位形状特定ステップと、
    前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定ステップと、
    前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識ステップと、
    前記認識したジェスチャに対応する命令を生成するコマンド生成ステップと、
    を含み、
    前記代表点決定ステップでは、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する
    ことを特徴とする、ジェスチャ認識装置の制御方法。
  9. 取得した画像からジェスチャを検出し、当該ジェスチャに対応した、対象機器に対する命令を生成するジェスチャ認識装置に、
    画像を取得する画像取得ステップと、
    前記取得した画像から、ジェスチャを行う対象部位を抽出する対象部位抽出ステップと、
    前記抽出した対象部位の形状を特定する対象部位形状特定ステップと、
    前記対象部位に対して、前記対象部位の位置を代表する点である代表点を設定する代表点決定ステップと、
    前記代表点の動きに基づいてジェスチャを認識するジェスチャ認識ステップと、
    前記認識したジェスチャに対応する命令を生成するコマンド生成ステップと、
    を実行させ、
    前記代表点決定ステップでは、前記特定した対象部位の形状を用いて、前記対象部位に対応する代表点の位置を決定する
    ことを特徴とする、ジェスチャ認識プログラム。
  10. 請求項9に記載のジェスチャ認識プログラムが記録された記録媒体。
JP2014048911A 2014-02-14 2014-03-12 ジェスチャ認識装置およびジェスチャ認識装置の制御方法 Active JP6349800B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2014048911A JP6349800B2 (ja) 2014-03-12 2014-03-12 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
KR1020150011034A KR101631011B1 (ko) 2014-03-12 2015-01-23 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
EP15152621.7A EP2908218B1 (en) 2014-02-14 2015-01-27 Gesture recognition apparatus and control method of gesture recognition apparatus
EP15152625.8A EP2908219A1 (en) 2014-02-14 2015-01-27 Gesture recognition apparatus and control method of gesture recognition apparatus
EP15152637.3A EP2919096B8 (en) 2014-02-14 2015-01-27 Gesture recognition apparatus and control method of gesture recognition apparatus
CN201510051339.9A CN104914989B (zh) 2014-03-12 2015-01-30 姿势辨识装置以及姿势辨识装置的控制方法
US14/614,823 US9557821B2 (en) 2014-03-12 2015-02-05 Gesture recognition apparatus and control method of gesture recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014048911A JP6349800B2 (ja) 2014-03-12 2014-03-12 ジェスチャ認識装置およびジェスチャ認識装置の制御方法

Publications (2)

Publication Number Publication Date
JP2015172887A true JP2015172887A (ja) 2015-10-01
JP6349800B2 JP6349800B2 (ja) 2018-07-04

Family

ID=52423599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014048911A Active JP6349800B2 (ja) 2014-02-14 2014-03-12 ジェスチャ認識装置およびジェスチャ認識装置の制御方法

Country Status (4)

Country Link
US (1) US9557821B2 (ja)
JP (1) JP6349800B2 (ja)
KR (1) KR101631011B1 (ja)
CN (1) CN104914989B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168190A1 (ja) * 2018-03-02 2019-09-06 Necソリューションイノベータ株式会社 操作推定装置、操作推定方法、及びコンピュータ読み取り可能な記録媒体
EP4250065A1 (en) 2022-03-22 2023-09-27 Canon Kabushiki Kaisha Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, program, and computer readable medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6287382B2 (ja) * 2014-03-12 2018-03-07 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP6488961B2 (ja) * 2015-09-28 2019-03-27 富士通株式会社 生成方法、判別方法、プログラム及び情報処理装置
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN107179826B (zh) * 2016-03-11 2021-08-31 松下知识产权经营株式会社 姿势输入系统和姿势输入方法
JP6530357B2 (ja) * 2016-09-06 2019-06-12 株式会社日立ビルシステム 保全作業管理システム及び保全作業管理装置
KR20240017702A (ko) * 2022-08-01 2024-02-08 삼성전자주식회사 센서를 통해 사용자 제스처를 인식하는 디스플레이 장치 및 그 제어 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944668A (ja) * 1995-07-26 1997-02-14 Matsushita Electric Ind Co Ltd 動作開始位置検出方法
JP2001306049A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、動作認識過程表示方法及びプログラム格納媒体
JP2005135439A (ja) * 2004-12-28 2005-05-26 Toshiba Corp 操作入力装置
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20130307768A1 (en) * 2011-02-08 2013-11-21 Lg Electronics Inc. Display device and control method thereof
WO2014009561A2 (en) * 2012-07-13 2014-01-16 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
WO2011148607A1 (ja) * 2010-05-28 2011-12-01 パナソニック株式会社 ジェスチャ認識装置及びジェスチャ認識方法
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
CN102467657A (zh) * 2010-11-16 2012-05-23 三星电子株式会社 手势识别系统和方法
JP5604279B2 (ja) 2010-12-08 2014-10-08 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
CN102200834B (zh) * 2011-05-26 2012-10-31 华南理工大学 面向电视控制的指尖鼠标交互方法
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944668A (ja) * 1995-07-26 1997-02-14 Matsushita Electric Ind Co Ltd 動作開始位置検出方法
JP2001306049A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、動作認識過程表示方法及びプログラム格納媒体
JP2005135439A (ja) * 2004-12-28 2005-05-26 Toshiba Corp 操作入力装置
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置
WO2011142317A1 (ja) * 2010-05-11 2011-11-17 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US20130307768A1 (en) * 2011-02-08 2013-11-21 Lg Electronics Inc. Display device and control method thereof
WO2014009561A2 (en) * 2012-07-13 2014-01-16 Softkinetic Software Method and system for human-to-computer gesture based simultaneous interactions using singular points of interest on a hand

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168190A1 (ja) * 2018-03-02 2019-09-06 Necソリューションイノベータ株式会社 操作推定装置、操作推定方法、及びコンピュータ読み取り可能な記録媒体
EP4250065A1 (en) 2022-03-22 2023-09-27 Canon Kabushiki Kaisha Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, program, and computer readable medium

Also Published As

Publication number Publication date
CN104914989B (zh) 2018-08-28
KR20150106823A (ko) 2015-09-22
US9557821B2 (en) 2017-01-31
CN104914989A (zh) 2015-09-16
US20150261303A1 (en) 2015-09-17
JP6349800B2 (ja) 2018-07-04
KR101631011B1 (ko) 2016-06-15

Similar Documents

Publication Publication Date Title
JP6349800B2 (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US10761610B2 (en) Vehicle systems and methods for interaction detection
US9134800B2 (en) Gesture input device and gesture input method
WO2014045953A1 (ja) 情報処理装置および方法、並びにプログラム
US20180136806A1 (en) Display control apparatus, display control method, and program
JP6287382B2 (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2016521894A (ja) 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US9965041B2 (en) Input device, apparatus, input method, and recording medium
JP2015176253A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20130293460A1 (en) Computer vision based control of an icon on a display
JP2012027515A (ja) 入力方法及び入力装置
JP2012123608A (ja) ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US9525906B2 (en) Display device and method of controlling the display device
CN106598422B (zh) 混合操控方法及操控系统和电子设备
US9092083B2 (en) Contact detecting device, record display device, non-transitory computer readable medium, and contact detecting method
US10162420B2 (en) Recognition device, method, and storage medium
US20190095093A1 (en) Information processing apparatus, information processing method, and computer readable medium
JP2013077180A (ja) 認識装置およびその制御方法
JP6293761B2 (ja) ユーザ端末装置、ユーザ端末装置の文字入力方法及びコンピュータ読み取り可能な記録媒体
EP2919096B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2011242889A (ja) ジェスチャを用いた情報入力装置、方法及びプログラム
KR20190069023A (ko) 손 인식 기반 비접촉식 입력 인터페이스 제공 방법 및 장치
KR102191943B1 (ko) 사용자 단말 장치, 사용자 단말 장치의 문자 입력 방법 및 컴퓨터 판독 가능한 기록 매체
TW201137671A (en) Vision based hand posture recognition method and system thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6349800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250