JP2014048937A - ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム - Google Patents

ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム Download PDF

Info

Publication number
JP2014048937A
JP2014048937A JP2012192038A JP2012192038A JP2014048937A JP 2014048937 A JP2014048937 A JP 2014048937A JP 2012192038 A JP2012192038 A JP 2012192038A JP 2012192038 A JP2012192038 A JP 2012192038A JP 2014048937 A JP2014048937 A JP 2014048937A
Authority
JP
Japan
Prior art keywords
hand
operator
gesture
gesture recognition
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012192038A
Other languages
English (en)
Other versions
JP6011165B2 (ja
Inventor
Takayoshi Yamashita
隆義 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2012192038A priority Critical patent/JP6011165B2/ja
Priority to EP13181890.8A priority patent/EP2708981B1/en
Priority to US14/011,951 priority patent/US20140062861A1/en
Publication of JP2014048937A publication Critical patent/JP2014048937A/ja
Application granted granted Critical
Publication of JP6011165B2 publication Critical patent/JP6011165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

【課題】所定の動作を行った動作者を正確に特定することができるジェスチャ認識装置を提供する。
【解決手段】形状識別手段123は、動画において顔検出手段によって検出された手が、右手であるかまたは左手であるかを識別し、動作者特定手段124は、識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定する。
【選択図】図1

Description

本発明は、認識対象物の動作からジェスチャを認識するジェスチャ認識装置、その制御方法、表示機器、および制御プログラムに関する。
近年、テレビジョン受像機、パーソナルコンピュータ、またはタブレット端末などの表示装置に、操作者が操作する認識対象物のジェスチャを認識するジェスチャ認識装置を組み合わせた表示機器が登場してきている。このような表示機器では、操作者がデータグローブ等の特殊な装具を装着する必要がなく、また操作者が自然かつスムーズに当該表示機器の操作を行えるよう、操作者の手や指などを用いて行うジェスチャを認識するジェスチャ認識装置が望まれている。
ここで、図8を用いて、従来のジェスチャ認識装置におけるジェスチャ認識の流れを説明しておく。同図に示すとおり、従来のジェスチャ認識では、まず操作者の特定/決定が行われる。すなわち、ジェスチャ認識装置は、認識した複数の人物のうちいずれの人物を操作者とするか否か判断したり、または、認識した人物が予め登録された操作者リストに含まれているか判断したりする。次に、操作者が、ジェスチャを開始することをジェスチャ認識装置に伝達する。具体的には、操作者が、例えば手を挙げるなどの開始動作を行うと、ジェスチャ認識装置が、上記開始動作を認識して、認識対象物(例えば操作者の手、ポインタなど)のジェスチャ認識を行うことができる状態になる。その後、ジェスチャ認識装置は、上記開始動作の後に操作者が認識対象物を用いて行うジェスチャを認識する。
さて、従来のジェスチャ認識装置における操作者の特定/決定方法では、操作者の顔の特徴に関するデータを予め当該ジェスチャ認識装置に登録しておき、画像に写る人物を顔認証することによって、データが登録されている人物を操作者として決定していた。しかしながら、このような操作者の特定/決定方法では、ジェスチャ認識装置を操作するためには、予め、当該ジェスチャ認識装置に操作者としてデータを登録しておく必要があるので、ユーザにとって不便である。そこで、予め登録した人物以外の人物を操作者として認定する方法が望まれる。
このような方法として、特許文献1には、テレビなどの機器の制御方法において、複数の人の属性を監視し、監視した人の属性に基づいて、当該機器の操作者を選択する制御方法が開示されている。上記人の属性としては、人の位置、人の表情、および人の付帯物などが挙げられている。そして、上記制御方法では、監視した人のうち、予め定めた位置に最も近い位置に存在する人や、予め定めた姿勢や動作(例えば挙手)を行った人などを操作者として選択することが、同文献に記載されている。
また、特許文献2にも、同様に、監視した所定の人の属性に基づいて、テレビなどの機器の操作者を選択する制御方法が記載されている。
特開2004−303251号公報(2004年10月28日公開) 特開平11−327753号公報 (1999年11月30日公開)
しかしながら、上記の特許文献1および2に開示されたように、予め定めた開始動作を行った人物を操作者として決定する場合、その所定の開始動作を行った人物すなわち動作者を特定することは困難である。特に、特許文献1および2には、挙手を行った人物を操作者として選択することが記載されているが、挙手した人物を特定する方法は開示されていない。従って、例えば、挙げられた手の左右にそれぞれ人物が存在する場合、どちらの人物が挙手を行った動作者であるかを特定することはできない。ゆえに、特許文献1および2に開示された制御方法では、動作者を正確に識別することができないという問題がある。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、所定の動作を行った動作者を正確に特定することができるジェスチャ認識装置を提供することにある。
本発明に係るジェスチャ認識装置は、上記の課題を解決するために、ユーザの手の動作を撮影した動画から、上記手によるジェスチャを認識するジェスチャ認識装置において、上記ユーザの顔を検出する顔検出手段と、上記手が、右手であるかまたは左手であるかを識別する形状識別手段と、識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定する動作者特定手段とを備えたことを特徴としている。
また、本発明に係るジェスチャ認識装置の制御方法は、上記の課題を解決するために、ユーザの手の動作を撮影した動画から、上記手によるジェスチャを認識するジェスチャ認識装置の制御方法であって、上記ユーザの顔を検出し、動画において検出した手が、右手であるかまたは左手であるかを識別した後、識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定することを特徴としている。
上記構成または上記方法によれば、動画においてユーザの顔を検出し、さらにジェスチャを行う手が右手であるかまたは左手であるかを識別し、その識別結果に基づいて、上記ユーザの中から動作者を特定する。ここで、上記手の形状は、例えば、手のひらを所定の方向に向け、全ての指を延ばした形、人差し指と中指とを延ばした形、または人差し指のみを延ばした形であってよい。従って、動作者が特別な動作を行うことなしに、手で上記のような簡単な形状を作るだけで、動作者の顔が特定される。
さらに、上記構成によれば、識別された手が右手(左手)であった場合、その手の右側に位置し、かつその手に最も近い人物を動作者として特定する。
ここで、前述のように、手のひらを動画撮影部の方向に向けている場合、右手(左手)で全ての指を延ばした形状を作った手を撮影した動画においては、その手の右端部(左端部)に親指が位置する。あるいは、右手(左手)で指差しをする形を作った手を撮影した動画においては、その手の右寄りに人差し指が位置する。また、動作者が手を挙げる動作を行う際、動作者とその手との間には、他の人は存在しないことが通常である。
従って、上記構成によれば、形状識別手段により識別された手を挙手した人物である動作者を特定することができる。
また、本発明に係るジェスチャ認識装置において、上記手の形状は、全ての指を延ばした形状であり、上記形状識別手段は、上記手の親指がその手の右端部に位置している場合、その手は右手であると識別する一方、上記手の親指がその手の左端部に位置している場合、その手は左手であると識別する構成であってもよい。
上記構成によれば、動作者が、全ての指を延ばした形状を作った手を挙手すると、その手の親指がその手の右端部に位置しているか、または、その手の左端部に位置しているかに基づき、手を識別する。すなわち、手のひらを動画撮影部の方向に向けている場合、全ての指を延ばした形状とした右手(左手)を撮影した動画においては、その手の右端部(左端部)に親指が位置することになるので、これに基づき、手を識別する。従って、前述のように、動作者が特異な動作を行うことなしに、上記形状の手を挙手するという簡単な動作によって、動作者の手を識別し、自然に動作者を特定することができる。
また、本発明に係るジェスチャ認識装置において、上記形状識別手段は、上記手の先端部を抽出し、抽出された先端部のうち、動画の上下方向について、その位置が最も低い先端部を親指とする構成であってもよい。
上記構成によれば、動作者が、全ての指を延ばした形状を作った手を挙手する場合、先端部を抽出することによって、5本の指が抽出されることになる。これらの5本の指のうち、一番低い位置の先端部は親指である。従って、上記先端部のうち、動画の上下方向について、その位置が最も低い先端部を選出すると、親指が選出されることになる。このように、上記構成によれば、親指を選出することができるので、その親指が左右どちらの端部に位置しているかによって、手を識別することができる。
また、本発明に係るジェスチャ認識装置において、上記手の形状は、人差し指のみを延ばした形状であり、上記形状識別手段は、上記手の人差し指がその手の右寄りに位置している場合、その手は右手であると識別する一方、上記手の親指がその手の左寄りに位置している場合、その手は左手であると識別する構成であってもよい。
上記構成によれば、動作者が、人差し指を延ばした形状、すなわち指差しをする形を作った手を挙手すると、その手の人差し指が手の右寄りに位置しているか、または、その手の左寄りに位置しているかに基づき、手を識別する。従って、前述のように、動作者が特異な動作を行うことなしに、指差しをする形を作った手を挙手するという簡単な動作によって、動作者の手を識別し、自然に動作者を特定することができる。なお、上記手の右寄りの位置とは、手の左右方向の中心線に対して右側の領域に含まれる位置のことであり、上記手の左寄りの位置とは、上記中心線に対して左側の領域に含まれる位置のことである。
また、本発明に係るジェスチャ認識装置は、上記ジェスチャを受け付ける人物である操作者の顔の特徴量をリスト化した操作者リストを記憶するとともに、上記操作者毎に認識するジェスチャと実行する処理内容との対応関係を示す、上記操作者毎のジェスチャ−処理テーブルを記憶した記憶部と、上記動作者の顔の特徴量と上記操作者リストの特徴量との類似度を判定することにより、上記動作者の顔認証を行う顔認証手段と、上記顔認証の結果に基づいて該動作者に対応する操作者を特定し、該操作者に適用される上記ジェスチャ−処理テーブルを参照することによって、上記ジェスチャに対応する処理を実行する処理実行手段とをさらに備えた構成であってもよい。
上記構成によれば、まず、動作者の顔の特徴量に基づいて顔認証が行われることにより、該動作者に対応する操作者が特定される。ここで、該動作者に対応する操作者とは、操作者判定手段によって、該動作者と同一人物であると判定される操作者のことである。その後、該操作者に適用されるジェスチャ−処理テーブルに基づき、ジェスチャに対応する処理が実行される。このとき、上記ジェスチャ−処理テーブルは、操作者が自分で設定することも可能である。従って、動作者すなわち操作者は、自身に適用される上記ジェスチャ−処理テーブルを、自分の望むとおりにカスタマイズすることにより、快適な操作を行うことができる。
また、本発明に係るジェスチャ認識装置において、上記処理実行手段は、上記顔認証手段により判定された上記類似度が所定値よりも小さい場合、上記動作者の顔の特徴量を上記操作者リストに追加して、上記動作者を操作者として認定する構成であってもよい。
上記構成によれば、動作者特定手段が特定した動作者が操作者リストに追加され、操作者として認定される。これにより、例えば、まだ操作者として登録されていない人物は、全ての指を延ばした形状などを作った手を挙手するという、上述のような簡単な動作を行うことによって、簡単に操作者としての登録を行うことができる。
また、本発明に係るジェスチャ認識装置において、上記処理実行手段は、上記操作者を特定または認定した後、所定の時間、該操作者以外のジェスチャを受け付けない構成であってもよい。
上記構成によれば、動作者を特定した後の所定時間、該動作者以外の人物によるジェスチャは受け付けられない。従って、動作者の周囲に、動作者以外の人物が存在する場合であっても、当該ジェスチャ認識装置は、動作者によるジェスチャのみ受け付けるので、動作者は、自分以外のジェスチャが当該ジェスチャ認識装置に受け付けられることによって操作を中断させられることなく、快適な操作を行うことができる。
また、本発明に係るジェスチャ認識装置は、所定の条件に基づき、上記手によるジェスチャを開始しようとしているか否かを判定するジェスチャ開始判定手段をさらに備え、
上記形状識別手段は、上記手によるジェスチャを開始しようとしていると上記ジェスチャ開始判定手段が判定した場合に、上記手の識別を行う構成であってもよい。
上記構成によれば、ユーザがジェスチャを開始しようとしていると判定された場合に、手の識別以降の各処理が行われる。そのため、ユーザは、上記所定の条件を満たすことにより、当該ジェスチャ認識装置に対して、ジェスチャを開始する意図を伝達することができる。また、反対に、上記所定の条件を満たさなければ、当該ジェスチャ認識装置は手の識別以降の各処理を行わないので、ユーザがジェスチャを行わない場合は、処理負荷の低減ひいては省電力化を図ることができる。
また、本発明に係るジェスチャ認識装置において、上記所定の条件は、上記ユーザが手を振る動作である構成であってもよい。
上記構成によれば、ユーザが手を振る開始動作を行うと、当該ジェスチャ認識装置によって、ユーザがジェスチャ開始の意図を有していると判定される。従って、ユーザは、手を振るという簡単な動作を行うことによって、当該ジェスチャ認識装置に、ユーザがジェスチャ開始の意図を有していることを伝達することができる。
また、本発明に係るジェスチャ認識装置において、上記所定の条件は、一定時間、所定の方向とユーザの視線方向との為す角度が所定値よりも小さい構成であってもよい。
上記構成によれば、ユーザが、一定時間、視線を所定の方向、例えば当該ジェスチャ認識装置が備えた動画撮影部の方向に向けることにより、当該ジェスチャ認識装置によって、ユーザがジェスチャ開始の意図を有していると判定される。したがって、ユーザは、特別な動作をすることなく、単に視線を上記所定の方向に向けるだけで、当該ジェスチャ認識装置に、ユーザがジェスチャ開始の意図を有していることを伝達することができる。
また、本発明に係るジェスチャ認識装置は、外部の機器に対して、上記ジェスチャに対応する処理を実行するように指示する機器制御手段をさらに備えた構成であってもよい。
上記構成によれば、上述したようなジェスチャに対応する処理が、外部の機器において実行される。上記外部の機器とは、例えば表示装置を備えた表示機器である。これにより、ユーザは、上記表示機器などの外部の機器を、ジェスチャで操作することができる。
なお、上記ジェスチャ認識装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記ジェスチャ認識装置をコンピュータにて実現させるジェスチャ認識装置の制御プログラムも、本発明の範疇に入る。
また、上記ジェスチャ認識装置と、上記ジェスチャ認識装置が保持する各種情報をユーザに表示するための表示装置とを備え、上記ジェスチャ認識装置によって動作制御が行われる表示機器も本発明の範囲に含まれる。
以上のように、本発明に係るジェスチャ認識装置は、ユーザの顔を検出する顔検出手段と、ジェスチャを行う手が、右手であるかまたは左手であるかを識別する形状識別手段と、識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定する動作者特定手段とを備えている。
また、本発明に係るジェスチャ認識装置の制御方法は、ユーザの顔を検出し、動画において検出した手が、右手であるかまたは左手であるかを識別した後、識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定する。
これにより、所定の動作を行った動作者を正確に特定することができるという効果を奏する。
本発明の一実施形態に係るジェスチャ認識装置の構成を示すブロック図である。 (a)は手を振る開始動作を行う操作者を示す模式図であり、(b)は(a)にZで示す領域において操作者の開始動作を撮影した画像の差分を累積した累積値を示している。 認識領域内において手を挙げる動作を行う動作者の、顔位置と親指との位置関係を示す説明図である。 図1に示すジェスチャ認識装置の動作を示すフローチャートである。 本発明の他の一実施形態に係るジェスチャ認識装置の構成を示すブロック図である。 図5に示すジェスチャ認識装置の動作を示すフローチャートである。 図1に示すジェスチャ認識装置が適用された表示機器を示す外観図である。 一般的なジェスチャ認識の流れを説明する説明図である。
以下、本発明の実施の形態について、詳細に説明する。なお、以下の説明において、「右」や「左」は、動画像を視認する者から見た方向をあらわすものとする。
〔実施形態1〕
本発明のジェスチャ認識装置1に関する実施の一形態について図1〜図4に基づいて説明すれば以下のとおりである。
(ジェスチャ認識装置1の構成)
まず、ジェスチャ認識装置1の構成について、図1を用いて説明する。同図は、ジェスチャ認識装置1の構成を示すブロック図である。
図1に示すように、ジェスチャ認識装置1は、動画撮影部11、制御手段12、および記憶部13を備えている。以下に、上記の各部材の詳細をそれぞれ説明する。
(1.動画撮影部11)
動画撮影部11は、操作者を含む空間の画像を撮影するものである。動画撮影部11は、より詳細には、ジェスチャを行う主体となる操作者、および、ジェスチャ認識の対象となる認識対象物(ユーザの手)を撮像し、動画データを生成する。また、動画撮影部11は、所定の時間(例えば1/15秒)ごとに撮影したフレーム画像を、制御手段12に出力する。
(2.制御手段12)
制御手段12は、ジェスチャ認識装置1が備える各部を統括制御するものであり、ジェスチャ開始判定手段121、認識領域設定手段122、形状識別手段123、動作者特定手段124、ジェスチャ認識手段125、および表示機器制御手段(処理実行手段)126を含む構成である。なお、制御手段12に含まれる各手段については、その詳細を後述する。
(3.記憶部13)
記憶部13は、ジェスチャ認識装置1が扱う各種データを記憶するものであり、データを揮発的に記憶する一時記憶部と、データを不揮発的に記憶する記憶装置とを含む。上記一時記憶部は、ジェスチャ認識装置1が実行する各種処理の過程で、演算に使用するデータおよび演算結果等を一時的に記憶するいわゆるワーキングメモリであり、RAMなどで構成される。また、上記記憶装置は、制御手段12が実行する制御プログラムおよびOSプログラム、ならびに、ジェスチャ認識装置1が有する各種機能を実行するときに読み出す各種データを記憶するものであり、ROMなどで構成される。
(制御手段12の詳細な構成)
ここでは、制御手段12の詳細な構成について、図1〜図3を用いて説明する。なお、以下の説明で、「動作者」は、開始動作あるいは手を挙げる動作を行った人物を意味しており、「操作者」は、ジェスチャ認識装置1がジェスチャ認識を受け付けることを認定した人物を意味している。
(1.ジェスチャ開始判定手段121)
ジェスチャ開始判定手段121は、開始動作を検出した場合に、その開始動作を実行した動作者が、ジェスチャ開始の意図を有していると判定するものである。ここで、上記開始動作とは、図2の(a)に示すように、動作者が顔の横に手を挙げ、その位置で手を振る動作である。詳細には、全ての指を延ばした手のひらをジェスチャ認識装置1(動画撮影部11)に向けた状態で、操作者が手を左右に振る開始動作を行うと、ジェスチャ開始判定手段121は、動作者がジェスチャ開始の意図を有していると判定する。ただし、本発明において、開始動作は上記のものに限定されない。例えば、手を所定の形状とするなど、ジェスチャ開始判定手段121が、形状、変位、速度などに基づいて、その他の動作と区別して検出することが可能な開始動作であればよい。
動作者が手を振る開始動作を検出する際、ジェスチャ開始判定手段121は、まず、上記開始動作を撮影した画像について、画像間の差分を抽出する。このように画像間の差分を抽出する処理を、例えば30フレーム分の画像に亘って行い、抽出された各差分を累積する。これにより、上記開始動作を行っている動作者の手の位置の差分が累積されることになる。このようにして、手を振る開始動作を撮影し、上記開始動作を撮影した画像間の差分を累積した例を、図2の(b)に示す。ここで、図2の(b)においては、白色が強い領域ほど、差分の累積値が高いことを示している。なお、図2の(b)は、図2の(a)において、Zで示す領域を拡大したものである。ジェスチャ開始判定手段121は、画像間差分の累積値が所定値よりも大きい領域を動作領域として抽出し、上記動作領域を抽出することができた場合、手を振る開始動作を検出したと判断する。
(2.認識領域設定手段122)
認識領域設定手段122は、ジェスチャ開始判定手段121が開始動作を検出した後、動画像全体の領域において、ジェスチャ認識手段125によってジェスチャが認識される領域である認識領域OEを設定するものである。
認識領域OEを設定する際、認識領域設定手段122は、例えば、動画像から所定の形状および色を有する領域を抽出して、抽出された領域に対して所定の位置関係を持つ位置に、認識領域OEを設定する。例えば、認識領域設定手段122は、顔の形状および肌色を有する領域を抽出することによって動作者の顔の位置を抽出して、その顔位置の横側に認識領域OEを設定する。認識領域OEの形状および大きさは、例えば、認識領域設定手段122によって抽出された顔位置領域の1.5倍の大きさを有する正方形であってよい。
なお、本発明において、認識領域OEの設定は必須ではない。すなわち、認識領域OEを設定せずに、ジェスチャ認識手段125は、動画像全体においてジェスチャ認識を行う構成としてもよい。この場合、認識領域設定手段122は不要となる。
(3.形状識別手段123)
形状識別手段123は、動作者が開始動作を実行している間に、認識領域OE内に存在する手を検出し、その手が右手であるかまたは左手であるかを識別するものである。あるいは、形状識別手段123は、手を振る開始動作を終えた動作者に対し、表示または音声を用いて、開いた手を認識領域OE内に移動させるように指示を出してもよい。この場合、形状識別手段123は、例えば、図2の(a)に示すように、顔の横へ手を移動させるように指示する。
なお、認識領域OEにおいて手を検出する処理は、認識領域OE内において、連続するフレーム画像の背景差分を行い、画像の前景となる領域を抽出することによって実行される。すなわち、動作者がジェスチャを実行しようとするとき、動作者とジェスチャ認識装置1(動画撮影部11)との間には何も存在しないと考えられる。従って、認識領域OEにおいて画像の前景を抽出することにより、動作者の手が検出されることになる。
(手の識別について)
認識領域OEにおいて検出された手が右手であるか、または左手であるかを識別する処理は、以下のようにして実行される。
形状識別手段123は、まず、検出された手において、先端部(より正確には上端部)を抽出する。ここで、前述のように開始動作は手を振る動作であるから、検出された手は全ての指を延ばした形状に開かれており、また手のひらはジェスチャ認識装置1(動画撮影部11)の方向に向いている。従って、検出された手の先端部を抽出することによって、各指の先端が抽出されることになる。続いて、抽出された先端部(すなわち各指の先端)の中から、y座標すなわち画像の上下方向について、位置が最も低い先端部を選出する。すると、一般的に親指が選出されることになる。その後、形状識別手段123は、選出された先端部(親指)が、手の領域において右端部に位置するか、または左端部に位置するかを判定する。あるいは、単純に、選出された先端部が、手の右端部により近い(右寄り)か、または手の左端部により近い(左寄り)かを判定してもよい。これにより、検出された手が右手であるか、または左手であるかを判定することができる。具体的には、形状識別手段123は、親指が手の右端部に位置している場合、その手は右手であると判定する一方、親指が手の左端部に位置している場合、その手は左手であると判定する。ここで、手の位置と動作者との位置関係の一例を、図3に示す。図3において、人物A、および人物Aの挙げた手は、図2の(a)に示す人物と同様、ジェスチャ認識装置1(動画撮影部11)の方向すなわち紙面上側の方向を向いている。また、人物Aは、指を延ばした左手の手のひらを前に向けて挙げている。このとき、図3から分かるように、人物Aの左手は、人物Aの顔位置FEの右側(認識領域OE内)に位置している。言い換えれば、人物Aの左手の左側に、人物Aの顔位置FEが位置している。また、人物Aが挙げた左手の親指BFは、その他の指に対して、人物Aの顔に一番近い位置、すなわち左手の左端部に位置している。図3では、人物Aの右横に、人物Aの左手を挟んで人物Bが存在しているが、人物Aの左手は、人物Bの顔位置FE´の左側に位置している。なお、図示しないが、人物Aが右手を挙げた場合、その右手の右側に、人物Aの顔位置FEが位置することも、同様に理解できるであろう。このように、動作者が挙げた手が、右手であるかまたは左手であるかを把握することにより、該動作者が、その手に対して左右のいずれの側に位置しているかを知ることができる。
なお、形状識別手段123は、全ての指を延ばした形状に開いた手でなく、人差し指のみを延ばした手であっても、その手が右手か、または左手かを識別することができる。その識別方法は、以下のようである。まず、形状識別手段123が、手の先端部(より正確には上端部)を抽出する。人差し指のみを伸ばした手を検出した場合は、人差し指のみが、先端部として抽出されることになる。次に、抽出された先端部が、手の右端部により近い(右寄り)か、または手の左端部により近い(左寄り)か判定する。このとき、検出された手が左手であった場合、抽出された先端部(すなわち人差し指)は、手について左寄りになる一方、検出された手が右手であった場合、抽出された先端部は、手につい右寄りになる。従って、形状識別手段123は、抽出された先端部(人差し指)が手の右寄りに位置している場合、その手は右手であると判定する一方、親指が手の左寄りに位置している場合、その手は左手であると判定する。
この他に、人差し指および中指のみを延ばした形の手についても、2つの先端部のうち画像における高さが低い方(すなわち人差し指)を選出すれば、上記の説明と同様にして、手を識別することができる。
(4.動作者特定手段124)
動作者特定手段124は、形状識別手段123が検出した手が右手であるか、または左手であるかに基づいて、動作者の位置を特定することにより、該動作者を特定するものである。
詳細には、動作者特定手段124は、形状識別手段123により検出された手が右手(左手)であった場合、その手の右側(左側)の領域において、その手に最も近い位置に存在する人物の顔を、動作者の顔として検出する。そして、動作者特定手段124は、各フレーム画像において検出した顔の位置を示す顔位置FEを、記憶部13に記憶する。
ここで、画像中から人間の顔を検出するためには、画像中から肌色の領域を抽出してもよいし、また、テンプレートマッチングなど、周知の顔検出技術をこれに併用してもよい。なお、本実施形態では、動作者特定手段124は、まずテンプレートマッチングを併用して肌色領域を抽出し、次に上記肌色領域における色の変化に基づいて眉および口の位置を推定し、推定した眉・口を含みかつ画像の縦横方向と平行な辺を有する最小の正方形の領域を顔位置FEとして設定する。
(テンプレートマッチングについて)
テンプレートマッチングとは、入力画像などのサンプルについて、予め準備したモデルとの一致(マッチング)の程度を計算する方法のことである。
以下に、テンプレートマッチング処理の流れを簡単に説明する。なお、テンプレートマッチングのため、顔形状のテンプレートを予め記憶部13に記憶しておく。
まず、形状識別手段123が検出した手に最も近い位置に存在する肌色領域の部分と、記憶部13に準備した顔形状のテンプレートとを比較する。そして、上記肌色領域と、上記テンプレートとの類似度が所定値よりも低い場合は、人間の顔には相当しないと判定する。その後、手の親指に2番目に近い位置に存在する肌色領域について、上記テンプレートとの類似度を計算する。これを繰り返し、上記テンプレートとの類似度が所定値以上である肌色領域が発見されたならば、当該肌色領域を人間の顔であると判定して、処理を終了する。なお、テンプレートマッチング処理を行うテンプレートとして、互いに異なる複数のテンプレートが存在することが望ましい。この場合、テンプレートマッチング処理では、各テンプレートについてサンプルとのマッチングが計算されて、サンプルとの類似度が所定値以上であるテンプレートが存在すれば、このサンプルは人間の顔に相当すると判定されることになる。
このように、テンプレートマッチングを併用することによって、単に肌色領域を顔であると判定するよりも、正確な顔検出を行うことができる。
(5.ジェスチャ認識手段125)
ジェスチャ認識手段125は、認識領域OE内において、手またはそれ以外の認識対象物の位置、形状、および変位を認識することによってジェスチャ認識を行う。なお、ジェスチャ認識の方法としては、HMM(Hidden Markov Model;隠れマルコフモデル)あるいは連続DP(Continuous Dynamic Programming)などを使用することができる。
(ジェスチャ認識について)
ジェスチャ認識を行うためには、HMMを用いた方法を使用することができる。HMMを用いた方法では、予め、ジェスチャ認識装置1が認識するジェスチャの種類毎のモデルを、データベースにして記憶部13に記憶しておく。その後、ジェスチャ認識装置1に入力された画像に対して、ジェスチャ認識手段125は、上記データベースに含まれる各モデルの尤度を計算する。その結果、入力画像に対する尤度値が所定値以上である1つまたは複数のモデルが発見された場合、ジェスチャ認識手段125は、それらのモデルのうち尤度が最も高いモデルに対応するジェスチャを、入力画像から認識したジェスチャとして出力する。
なお、ジェスチャ認識手段125は、上述のようにHMMを用いたジェスチャ認識を行う他に、人差し指先端Fの変位測定を行う。これにより、後述するように、表示機器1000に表示したポインタP(図5参照)を、人差し指先端Fの動作に連動させる構成を実現することができる。
(6.表示機器制御手段126)
表示機器制御手段126は、ジェスチャ認識装置1外部の表示機器において、ジェスチャ認識手段125によるジェスチャ認識の結果に対応する処理を実行するものである。詳細には、表示機器制御手段126は、ジェスチャの種類毎に対応する処理内容を示す、記憶部13に記憶されたジェスチャ−処理テーブルを参照し、上記表示機器において、ジェスチャ認識手段125によるジェスチャの認識結果に対応する処理を実行する。
図7を参照して、表示機器制御手段126による表示機器1000の制御を説明すると、表示機器制御手段126は、まず、ジェスチャ認識結果に基づいて決定した処理内容を指示する制御信号を、表示機器1000が備えた制御機能部(図示せず)に送信する。すると、上記制御機能部は、表示機器制御手段126の送信した制御信号を受信して、上記処理内容を実行する。上記処理内容とは、例えば、認識対象物の変位の認識結果に基づき、表示装置2に表示されたポインタPを移動させる処理である。あるいは、操作者が手で所定の形状を作るジェスチャを行ったことを認識した場合に、上記ポインタPと重なる位置に表示されているアイコンが選択される処理であってもよい。このように、操作者は、表示装置2の画面に接触することなく、認識対象物を用いた簡単な操作によって、表示機器1000の操作を行うことができる。
(ジェスチャ認識処理Xの流れ)
ここでは、制御手段12によって実行されるジェスチャ認識処理Xの流れについて、図4に示すフローチャートを用いて説明する。ジェスチャ認識処理Xでは、開始動作に基づいてジェスチャ開始の意図を判定する。認識領域OE内で検出した手が右手であるかまたは左手であるかを識別して、その識別結果に基づき、動作者すなわち検出された手の持ち主を特定する。そして、動作者が操作者として認定される場合に、認識対象物のジェスチャ認識を開始する。以下に、ジェスチャ認識処理Xについて詳細に説明する。なお、以下の説明において、認識対象物は手であるとするが、本発明はこれに限られない。すなわち、認識対象物は、ポインタやリモコンなどであってもよい。
まず、ジェスチャ開始判定手段121は、動作者による開始動作を検出する(S101)。また、ジェスチャ開始判定手段121は、検出された開始動作に基づき動作領域を設定する。
次に、認識領域設定手段122は、上記動作領域に基づき認識領域を設定する(S102)。
続いて、形状識別手段123は、認識領域OE内において手を検出し、検出された手が右手であるか、または左手であるかを識別する(S103)。
形状識別手段123による手の識別が完了した後、動作者特定手段124は、検出された手が右手(左手)であった場合、手の右側(左側)の領域において、その手に最も近い人物を上記動作者として特定する(S104)。
その後、ジェスチャ認識手段125は、認識領域OEにおいてジェスチャ認識を行う(S105)。
ジェスチャ認識手段125によるジェスチャ認識が行われた後、表示機器制御手段126は、表示機器が備えた制御機能部と協働することにより、該表示機器において、ジェスチャ認識の結果に対応する処理を実行する。このとき、表示機器制御手段126は、以下で例を挙げて説明するように、動作者の特徴に基づき、表示機器の制御方法を変更してもよい。
以上で、ジェスチャ認識処理Xが終了する。
〔表示機器の制御方法を変更する実施例〕
表示機器制御手段126が、動作者の特徴に基づいて、表示機器の制御を変更する例として、以下に3つの実施例を挙げる。
まず、第1の実施例では、各操作者について、あるジェスチャと、そのジェスチャに対応する処理との対応を示す上記ジェスチャ−処理テーブルが記憶部13に記憶される。本実施例のジェスチャ認識処理Yでは、制御手段12がさらに備えた顔認証手段が、動作者の顔認証結果を行う。その後、表示機器制御手段126は、上記顔認証手段による顔認証の結果から、動作者に対応する操作者を判定する。そして、表示機器制御手段126は、該操作者に適用される上記ジェスチャ−処理テーブルに基づき、ジェスチャ認識手段125によって認識されたジェスチャに対応する処理内容で、上記表示機器を制御する。このとき、上記ジェスチャ−処理テーブルは、操作者毎に設定されるから、あるジェスチャが行われた場合における上記処理内容を、操作者毎に異なるものとすることができる。従って、操作者は、上記ジェスチャ−処理テーブルを所望の設定とすることにより、自分用にカスタマイズされたリモコンを操作する感覚で、ジェスチャによる表示機器の操作を行うことができる。
(顔認証について)
顔認証手段による顔認証は、以下のように実行される。まず、顔認証手段は、動作者特定手段124により検出された顔、すなわち動作者の顔の特徴を示す特徴量を抽出して、記憶部13に記憶された操作者リストに含まれる操作者の顔の特徴量と一致する程度を示す類似度を算出する。上記操作者リストには、操作者として受け付ける人物の顔の特徴量がリスト化されている。なお、上記顔の特徴量とは、顔の各パーツ(目・鼻・口)の位置関係や顔の色、顔の形状などを数値化した情報のことである。顔認証手段によって、動作者と各操作者との類似度が算出された後、表示機器制御手段126は、操作者リストに含まれる操作者のうち、動作者との類似度が最も高い類似人物について、その類似度が所定値以上であるか否か判定する。その類似度が所定値以上であった場合、動作者と類似人物とは同一人物であると判定する一方、その類似度が所定値よりも小さい場合、動作者と類似人物とは同一人物ではないと判定する。
なお、顔認証、言い換えれば顔の特徴量に基づいて操作者を決定する代わりに、手の特徴を示す特徴量に基づいて操作者の判定を行ってもよい。この構成の場合、制御手段12は、動作者の手の認証を行う手認証手段をさらに備える。この構成では、操作者毎の手の特徴量をリスト化した操作者リストαが記憶部13に記憶される。そして、ジェスチャ認識処理Yにおいて、上記手認証手段は、上記操作者リストαを参照し、動作者の手の手認証を行う。次に、上記手認証手段による手認証結果に基づき、表示機器制御手段126が、操作者を判定する。
第2の実施例では、動作者の特徴、特に動作者の顔の特徴量に基づいて推定される、動作者の性別、年齢、またはその組み合わせに応じて、表示機器制御手段126が、上記ジェスチャ−処理テーブル、表示装置の表示方法および/または表示機器の操作方法を変更する。ここで、動作者の顔の特徴量とは、例えば、顔の大きさ、目の大きさ、顔の長さと幅との比などを数値化した情報である。本実施例では、上記ジェスチャ−処理テーブルは、操作者毎ではなく、操作者の性別、年齢、またはその組み合わせに基づいて設定される。一例を挙げると、表示機器制御手段126は、動作者が女性かつ/または高齢者であると判定した場合、インターネットブラウザやテレビ画面を立ち上げるためのアイコンを上記表示装置に表示するUIを提供する。これにより、操作者は、認識対象物をアイコンの位置まで変位させるという簡単な操作により、上記表示機器を操作することができる。一方、表示機器制御手段126は、動作者が男性かつ/または若年者であると判定した場合、様々な手の形状および動作に、ショートカット操作やその他の操作をそれぞれ対応させた上記ジェスチャ−処理テーブルを提供する。この場合、操作者は、手の形状および動作のみで、様々な操作を行うことができる。このように、本実施例では、動作者の性別および/または年齢に応じて、上記ジェスチャ−処理テーブル、表示装置の表示方法および/または表示機器の操作方法を変更する。これにより、異なる性別および/または年齢の複数の操作者が、各々、自分に合ったやり方で、上記表示機器の操作を行うことができる。
第3の実施例として、動作者と上記操作者リストに含まれる操作者との類似度が所定値よりも小さい場合、表示機器制御手段126は、上記操作者リストに動作者を追加登録する構成としてもよい。この構成によれば、操作者として新規で登録されようとする人物は、手を挙げるという簡単な動作によって、操作者として登録を行うことができる。
さらに別の実施例として、動作者以外の人物による操作が、開始動作後の一定時間だけ受け付けられない状態となる構成としてもよい。これにより、動画撮影部11の前に複数の人物が存在する場合であっても、開始動作を行った動作者以外の人物によるジェスチャは、開始動作後の一定時間、ジェスチャ認識装置1によって受け付けられなくなる。これにより、動作者は他人のジェスチャに邪魔をされることなく、操作を行うことができる。また、動作者以外の人物によるジェスチャではない動作が誤って認識されることがないという効果も奏する。
〔実施形態2〕
本発明に係る別のジェスチャ認識装置1aについて、図5および図6を用いて説明すれば、以下のとおりである。なお、説明の便宜上、実施形態1で説明した図面と同じ機能を有する部材については、同じ符号を付記して、その説明を省略することとする。
前記実施形態1では、動作者の開始動作を検出して、その開始動作を行った人物を動作者としたが、本実施形態では、視線方向の推定を行い、視線方向が静止している人物を操作者として受け付ける。
本実施形態では、下記ジェスチャ認識処理Zにおいて、制御手段22が含む各手段、特にジェスチャ開始判定手段121aの実行する処理が、ジェスチャ開始判定手段121の行う処理とは異なる。具体的には、前記実施形態1において、ジェスチャ開始判定手段121は、開始動作を検出することにより動作者を決定した。一方、本実施形態では、ジェスチャ開始判定手段121aは、視線方向の静止、および顔位置の静止/顔方向の静止に基づいて、ジェスチャ開始の意図を有する操作者を推定する。また、本実施形態では、制御手段22は、ジェスチャ開始判定手段121aが判定した操作者と、動作者特定手段124により特定された動作者とが異なる人物である場合に、動作者によるジェスチャを受け付けないことを決定する、ジェスチャ受付判定手段127をさらに備える。
以下に、ジェスチャ開始判定手段121aおよびジェスチャ受付判定手段127の詳細を説明する。
(1.ジェスチャ開始判定手段121a)
ジェスチャ開始判定手段121aは、視線方向推定手段と顔検出手段とを含む構成である。以下に、ジェスチャ開始判定手段121aが備えた各手段の詳細をそれぞれ説明する。
(A.顔検出手段)
顔検出手段は、動画撮影部11が撮影した画像を取得し、その画像中から人間の顔および顔位置FE(すなわち画像中において顔が占有する領域;図3参照)を検出するものである。そして、顔検出手段は、各フレーム画像において推定した顔位置FEを、記憶部13に記憶する。画像中から人間の顔を抽出するには、周知の顔検出技術を利用すればよい。例えば、まずテンプレートマッチングを併用して肌色領域を抽出し、次に上記肌色領域における色の変化に基づいて眉および口の位置を推定し、推定した眉・口を含みかつ画像の縦横方向と平行な辺を有する最小の正方形の領域を、顔位置FEとして設定してもよい。
(テンプレートマッチングについて)
上記テンプレートマッチングとは、入力画像などのサンプルについて、予め準備したモデルとの一致(マッチング)の程度を計算する方法のことである。
以下に、テンプレートマッチング処理の流れを簡単に説明する。なお、テンプレートマッチングのため、顔形状のテンプレートを予め記憶部13に記憶しておく。
まず、画像から抽出した肌色領域の部分と、記憶部13に準備した顔形状のテンプレートとを比較する。そして、上記肌色領域のうち、上記テンプレートとの類似度が所定値よりも小さい部分は、人間の顔には相当しないと判定して除外する。その後、残った肌色領域、すなわち上記テンプレートとの類似度が所定値以上の領域について、後述するジェスチャ認識処理が行われることになる。なお、テンプレートとして、互いに異なる複数のテンプレートが存在することが望ましい。この場合、テンプレートマッチング処理では、各テンプレートについてサンプルとのマッチングが計算されて、サンプルとの類似度が所定値以上であるテンプレートが存在すれば、このサンプルは人間の顔に相当すると判定されることになる。
(B.視線方向推定手段)
視線方向推定手段は、操作者の視線方向LV(図4の(a)および(b)参照)を推定するものである。また、視線方向推定手段は、動画撮影部11が撮影した全てのフレーム画像毎、あるいは所定の枚数のフレーム画像毎に推定した視線方向を記憶部13に記憶する。
(視線方向推定について)
視線方向の推定は、以下のようにして実現してもよい。
視線方向推定手段は、まず、顔位置FEに対応する画像領域において、目の位置を抽出する。顔位置FEから目を抽出するためには、顔位置FEの中から、最も輝度が高い領域を抽出すればよい。これにより、一般的には白目の領域が抽出される。抽出された白目の輪郭によって囲われる領域が、目の領域となる。続いて、視線方向推定手段は、虹彩を抽出する。なお、虹彩は、輝度が高い領域である白目を周辺領域とする領域であって、かつ輝度が低い領域を抽出することによって発見することができる。このように、目および虹彩を抽出した後、視線方向推定手段は、目の領域における虹彩の左右方向の偏りから、視線方向を推定する。
(ジェスチャ開始判定の詳細)
続いて、ジェスチャ開始判定手段121aによるジェスチャ開始判定の詳細を説明する。
ジェスチャ開始判定手段121aは、顔位置FEおよび視線方向LVを記憶部13から取得する。ジェスチャ開始判定手段121aは、詳細には、連続する複数のフレーム画像(例えば30フレーム画像)における顔位置FEおよび視線方向LVを取得する。そして、ジェスチャ開始判定手段121aは、取得したフレーム画像間における顔位置FEの変化量に基づいて、操作者の顔の位置が静止しているかを判定し、また、フレーム画像間における視線方向LVの変化量に基づいて、操作者の視線方向が静止しているか否かを判定する。ここで、操作者は、ジェスチャ認識装置1にジェスチャを認識させたい場合、動画撮影部11すなわちカメラを凝視する。そのため、操作者がジェスチャ開始を意図している場合、操作者の顔の位置は静止し、かつ、操作者の視線方向は動画撮影部11を向いて静止する。そこで、ジェスチャ開始判定手段121aは、所定期間において、所定の方向と視線方向LVとの為す角度が所定値よりも小さく(条件A)、かつ、顔位置FEの変化量が所定値よりも小さい(条件B)場合に、操作者がジェスチャの開始を意図していると判定する。
詳細には、ジェスチャ開始判定手段121aは、以下の2つの意図判定条件がどちらも満たされる場合に、操作者がジェスチャの意図を有すると判定する。
条件A.視線方向が、連続する30フレーム画像において、動画撮影部11と正対する方向に対して10°の角度範囲内に存在する。すなわち、視線方向が、連続する30フレーム画像において、虹彩の中心を頂点とし、虹彩の中心と動画撮影部11とを結ぶ基準直線の周りに10°の角度で拡がる円錐に含まれる。
条件B.顔位置FEの中心(または重心など所定の一点)が、連続する30フレーム画像において、顔位置FEの幅(左右長さ)の10%の長さを径とする1つの円に含まれる。
ただし、ジェスチャ開始判定手段121aが、操作者によるジェスチャ開始の意図を判定する条件はこれに限られない。例えば、上記条件Aにおいて、操作者の視線が、動画撮影部11の代わりに、その他の所定方向または複数の所定方向のうちいずれかの方向に、操作者の視線が静止していることを、ジェスチャ開始判定の条件としてもよい。また、上記条件AおよびBにおいて、円錐の角度/円の径の大きさは、操作者の視線方向/顔位置が静止しているとみなせる範囲内で変更してもかまわない。なお、円錐の角度/円の径を大きくするほど、操作者の視線方向/顔位置が大きく動いており、操作者がジェスチャ開始の意図を有するとは考え難い場合であっても、ジェスチャ認識装置1によるジェスチャ認識が開始されることになる。逆に、上記円錐の角度または上記円の径を狭めるほど、操作者の視線方向または顔位置がほとんど動いていない場合にのみ、ジェスチャ認識装置1によるジェスチャ認識処理が開始されることになる。
(別のジェスチャ開始判定の詳細)
ここでは、上記ジェスチャ開始判定の変形例を説明する。
本変形例では、ジェスチャ開始判定手段121aが、視線方向推定手段および顔検出手段に加えて、操作者の顔方向を推定する顔方向推定手段をさらに含んでいる。この顔方向推定手段は、顔検出手段から取得した顔位置FE内において、操作者の顔方向を推定するものである。なお、顔方向を推定する方法は下記の通りである。本変形例では、操作者の顔位置が静止しているか否かが判定される代わりに、顔方向が静止しているか否かが判定される。
なお、本変形例は、以下の考察に基づいている。操作者が、ジェスチャ認識装置1にジェスチャを認識させるため、動画撮影部11を凝視するとき、操作者の視線方向が動画撮影部11を向いて静止するとともに、操作者の顔の向きは、動画撮影部11に正対して静止する。そこで、顔検出手段によって検出された顔の位置FEの変化量が所定値よりも小さく、かつ、顔方向推定手段によって推定された顔の向きと所定の方向との為す角度が所定値よりも小さい場合、操作者はジェスチャの開始を意図していると考えられる。
すなわち、本変形例では、前記実施形態1のように顔位置FEが静止していることを上記意図判定条件の1つとする代わりに、顔方向が所定の方向で静止していることを上記意図判定条件の1つとしている。ここで、顔方向の上記所定の方向とは、具体的には動画撮影部11に正対する方向であってもよい。
前記実施形態1では、操作者の顔が所定の方向、例えば動画撮影部11の方向を向いていない状態で、その顔の位置が静止している場合であっても、ジェスチャ開始を意図していると判定される可能性があった。一方、本変形例では、顔の方向が所定の方向で静止していることに基づいて、操作者がジェスチャ開始を意図していることを判定するので、より正確に操作者のジェスチャ開始の意図を判定することができる。
(顔方向の推定について)
人の顔の向き(言い換えれば頭の向き)を推定するためには、前述した視線方向の推定を応用することができる。詳細には、動画像から前述のように抽出した両目が、顔位置FEの横方向の中心線に対して対称な位置にある場合、顔の向きはジェスチャ認識装置1(正確にいえば動画撮影部11)に対して正対していると判断する。一方、抽出した目の位置が、上記中心線に対して非対称な位置にある場合、顔の向きはジェスチャ認識装置1に対して正対していない、すなわち操作者は横を向いていると判断する。
(2.ジェスチャ受付判定手段127)
ジェスチャ受付判定手段127は、ジェスチャ開始判定手段121aが判定した操作者と、形状識別手段123が検出した動作者の手との位置関係に基づいて、動作者によるジェスチャを受け付けるか否かを決定する。詳細には、ジェスチャ受付判定手段127は、動作者の手が右手(左手)である場合、操作者がその手の親指に対して右側(左側)かつ最も近くに位置するならば、操作者と動作者とは一致すると判断し、動作者の手によるジェスチャを受け付けることを決定する。
一方、動作者の手がそれ以外の場所に位置するならば、操作者と動作者とは異なる人物であると判断し、動作者の手によるジェスチャを受け付けないことを決定する。これにより、操作者ではない人物(動作者)の手が、形状識別手段123により検出された場合に、その人物のジェスチャが誤って認識されることがない。
(ジェスチャ認識処理Zの流れ)
ここでは、制御手段22によって実行されるジェスチャ認識処理Zの流れについて、図6を用いて説明する。ジェスチャ認識処理Zでは、視線方向が静止していることに基づいて、ジェスチャ開始の意図を判定するとともに、ジェスチャ開始の意図を有すると判定された人物を、操作者として決定する。また、認識領域OE内で検出した手が右手であるかまたは左手であるかを識別して、その識別結果に基づき、動作者すなわち検出された手の持ち主を特定する。そして、上記動作者と上記操作者とが同一人物である場合に、該動作者によるジェスチャ認識を受け付ける。以下に、図6に示すフローチャートに従って、ジェスチャ認識処理Zの詳細を説明する。
まず、視線方向推定手段128は、顔を検出した人物の視線方向が静止していることに基づき、該人物はジェスチャを開始することを意図していると推定する(S201)。これにより、視線方向の静止している人物が、操作者として認定される。
次に、認識領域設定手段122は、操作者の顔位置FEに基づき認識領域OEを設定する(S202)。認識領域設定手段122は、具体的には、顔位置FEの左右または左か右の一方の位置に、顔位置FEの1.5倍の大きさの正方形として、認識領域OEを設定する。
続いて、形状識別手段123は、認識領域OE内において手を検出し、検出された手が右手であるか、または左手であるかを識別する(S203)。
形状識別手段123による手の識別が完了した後、動作者特定手段124は、検出された手が右手(左手)であった場合、手の右側(左側)の画像領域において、その手に最も近い人物を、動作を行った人物すなわち動作者として特定する(S204)。
続いて、表示機器制御手段126は、視線方向推定手段128が決定した操作者と、動作者特定手段124が特定した動作者とが一致するか否かを判定する(S205)。
操作者と動作者とが一致しない場合(S205でno)、視線方向推定手段128が視線方向に基づいてジェスチャ開始の意図を推定するステップS201に戻る。一方、操作者と動作者とが一致する場合(S205でyes)、ジェスチャ認識手段125は、形状識別手段123が検出した手のジェスチャを認識し(S206)、ジェスチャ認識処理を終了する。
〔実施形態3〕
本発明に係る表示機器1000について、図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、実施形態1または2で説明した図面と同じ機能を有する部材については、同じ符号を付記して、その説明を省略することとする。
(表示機器1000の構成)
図7に外観を示す表示機器1000は、ジェスチャ認識装置1および表示装置2を備えたものである。なお、表示機器1000において、ジェスチャ認識装置1の代わりに、前記変形例のジェスチャ認識装置1aを適用することもできる。また、表示機器1000は、具体的にはパーソナルコンピュータである。しかしながら、本発明はこれに限られず、表示機器1000は、テレビジョン受像機、インターネットテレビ、またはタブレット端末など、制御機能および表示機能を備えた各種表示機器であってもよい。
ここで、図7では、ジェスチャ認識装置1が表示装置2の上側に設置されているが、ジェスチャ認識装置1が設置される位置について特に制限はなく、表示装置2の下側・左側・右側に設置されてもよいし、または表示装置2と一体となった構成であってもよい。
ジェスチャ認識装置1と表示装置2とが一体となった構成としては、例えば、表示装置2の画面の周りを囲うフレームに、動画撮影部11が埋め込まれた構成としてもよい。さらに、表示装置2がウェブカメラを備えている場合には、このウェブカメラを動画撮影部11の代用とすることができる。この場合、ジェスチャ認識装置1の全体がソフトウェア的に実現されることになる。
(表示機器制御手段126について)
本実施形態における表示機器制御手段126は、ジェスチャ認識手段125から取得したジェスチャ認識結果に基づいて、表示装置2における表示を制御する。表示機器制御手段126は、例えば、上記表示機器1000がさらに備えた制御機能部(図示せず)と協働することによって、表示装置2に表示されたポインタPを制御する。このポインタPは、ジェスチャ認識装置1が認識対象物のジェスチャを認識した結果に基づき、認識対象物のジェスチャに対応する動作を行う。すなわち、操作者が認識領域OE内において認識対象物を動作させると、表示装置2の画面内において、ポインタPが認識対象物の動作に連動する。そのため、操作者は、表示装置2の画面に接触したり、あるいはリモコンなどの道具を使用したりすることなく、画面に表示されたポインタPの操作を行うことができる。
次に、表示機器1000の使用例を説明する。まず、認識領域OE内で、操作者が認識対象物(手)を用いたジェスチャを行う。認識対象物のジェスチャは動画撮影部11によって撮影されて、ジェスチャ認識手段125によって認識された後、表示機器制御手段126に入力される。すると、表示機器制御手段126は、ジェスチャの認識結果に基づいて決定したポインタPの制御内容を、表示装置2が備えた上記制御機能部に送信する。そして、上記制御機能部は、表示機器制御手段126と協働することにより、表示装置2に表示されたポインタPを制御する。なお、単にポインタPの変位を制御するのみでなく、認識対象物の形状に対応する処理内容を上記制御機能部に実行させることができる構成であってもよい。これにより、例えば、操作者が手を握る動作を行った場合、表示機器制御手段126は、ポインタPと重なる位置に表示されているアイコンが選択されるよう制御するといったことが可能となる。
なお、本発明は上述した各実施形態1〜3に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、実施形態1〜3にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
〔ソフトウェアによる実現例〕
最後に、ジェスチャ認識装置1、1aの各ブロック、特に制御手段12、22に含まれる各手段は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
後者の場合、ジェスチャ認識装置1、1aは、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ認識装置1、1aの制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ認識装置1、2に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、ジェスチャ認識装置1、1aを通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、表示装置を備えた各種表示機器、特にテレビジョン受像機、パーソナルコンピュータ、およびタブレット端末などに利用することができる。
1、1a ジェスチャ認識装置
2 表示装置
1000 表示機器
13 記憶部
121 ジェスチャ開始判定手段
123 形状識別手段
124 動作者特定手段
126 表示機器制御手段(処理実行手段)

Claims (14)

  1. ユーザの手の動作を撮影した動画から、上記手によるジェスチャを認識するジェスチャ認識装置において、
    上記ユーザの顔を検出する顔検出手段と、
    上記手が、右手であるかまたは左手であるかを識別する形状識別手段と、
    識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定する動作者特定手段とを備えたことを特徴とするジェスチャ認識装置。
  2. 上記手の形状は、全ての指を延ばした形状であり、
    上記形状識別手段は、上記手の親指がその手の右端部に位置している場合、その手は右手であると識別する一方、上記手の親指がその手の左端部に位置している場合、その手は左手であると識別することを特徴とする請求項1記載のジェスチャ認識装置。
  3. 上記形状識別手段は、上記手の先端部を抽出し、抽出された先端部のうち、動画の上下方向について、その位置が最も低い先端部を親指とすることを特徴とする請求項2記載のジェスチャ認識装置。
  4. 上記手の形状は、人差し指のみを延ばした形状であり、
    上記形状識別手段は、上記手の人差し指がその手の右寄りに位置している場合、その手は右手であると識別する一方、上記手の親指がその手の左寄りに位置している場合、その手は左手であると識別することを特徴とする請求項1記載のジェスチャ認識装置。
  5. 上記ジェスチャを受け付ける人物である操作者の顔の特徴量をリスト化した操作者リストを記憶するとともに、上記操作者毎に認識するジェスチャと実行する処理内容との対応関係を示す、上記操作者毎のジェスチャ−処理テーブルを記憶した記憶部と、
    上記動作者の顔の特徴量と上記操作者リストの特徴量との類似度を判定することにより、上記動作者の顔認証を行う顔認証手段と、
    上記顔認証の結果に基づいて該動作者に対応する操作者を特定し、該操作者に適用される上記ジェスチャ−処理テーブルを参照することによって、上記ジェスチャに対応する処理を実行する処理実行手段とをさらに備えたことを特徴とする請求項1〜4のいずれか1項に記載のジェスチャ認識装置。
  6. 上記処理実行手段は、上記顔認証手段により判定された上記類似度が所定値よりも小さい場合、上記動作者の顔の特徴量を上記操作者リストに追加して、上記動作者を操作者として認定することを特徴とする請求項5記載のジェスチャ認識装置。
  7. 上記処理実行手段は、上記操作者を特定または認定した後、所定の時間、該操作者以外のジェスチャを受け付けないことを特徴とする請求項5または6記載のジェスチャ認識装置。
  8. 所定の条件に基づき、上記手によるジェスチャを開始しようとしているか否かを判定するジェスチャ開始判定手段をさらに備え、
    上記形状識別手段は、上記手によるジェスチャを開始しようとしていると上記ジェスチャ開始判定手段が判定した場合に、上記手の識別を行うことを特徴とする請求項1〜7のいずれか1項に記載のジェスチャ認識装置。
  9. 上記所定の条件は、上記ユーザが手を振る動作であることを特徴とする請求項8記載のジェスチャ認識装置。
  10. 上記所定の条件は、一定時間、所定の方向とユーザの視線方向との為す角度が所定値よりも小さいことを特徴とする請求項8記載のジェスチャ認識装置。
  11. 外部の機器に対して、上記ジェスチャに対応する処理を実行するように指示する機器制御手段をさらに備えたことを特徴とする請求項1〜10のいずれか一項に記載のジェスチャ認識装置。
  12. 請求項11記載のジェスチャ認識装置と、上記ジェスチャ認識装置によって動作制御が行われる表示装置とを備えた表示機器。
  13. ユーザの手の動作を撮影した動画から、上記手によるジェスチャを認識するジェスチャ認識装置の制御方法であって、
    上記ユーザの顔を検出し、
    動画において検出した手が、右手であるかまたは左手であるかを識別した後、
    識別された上記手が右手であった場合、上記ユーザの顔が上記右手の右側に位置しかつその手に最も近い人物を上記ジェスチャの動作者として特定する一方、識別された上記手が左手であった場合、上記ユーザの顔が上記左手の左側に位置し、かつその手に最も近い人物を、上記ジェスチャの動作者として特定することを特徴とするジェスチャ認識装置の制御方法。
  14. 請求項13に記載のジェスチャ認識装置の制御方法の各処理をコンピュータに実行させるための制御プログラム。
JP2012192038A 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム Active JP6011165B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012192038A JP6011165B2 (ja) 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
EP13181890.8A EP2708981B1 (en) 2012-08-31 2013-08-27 Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
US14/011,951 US20140062861A1 (en) 2012-08-31 2013-08-28 Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012192038A JP6011165B2 (ja) 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム

Publications (2)

Publication Number Publication Date
JP2014048937A true JP2014048937A (ja) 2014-03-17
JP6011165B2 JP6011165B2 (ja) 2016-10-19

Family

ID=49084787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192038A Active JP6011165B2 (ja) 2012-08-31 2012-08-31 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム

Country Status (3)

Country Link
US (1) US20140062861A1 (ja)
EP (1) EP2708981B1 (ja)
JP (1) JP6011165B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6144849B1 (ja) * 2014-03-19 2017-06-07 クアルコム,インコーポレイテッド 電子デバイス間の接続を確立するための方法および装置
JP2017173927A (ja) * 2016-03-18 2017-09-28 株式会社リコー 情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラム
WO2018139050A1 (ja) * 2017-01-25 2018-08-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019062270A (ja) * 2017-09-25 2019-04-18 Kddi株式会社 機器制御装置、機器制御方法及び機器制御システム
WO2021240668A1 (ja) * 2020-05-27 2021-12-02 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
WO2021240671A1 (ja) * 2020-05-27 2021-12-02 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
JP2022504302A (ja) * 2018-10-09 2022-01-13 美的集団股▲フン▼有限公司 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム
JP2022037845A (ja) * 2020-08-25 2022-03-09 ネイバー コーポレーション ユーザ認証方法、システム及びプログラム
WO2023032383A1 (ja) * 2021-09-06 2023-03-09 ソニーセミコンダクタソリューションズ株式会社 操作検出装置、情報処理システム、及び操作検出方法
JP2023518284A (ja) * 2020-03-20 2023-04-28 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム
US12001613B2 (en) 2022-05-30 2024-06-04 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
CN104966048B (zh) * 2015-05-28 2019-04-19 努比亚技术有限公司 一种指纹识别方法及系统
EP3200122B1 (de) * 2016-01-26 2022-06-22 Sick Ag Optoelektronischer sensor und verfahren zur sicheren erkennung von objekten einer mindestgrösse
CN107357517A (zh) * 2017-07-17 2017-11-17 梧州井儿铺贸易有限公司 一种基于手势识别的解锁装置
EP4160377A4 (en) * 2020-07-31 2023-11-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. GESTURE CONTROL METHOD AND ASSOCIATED DEVICE
CN114584836B (zh) * 2020-11-30 2024-05-03 京东方科技集团股份有限公司 电子产品使用行为检测方法、装置、系统及介质
US20230085330A1 (en) * 2021-09-15 2023-03-16 Neural Lab, Inc. Touchless image-based input interface
CN116137914A (zh) * 2021-09-16 2023-05-19 商汤国际私人有限公司 一种人脸和人手的关联度检测方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007088939A1 (ja) * 2006-02-03 2007-08-09 Matsushita Electric Industrial Co., Ltd. 情報処理装置
JP2008148287A (ja) * 2006-11-03 2008-06-26 Samsung Electronics Co Ltd 動作追跡装置、方法および媒体
US20110080254A1 (en) * 2009-10-07 2011-04-07 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
JP2012058928A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327753A (ja) 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2004303251A (ja) 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd 制御方法
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US20070071288A1 (en) * 2005-09-29 2007-03-29 Quen-Zong Wu Facial features based human face recognition method
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US8933876B2 (en) * 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US20100310136A1 (en) * 2009-06-09 2010-12-09 Sony Ericsson Mobile Communications Ab Distinguishing right-hand input and left-hand input based on finger recognition
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP2012053606A (ja) * 2010-08-31 2012-03-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2012068713A (ja) * 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
CN106125921B (zh) * 2011-02-09 2019-01-15 苹果公司 3d映射环境中的凝视检测

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007088939A1 (ja) * 2006-02-03 2007-08-09 Matsushita Electric Industrial Co., Ltd. 情報処理装置
JP2008148287A (ja) * 2006-11-03 2008-06-26 Samsung Electronics Co Ltd 動作追跡装置、方法および媒体
US20110080254A1 (en) * 2009-10-07 2011-04-07 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
JP2012058928A (ja) * 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017517780A (ja) * 2014-03-19 2017-06-29 クアルコム,インコーポレイテッド 電子デバイス間の接続を確立するための方法および装置
JP6144849B1 (ja) * 2014-03-19 2017-06-07 クアルコム,インコーポレイテッド 電子デバイス間の接続を確立するための方法および装置
JP2017173927A (ja) * 2016-03-18 2017-09-28 株式会社リコー 情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラム
WO2018139050A1 (ja) * 2017-01-25 2018-08-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019062270A (ja) * 2017-09-25 2019-04-18 Kddi株式会社 機器制御装置、機器制御方法及び機器制御システム
JP7193180B2 (ja) 2018-10-09 2022-12-20 美的集団股▲フン▼有限公司 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム
JP2022504302A (ja) * 2018-10-09 2022-01-13 美的集団股▲フン▼有限公司 家庭電器に制御用ユーザインタフェースを提供する方法及びシステム
JP2023518284A (ja) * 2020-03-20 2023-04-28 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム
WO2021240671A1 (ja) * 2020-05-27 2021-12-02 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
WO2021240668A1 (ja) * 2020-05-27 2021-12-02 三菱電機株式会社 ジェスチャ検出装置およびジェスチャ検出方法
JP7125460B2 (ja) 2020-08-25 2022-08-24 ネイバー コーポレーション ユーザ認証方法、システム及びプログラム
JP2022037845A (ja) * 2020-08-25 2022-03-09 ネイバー コーポレーション ユーザ認証方法、システム及びプログラム
JP7402940B2 (ja) 2020-08-25 2023-12-21 ネイバー コーポレーション ユーザ認証方法、システム及びプログラム
WO2023032383A1 (ja) * 2021-09-06 2023-03-09 ソニーセミコンダクタソリューションズ株式会社 操作検出装置、情報処理システム、及び操作検出方法
US12001613B2 (en) 2022-05-30 2024-06-04 Huawei Technologies Co., Ltd. Methods and systems for hand gesture-based control of a device

Also Published As

Publication number Publication date
EP2708981A3 (en) 2016-09-21
EP2708981B1 (en) 2018-10-10
US20140062861A1 (en) 2014-03-06
JP6011165B2 (ja) 2016-10-19
EP2708981A2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP6011165B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US10114463B2 (en) Display apparatus and method for controlling the same according to an eye gaze and a gesture of a user
JP6019947B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US9940507B2 (en) Image processing device and method for moving gesture recognition using difference images
US10928896B2 (en) Information processing apparatus and information processing method
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
EP2706434A2 (en) Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2012079138A (ja) ジェスチャ認識装置
US20140152557A1 (en) Gesture recognition device, electronic apparatus, gesture recognition device control method, control program, and recording medium
KR20180125859A (ko) 눈썹 모습 가이드 디바이스 및 방법
EP3328062A1 (en) Photo synthesizing method and device
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
US10444831B2 (en) User-input apparatus, method and program for user-input
TWI630507B (zh) 目光偵測、辨識與控制方法
US10824850B2 (en) Body information analysis apparatus capable of indicating shading-areas
WO2020133405A1 (zh) 一种地面遥控机器人的控制方法和装置
CN114327047B (zh) 设备控制方法、设备控制装置及存储介质
KR101414345B1 (ko) 카메라를 이용한 입력장치 및 그 방법
JP2014021893A (ja) 情報処理装置、操作信号生成方法、およびプログラム
CN116075801A (zh) 电子设备及程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151023

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150