JP2012185833A - ジェスチャ入力装置およびジェスチャ入力装置の制御方法 - Google Patents

ジェスチャ入力装置およびジェスチャ入力装置の制御方法 Download PDF

Info

Publication number
JP2012185833A
JP2012185833A JP2012094277A JP2012094277A JP2012185833A JP 2012185833 A JP2012185833 A JP 2012185833A JP 2012094277 A JP2012094277 A JP 2012094277A JP 2012094277 A JP2012094277 A JP 2012094277A JP 2012185833 A JP2012185833 A JP 2012185833A
Authority
JP
Japan
Prior art keywords
gesture
unit
determination
control signal
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012094277A
Other languages
English (en)
Other versions
JP5024495B1 (ja
Inventor
Shun Sakai
俊 酒井
Hiroyuki Tanaka
宏行 田中
Atsushi Irie
淳 入江
Tatsuya Murakami
達哉 村上
Takahiro Takayama
貴宏 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2012094277A priority Critical patent/JP5024495B1/ja
Application granted granted Critical
Publication of JP5024495B1 publication Critical patent/JP5024495B1/ja
Publication of JP2012185833A publication Critical patent/JP2012185833A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの意図しない動作を有効なジェスチャとして誤認識することを防ぐ。
【解決手段】ユーザのジェスチャに基づいて制御対象機器3を制御するジェスチャ入力装置1は、カメラ2が撮像した画像から検出したジェスチャに判定ジェスチャが含まれているか否かを判断する判定ジェスチャ判断部32と、カメラ2が撮像した画像から検出したジェスチャに操作ジェスチャが含まれているか否かを判断する操作ジェスチャ判断部34と、判定ジェスチャの認識期間中に、操作ジェスチャ判断部が含まれていると判断した操作ジェスチャに対応付けられている制御信号を生成し、制御対象機器3に生成した制御信号を送信する機器制御部23とを備える。
【選択図】図1

Description

本発明は、ユーザのジェスチャを認識することにより、機器を制御する制御信号を生成するジェスチャ入力装置およびジェスチャ入力装置の制御方法に関するものである。
近年、カメラを用いたユーザのジェスチャによる情報入力装置は、次世代インターフェースとして期待されている。この情報入力装置においては、ユーザのジェスチャを正確に認識できることが望ましい。そこで、従来、ユーザのジェスチャを高精度に認識するための技術が開発されている。
例えば、特許文献1には、ユーザが所持するペンライトの点灯によりジェスチャの開始を認識し、当該ペンライトの消灯によりジェスチャの終了を認識するジェスチャ認識装置であって、上記開始から終了までのペンライトの移動状態に基づいてジェスチャの種別を認識するジェスチャ認識装置が記載されている。
また、上記特許文献1に記載の技術の課題を解決するものとして、特許文献2に記載の技術がある。特許文献2には、周期性のある手のジェスチャ認識に関して、隠れマルコフモデルを利用して、特許文献1に記載の技術のように、ユーザがジェスチャの始点および終点を提示しなくても、連続したジェスチャを高精度に認識するジェスチャ認識装置が記載されている。
さらに、特許文献3には、カメラで撮像されたユーザの画像からユーザのジェスチャおよび視線を検出し、検出したジェスチャが選択ジェスチャであって、ユーザの視線が選択ジェスチャで選択した制御機器に向いている場合、当該制御機器を操作対象として選択し、検出したジェスチャが操作ジェスチャの場合、操作対象とした制御機器に対して、操作ジェスチャに応じた操作を実行する制御機器操作ジェスチャ認識装置が記載されている。
特開平9−311759号公報(1997年12月2日公開) 特開2007−87089号公報(2007年4月5日公開) 特開2009−37434号公報(2009年2月19日公開)
しかしながら、上述のような従来技術は、それぞれ下記の問題がある。
ジェスチャによる入力装置は、ユーザがリモコンやキーボード等の入力装置を所持または使用することなく、機器を制御できるという利点を有している。しかしながら、特許文献1に記載の技術では、ジェスチャの開始と終了のタイミングを認識するために、ペンライト等の所定の物体を利用している。そのため、上記のジェスチャによる入力装置の利点を得ることができず、特許文献1に記載のジェスチャ認識装置は、ユーザにとって不便なものである。
また、特許文献2に記載の技術では、ジェスチャを認識するための物を必要としないが、ユーザの意図しない動作も、制御対象機器を操作するためのジェスチャとして認識するため、制御対象機器が誤動作する虞がある。
また、特許文献3に記載の技術は、所定のジェスチャを認識し、かつ、制御機器の方向にユーザの顔が向いている場合、当該制御機器を制御する対象の機器として選択したり、ジェスチャに基づく制御を実行したりする。特許文献3には、ユーザが操作対象の制御機器の方向を向いた状態で行われたジェスチャは、ユーザが意図したジェスチャである可能性が高いと記載されている。
しかしながら、制御機器が動作中の場合、ユーザが制御機器を見ている(監視している)ことは普通に考えられることであり、ユーザの視線が制御機器を向いている場合であっても、ユーザが意図せず制御機器を操作するためのジェスチャを行ってしまうことは十分に考えられる。
例えば、制御機器がテレビの場合、テレビが動作中、ユーザの顔はテレビの方向に向いていることが多く、ユーザの視線方向を検出することでは、ジェスチャがユーザの意図したものであるか否かを正確に判別することは難しい。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザの意図しない動作を有効なジェスチャとして誤認識することを防ぐジェスチャ入力装置およびジェスチャ入力装置の制御方法を実現することにある。
本発明に係るジェスチャ入力装置は、上記課題を解決するために、ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置であって、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、上記制御信号生成手段が生成した制御信号を上記制御機器に送信する送信手段とを備えることを特徴としている。
本発明に係るジェスチャ入力装置の制御方法は、上記課題を解決するために、ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置の制御方法であって、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、上記制御信号を上記制御機器に送信する送信ステップとを含むことを特徴としている。
上記の構成によれば、上記制御信号生成手段は、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第2ジェスチャを、上記制御信号を生成するための有効なものとする。そして、上記制御信号生成手段は、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、含まれていると判断した第2ジェスチャに対応する制御信号を生成し、上記送信手段が当該制御信号を制御機器に送信する。
換言すると、上記制御信号生成手段は、上記第2ジェスチャ有効期間中に上記第2ジェスチャ判断手段が判断したものでなければ、上記第2ジェスチャ判断手段が含まれていると判断した第2ジェスチャであっても、当該第2ジェスチャに基づいて上記制御信号を生成しない。
そのため、ユーザが意図せず第2ジェスチャをしたとしても、ユーザが同時に第1ジェスチャをしていなければ、上記制御信号生成手段が当該第2ジェスチャに基づいて制御信号を生成することはない。従って、上記ジェスチャ入力装置は、第1ジェスチャを認識している期間中の第2ジェスチャのみを有効とするという処理によって、ユーザが意図せず第2ジェスチャをしたことによる誤動作を防ぐことができる。
本発明に係るジェスチャ入力装置は、上記制御信号生成手段は、上記第2ジェスチャと上記制御機器を制御するための制御信号とが対応付けられている制御信号テーブルを参照して、上記制御信号を生成することが好ましい。
上記の構成によれば、上記制御信号生成手段は、上記制御信号テーブルを参照し、上記第2ジェスチャ判断手段が、上記第2ジェスチャ有効期間中に、上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第2ジェスチャに対応する制御信号を生成する。そのため、予め、制御機器の各種の制御内容を規定する各制御信号に対して、それぞれ異なる第2ジェスチャを対応付けたものを上記制御信号テーブルとして設定することにより、ユーザは、所定の第2ジェスチャを実行することによって、当該第2ジェスチャに対応する制御内容の示す動作を制御機器に実行させることができる。
本発明に係るジェスチャ入力装置は、上記第1ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第1ジェスチャ判断手段が含まれていると判断した第1ジェスチャに対応する上記制御機器を特定する制御機器特定手段をさらに備え、上記送信手段は、上記制御機器特定手段が特定した制御機器に対して、上記制御信号を送信することが好ましい。
上記の構成によれば、上記制御機器特定手段は、上記機器選択テーブルを参照して、上記第1ジェスチャ判断手段が上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第1ジェスチャに対応する上記制御機器を特定し、上記送信手段は、上記制御機器特定手段の特定した制御機器に対して、上記制御信号生成手段が生成した制御信号を送信する。すなわち、上記送信手段は、上記第1ジェスチャ判断手段の判断した第1ジェスチャに対応する上記制御機器に対してのみ、制御信号を送信することができる。
そのため、ユーザは、予め上記第1ジェスチャと上記制御機器の対応関係を知る(設定する)ことによって、第2ジェスチャを有効にするための第1ジェスチャを用いて、所望の制御機器のみを動作させることができる。従って、ユーザは、動作対象の制御機器を選択するために余分な操作(例えば、他のジェスチャ)をすることなく、所望の制御機器のみを動作させることができる。
本発明に係るジェスチャ入力装置は、上記ジェスチャ検出手段が検出したジェスチャから第3ジェスチャが含まれていることを判断する第3ジェスチャ判断手段と、上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断手段が含まれていると判断した第3ジェスチャに対応する上記制御機器を特定する制御機器特定手段とをさらに備え、上記送信手段は、上記制御機器特定手段が特定した制御機器に対して、上記制御信号を送信することが好ましい。
上記の構成によれば、上記制御機器特定手段は、上記機器選択テーブルを参照して、上記第3ジェスチャ判断手段が上記ジェスチャ検出手段の検出したジェスチャに含まれていると判断した第3ジェスチャに対応する上記制御機器を特定し、上記送信手段は、上記制御機器特定手段の特定した制御機器に対して、上記制御信号生成手段が生成した制御信号を送信する。すなわち、上記送信手段は、上記第3ジェスチャ判断手段の判断した第3ジェスチャに対応する上記制御機器に対してのみ、制御信号を送信することができる。
そのため、ユーザは、予め上記第3ジェスチャと上記制御機器の対応関係を知る(設定する)ことによって、第3ジェスチャを用いて所望の制御機器のみを動作させることができる。従って、ユーザは、所望の制御機器を選択して、選択した制御機器のみを動作させることができる。
本発明に係るジェスチャ入力装置は、ユーザを認証するユーザ認証手段をさらに備え、
上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出することが好ましい。
上記の構成によれば、上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出する。換言すると、上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャのみを検出する。
そのため、仮に、上記カメラが撮像した画像に、他の人物のジェスチャや、ジェスチャとして誤検出してしまう背景画像等が含まれていたとしても、上記ジェスチャ検出手段は、上記カメラが撮像した画像のうち、上記ユーザ認証手段が認証したユーザの身体画像のみをジェスチャの検出対象領域とする。従って、上記ジェスチャ入力装置(上記ジェスチャ検出手段、上記第1ジェスチャ判断手段および上記第2ジェスチャ判断手段)が実行する処理負荷を低減することができる。
本発明に係るジェスチャ入力装置は、上記ユーザ認証手段は、上記カメラが撮像した画像に基づいて、ユーザを認証することが好ましい。
上記の構成によれば、上記ユーザ認証手段は、上記カメラが撮像した画像に基づいてユーザを認証する。換言すると、上記ユーザ認証手段は、ユーザのジェスチャを認識するための画像に基づいてユーザを認証する。そのため、ユーザの画像を利用しないでユーザを認証する他の認証方法と比較して、ユーザを認証するための装置の構成を簡素化することができる。
なお、上記ジェスチャ入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記ジェスチャ入力装置の各手段として動作させることにより、上記ジェスチャ入力装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。
以上のように、本発明に係るジェスチャ入力装置は、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、上記制御信号生成手段が生成した制御信号を上記制御機器に送信する送信手段とを備えている構成である。
また、本発明に係るジェスチャ入力装置の制御方法は、カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、上記制御信号を上記制御機器に送信する送信ステップとを含む。
従って、上記ジェスチャ入力装置は、第1ジェスチャを認識している期間中の第2ジェスチャのみを有効とするという簡単な処理によって、ユーザが意図せず第2ジェスチャをしたことによる誤動作を防ぐことができる。
本発明の第1の実施形態を示すものであり、ジェスチャ入力装置の要部構成の一例を示すブロック図である。 上記ジェスチャ入力装置が備える記憶部に格納されている判定ジェスチャ情報の一例を示す図である。 上記記憶部に格納されている操作ジェスチャ情報の一例を示す図である。 上記記憶部に格納されている制御信号テーブルの一例を示す図である。 上記ジェスチャ入力装置におけるジェスチャ認識処理の一例を示すフローチャートである。 上記ジェスチャ入力装置が制御信号を送信する送信先である制御対象機器の記憶部に格納されている処理制御テーブルの一例を示す図である。 上記ジェスチャ入力装置が備える記憶部に格納されている操作ジェスチャテーブルの一例を示す図である。 本発明の第2の実施形態を示すものであり、ジェスチャ入力装置の要部構成の一例を示すブロック図である。 上記ジェスチャ入力装置が備える記憶部に格納されている機器選択テーブルの一例を示す図である。 上記ジェスチャ入力装置におけるジェスチャ認識処理の一例を示すフローチャートである。 本発明の第3の実施形態を示すものであり、ジェスチャ入力装置の要部構成の一例を示すブロック図である。 上記ジェスチャ入力装置が備える記憶部に格納されている個人特定テーブルの一例を示す図である。 上記ジェスチャ入力装置におけるジェスチャ認識処理の一例を示すフローチャートである。 上記ジェスチャ入力装置が備える記憶部に格納されている判定ジェスチャテーブルの一例を示す図である。
<第1の実施形態>
本発明の第1の実施形態について図1から図7に基づいて説明すると以下の通りである。
〔ジェスチャ入力装置の構成〕
図1は、ジェスチャ入力装置1の要部構成の一例を示すブロック図である。図1に示すように、ジェスチャ入力装置1は、制御部11、記憶部12、画像入力部13および通信部14を備えている。なお、ジェスチャ入力装置1は、表示部、操作部、音声入力部、音声出力部等の部材を備えていてもよいが、発明の特徴点とは関係がないため当該部材を図示していない。
画像入力部13は、カメラ2が撮像した画像を取得するものである。本発明では、カメラ2は、ユーザの全身またはその一部を撮像するものであり、画像入力部13は、ユーザの全身またはその一部を含む画像を取得する。
通信部14は、無線通信手段または有線通信手段によって、制御対象機器(制御機器)3等の他の装置と通信を行い、制御部11の指示に従って、データのやりとりを行うものである。具体的には、通信部14は、制御部11の指示に従って、制御対象機器3に制御信号を送信する。
制御対象機器3とは、例えば、テレビ、エアコン、PC等の家電機器である。ただし、これに限るものではなく、制御信号を受信し、受信した制御信号に基づいて処理を実行する機器であれば何でもよい。
制御部11は、記憶部12から一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1が備える各部を統括的に制御するものである。
本実施形態では、制御部11は、機能ブロックとして、判定ジェスチャ認識部21、操作ジェスチャ認識部22および機器制御部(制御信号生成手段、送信手段)23を備える構成である。これらの制御部11の各機能ブロック(21〜23)は、CPU(central processing unit)が、ROM(read only memory)等で実現された記憶装置に記憶されているプログラムをRAM(random access memory)等で実現された一時記憶部に読み出して実行することで実現できる。
判定ジェスチャ認識部21は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャが含まれているか否かを判断するものである。
ここで、ユーザのジェスチャとは、顔(目、口等)、手、腕、胴、脚等のユーザの身体の所定の形状もしくは所定の動作、または、それらの組み合わせを意味する。例えば、ジェスチャの例として、左手の掌を握った状態(握り拳)、右手の掌を開いた状態で上下に振る動作、左足を上げた状態、顔の向き(視線方向)、目の開閉動作(まばたき)、口を開く動作等がある。
また、判定ジェスチャ(第1ジェスチャ)とは、予め定めた1つまたは複数の所定のジェスチャであって、後述の操作ジェスチャの認識を有効にするためのジェスチャである。
判定ジェスチャ認識部21は、具体的には、特定部位情報取得部(ジェスチャ検出手段)31および判定ジェスチャ判断部(第1ジェスチャ判断手段)32を備えている。
特定部位情報取得部31は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部31は、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
なお、特定部位情報とは、換言すると、顔(目、口等)、手、腕、胴、脚等のユーザの特定の部位の形状または動作を示す情報である。つまり、特定部位情報とは、ユーザの所定のジェスチャを示す情報である。
判定ジェスチャ判断部32は、特定部位情報取得部31から特定部位情報を取得し、また、記憶部12から判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断するものである。
判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致すると判断した場合、その旨(判定ジェスチャ有効通知)を操作ジェスチャ認識部22に通知する。
ここで、判定ジェスチャ有効通知は、判定ジェスチャ判断部32が一致すると判断した判定ジェスチャを示す判定ジェスチャ情報を含むものである。
操作ジェスチャ認識部22は、判定ジェスチャ判断部32(判定ジェスチャ認識部21)から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに操作ジェスチャが含まれているか否かを判断するものである。
ここで、操作ジェスチャ(第2ジェスチャ)とは、予め定めた1つまたは複数の所定のジェスチャであって、制御対象機器を制御するためのジェスチャである。
操作ジェスチャ認識部22は、具体的には、特定部位情報取得部(ジェスチャ検出手段)33および操作ジェスチャ判断部(第2ジェスチャ判断手段)34を備えている。
特定部位情報取得部33は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33は、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部33は、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断するものである。
操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致すると判断した場合、その旨(操作ジェスチャ有効通知)を機器制御部23に通知する。
ここで、操作ジェスチャ有効通知は、操作ジェスチャ判断部34が一致すると判断した操作ジェスチャを示す操作ジェスチャ情報を含むものである。
機器制御部23は、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12から制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成するものである。
機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する。
記憶部12は、制御部11が参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43等を格納している。
記憶部12に格納されている判定ジェスチャ情報41、操作ジェスチャ情報42および制御信号テーブル43についてそれぞれ図2〜4に基づいて説明する。図2は、記憶部12に格納されている判定ジェスチャ情報41の一例を示す図である。また、図3は、記憶部12に格納されている操作ジェスチャ情報42の一例を示す図である。また、図4は、記憶部12に格納されている制御信号テーブル43の一例を示す図である。
図2に示す例では、記憶部12に、「左手の握り拳」のジェスチャを示す判定ジェスチャ情報41と、「右目の開閉動作」のジェスチャを示す判定ジェスチャ情報41とが格納されている。すなわち、図2に示す例では、判定ジェスチャとして、「左手の握り拳」のジェスチャと、「右目の開閉動作」のジェスチャとが予め定められている。
また、図3に示す例では、記憶部12に、「右手の人差指のみを立てた状態」のジェスチャを示す操作ジェスチャ情報42と、「左手を上下に振る動作」のジェスチャを示す操作ジェスチャ情報42と、「右手を左右に振る動作」のジェスチャを示す操作ジェスチャ情報42とが格納されている。すなわち、図3に示す例では、操作ジェスチャとして、「右手の人差指のみを立てた状態」のジェスチャと、「左手を上下に振る動作」のジェスチャと、「右手を左右に振る動作」のジェスチャとが予め定められている。
また、図4に示すように、制御信号テーブル43は、制御信号と操作ジェスチャとが対応付けられているものである。図4に示す例では、制御信号「S01」と「右手の人差指のみを立てた状態」のジェスチャとが対応付けられており、制御信号「S02」と「左手を上下に振る動作」のジェスチャとが対応付けられており、制御信号「S03」と「右手を左右に振る動作」のジェスチャとが対応付けられている。
図2〜4に示す判定ジェスチャ情報41、操作ジェスチャ情報42および制御信号テーブル43が記憶部12に格納されている場合、例えば、判定ジェスチャ認識部21が「左手の握り拳」のジェスチャおよび「右目の開閉動作」のジェスチャの少なくとも何れか1つを認識している間に、操作ジェスチャ認識部22が「右手の人差指のみを立てた状態」のジェスチャを認識すると、機器制御部23は、制御信号「S01」を制御対象機器3に送信する。
このように、記憶部12に判定ジェスチャ情報41が複数格納されている場合、判定ジェスチャ認識部21が何れかの判定ジェスチャを認識している期間が、操作ジェスチャ認識部22による操作ジェスチャの認識を有効にする期間である。
なお、図2および3に示す例では、記憶部12に判定ジェスチャ情報41および操作ジェスチャ情報42がそれぞれ複数格納されているが、これに限るものではない。判定ジェスチャおよび操作ジェスチャは、それぞれ、少なくとも1つ予め定められていればよいため、記憶部12は、少なくとも1つの判定ジェスチャ情報41および操作ジェスチャ情報42をそれぞれ格納していればよい。
〔ジェスチャ認識処理〕
次に、第1の実施形態に係るジェスチャ入力装置1におけるジェスチャ認識処理について図5に基づいて説明する。図5は、第1の実施形態に係るジェスチャ入力装置1におけるジェスチャ認識処理の一例を示すフローチャートである。
ここで、ジェスチャ認識処理とは、ジェスチャ入力装置1がカメラ2から画像を取得し、取得した画像から判定ジェスチャおよび操作ジェスチャを認識し、認識した操作ジェスチャに基づく制御信号を制御対象機器に送信するまでの一連の処理を示す。
図5に示すように、画像入力部13は、カメラ2が撮像した画像を取得する(S1)。次に、判定ジェスチャ認識部21の特定部位情報取得部31は、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S2)。特定部位情報取得部31は、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
判定ジェスチャ判断部32は、特定部位情報取得部31から特定部位情報を取得し、また、記憶部12から判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断する(S3)。
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致しないと判定ジェスチャ判断部32が判断した場合(S3でNO)、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S3でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22に通知する。
操作ジェスチャ認識部22の特定部位情報取得部33は、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S4)。特定部位情報取得部33は、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断する(S5)。
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致しないと操作ジェスチャ判断部34が判断した場合(S5でNO)、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致すると操作ジェスチャ判断部34が判断した場合(S5でYES)、操作ジェスチャ判断部34は、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。
機器制御部23は、操作ジェスチャ判断部34から操作ジェスチャ有効通知を受信すると、記憶部12から制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する(S6)。
機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する(S7)。この後、S1に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。
ところで、機器制御部23から制御信号を受信した制御対象機器3は、受信した制御信号に基づいて所定の処理を実行する。具体的には、例えば、制御対象機器3は、不図示の記憶部を備えており、制御信号を受信すると、当該記憶部から処理制御テーブルを読み出し、読み出した処理制御テーブルにおいて、受信した制御信号に対応付けられている処理を実行する。
より詳細には、例えば、機器制御部23が制御信号「S01」を送信し、制御対象機器3の上記記憶部に図6に示す処理制御テーブルが格納されている場合、制御対象機器3は、図6に示す処理制御テーブルにおいて、制御信号「S01」に対応付けられている処理「電源のON/OFFの切替」を実行する。
このように、機器制御部23は、判定ジェスチャ認識部21(判定ジェスチャ判断部32)が判定ジェスチャを認識している期間中に、操作ジェスチャ認識部22(操作ジェスチャ判断部34)が認識した操作ジェスチャに基づいて、制御信号を生成する。換言すると、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間中に、操作ジェスチャ認識部22が認識した操作ジェスチャを、上記制御信号を生成するための有効なものとする。
つまり、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間中に操作ジェスチャ認識部22が認識した操作ジェスチャでなければ、操作ジェスチャ認識部22が認識した操作ジェスチャであっても、当該操作ジェスチャに基づいて制御信号を生成しない。
そのため、ユーザが意図せず操作ジェスチャをしたとしても、ユーザが同時に判定ジェスチャをしていなければ、機器制御部23が当該操作ジェスチャに基づいて制御信号を生成することはない。従って、ジェスチャ入力装置1は、判定ジェスチャを認識している期間中の操作ジェスチャのみを有効とするという簡単な処理によって、ユーザの意図しない動作(操作ジェスチャ)を有効なジェスチャとして誤認識することを防ぐ。
〔変形例1〕
本実施形態では、図1に示すように、ジェスチャ入力装置1と、カメラ2と、制御対象機器3とが別体となっているが、これに限るものではない。例えば、ジェスチャ入力装置1は、カメラ2もしくは制御対象機器3と一体となっていてもよいし、カメラ2および制御対象機器3と一体となっていてもよい。
〔変形例2〕
また、本実施形態では、記憶部12に操作ジェスチャ情報42が格納されているが、操作ジェスチャ情報42の代わりに、操作ジェスチャテーブルが格納されていてもよい。操作ジェスチャテーブルとは、操作ジェスチャと判定ジェスチャとが対応付けられているものである。
この場合、操作ジェスチャ判断部34は、特定部位情報取得部33から特定部位情報を取得し、また、記憶部12から操作ジェスチャと判定ジェスチャとが対応付けられた操作ジェスチャテーブルを読み出すと共に、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信する。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャテーブルにおいて、判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている操作ジェスチャと一致するか否かを判断する。
操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャテーブルにおいて、判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている操作ジェスチャと一致すると判断した場合、その旨(操作ジェスチャ有効通知)を機器制御部23に通知する。
例えば、記憶部12に図7に示す操作ジェスチャテーブルが格納されているとする。このとき、判定ジェスチャ判断部32が「左手の握り拳」の判定ジェスチャを認識した場合、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、「左手の握り拳」の判定ジェスチャに対応付けられている「右手の人差指のみを立てた状態」のジェスチャか、もしくは、「左手を上下に振る動作」のジェスチャであれば、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。
また、判定ジェスチャ判断部32が「左手の握り拳」の判定ジェスチャを認識した場合、操作ジェスチャ判断部34の取得した特定部位情報の示すジェスチャが「右手を左右に振る動作」のジェスチャであったとしても、操作ジェスチャ判断部34は、操作ジェスチャと一致していないと判断する。
なお、操作ジェスチャテーブルは、図7に示すように、操作ジェスチャと判定ジェスチャとが1対1または1対多で対応付けられていてもよいし、例示していないが、操作ジェスチャと判定ジェスチャとが多対1または多対多で対応付けられていてもよい。
〔変形例3〕
また、本実施形態では、判定ジェスチャ認識部21が判定ジェスチャを認識しているときに、操作ジェスチャ認識部22が操作ジェスチャの認識処理を実行しているが、これに限るものではない。例えば、判定ジェスチャ認識部21の判定ジェスチャの認識処理と、操作ジェスチャ認識部22の操作ジェスチャの認識処理を並列に実行させてもよい。
この場合、判定ジェスチャ認識部21および操作ジェスチャ認識部22は、それぞれ、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャ、操作ジェスチャが含まれているか否かを判断する。判定ジェスチャ認識部21および操作ジェスチャ認識部22は、それぞれ、判定ジェスチャ、操作ジェスチャが含まれていると判断すると、その旨を示す判定ジェスチャ有効通知、操作ジェスチャ有効通知を機器制御部23に送信する。
機器制御部23は、判定ジェスチャ有効通知および操作ジェスチャ有効通知の両方を受信している場合、受信した操作ジェスチャ有効通知の示す操作ジェスチャに基づいて、制御信号を生成する。
換言すると、機器制御部23は、判定ジェスチャ認識部21が判定ジェスチャを認識している期間を、操作ジェスチャ認識部22による操作ジェスチャの認識を有効とする操作ジェスチャ有効期間(第2ジェスチャ有効期間)として設定する。そして、機器制御部23は、操作ジェスチャ認識部22が上記操作ジェスチャ有効期間中に認識した操作ジェスチャに基づいて制御信号を生成する。
なお、制御信号テーブルにおいて制御信号と操作ジェスチャと判定ジェスチャとが対応付けられている場合、機器制御部23は、受信した判定ジェスチャ有効通知の示す判定ジェスチャ、および、受信した操作ジェスチャ有効通知の示す操作ジェスチャに基づいて、制御信号を生成してもよい。
<第2の実施形態>
本発明の第2の実施形態について図8から図10に基づいて説明すれば、以下のとおりである。
第2の実施形態に係るジェスチャ入力装置は、判定ジェスチャに基づいて、複数の制御対象機器の中から1つ選択し、選択した制御対象機器に対して操作ジェスチャに基づく制御信号を送信するものである。第2の実施形態に係るジェスチャ入力装置は、判定ジェスチャを認識している期間中にのみ、操作ジェスチャの認識を有効にするという点では、第1の実施形態に係るジェスチャ入力装置と同じである。以下では、第2の実施形態に係るジェスチャ入力装置において、第1の実施形態に係るジェスチャ入力装置と異なる特徴について、主に説明する。
なお、説明の便宜上、上記の第1の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。また、上記の第1の実施形態において定義した用語については、特に断らない限り本実施の形態においてもその定義に則って用いるものとする。
〔ジェスチャ入力装置の構成〕
図8は、第2の実施形態に係るジェスチャ入力装置1aの要部構成の一例を示すブロック図である。図8に示すように、ジェスチャ入力装置1aは、制御部11a、記憶部12a、画像入力部13および通信部14を備えている。
第2の実施形態では、ジェスチャ入力装置1aによって制御する対象である制御対象機器3が複数ある。図8に示す例では、制御対象機器3として、テレビ3a、エアコン3bおよびPC3cがある。
制御部11aは、記憶部12aから一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1aが備える各部を統括的に制御するものである。
本実施形態では、制御部11aは、機能ブロックとして、判定ジェスチャ認識部21、操作ジェスチャ認識部22、機器制御部23aおよび機器選択部(制御機器特定手段)24を備える構成である。これらの制御部11aの各機能ブロック(21、22、23aおよび24)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。
機器選択部24は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、記憶部12aから機器選択テーブル44を読み出す。そして、機器選択部24は、読み出した機器選択テーブル44において、受信した判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている制御対象機器を、制御信号の送信先の制御対象機器として特定するものである。
ここで、機器選択部24が特定した制御信号の送信先の制御対象機器を信号送信先機器と称する。機器選択部24は、特定した信号送信先機器を示す信号送信先機器情報を機器制御部23aに送信する。
機器制御部23aは、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12aから制御信号テーブル43を読み出す。そして、機器制御部23aは、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成するものである。
機器制御部23aは、機器選択部24から信号送信先機器情報を受信し、受信した信号送信先機器情報の示す制御対象機器3に、生成した制御信号を、通信部14を介して送信する。
記憶部12aは、制御部11aが参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43、機器選択テーブル44等を格納している。
記憶部12aに格納されている機器選択テーブル44について図9に基づいて説明する。図9は、記憶部12aに格納されている機器選択テーブル44の一例を示す図である。
図9に示すように、機器選択テーブル44は、判定ジェスチャと制御対象機器3とが対応付けられているものである。図9に示す例では、「左手の握り拳」のジェスチャと制御対象機器「テレビ」とが対応付けられており、「右目の開閉動作」のジェスチャと制御対象機器「エアコン」とが対応付けられており、「左手の人差指および中指のみが立てられた状態」のジェスチャと制御対象機器「PC」とが対応付けられている。
記憶部12aに図9に示す機器選択テーブル44が格納されている場合、例えば、判定ジェスチャ認識部21が判定ジェスチャとして「左手の握り拳」のジェスチャを認識すると、機器選択部24は、信号送信先機器としてテレビ3aを特定する。
〔ジェスチャ認識処理〕
次に、第2の実施形態に係るジェスチャ入力装置1aにおけるジェスチャ認識処理について図10に基づいて説明する。図10は、第2の実施形態に係るジェスチャ入力装置1aにおけるジェスチャ認識処理の一例を示すフローチャートである。
図10に示すS11〜S13までの処理は、図5に示すS1〜S3までの処理と同様であるため、説明を省略する。
ここで、S13において、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S13でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22および機器選択部24に通知する。
機器選択部24は、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、記憶部12aから機器選択テーブル44を読み出す。そして、機器選択部24は、読み出した機器選択テーブル44において、受信した判定ジェスチャ有効通知に含まれる判定ジェスチャ情報の示す判定ジェスチャに対応付けられている制御対象機器を、制御信号の送信先の制御対象機器(信号送信先機器)として特定する(S14)。
機器選択部24は、特定した信号送信先機器を示す信号送信先機器情報を機器制御部23aに送信する。
次に、操作ジェスチャ認識部22の特定部位情報取得部33は、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像からユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S15)。これ以降の図10に示すS15〜S17までの処理は、図5に示すS4〜S6までの処理と同様であるため、説明を省略する。
S17において、機器制御部23aは、操作ジェスチャ判断部34(操作ジェスチャ認識部22)から操作ジェスチャ有効通知を受信すると、記憶部12aから制御信号テーブル43を読み出す。そして、機器制御部23aは、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する。
そして、機器制御部23aは、機器選択部24から信号送信先機器情報を受信し、受信した信号送信先機器情報の示す制御対象機器3に、生成した制御信号を、通信部14を介して送信する(S18)。この後、S11に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。
このように、機器選択部24は、機器選択テーブル44を参照して、判定ジェスチャ認識部21(判定ジェスチャ判断部32)が認識した判定ジェスチャに対応する制御対象機器3を特定し、機器制御部23aは、機器選択部24の特定した制御対象機器3に対して、生成した制御信号を送信する。すなわち、機器制御部23aは、判定ジェスチャ認識部21の認識した判定ジェスチャに対応する制御対象機器3に対してのみ、制御信号を送信することができる。
そのため、ユーザは、予め判定ジェスチャと制御対象機器3の対応関係を知る(機器選択テーブル44を設定する)ことによって、操作ジェスチャを有効にするための判定ジェスチャを用いて、所望の制御対象機器3のみを動作させることができる。従って、ユーザは、動作対象の制御対象機器3を選択するために余分な操作(例えば、他のジェスチャ)をすることなく、所望の制御対象機器3のみを動作させることができる。
〔変形例4〕
第2の実施形態では、機器選択部24は、判定ジェスチャに基づいて制御対象機器を選択しているが、これに限るものではない。例えば、機器選択部24は、操作ジェスチャに基づいて制御対象機器を選択してもよい。この場合、機器選択テーブル44は、操作ジェスチャと制御対象機器とが対応付けられているものである。
なお、機器選択部24が操作ジェスチャに基づいて制御対象機器を選択する代わりに、制御信号テーブル43に含まれる制御信号が、制御対象機器ごとの制御内容を示すものであってもよい。つまり、機器制御部23aは、制御信号テーブル43を参照して、操作ジェスチャに対応する制御信号を、当該制御信号の示すまたは対応付けられている制御対象機器に対して送信すればよい。
また、機器選択部24は、判定ジェスチャおよび操作ジェスチャと異なる選択ジェスチャ(第3ジェスチャ)に基づいて制御対象機器を選択してもよい。この場合、制御部11aが選択ジェスチャを認識する選択ジェスチャ認識部(特定部位情報取得部および選択ジェスチャ判断部(第3ジェスチャ判断手段))を備えていてもよいし、判定ジェスチャ認識部(第3ジェスチャ判断手段)21または操作ジェスチャ認識部(第3ジェスチャ判断手段)22が選択ジェスチャを認識してもよい。
<第3の実施形態>
本発明の第3の実施形態について図11から図14に基づいて説明すれば、以下のとおりである。
第3の実施形態に係るジェスチャ入力装置は、まずユーザの認証を行い、認証したユーザのジェスチャのみを検出するものである。第3の実施形態に係るジェスチャ入力装置において、認証したユーザのジェスチャのみを検出した後の処理、つまり、判定ジェスチャおよび操作ジェスチャの認識に関する処理、並びに、制御信号の生成および送信に関する処理は、第1の実施形態に係るジェスチャ入力装置における処理と同じである。以下では、第3の実施形態に係るジェスチャ入力装置において、第1の実施形態に係るジェスチャ入力装置と異なる特徴について、主に説明する。
なお、説明の便宜上、上記の第1の実施形態において示した部材と同一の機能を有する部材には、同一の符号を付し、その説明を省略する。また、上記の第1の実施形態において定義した用語については、特に断らない限り本実施の形態においてもその定義に則って用いるものとする。
〔ジェスチャ入力装置の構成〕
図11は、第3の実施形態に係るジェスチャ入力装置1bの要部構成の一例を示すブロック図である。図11に示すように、ジェスチャ入力装置1bは、制御部11b、記憶部12b、画像入力部13および通信部14を備えている。
制御部11bは、記憶部12bから一時記憶部(不図示)に読み出されたプログラムを実行することにより、各種の演算を行うと共に、ジェスチャ入力装置1bが備える各部を統括的に制御するものである。
本実施形態では、制御部11bは、機能ブロックとして、判定ジェスチャ認識部21b、操作ジェスチャ認識部22b、機器制御部23および顔認識部(ユーザ認証手段)25を備える構成である。これらの制御部11bの各機能ブロック(21b、22b、23および25)は、CPUが、ROM等で実現された記憶装置に記憶されているプログラムをRAM等で実現された一時記憶部に読み出して実行することで実現できる。
顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔が登録されているユーザの顔と一致するか否かを判定し、登録されているユーザを認証するものである。具体的には、顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔を示す顔情報を生成する。そして、顔認識部25は、記憶部12bから個人特定テーブルを読み出し、生成した顔情報が、読み出した個人特定テーブルに含まれる顔情報と一致するか否かを判定する。
顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致すると判定した場合、一致した顔情報の示す顔の上記画像における位置を示す顔位置情報を含むユーザ認証情報を判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22bに送信する。
なお、顔情報は、人物の顔の画像データであってもよいし、人物の顔の画像データから抽出した特徴量を示すデータであってもよい。顔認識部25が実行する顔の認証処理に合わせて、顔情報を適宜設定すればよい。
判定ジェスチャ認識部21bは、顔認識部25から登録されているユーザを認証したことを示すユーザ認証情報を受信すると、画像入力部13から画像を取得して、取得した画像から顔認識部25の認証したユーザのジェスチャを検出し、検出したジェスチャに判定ジェスチャが含まれているか否かを判断するものである。判定ジェスチャ認識部21bは、具体的には、特定部位情報取得部31bおよび判定ジェスチャ判断部32を備えている。
特定部位情報取得部31bは、顔認識部25からユーザ認証情報を受信すると、画像入力部13から画像を取得する。次に、特定部位情報取得部31bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部31bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部31bは、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
操作ジェスチャ認識部22bは、顔認識部25から登録されているユーザを認証したことを示すユーザ認証情報を受信し、さらに、判定ジェスチャ判断部32(判定ジェスチャ認識部21b)から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得して、取得した画像から顔認識部25の認証したユーザのジェスチャを検出し、検出したジェスチャに操作ジェスチャが含まれているか否かを判断するものである。操作ジェスチャ認識部22bは、具体的には、特定部位情報取得部33bおよび操作ジェスチャ判断部34を備えている。
特定部位情報取得部33bは、顔認識部25からユーザ認証情報を受信し、さらに、判定ジェスチャ判断部32から判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部33bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成するものである。特定部位情報取得部33bは、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
記憶部12bは、制御部11bが参照するプログラムやデータ等を格納するものであり、例えば、上記の判定ジェスチャ情報41、操作ジェスチャ情報42、制御信号テーブル43、個人特定テーブル45等を格納している。
記憶部12bに格納されている個人特定テーブル45について図12に基づいて説明する。図12は、記憶部12bに格納されている個人特定テーブル45の一例を示す図である。
図12に示すように、個人特定テーブル45は、ユーザ名とユーザを認証するための顔情報とが対応付けられているものである。図12に示す例では、ユーザ名「Aさん」と顔情報「A1234」とが対応付けられており、ユーザ名「Bさん」と顔情報「B2345」とが対応付けられており、ユーザ名「Cさん」と顔情報「C3456」とが対応付けられている。
〔ジェスチャ認識処理〕
次に、第3の実施形態に係るジェスチャ入力装置1bにおけるジェスチャ認識処理について図13に基づいて説明する。図13は、第3の実施形態に係るジェスチャ入力装置1bにおけるジェスチャ認識処理の一例を示すフローチャートである。
図13に示すように、画像入力部13は、カメラ2が撮像した画像を取得する(S21)。次に、顔認識部25は、画像入力部13から画像を取得して、取得した画像から人物の顔を検出し、検出した顔を示す顔情報を生成する(S22)。そして、顔認識部25は、記憶部12bから個人特定テーブルを読み出し、生成した顔情報が、読み出した個人特定テーブルに含まれる顔情報と一致するか否かを判定する(S23)。
顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致しないと判定した場合(S23でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、顔認識部25は、生成した顔情報が読み出した個人特定テーブルに含まれる顔情報と一致すると判定した場合(S23でYES)、一致した顔情報の示す顔の上記画像における位置を示す顔位置情報を含むユーザ認証情報を判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22bに送信する。
判定ジェスチャ認識部21bの特定部位情報取得部31bは、顔認識部25からユーザ認証情報を受信すると、画像入力部13から画像を取得する。次に、特定部位情報取得部31bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部31bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S24)。特定部位情報取得部31bは、生成した特定部位情報を判定ジェスチャ判断部32に出力する。
判定ジェスチャ判断部32は、特定部位情報取得部31bから特定部位情報を取得し、また、記憶部12bから判定ジェスチャを示す判定ジェスチャ情報41を読み出す。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示すジェスチャが、読み出した判定ジェスチャ情報41の示す判定ジェスチャと一致するか否かを判断する(S25)。
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致しないと判定ジェスチャ判断部32が判断した場合(S25でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)判定ジェスチャ情報41の示す判定ジェスチャと一致すると判定ジェスチャ判断部32が判断した場合(S25でYES)、判定ジェスチャ判断部32は、判定ジェスチャ有効通知を操作ジェスチャ認識部22bに通知する。
操作ジェスチャ認識部22bの特定部位情報取得部33bは、判定ジェスチャ有効通知を受信すると、画像入力部13から画像を取得する。そして、特定部位情報取得部33bは、受信したユーザ認証情報に含まれる顔位置情報の示す画像の位置に基づいて、取得した画像における顔認識部25の認証したユーザの(身体の)位置を特定する。そして、特定部位情報取得部33bは、取得した画像の中の特定したユーザの位置部分から顔認識部25の認証したユーザのジェスチャを1つまたは複数検出し、検出したジェスチャを示す特定部位情報を1つまたは複数生成する(S26)。特定部位情報取得部33bは、生成した特定部位情報を操作ジェスチャ判断部34に出力する。
操作ジェスチャ判断部34は、特定部位情報取得部33bから特定部位情報を取得し、また、記憶部12bから操作ジェスチャを示す操作ジェスチャ情報42を読み出す。そして、操作ジェスチャ判断部34は、取得した特定部位情報の示すジェスチャが、読み出した操作ジェスチャ情報42の示す操作ジェスチャと一致するか否かを判断する(S27)。
ここで、取得した全ての特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致しないと操作ジェスチャ判断部34が判断した場合(S27でNO)、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。一方、取得した何れかの特定部位情報の示すジェスチャが、読み出した(何れかの)操作ジェスチャ情報42の示す操作ジェスチャと一致すると操作ジェスチャ判断部34が判断した場合(S27でYES)、操作ジェスチャ判断部34は、一致した操作ジェスチャを示す操作ジェスチャ情報を含む操作ジェスチャ有効通知を機器制御部23に通知する。
機器制御部23は、操作ジェスチャ判断部34から操作ジェスチャ有効通知を受信すると、記憶部12bから制御信号テーブル43を読み出す。そして、機器制御部23は、読み出した制御信号テーブル43において、受信した操作ジェスチャ有効通知に含まれる操作ジェスチャ情報の示す操作ジェスチャに対応付けられている制御信号を生成する(S28)。
機器制御部23は、生成した制御信号を通信部14を介して制御対象機器3に送信する(S29)。この後、S21に戻って、画像入力部13は、カメラ2が撮像した次の画像を取得する。
このように、顔認識部25は、カメラ2が撮像した画像に基づいてユーザを認証し、特定部位情報取得部31bおよび33bは、顔認識部25が認証したユーザのジェスチャを検出する。すなわち、特定部位情報取得部31bおよび33bは、顔認識部25が認証したユーザのジェスチャのみを検出する。
そのため、仮に、カメラ2が撮像した画像に、他の人物のジェスチャや、ジェスチャとして誤検出してしまう背景画像等が含まれていたとしても、特定部位情報取得部31bおよび33bは、カメラ2が撮像した画像のうち、顔認識部25が認証したユーザの身体画像のみをジェスチャの検出対象領域とする。従って、ジェスチャ入力装置1b(判定ジェスチャ認識部21bおよび操作ジェスチャ認識部22b)が実行する処理負荷を低減することができる。
また、本実施形態に係るジェスチャ入力装置は、家庭等におけるセキュリティに利用することができる。具体的には、家の玄関扉にカメラを設置しておき、操作ジェスチャを玄関扉の開錠するための鍵として使用する。すなわち、まずユーザを認証し、その後、ユーザが所定の判定ジェスチャおよび操作ジェスチャを行うことにより、ユーザは玄関扉を開くことができる。
〔変形例5〕
第3の実施形態では、顔認識部25は、ユーザ認証情報に顔位置情報を含めているが、これに加えて、個人特定テーブルにおいて一致した顔情報に対応付けられているユーザ名を示すユーザ名情報を含めてもよい。すなわち、ユーザ認証情報が顔位置情報およびユーザ名情報を含んでいてもよい。
この場合に、記憶部12bに格納されている判定ジェスチャ情報41の代わりに、個人別判定ジェスチャ情報が格納されていてもよい。個人別判定ジェスチャ情報とは、判定ジェスチャとユーザ名とが対応付けられているものである。個人別判定ジェスチャ情報は、例えば、図14に示すようなデータであってよい。
ユーザ認証情報が顔位置情報およびユーザ名情報を含み、記憶部12bに個人別判定ジェスチャ情報が格納されている場合、判定ジェスチャ判断部32は、特定部位情報取得部31bから認証したユーザのジェスチャを示す特定部位情報を取得し、また、記憶部12bから個人別判定ジェスチャ情報を読み出し、さらに、顔認識部25からユーザ認証情報を受信する。そして、判定ジェスチャ判断部32は、取得した特定部位情報の示す認証したユーザの示すジェスチャが、読み出した個人別判定ジェスチャ情報において、受信したユーザ認証情報に含まれるユーザ名情報の示すユーザ名に対応付けられている判定ジェスチャと一致するか否かを判断してもよい。
また、ユーザ名と判定ジェスチャとを対応付けるだけではなく、ユーザ名と、判定ジェスチャと、操作ジェスチャとを対応付けたテーブルを記憶部12bに格納しておいてもよい。
〔変形例6〕
また、第3の実施形態では、顔認識部25がカメラ2から取得した画像に基づいて、ユーザを認証しているが、これに限るものではない。本実施形態において、例えば、IDカードによる認証、指紋認証、静脈認証等、公知の個人を認証する方法を利用することができる。カメラ2から取得した画像以外の情報に基づいてユーザを認証する場合、特定部位情報取得部31bおよび33bは、ユーザが存在すると考えられる(認証装置の位置等から推測される)画像上の位置から、認証したユーザの(身体の)位置を特定してもよい。また、特定部位情報取得部31bおよび33bは、カメラ2から取得した画像から所定の物体(IDカード等)を検出し、その検出した位置に基づいて認証したユーザの(身体の)位置を特定してもよい。また、記憶部12bに予めユーザと当該ユーザの身体を示す画像(顔画像等)とを対応付けたユーザ画像テーブルを格納しておき、特定部位情報取得部31bおよび33bは、記憶部12bから読み出したユーザ画像テーブルに基づいて、カメラ2から取得した画像における認証したユーザの(身体の)位置を特定してもよい。
<補足>
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、ジェスチャ入力装置1の各ブロック、特に制御部11は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
すなわち、ジェスチャ入力装置1は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM、上記プログラムを展開するRAM、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるジェスチャ入力装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記ジェスチャ入力装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
また、ジェスチャ入力装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、ユーザが電子機器を制御するために使用する入力インターフェース(入力装置)に利用することができる。
1、1a、1b ジェスチャ入力装置
2 カメラ
3 制御対象機器(制御機器)
3a テレビ
3b エアコン
3c PC
11、11a、11b 制御部
12、12a、12b 記憶部
13 画像入力部
21、21b 判定ジェスチャ認識部
22、21b 操作ジェスチャ認識部
23、23a 機器制御部(制御信号生成手段、送信手段)
24 機器選択部(制御機器特定手段)
25 顔認識部(ユーザ認証手段)
31、31b 特定部位情報取得部(ジェスチャ検出手段)
32 判定ジェスチャ判断部(第1ジェスチャ判断手段、第3ジェスチャ判断手段)
33、33b 特定部位情報取得部(ジェスチャ検出手段)
34 操作ジェスチャ判断部(第2ジェスチャ判断手段、第3ジェスチャ判断手段)

Claims (5)

  1. ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置であって、
    カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出手段と、
    上記ジェスチャ検出手段が検出したジェスチャから第1ジェスチャが含まれていることを判断する第1ジェスチャ判断手段と、
    上記ジェスチャ検出手段が検出したジェスチャから第2ジェスチャが含まれていることを判断する第2ジェスチャ判断手段と、
    上記ジェスチャ検出手段が検出したジェスチャから第3ジェスチャが含まれていることを判断する第3ジェスチャ判断手段と、
    上記第1ジェスチャが含まれていると上記第1ジェスチャ判断手段が判断している期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に上記第2ジェスチャが含まれていると上記第2ジェスチャ判断手段が判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成手段と、
    上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断手段が含まれていると判断した第3ジェスチャに対応する上記制御機器を特定する制御機器特定手段と、
    上記制御機器特定手段が特定した制御機器に、上記制御信号生成手段が生成した制御信号を送信する送信手段とを備えることを特徴とするジェスチャ入力装置。
  2. 上記制御信号生成手段は、上記第2ジェスチャと上記制御機器を制御するための制御信号とが対応付けられている制御信号テーブルを参照して、上記制御信号を生成することを特徴とする請求項1に記載のジェスチャ入力装置。
  3. ユーザを認証するユーザ認証手段をさらに備え、
    上記ジェスチャ検出手段は、上記ユーザ認証手段が認証したユーザのジェスチャを検出することを特徴とする請求項1または2に記載のジェスチャ入力装置。
  4. 上記ユーザ認証手段は、上記カメラが撮像した画像に基づいて、ユーザを認証することを特徴とする請求項3に記載のジェスチャ入力装置。
  5. ユーザのジェスチャ動作に基づいて制御機器を制御するジェスチャ入力装置の制御方法であって、
    カメラが撮像した画像から、ジェスチャを検出するジェスチャ検出ステップと、
    上記ジェスチャ検出ステップにおいて検出されたジェスチャに第1ジェスチャが含まれていることを判断する第1ジェスチャ判断ステップと、
    上記ジェスチャ検出ステップにおいて検出されたジェスチャに第2ジェスチャが含まれていることを判断する第2ジェスチャ判断ステップと、
    上記ジェスチャ検出ステップにおいて検出されたジェスチャに第3ジェスチャが含まれていることを判断する第3ジェスチャ判断ステップと、
    上記第1ジェスチャ判断ステップにおいて上記第1ジェスチャが含まれていると判断されている期間を上記第2ジェスチャの認識を有効とする第2ジェスチャ有効期間とし、上記第2ジェスチャ有効期間中に、上記第2ジェスチャ判断ステップにおいて上記第2ジェスチャが含まれていると判断したときに、当該第2ジェスチャに基づいて制御信号を生成する制御信号生成ステップと、
    上記第3ジェスチャと上記制御機器とが対応付けられている機器選択テーブルを参照して、上記第3ジェスチャ判断ステップにおいて含まれていると判断された第3ジェスチャに対応する上記制御機器を特定する制御機器特定ステップと、
    上記制御機器特定ステップにおいて特定された制御機器に、上記制御信号生成ステップにおいて生成された上記制御信号を送信する送信ステップとを含むことを特徴とするジェスチャ入力装置の制御方法。
JP2012094277A 2012-04-17 2012-04-17 ジェスチャ入力装置およびジェスチャ入力装置の制御方法 Active JP5024495B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012094277A JP5024495B1 (ja) 2012-04-17 2012-04-17 ジェスチャ入力装置およびジェスチャ入力装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012094277A JP5024495B1 (ja) 2012-04-17 2012-04-17 ジェスチャ入力装置およびジェスチャ入力装置の制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011046680 Division 2011-03-03 2011-03-03

Publications (2)

Publication Number Publication Date
JP5024495B1 JP5024495B1 (ja) 2012-09-12
JP2012185833A true JP2012185833A (ja) 2012-09-27

Family

ID=46980559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012094277A Active JP5024495B1 (ja) 2012-04-17 2012-04-17 ジェスチャ入力装置およびジェスチャ入力装置の制御方法

Country Status (1)

Country Link
JP (1) JP5024495B1 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5264007B1 (ja) * 2012-10-01 2013-08-14 善郎 水野 コントローラ
JP5675917B1 (ja) * 2013-09-02 2015-02-25 株式会社東芝 機器の選択システム、機器選択装置、機器選択プログラム
JP2015064783A (ja) * 2013-09-25 2015-04-09 京セラドキュメントソリューションズ株式会社 タッチパネル装置、及びこれを備えた画像形成装置
JP2015080265A (ja) * 2014-12-24 2015-04-23 株式会社東芝 機器の選択システム、機器選択装置、機器選択プログラム
JP2015088161A (ja) * 2013-09-26 2015-05-07 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US9134794B2 (en) 2013-08-20 2015-09-15 Kabushiki Kaisha Toshiba System to identify user and device the user is intending to operate
JP2015212886A (ja) * 2014-05-02 2015-11-26 株式会社ナカヨ 動きによる情報入力機能を有するリストバンド
JP2016501393A (ja) * 2012-11-07 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 複数のコンピュータでコンピュータ入力デバイスを利用するための技法
JP2016086334A (ja) * 2014-10-28 2016-05-19 レノボ・シンガポール・プライベート・リミテッド ジェスチャの認識方法、ジェスチャ入力システムおよび電子機器
JP2018092648A (ja) * 2014-10-02 2018-06-14 グーグル エルエルシー 見通し外レーダ型ジェスチャ認識
US10503883B1 (en) 2015-10-06 2019-12-10 Google Llc Radar-based authentication
US10642367B2 (en) 2014-08-07 2020-05-05 Google Llc Radar-based gesture sensing and data transmission
WO2020121536A1 (ja) * 2018-12-14 2020-06-18 オリンパス株式会社 ユーザインタフェース装置、医療システム、操作制御方法、及び操作制御プログラム
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
WO2021240771A1 (ja) * 2020-05-29 2021-12-02 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
JP2022012522A (ja) * 2020-07-01 2022-01-17 トヨタ自動車株式会社 情報処理装置、情報処理方法、および制御システム
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105867623A (zh) * 2016-03-31 2016-08-17 乐视控股(北京)有限公司 一种终端设备操控方法及装置
CN114167980B (zh) * 2021-11-18 2024-05-07 深圳市鸿合创新信息技术有限责任公司 手势处理方法、装置、电子设备和可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014054313A1 (ja) * 2012-10-01 2014-04-10 Mizuno Yoshiro コントローラ
JP5264007B1 (ja) * 2012-10-01 2013-08-14 善郎 水野 コントローラ
US9448639B2 (en) 2012-10-01 2016-09-20 Yoshiro Mizuno Controller
JP2016501393A (ja) * 2012-11-07 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 複数のコンピュータでコンピュータ入力デバイスを利用するための技法
US9134794B2 (en) 2013-08-20 2015-09-15 Kabushiki Kaisha Toshiba System to identify user and device the user is intending to operate
JP5675917B1 (ja) * 2013-09-02 2015-02-25 株式会社東芝 機器の選択システム、機器選択装置、機器選択プログラム
JP2015064783A (ja) * 2013-09-25 2015-04-09 京セラドキュメントソリューションズ株式会社 タッチパネル装置、及びこれを備えた画像形成装置
JP2015088161A (ja) * 2013-09-26 2015-05-07 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
JP2015212886A (ja) * 2014-05-02 2015-11-26 株式会社ナカヨ 動きによる情報入力機能を有するリストバンド
US10642367B2 (en) 2014-08-07 2020-05-05 Google Llc Radar-based gesture sensing and data transmission
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US11221682B2 (en) 2014-08-22 2022-01-11 Google Llc Occluded gesture recognition
US10936081B2 (en) 2014-08-22 2021-03-02 Google Llc Occluded gesture recognition
US11816101B2 (en) 2014-08-22 2023-11-14 Google Llc Radar recognition-aided search
JP2018092648A (ja) * 2014-10-02 2018-06-14 グーグル エルエルシー 見通し外レーダ型ジェスチャ認識
KR102107552B1 (ko) * 2014-10-02 2020-05-07 구글 엘엘씨 비-가시선 레이더-기반 제스처 인식
US10664059B2 (en) 2014-10-02 2020-05-26 Google Llc Non-line-of-sight radar-based gesture recognition
KR20190085168A (ko) * 2014-10-02 2019-07-17 구글 엘엘씨 비-가시선 레이더-기반 제스처 인식
US11163371B2 (en) 2014-10-02 2021-11-02 Google Llc Non-line-of-sight radar-based gesture recognition
JP2016086334A (ja) * 2014-10-28 2016-05-19 レノボ・シンガポール・プライベート・リミテッド ジェスチャの認識方法、ジェスチャ入力システムおよび電子機器
JP2015080265A (ja) * 2014-12-24 2015-04-23 株式会社東芝 機器の選択システム、機器選択装置、機器選択プログラム
US11709552B2 (en) 2015-04-30 2023-07-25 Google Llc RF-based micro-motion tracking for gesture tracking and recognition
US10936085B2 (en) 2015-05-27 2021-03-02 Google Llc Gesture detection and interactions
US11592909B2 (en) 2015-10-06 2023-02-28 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11693092B2 (en) 2015-10-06 2023-07-04 Google Llc Gesture recognition using multiple antenna
US10503883B1 (en) 2015-10-06 2019-12-10 Google Llc Radar-based authentication
US11256335B2 (en) 2015-10-06 2022-02-22 Google Llc Fine-motion virtual-reality or augmented-reality control using radar
US11385721B2 (en) 2015-10-06 2022-07-12 Google Llc Application-based signal processing parameters in radar-based detection
US11481040B2 (en) 2015-10-06 2022-10-25 Google Llc User-customizable machine-learning in radar-based gesture detection
US11175743B2 (en) 2015-10-06 2021-11-16 Google Llc Gesture recognition using multiple antenna
US11656336B2 (en) 2015-10-06 2023-05-23 Google Llc Advanced gaming and virtual reality control using radar
US11698438B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
US11698439B2 (en) 2015-10-06 2023-07-11 Google Llc Gesture recognition using multiple antenna
WO2020121536A1 (ja) * 2018-12-14 2020-06-18 オリンパス株式会社 ユーザインタフェース装置、医療システム、操作制御方法、及び操作制御プログラム
WO2021240771A1 (ja) * 2020-05-29 2021-12-02 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム
JP7322824B2 (ja) 2020-07-01 2023-08-08 トヨタ自動車株式会社 情報処理装置、情報処理方法、および制御システム
JP2022012522A (ja) * 2020-07-01 2022-01-17 トヨタ自動車株式会社 情報処理装置、情報処理方法、および制御システム

Also Published As

Publication number Publication date
JP5024495B1 (ja) 2012-09-12

Similar Documents

Publication Publication Date Title
JP5024495B1 (ja) ジェスチャ入力装置およびジェスチャ入力装置の制御方法
WO2012117570A1 (ja) ジェスチャ入力装置およびジェスチャ入力装置の制御方法
US10733274B2 (en) Biometric authentication using gesture
KR101688168B1 (ko) 이동 단말기 및 그 제어방법
CN106716297B (zh) 一种指纹识别的方法、装置及触摸屏终端
US9626498B2 (en) Multi-person gestural authentication and authorization system and method of operation thereof
KR102206054B1 (ko) 지문 처리 방법 및 그 전자 장치
US9747428B2 (en) Dynamic keyboard and touchscreen biometrics
KR101545777B1 (ko) 제스처 입력 장치, 컴퓨터 판독 가능한 기록 매체, 전자 기기, 제스처 입력 시스템, 및, 제스처 입력 장치의 제어 방법
US8723643B2 (en) Method and computer program product of switching locked state of electronic device
US20160307038A1 (en) Identification and/or authentication of a user using gaze information
US20140118520A1 (en) Seamless authorized access to an electronic device
JP7452571B2 (ja) 生体認証装置、生体認証方法および生体認証プログラム
KR20190135974A (ko) 동작-음성의 다중 모드 명령에 기반한 최적 제어 방법 및 이를 적용한 전자 장치
KR20200009916A (ko) 전자 장치 및 그 제어 방법
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
CN103999020A (zh) 用于姿势控制的方法,姿势服务器设备与传感器输入设备
US11068690B2 (en) Detection device, information processing device, and information processing method
KR101941966B1 (ko) 패턴 인식 기반의 출입 제어를 위한 장치, 방법 및 프로그램
US11194894B2 (en) Electronic device and control method thereof
JP6267025B2 (ja) 通信端末及び通信端末の認証方法
WO2020095350A1 (ja) 情報処理装置、情報処理方法及び記録媒体
KR20190128536A (ko) 전자 장치 및 그 제어 방법
TW201543252A (zh) 具有身分驗證機制之遠端控制方法及執行該方法之穿戴式裝置
KR102443330B1 (ko) 치아 기반 개인 식별 장치 및 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5024495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250