JP2011232894A - インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム - Google Patents

インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム Download PDF

Info

Publication number
JP2011232894A
JP2011232894A JP2010101485A JP2010101485A JP2011232894A JP 2011232894 A JP2011232894 A JP 2011232894A JP 2010101485 A JP2010101485 A JP 2010101485A JP 2010101485 A JP2010101485 A JP 2010101485A JP 2011232894 A JP2011232894 A JP 2011232894A
Authority
JP
Japan
Prior art keywords
information
article
interface device
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010101485A
Other languages
English (en)
Inventor
Masataka Nakano
正隆 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2010101485A priority Critical patent/JP2011232894A/ja
Priority to US13/086,789 priority patent/US20110262006A1/en
Priority to CN2011101125867A priority patent/CN102236413A/zh
Publication of JP2011232894A publication Critical patent/JP2011232894A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】従来のインタフェース装置では、ジェスチャ指示を与える操作物の特定が困難な問題があった。
【解決手段】本発明のインタフェース装置は、ジェスチャ指示に基づき操作される操作対象装置30に操作信号CNTを出力するインタフェース装置であって、撮影部20により撮影された画像FPから予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報P1を生成する基準物検出部12と、基準情報P1に基づき、画像FPから、基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定すると共に、操作物を特定する操作物情報P2を抽出する操作物特定部14と、特定した操作物の位置変移に基づいてジェスチャ指示の検出を開始し、ジェスチャ指示に応じた操作信号CNTを生成する操作信号生成部15と、を有する。
【選択図】図2

Description

本発明はインタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラムに関し、特に人の動きに応じて操作対象装置に指示を与える操作信号を生成するインタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラムに関する。
近年、キーボードやマウス等の入力装置を必要とせず、操作者が機器を簡単に操作することができるインタフェース装置が開発されている。例えば、特許文献1には、撮影部と、撮影部で撮像した画像中の物体の形状及び動きを認識する動作認識部と、動作認識部によって認識した物体の形状及び動きを表示する表示部と、を備えるインタフェース装置が記載されている。具体的には、特許文献1に記載のインタフェース装置は、操作者の手を認識し、手の動きから動作を認識する。そして、特許文献1に記載のインタフェース装置では、操作者の手振りをすることで、表示画面上に表示した仮想スイッチ等を選択することが記載されている。
特開平8−044490号公報
特許文献1に記載のインタフェース装置では、操作者を特定するための情報としてある特定の対象物を撮影画像中から認識する必要がある。ここで、特許文献1に記載のインタフェース装置では、対象物として操作者の手を認識する。このような操作者の特定方法を用いた場合、操作者及び操作者によるジェスチャ動作の認識に高い演算能力が必要になる問題がある。
より具体的には、手は、操作者によって形状あるいは色に差がある。また、手は、撮影する方向によって形状が異なる。そのため、手の形状に基づいて、撮像画像から手を検出するためには高度な情報処理を行う必要がある。また、画像中に操作者の候補となる者が複数人いる場合、これら複数の候補者のうちいずれの者が操作者であるのかを特定するのは難しい。また、操作者は操作指示を意味する動作(ジェスチャ)以外の動作を行うことも多く、ジェスチャがいつ開始されたかを常に監視しなければならず、その監視のために常に高い演算能力が必要になる。特許文献1では、これらの問題を解決することができない問題がある。
本発明にかかるインタフェース装置の一態様は、ジェスチャ指示に基づき操作される操作対象装置に操作信号を出力するインタフェース装置であって、撮影部により撮影された画像から予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報を生成する基準物検出部と、前記基準情報に基づき、前記画像から、前記基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定すると共に、前記操作物を特定する操作物情報を抽出する操作物特定部と、前記特定した操作物の位置変移に基づいて前記ジェスチャ指示の検出を開始し、前記ジェスチャ指示に応じた前記操作信号を生成する操作信号生成部と、を有する。
本発明にかかるジェスチャ認識方法の一態様は、ジェスチャ指示に基づき操作される操作対象装置に指示を与えるインタフェース装置におけるジェスチャ認識方法であって、撮影部により撮影された画像から予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報を生成し、前記画像と前記基準情報とに基づき、前記基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定し、前記操作物を特定する操作物情報を抽出し、前記特定した操作物の位置変移に基づいて前記ジェスチャ指示の検出を開始し、前記ジェスチャ指示に応じた前記操作信号を生成する。
本発明にかかるジェスチャ認識プログラムの一態様は、撮影部において取得された画像に基づき認識されるジェスチャ指示に基づき操作される操作対象装置に操作指示を与える操作信号を生成する演算回路において実行されるジェスチャ認識プログラムであって、前記撮影部により撮影された画像から予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報を生成し、前記画像と前記基準情報とに基づき、前記基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定し、前記操作物を特定する操作物情報を抽出し、前記特定した操作物の位置変移に基づいて前記ジェスチャ指示の検出を前記演算回路に実行させ、前記ジェスチャ指示に応じた前記操作信号を前記演算回路から出力させる。
本発明にかかるインタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラムでは、予め特徴が特定されている基準物に基づき1つの特徴物を操作物として検出する。そして、操作物が特定されたことに基づきジェスチャ指示の検出動作を行う。つまり、本発明にかかるインタフェース装置及びジェスチャ認識方法によれば、認識が容易な基準物との相対的な関係が特定条件を満たす物を操作物とする。これにより、本発明にかかるインタフェース装置及びジェスチャ認識方法では、操作者あるいは操作物の認識を少ない演算処理で容易に行うことができる。
本発明にかかるインタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラムによれば、ジェスチャ認識を少ない処理により行うことができる。
実施の形態1にかかるジェスチャ制御システムのブロック図である。 実施の形態1にかかるインタフェース装置のブロック図である。 実施の形態1にかかるインタフェース装置の動作を示すフローチャートである。 実施の形態2にかかるインタフェース装置の動作を示すフローチャートである。 実施の形態3にかかるインタフェース装置のブロック図である。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1に実施の形態1にかかるインタフェース装置を含むジェスチャ制御システム1のブロック図を示す。図1に示す例では、テレビをジェスチャ指示に基づく制御対象とした。なお、ジェスチャ指示とは、制御対象の装置を人の動きに応じて制御する場合における人の動きである。また、テレビに限らず、ビデオ再生装置、PC(Personal Computer)、オーディオ機器、エアコン等を操作対象装置とすることが可能である。図1に示すように、ジェスチャ制御システム1は、インタフェース装置10、撮影部20、操作対象装置30を有する。
撮影部20は、例えば、カメラであって、操作対象装置30を操作する操作者が存在する領域の画像を撮影する。ここで、撮影部20は、所定の間隔で撮影を行い、1つの撮影タイミングで撮影された画像をフレームと称す。
インタフェース装置10は、撮影部20が撮影した画像をフレーム毎に取り込み、取り込んだ画像に基づき操作者のジェスチャ指示を認識する。また、インタフェース装置10は、認識したジェスチャ指示に基づき操作信号CNTを出力する。
操作対象装置30は、操作対象制御部31及び表示部32を有する。操作対象装置30は、操作信号CNTに基づき変化する表示制御信号VPを生成する。表示部30は、表示制御信号VPに応じて生成された映像を映し出す。なお、表示部32に表示される映像は、操作者が視聴するものである。
ジェスチャ制御システム1は、操作者の動きに応じて表示部32に表示される映像を変化させる。例えば、ジェスチャ制御システム1では、表示部32に操作メニューを表示し、ジェスチャ指示に応じて、選択する操作メニューを変更する、操作メニューを選択する操作カーソルを移動させる、テレビの選択チャンネルを変更する、音量を調節する等の操作を可能にする。
ここで、実施の形態1にかかるジェスチャ制御システム1では、インタフェース装置10におけるジェスチャ認識方法に特徴の1つを有する。そこで、インタフェース装置10の詳細について説明する。なお、以下で説明するインタフェース装置10は、ハードウェアの構成によりジェスチャ認識機能を実現するものである。しかし、ジェスチャ認識機能は、例えば、汎用のマイクロコンピュータにおいて当該機能を実現するためのソフトウェア(ジェスチャ認識プログラム)を実行することによっても実現できる。
インタフェース装置10のブロック図を図2に示す。図2に示すように、インタフェース装置10は、フレームメモリ11、基準物検出部12、設定値格納部13、操作物特定部14、操作信号生成部15、操作物情報格納部16、位置履歴情報格納部17を有する。なお、フレームメモリ11、設定値格納部13、操作物情報格納部16及び位置履歴情報格納部17は、専用のメモリ領域として設ける必要はなく、1つのメモリ内の所定の領域であっても良い。つまり、インタフェース装置10がマイクロコンピュータによって実現される場合、当該マイクロコンピュータによって用いられるメモリでも良い。
フレームメモリ11は、撮影画像CPをフレーム毎に格納する。また、フレームメモリ11が格納する撮影画像CPは、現フレームの撮影画像CPと、過去のフレームの撮影画像CPを含む。
基準物検出部12は、フレームメモリ11に格納された画像から参照画像FPとして、現フレームの画像を読み出す。そして、基準物検出部12は、読み出した画像を解析し、予め決められた設定値SE1に近似する特徴を有する基準物を検出して基準物を特定する基準情報P1を生成する。この設定値SE1は、設定値格納部13から読み出されるものである。実施の形態1にかかるインタフェース装置10では、基準物として人の顔を用いるものとする。そこで、実施の形態1における設定値SE1は、人の顔を認識できる特徴の情報を含む。特徴としては、人の顔の色、形状、濃淡の分布の特徴などを用いることができる。基準物は、人の顔に限られる物ではなく、例えば、撮影領域内に置かれる固定物などであっても構わない。また、基準情報P1には、基準物の位置情報が含まれるものとする。
操作物特定部14は、参照画像FPと基準情報P1とに基づき、基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定すると共に、操作物を特定する操作物情報P2を抽出する。実施の形態1では、特定条件として、基準情報により与えられた基準物の少なくとも一部を覆ったことを用いる。つまり、実施の形態1にかかる操作物特定部14は、基準物の少なくとも一部を覆った候補特徴物を操作物として特定する。このような処理により特定される操作物は、撮影部20と基準物との間において、撮影部20から見て基準物の少なくとも一部を覆う物である。また、単に基準物の少なくとも一部を覆う候補特徴物を操作物として特定した場合、誤認識を生じる恐れがある場合は、当該操作物の特定条件にさらに追加条件を設定しても良い。追加条件としては、最初に特定された特徴物を候補操作物とし、当該候補操作物が特定の位置変位条件(例えば、左右に揺れる動作)を満たしたことなどを用いることができる。
このような処理を行うため、操作物特定部14は、参照画像FPとして、現フレームの画像と前フレームの画像とを読み込む。そして、操作物特定部14は、現フレームの画像中の基準物と前フレームの画像中の基準物とを比較し、基準物の一部を覆う物を認識する。基準物の一部を覆ったか否かは、例えば、基準物が顔であれば、形状が円で色が肌の色である物が基準物となり、その一部を手で覆った場合、顔の形状を覆った手の形状及び色を操作物として認識する。そして、操作物特定部14は、操作物として特定された物を特定する操作物情報P2を参照画像FPから抽出する。上記例では、操作物情報P2として、操作物として認識された部分の形状及びその部分の色の情報を含む。
操作信号生成部15は、操作物の特定に応じて操作対象制御部31に対する操作物の位置変位に基づくジェスチャ指示の検出動作を開始し、操作対象制御部31にジェスチャ指示に基づく操作信号CNTを出力する。より具体的には、操作信号生成部15は、操作物特定部14から操作物情報P2が入力されると、操作物情報P2を操作物情報格納部16に登録する。また、操作信号生成部15は、参照画像FPとして現フレームの画像を読み込む。そして、操作信号生成部15は、操作物情報P2に基づき参照画像FPから操作物の位置情報を抽出して位置履歴情報CHを生成して、位置履歴情報CHに基づき操作信号CNTを生成する。より具体的には、操作信号生成部15は、参照画像FPから現フレームにおける操作物の位置情報と、位置履歴情報格納部17に格納されている位置履歴情報CHとの差分から操作物の位置変位情報を抽出し、当該位置変位情報を操作信号CNTとして操作対象制御部31に出力する。また、操作信号生成部15は、操作信号CNTを生成した後に参照画像FPから抽出した操作物の位置情報により位置履歴情報CHを更新する。この位置履歴情報CHは、操作物の位置変位を時系列に沿って保存するものでも良く、直前のフレームの位置情報のみを保存するものであっても良い。
操作信号生成部15は、操作物情報P2に基づき操作物の追跡を行うが、予め設定された解除条件を満たす場合、操作物の登録を解除する。例えば、操作物を示す特徴がタイムアウト時間を経過しても検出されないこと、操作物がタイムアウト時間を超えて位置変位を示さないこと、あるいは、操作物が特定の動作(例えば、一定時間内に手で十字を描く)を行ったこと等がこの解除条件として用いられる。そして、操作信号生成部15は、例えば、操作物情報格納部16に格納される操作物情報P2をクリアすることで操作物の登録の解除を行う。なお、操作信号生成部15は、操作物が検出されなかった時間を計測するカウンタ(不図示)と、タイムアウト時間の設定値を格納する格納部と、を有するものとする。
上記のように、インタフェース装置10は、操作物の位置変位に基づき操作信号CNTを生成する。そして、操作対象制御部31は、操作信号CNTに基づき表示制御信号VPに変化を与える。例えば、操作対象制御部31は、操作信号CNTとして操作物の位置変位ベクトル情報に基づき操作カーソルを移動させる等の操作を行う。また、操作対象制御部31は、操作信号CNTの履歴情報から操作物の移動軌跡を生成し、当該移動軌跡の情報に基づきテレビの選択チャンネルを切り換える等の操作を行うこともできる。
ここで、インタフェース装置10の動作についてさらに詳細に説明する。インタフェース装置10の動作を示すフローチャートを図3に示す。なお、図3に示す例では、基準物の一部を覆ったことのみを操作物を特定するための特定条件とし、また、タイムアウト時間を超えて操作物が位置変位を示さなかったことのみを解除条件とした。しかし、特定条件及び解除条件は、これらに限らず上記した他の条件を用いることも可能である。
図3に示すように、インタフェース装置10では、動作を開始するとまず、フレームメモリ11に格納されている画像が更新されているか(最新フレームの画像が更新されているか)を確認する(ステップS1)。ステップS1の処理は、例えば、基準物検出部12が行う。そして、ステップS1において、画像が更新されていることが確認されるまで、ステップS1の処理が継続する(ステップS1のNOの枝)。一方、ステップS1において画像が更新されていることが確認された場合(ステップS1のYESの枝)、ステップS2の処理に進む。
ステップS2では、すでに前の処理において操作物が特定され、その操作物に関する操作物情報が登録されているか否かを確認する。このステップS2の処理は、例えば、基準物検出部12が操作物情報格納部16を参照することで行われる。ステップS2において、操作物の操作物情報が登録されていないと判断された場合(ステップS2のNOの枝)、基準物及び操作物の特定処理(ステップS3〜S5)に移行する。一方、ステップS2において、操作物の操作物情報が登録されている判断された場合(ステップS2のYESの枝)、操作物の追跡処理(ステップS6〜S12)に移行する。
操作物及び操作物の特定処理では、まず、基準物検出部12が参照画像FPと設定値SE1とに基づき基準物を特定する基準情報P1を生成する(ステップS3)。このステップS3の処理は、基準物検出部12が行う。ステップS3において画像中に基準物となる物(例えば、人の顔)がなかった場合(ステップS3のNOの枝)、ステップS1の処理に戻る。一方。ステップS3において画像中に基準物となる物があった場合(ステップS3のYESの枝)、ステップS4の処理に進む。
ステップS4では、操作物の特定及び操作物を特定する操作物情報P2を生成する。より具体的には、ステップS4では、参照画像FPと基準情報P1とに基づき、基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定し、操作物を特定する操作物情報を抽出する。実施の形態1では、基準物の一部を覆う物を操作物として特定するため、このステップS4では、このような特定条件を満たす物の有無を判断する。このステップS4の処理は、操作物特定部14により行われる。ステップS4において、参照画像FP内に操作物として特定される物がない場合(ステップS4のNOの枝)、ステップS1の処理に戻る。一方、ステップS4において、参照画像FP内に操作物として特定される物がある場合(ステップS4のYESの枝)、ステップS5の処理に進む。
ステップS5では、ステップS4において抽出された操作物情報P2を操作物情報格納部16に登録する。このステップS5の処理は、操作信号生成部15により行われる。また、操作信号生成部15は、操作物特定部14から操作物情報P2を受信したことをトリガとして操作物の追跡処理(ステップS6〜S12)を行う。
操作物の追跡処理は、操作信号生成部15により行われる処理である。操作物の追跡処理では、まず、登録済みの操作物情報P2を参照して参照画像FP(現フレームの画像)中から操作物の位置情報を抽出する(ステップS6)。ここで、操作物の追跡処理では、ステップS6において参照画像FP中に操作物となる物があるか否かを判断する(ステップS7)。このステップS7において、操作物がないと判断された場合(ステップS7のNOの枝)、操作物が検出されなかった未検出時間が予め設定されたタイムアウト時間を超えているか否かを判断する(ステップS11)。ステップS11において未検出時間がタイムアウト時間を超えていると判断された場合(ステップS11のYESの枝)、操作物特定部14は、操作物情報格納部16に格納されている操作物情報P2をクリアして、処理をステップS1に戻す(ステップS12)。一方、ステップS11において未検出時間がタイムアウト時間を超えていないと判断された場合(ステップS11のNOの枝)、ステップS1の処理に戻る。
ステップS7において、操作物があると判断された場合(ステップS7のYESの枝)、操作信号生成部15は未検出時間をクリアする。そして、位置履歴情報格納部17に格納されている位置履歴情報CHとステップS6において抽出された位置情報とに基づき操作信号CNTを生成し、出力する(ステップS9)。そして、操作信号生成部15は、ステップS6において抽出された操作物情報P2により位置履歴情報CHを更新して、処理をステップS1に戻す(ステップS10)。
上記説明より、実施の形態1にかかるインタフェース装置10は、基準物との相対的な関係が特定条件を満たすものを操作物として認識する。このとき、基準物としては、特徴の変化が操作物よりも少ない物、あるいは、操作物よりも特徴の強い(多い)物を設定することができる。つまり、インタフェース装置10は、特徴の認識に多くの処理が必要となる操作物を特定が容易な基準物との相対関係に基づき認識することで、この操作物を少ない処理で認識することができる。
また、インタフェース装置10では、基準物との相対関係が特定条件を満たす物を操作物と認識する。そのため、インタフェース装置10では、操作物を常に監視する必要がなく、操作物の追従にかかる処理を削減することができる。
また、インタフェース装置10では、操作物が特定されるまでは、操作信号生成部15による操作物の追従処理を行わない。つまり、インタフェース装置10では、操作者がジェスチャ処理を意図的に行わない限り追従処理による操作信号CNTの生成が行われない。これにより、インタフェース装置10では、ジェスチャ指示の開始のタイミングを容易に特定することが可能になる。
また、インタフェース装置10では、基準物との特定の相対関係を有する物として操作物を認識する。これにより、インタフェース装置10は、操作物が手などの形状、色等の特徴の変化が大きなものであっても、その認識を容易に行うことができる。また、インタフェース装置10では、認識された操作物に基づき操作物を特定する操作物情報を生成するため、操作物の形状等の特徴を予め設定する必要がない。つまり、インタフェース装置10では、操作物として用いられる物が特定されないため、より柔軟なジェスチャ指示を行うことが可能になる。
また、インタフェース装置10では、操作物を基準物との相対関係に基づき特定するため、操作者が変わった場合においても、それぞれの操作者を個別に認識する必要がない。これにより、インタフェース装置10は、より汎用性の高いシステムを容易に構築することができる。この場合、基準物の設定値として操作者の一般的な特徴を設定するのみで良いためである。
また、インタフェース装置10では、複雑に形状等が変化する操作物を常に監視することなく、操作物を特定することができる。これにより、インタフェース装置10は、演算処理が多くなる期間を短くできるため、ジェスチャ認識にかかる消費電力を削減することができる。
実施の形態2
実施の形態2では、実施の形態1とは異なる操作物の特定方法について説明する。実施の形態2にかかる操作物の特定方法では、操作物を特定するための特定条件として操作物と基準物との位置関係を用いる。つまり、実施の形態2では、操作物は、基準物を覆う必要はなく、所定の位置関係を有していれば良い。
より具体的には、基準物との距離が所定の範囲内にあり、かつ、操作物の候補となる特徴物と基準物とを結ぶ直線の傾きが撮影部20の撮影領域の水平方向に対して所定の範囲内にあるものを操作物として特定する。例えば、基準物を人の顔、操作物を人の手とした場合、人が手を挙げた場合、顔と手とには所定の位置関係が生じる。そこで、このような位置関係を有する特徴物を操作物として特定することができる。
なお、実施の形態2にかかるインタフェース装置では、操作物として用いられると予想される物の特徴を予め候補特徴物として設定する。この候補特徴物の設定値としては、操作物となり得る物の色、形状(簡単化した形状)、濃淡の分布情報等が考えられる。また、実施の形態2にかかるインタフェース装置では、基準物との間に所定の位置関係にある特徴物が決められた時間以内に決められた位置変位条件(左右に振るなど)を満たした候補特徴物を操作物することもできる。
ここで、実施の形態2にかかるインタフェース装置の動作を示すフローチャートを図4に示す。図4に示すように、実施の形態2にかかるインタフェース装置では、ステップS4a以外の処理は、実施の形態1にかかるインタフェース装置10の動作と同じである。そして、実施の形態2にかかるインタフェース装置は、ステップS4aにおいて、基準物と操作候補物との位置関係に基づく操作物の特定を行う。また、ステップS4aにおいて、基準物の間に所定の位置関係を有する候補特徴物のその後の動きを監視し、予め決められた動きを示した候補特徴物を操作物として特定することもできる。
上記説明より、本発明にかかる操作物の特定方法は、基準物と操作物として用いることができる特徴物との相対関係に基づき操作物を特定するものであることがわかる。そして、当該相対関係については、システムの仕様、システムの利用形態に応じて様々な条件を設定することができることがわかる。
実施の形態3
実施の形態3では、実施の形態1にかかるインタフェース装置10の別の形態について説明する。実施の形態3にかかるインタフェース装置40を図5に示す。インタフェース装置40は、操作者の個別情報(例えば、設定値SE2)を操作信号CNTと共に出力する。
そのため、インタフェース装置40は、設定値格納部13に代えて設定値格納部41を有し、操作物特定部14に代えて操作物特定部42を有し、操作信号生成部15に代えて操作信号生成部43を有する。設定値格納部41には、設定値SE1として操作を行う複数の候補者のそれぞれに対応した特徴に関する複数の設定値を含む。操作物特定部42は、操作物を特定した場合に、設定値SE1からその操作物の特定元となった基準物に関する設定値SE2を抽出する。そして、操作物特定部42は、設定値SE2共に操作物情報P2を出力する。操作信号生成部43は、操作物特定部42から通知された設定値SE2と共に操作信号CNTを出力する。
操作物の特定元となった基準物の設定値SE2は、操作者を特定する物として利用することができる。そのため、設定値SE2を操作対象制御部31に入力することで、操作対象制御部31は、設定値SE2に基づき操作者毎に異なる操作を実行することができる。例えば、操作対象制御部31は、操作者が子供である場合はペアレンタルガードが設定された操作メニューを提示し、操作者が大人である場合はペアレンタルガードが設定されていない操作メニューを提示することができる。また、操作対象制御部31は、操作者が老人である場合は操作メニューに表示される文字を大きくするなどの操作を行うことができる。
上記説明より、実施の形態3にかかるインタフェース装置40によれば、操作者を特定することが可能になる。そして、実施の形態3にかかるインタフェース装置40を用いたジェスチャ制御システムでは、操作者毎に異なる操作を提供することができる。また、インタフェース装置40では、このような操作者の特定を行う場合においても、基準物との相対関係に基づき操作物を認識する処理を行うことで、当該操作者の特定処理を少ない演算処理で実現することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、インタフェース装置と操作対象装置内の操作対象制御部とは、1つのマイクロコンピュータにより実現することが可能である。また、インタフェース装置は、操作対象装置と一体に形成されていても良く、また、別の装置として形成されていても構わない。
1 ジェスチャ制御システム
10、40 インタフェース装置
11 フレームメモリ
12 基準物検出部
13、41 設定値格納部
14、42 操作物特定部
15、43 操作信号生成部
16 操作物情報格納部
17 位置履歴情報格納部
20 撮影部
30 操作対象装置
31 操作対象制御部
32 表示部
SE1、SE2 設定値
CP 撮影画像
CNT 操作信号
VP 表示制御信号
FP 参照画像
P1 基準情報
P2 操作物情報
CH 位置履歴情報

Claims (13)

  1. ジェスチャ指示に基づき操作される操作対象装置に操作信号を出力するインタフェース装置であって、
    撮影部により撮影された画像から予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報を生成する基準物検出部と、
    前記基準情報に基づき、前記画像から、前記基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定すると共に、前記操作物を特定する操作物情報を抽出する操作物特定部と、
    前記特定した操作物の位置変移に基づいて前記ジェスチャ指示の検出を開始し、前記ジェスチャ指示に応じた前記操作信号を生成する操作信号生成部と、
    を有するインタフェース装置。
  2. 前記操作信号生成部は、前記操作物情報を登録すると共に、前記操作物情報に基づき前記画像から前記操作物の位置情報を抽出して位置履歴情報を生成又は更新し、前記位置履歴情報に基づき前記操作信号を生成する請求項1に記載のインタフェース装置。
  3. 前記操作信号生成部は、前記操作物が予め設定された解除条件を満たした場合、前記操作物の登録を解除する請求項1又は2に記載のインタフェース装置。
  4. 前記基準物は、操作を行う複数の候補者であって、前記設定値は、複数の候補者のそれぞれに対応した特徴に関する複数の設定値を含み、
    前記操作物特定部は、前記操作物の特定元となった前記基準物の設定値と共に前記操作物の前記操作物情報を前記操作信号生成部に通知し、
    前記操作信号生成部は、前記操作信号生成部から通知された設定値と共に前記操作信号を出力する請求項1乃至3のいずれか1項に記載のインタフェース装置。
  5. 前記画像をフレーム毎に格納するフレームメモリと、
    前記位置履歴情報を格納する位置履歴格納部と、
    前記操作物情報を格納する操作物情報格納部と、を有し、
    前記基準物検出部は、前記フレームメモリに格納された画像に基づき前記基準対象物を検出し、
    前記操作物特定部は、前記フレームメモリに格納された画像のうち時間的に前後する複数の画像に基づき前記操作物の特定と、前記操作物の前記操作物情報の抽出を行い、
    前記操作信号生成部は、フレーム毎に前記操作物情報により前記位置履歴情報を更新すると共に、前記位置履歴情報に基づき前記操作信号を生成する請求項1乃至4のいずれか1項に記載のインタフェース装置。
  6. 前記基準物検出部及び前記操作物特定部は、前記画像中の色情報に基づき前記基準情報と前記操作物情報とを抽出する請求項1乃至5のいずれか1項に記載のインタフェース装置。
  7. 前記操作物特定部は、前記基準物の少なくとも1部を遮蔽した候補特徴物を前記操作物として特定する請求項1乃至6のいずれか1項に記載のインタフェース装置。
  8. 前記操作物特定部は、予め定められた操作物の候補値に基づき前記画像中から前記操作物の候補となる少なくとも1つの候補特徴物を抽出し、前記候補特徴物のうち前記基準対象物との位置関係が前記特定条件を満たす候補特徴物を前記操作物として特定する請求項1乃至6のいずれか1項に記載のインタフェース装置。
  9. 前記操作物特定部は、前記候補特徴物のうち、予め定められた位置変位条件を示す物を最終的な操作物として特定する請求項7又は8に記載のインタフェース装置。
  10. 前記基準物は人の顔であり、前記操作物は人の手である請求項1乃至9のいずれか1項に記載のインタフェース装置。
  11. 請求項1乃至10のいずれか1項に記載のインタフェース装置は、前記操作対象制御部と、前記操作対象制御部によって制御され、ユーザーインタフェース画像を表示する表示部と、を含む操作対象装置に内蔵される。
  12. ジェスチャ指示に基づき操作される操作対象装置に指示を与えるインタフェース装置におけるジェスチャ認識方法であって、
    撮影部により撮影された画像から予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報を生成し、
    前記画像と前記基準情報とに基づき、前記基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定し、
    前記操作物を特定する操作物情報を抽出し、
    前記特定した操作物の位置変移に基づいて前記ジェスチャ指示の検出を開始し、
    前記ジェスチャ指示に応じた前記操作信号を生成するジェスチャ認識方法。
  13. 撮影部において取得された画像に基づき認識されるジェスチャ指示に基づき操作される操作対象装置に操作指示を与える操作信号を生成する演算回路において実行されるジェスチャ認識プログラムであって、
    前記撮影部により撮影された画像から予め決められた設定値に近似する特徴を有する基準物を検出して前記基準物を特定する基準情報を生成し、
    前記画像と前記基準情報とに基づき、前記基準物との相対的な関係が予め決められた特定条件を満たす特徴物を操作物として特定し、
    前記操作物を特定する操作物情報を抽出し、
    前記特定した操作物の位置変移に基づいて前記ジェスチャ指示の検出を前記演算回路に実行させ、
    前記ジェスチャ指示に応じた前記操作信号を前記演算回路から出力させるジェスチャ認識プログラム。
JP2010101485A 2010-04-26 2010-04-26 インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム Pending JP2011232894A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010101485A JP2011232894A (ja) 2010-04-26 2010-04-26 インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
US13/086,789 US20110262006A1 (en) 2010-04-26 2011-04-14 Interface apparatus, gesture recognition method, and gesture recognition program
CN2011101125867A CN102236413A (zh) 2010-04-26 2011-04-26 接口装置和手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010101485A JP2011232894A (ja) 2010-04-26 2010-04-26 インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム

Publications (1)

Publication Number Publication Date
JP2011232894A true JP2011232894A (ja) 2011-11-17

Family

ID=44815818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010101485A Pending JP2011232894A (ja) 2010-04-26 2010-04-26 インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム

Country Status (3)

Country Link
US (1) US20110262006A1 (ja)
JP (1) JP2011232894A (ja)
CN (1) CN102236413A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013129590A1 (ja) * 2012-02-29 2013-09-06 株式会社 東芝 超音波診断装置、医用画像診断装置及び超音波診断装置制御プログラム
JP2013231520A (ja) * 2012-04-27 2013-11-14 Panasonic Corp 空気調和機
EP2706434A2 (en) 2012-08-31 2014-03-12 Omron Corporation Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
US11635821B2 (en) 2019-11-20 2023-04-25 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9575652B2 (en) * 2012-03-31 2017-02-21 Microsoft Technology Licensing, Llc Instantiable gesture objects
CN103375880B (zh) * 2012-04-27 2016-10-05 珠海格力电器股份有限公司 空调器的遥控装置和方法
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
CN104063041B (zh) * 2013-03-21 2018-02-27 联想(北京)有限公司 一种信息处理方法及电子设备
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
CN103795918A (zh) * 2013-11-29 2014-05-14 深圳市中兴移动通信有限公司 一种拍摄方法和拍摄装置
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
KR102167289B1 (ko) * 2014-06-03 2020-10-19 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
CN104536561B (zh) * 2014-12-10 2018-02-23 金硕澳门离岸商业服务有限公司 采用可穿戴设备控制终端设备操作的方法及可穿戴设备
CN106369737A (zh) * 2016-08-19 2017-02-01 珠海格力电器股份有限公司 空调控制处理方法及装置
CN108647647B (zh) * 2018-05-14 2022-09-20 邯郸美的制冷设备有限公司 空调器的控制方法、控制装置及空调器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP4479194B2 (ja) * 2003-08-29 2010-06-09 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
CN101667059A (zh) * 2008-09-03 2010-03-10 黑龙江大学 基于手势识别的无线智能裁判系统
US8305188B2 (en) * 2009-10-07 2012-11-06 Samsung Electronics Co., Ltd. System and method for logging in multiple users to a consumer electronics device by detecting gestures with a sensory device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013129590A1 (ja) * 2012-02-29 2013-09-06 株式会社 東芝 超音波診断装置、医用画像診断装置及び超音波診断装置制御プログラム
JP2013231520A (ja) * 2012-04-27 2013-11-14 Panasonic Corp 空気調和機
EP2706434A2 (en) 2012-08-31 2014-03-12 Omron Corporation Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
US11635821B2 (en) 2019-11-20 2023-04-25 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Also Published As

Publication number Publication date
US20110262006A1 (en) 2011-10-27
CN102236413A (zh) 2011-11-09

Similar Documents

Publication Publication Date Title
JP2011232894A (ja) インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP5925068B2 (ja) 映像処理装置、映像処理方法、およびプログラム
US9330304B2 (en) Information processing apparatus and method for controlling the same
US9405373B2 (en) Recognition apparatus
JP5740822B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
WO2012147960A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP2013076924A5 (ja)
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2015142181A (ja) 制御装置、制御方法
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP5510907B2 (ja) タッチ位置入力装置及びタッチ位置入力方法
JP2010182014A (ja) ジェスチャ認識装置、その方法及びそのプログラム
JP5932082B2 (ja) 認識装置
JP6575845B2 (ja) 画像処理システム、画像処理方法及びプログラム
CN107797748B (zh) 虚拟键盘输入方法和装置及机器人
KR20140071802A (ko) 얼굴 인식을 통한 휴대 단말기 숏컷 정보 실행 시스템 및 방법
JP2011188023A (ja) 情報処理装置、情報処理方法およびプログラム
JP6465197B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2014122879A1 (ja) 解析処理システム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP2018055257A (ja) 情報処理装置、およびその制御方法ならびにプログラム
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6260673B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107