JP2007316882A - 遠隔操作装置及び方法 - Google Patents

遠隔操作装置及び方法 Download PDF

Info

Publication number
JP2007316882A
JP2007316882A JP2006144857A JP2006144857A JP2007316882A JP 2007316882 A JP2007316882 A JP 2007316882A JP 2006144857 A JP2006144857 A JP 2006144857A JP 2006144857 A JP2006144857 A JP 2006144857A JP 2007316882 A JP2007316882 A JP 2007316882A
Authority
JP
Japan
Prior art keywords
feature point
gesture
feature
remote control
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006144857A
Other languages
English (en)
Other versions
JP4711885B2 (ja
Inventor
Kazuya Takagi
和也 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006144857A priority Critical patent/JP4711885B2/ja
Publication of JP2007316882A publication Critical patent/JP2007316882A/ja
Application granted granted Critical
Publication of JP4711885B2 publication Critical patent/JP4711885B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】家庭用電化製品などにも適用できるような簡単な処理で、ユーザのジェスチャによる遠隔操作を実現する。
【解決手段】遠隔操作装置は、ユーザを撮影する撮像部10と、撮像画像からユーザの特徴点を検出する特徴点検出部15と、特徴点の位置情報に基づきユーザのジェスチャを推定するジェスチャ推定部16と、ジェスチャに対応する操作信号を送信する操作信号送信部17とを有する。特徴点検出部15は、撮像画像の第1の領域では高精度で計算量が多い検出処理を行い、第2の領域では低精度で計算量が少ない検出処理を行い、両方の処理結果を統合することにより、特徴点を検出する。
【選択図】図1

Description

本発明は、操作対象の機器に対し、離れた位置からジェスチャにより遠隔操作を行う遠隔操作方法、及びそれを実現する遠隔操作装置に関する。
一般に、操作対象機器を遠隔操作するためには、赤外線を利用したリモートコントローラ(リモコン)が用いられる。しかしながら、従来のリモコンには、以下のような問題がある。
まず、ユーザが、リモコンを紛失しやすいという問題がある。また、近年では、ユーザが複数の機器に対応した複数のリモコンを所有している場合が多いため、リモコンを取り違え易いという問題もある。
また、リモコンの操作ボタンは、一般に小さく構成されているため、ユーザが間違った操作ボタンを押し易いという問題がある。さらに、リモコンは、一般に電池で駆動されるため、定期的に電池を取り替えなければならないという問題もある。
これらの問題を解決するため、ビデオカメラによりユーザのジェスチャを読み取ることにより遠隔操作を行う方法が提案されている(例えば、特許文献1参照)。また、ユーザのジェスチャを認識するための技術としては、撮像画像から肌色部分を抽出してテンプレートマッチングにより顔領域を特定し、さらにパターンマッチングにより動作を認識することが提案されている(例えば、特許文献2参照)。
特開2003−186596(第6頁、図1) 特開2003−216955(第11頁、図1)
しかしながら、特許文献1には、ユーザのジェスチャを読み取る方法の詳細は開示されていない。また、特許文献2では、処理能力の高いパーソナルコンピュータを用いることを想定して、テンプレートマッチングのような高精度で複雑な処理を行っているため、例えば家庭用電化製品への適用が難しいという問題がある。
本発明は、上記の課題を解決するためになされたものであり、家庭用電化製品などにも適用できるような簡単な処理で、ユーザのジェスチャによる遠隔操作を実現することを目的とする。
この発明に係る遠隔操作装置は、ユーザの像を含む撮像画像を取得する撮像手段と、撮像画像から特徴点を検出する特徴点検出手段と、検出された特徴点に基づきユーザのジェスチャを推定するジェスチャ推定手段と、ジェスチャに対応する操作信号を生成し遠隔操作対象機器に送信する操作信号送信手段とを備える。特徴点検出手段は、撮像画像における第1の領域では第1の検出処理を行い、第2の領域では第1の検出処理よりも精度は低いが計算量が少ない第2の検出処理を行い、両検出処理の結果を統合することにより特徴点の検出を行う。
この発明に係る遠隔操作方法は、ユーザの像を含む撮像画像を取得する撮像ステップと、撮像画像から特徴点を検出する特徴点検出ステップと、検出された特徴点に基づきユーザのジェスチャを推定するジェスチャ推定ステップと、ジェスチャに対応する操作信号を生成し遠隔操作対象機器に送信する操作信号送信ステップとを含む。特徴点検出ステップでは、撮像画像における第1の領域では第1の検出処理を行い、第2の領域では第1の検出処理よりも精度は低いが計算量が少ない第2の検出処理を行い、両検出処理の結果を統合することにより特徴点の検出を行う。
本発明によれば、撮像画像において、高精度で計算量が多い(従って処理負荷が大きい)検出処理を行う領域を第1の領域に限定することにより、遠隔操作処理の全体の負荷を軽減することができる。これにより、ジェスチャ入力による遠隔操作処理を、比較的処理能力の高くない制御装置を備えた機器、例えば家庭用電化製品でも実現することが可能になる。
本発明は、撮像画像の全体に亘って高精度で複雑な検出処理を行っていた従来技術に対して、高精度で計算量が多い検出処理を行う領域を限定する(すなわち、複数の特徴点を含む可能性のある領域でのみ高精度で計算量が多い検出処理を行う)ことで、ジェスチャの推定に要する処理の負荷を軽減できることに着目したものである。すなわち、遠隔操作処理を、比較的処理能力の高くない制御装置を備えた機器(例えば家庭用電化製品)で実現できるようにしたものである。
以下、本発明の各実施の形態について、添付図面を参照して説明する。
実施の形態1.
図1は、本発明の実施の形態1におけるジェスチャ入力を用いた遠隔操作装置の構成を示すブロック図である。この遠隔操作装置は、ユーザの像を含む撮像画像を取得するカメラ等の撮像部10と、撮像部10により取得した撮像画像からジェスチャを読み取るジェスチャ認識部1とを備えている。ジェスチャ認識部1は、撮像部10による撮像画像から特徴点を検出する画像処理部11と、画像処理部11において検出した特徴点の位置の変化からジェスチャを推定し、ジェスチャに対応する操作信号を遠隔操作対象機器13に送信する認識処理部12とを備えている。遠隔操作対象機器13の機器制御部13aは、遠隔操作装置からの操作信号を受信し、受信した操作信号に応じた操作を行う。
遠隔操作装置の画像処理部11は、撮像画像において特徴点が存在する可能性のある範囲を推定する特徴点存在範囲推定部14と、この特徴点存在範囲において特徴点を検出する特徴点検出部15とを備えている。遠隔操作装置の認識処理部12は、特徴点に基づいてジェスチャを推定するジェスチャ推定部16と、推定されたジェスチャに対応する操作信号を生成し、遠隔操作対象機器13に対して送信する操作信号送信部17とを備えている。
図2は、本発明の実施の形態1における撮像画像の例を示す図である。特徴点存在範囲推定部14(図1)は、撮像画像の中から、ジェスチャ推定に必要な特徴点の存在する可能性の高い領域を、過去の数フレームとの間の画像の変化、及び、前フレームでの特徴点の位置に基づいて決定する。なお、特徴点とは、撮像画像中に存在する「ある特徴を持った部分」をいい、ここでは、ユーザの手や頭をいう。
特徴点が存在する可能性のある領域は、撮像画像中のユーザが含まれている領域である。例えば、図2に示す撮像画像では、内側にユーザの像が含まれるような領域境界20を規定すると、その領域境界20の内側は、特徴点が存在する可能性のある領域21となり、領域境界20の外側は、特徴点が存在する可能性の低い領域22となる。なお、図2に示した領域境界20は矩形状であるが、他の形状、例えば楕円形等であってもよい。
特徴点を検出する際には、撮像画像の全体を検出対象とするのではなく、過去の数フレームの間に撮像画像に変化があった領域のうち、特徴点が存在する可能性のある領域を「特徴点存在範囲」と推定し、この特徴点存在範囲のみを検出対象とする。撮像画像に変化がなかった領域は、特徴点の存在する可能性が低いため、検出対象から除外する。
特徴点存在範囲推定部14は、複数の特徴点存在範囲が重なり合う領域と、重なり合わない領域とを区分することで、特徴点が全く含まれない領域、特徴点が一つだけ含まれる可能性のある領域、複数の特徴点が含まれる可能性のある領域というように、撮像画像を分割している。
図3は、撮像画像を上記のように分割した例を示す図である。特徴点1(例えば、ユーザの頭)の存在範囲30は、内部に特徴点1が存在している可能性がある領域である。特徴点2(例えば、ユーザの右手)の存在範囲31は、内部に特徴点2が存在している可能性がある領域である。これら2つの領域(特徴点存在範囲30,31)の重なり合い状態によって、多くても特徴点1のみしか含まない領域32と、多くても特徴点2のみしか含まない領域33と、特徴点1,2の両方を含む可能性がある領域34とに分割することができる。
図4は、撮像画像の分割方法の一例を模式的に示す図である。図4のように、特徴点存在範囲推定部14によって、ユーザの頭である特徴点1を含むように特徴点存在範囲30が推定され、また、ユーザの右手である特徴点2を含むように特徴点存在範囲31が推定された場合には、両特徴点存在領域30,31が重なり合う部分が生じる。この重なり合い部分を、「特徴点存在範囲が重なり合う領域34」とする。なお、図4では、特徴点存在範囲が重なり合う領域を分かり易く説明するため、特徴点存在範囲を大きく図示している。
特徴点存在範囲30,31が重なり合う領域34は、重なり合っている領域の数だけ特徴点が含まれている可能性がある。例えば、特徴点1の特徴点存在範囲30と特徴点2の特徴点存在範囲31とが重なり合っている領域34内には、特徴点1及び特徴点2の両方が含まれている可能性がある。特徴点検出部15(図1)は、この重なり合った領域34内において、高精度で計算量が多い(従って負荷の大きい)特徴点検出処理を行うことで、複数の画素の塊(クラスタ)をそれぞれ区別して検出し、これらを複数の「特徴点候補点」とする。
一方、特徴点存在範囲30,31が重なり合わない領域32,33では、互いに接近した特徴点が存在せず、多くても1つの特徴点しか含まれない可能性が高いため、複数の特徴点を区別して検出する必要性が少ない。そのため、この領域32,33では、低精度で計算量が少ない(従って負荷の軽い)特徴点検出処理を行って、ただ1つの画素の塊を検出し、これを「特徴点候補点」とする。なお、この領域32,33において、仮に複数の画素の塊が検出された場合は、特徴点候補点である可能性が最も高いもの、例えば面積が最大のもの(最大尤度の特徴点候補点とする。)を採用する。
図5は、特徴点存在範囲30,31が重なり合う領域34と、重なり合わない領域32とをまたぐように特徴点が存在する場合を示す図である。特徴点存在範囲が重なり合う領域34で高精度の検出処理により検出された画素の塊C1と、重なり合わない領域32で低精度の検出処理により検出された画素の塊C2とが境界線を挟んで連続している場合には、これらを合わせて一つの特徴点(図5では特徴点1)と判断する。また、他と連続してない画素の塊C3は、それだけで一つの特徴点(図5では特徴点2)と判断する。領域34,32で検出された画素の塊の連続性を判断することを、「検出結果の統合」という。
ジェスチャ推定部16(図1)は、特徴点検出部15で検出された各特徴点の数フレームの間の位置変化に基づき、特徴点の現在の動きベクトルを検出し、予め動きベクトルの列として登録しておいたジェスチャパターン列と比較することで、ユーザのジェスチャを推定する。
操作信号送信部17(図1)は、ジェスチャ推定部16により推定されたユーザのジェスチャに対応する操作信号を生成し、遠隔操作対象機器13(例えば家庭用電化製品)の機器制御部13aに送信し、操作信号に対応した操作を遠隔操作対象機器13に行わせ、これによりジェスチャによる遠隔操作を実現する。
図6は、この実施の形態1における遠隔操作処理の全体の流れを示すフローチャートである。図6に示した遠隔操作処理のうち、特徴点存在範囲の推定処理(ステップS11)から検出結果の統合処理(ステップS18)までは、画像処理部11によって行われる。また、ジェスチャの推定処理(ステップS19)から操作信号の送信処理(ステップS21)までは、認識処理部12によって行われる。
この遠隔操作処理では、まず、カメラの撮像部10により撮像を行い、ユーザの像を含む撮像画像を取得する(ステップS10)。
次に、画像処理部11の存在範囲推定部14が、撮像部10により撮像された撮像画像の数フレームの履歴等に基づき、撮像画像のうち変化があった部分の中から、特徴点存在範囲を推定する(ステップS11)。撮像画像に全く変化がなく、特徴点存在範囲を推定できなかった場合には(ステップS12)、ステップS10に戻って撮像部10による画像の撮像を行う。
次に、ステップS11で推定した特徴点存在範囲に基づき、複数の特徴点存在範囲が重なり合う領域があるか否かを判断する(ステップS13)。
特徴点存在範囲が重なり合う領域がある場合には、その重なり合う領域において、特徴点検出部15が高精度で計算量が多い検出処理を行い、複数の画素の塊を区別して検出して、複数の「特徴点候補点」を得る(ステップS14)。この検出処理は、例えばラベリング処理である。
特徴点存在範囲が重なり合う領域があれば、必ず、重なり合わない領域も存在するため(図3参照)、その重なり合わない領域においては、低精度で計算量が少ない検出処理を行い、一つの画素の塊を検出して、一つの「特徴点候補点」を得る(ステップS15)。この検出処理は、例えば色ヒストグラムを用いた検出処理(色ヒストグラム法)など、簡単な処理であるため、比較的高速で行うことができる。なお、ステップS14,S15の順序は、逆であってもよい。
さらに、高精度で計算量が多い検出処理(ステップS14)と低精度で計算量が少ない検出処理(ステップS15)の検出結果を統合する(ステップS16)。すなわち、高精度で計算量が多い検出処理で検出された特徴点候補点と、低精度で計算量が少ない検出処理で検出された特徴点候補点とが連続するかどうかを判断し、連続している場合には、これらをまとめて一つの「特徴点」とする(図5参照)。また、特徴点候補点が連続していない場合には、それぞれの別々の「特徴点」とする。
一方、上述したステップS13において、特徴点存在範囲の重なり合う領域がなかった場合には、低精度で計算量が少ない検出処理のみを行い、一つの「特徴点候補点」を得る(ステップS17)。この低精度で計算量が少ない検出処理は、ステップS15と同様、例えば色ヒストグラムを用いた検出処理である。
続いて、特徴点が検出されたか否かを判断し(ステップS18)、特徴点が検出されていない場合には、ステップS10に戻って撮像部10による画像の撮像を行う。
特徴点が検出された場合には、ジェスチャ推定部16が、特徴点の位置情報をもとにユーザのジェスチャを推定する(ステップS19)。ここでは、例えば、複数フレームに亘る撮像画像の変化に基づき、特徴点1(ユーザの頭)の位置に対して、特徴点2(ユーザの手)の位置が上下に変化していると判断した場合には、ユーザが右手を上下に動かしている等のジェスチャを推定する。
なお、「頭」とは、人間の首より上の部分であって、顔も含むものとする。また、ユーザの手の動きを判断する基準にできる部分であれば、ユーザの頭の代わりに、他の部分を特徴点として用いてもよい。
次に、ジェスチャが推定されたか否かを判断し(ステップS20)、ジェスチャが推定された場合には、操作信号送信部17が、ジェスチャに対応する操作信号を生成し、遠隔操作対象機器13に送信する(ステップS21)。ジェスチャをまだ推定できていない場合、及び、操作情報の送信が完了した場合には、ステップS10に戻って撮像部10による画像の撮像を行い、上述した各処理(ステップS10〜S21)を繰り返す。
遠隔操作対象機器13の機器制御部13aは、受信した操作情報に対応した動作を実行するよう遠隔操作対象機器13を制御する。このようにして、遠隔操作対象機器13の遠隔操作が実現される。
以上説明したように、この実施の形態1では、特徴点存在範囲30,31の重なり合う領域34については、高精度で計算量が多い(負荷が大きい)検出処理を行い、特徴点存在範囲30,31の重なり合わない領域32,33については、低精度で計算量が少ない(負荷が小さい)検出処理を行っている。このように、高精度で計算量が多い検出処理を行う領域を限定することにより、簡単な処理で遠隔操作を実現することができる。
このように、簡単な処理でジェスチャによる遠隔操作を行うことができるため、例えば家庭用電化製品のように比較的ハードウェアリソースの少ない機器でも、遠隔操作装置を実現することが可能になる。
また、特徴点存在範囲30,31の重なり合う領域34では、高精度で計算量が多い検出処理を行うようにしたため、複数の特徴点が接近して存在している場合であっても、これらを正確に区別して認識することができ、その結果、ユーザのジェスチャを正確に読み取ることができる。
また、特徴点としてユーザの手と頭とを用いることにより、ユーザの手を動かすジェスチャを頭の位置を基準として推定することが容易になる。
実施の形態2.
図7は、本発明の実施の形態2における特徴点存在範囲の推定処理の流れを示すフローチャートである。この実施の形態2における特徴点存在範囲の推定処理は、実施の形態1で説明した特徴点存在範囲推定部14(図1)により実行される特徴点存在範囲の推定処理(図6のステップS11)の一具体例に関するものである。
特徴点存在範囲の推定処理では、まず、撮像画像と、背景画像又は数フレーム前の画像との差分をとることにより、撮像画像のうち変化のあった部分を特定する(ステップS30)。さらに、その中から、前フレームの撮像画像において特徴点が存在していた位置の近傍を検索する(ステップS31)。フレームの時間間隔は、例えば60ms程度と短く、ジェスチャの最中であったとしても1フレーム間における特徴点の位置の変化は僅かである。そのため、前フレームの撮像画像において特徴点が存在していた位置の近傍には、現フレームでも特徴点が存在すると考えることができる。すなわち、撮像画像の変化のあった部分から、特徴点の存在する可能性の有る部分を絞り込むことができる。そこで、「撮像画像の変化のあった部分であって、前フレームでの特徴点の位置の近傍部分」を、特徴点存在範囲として推定する(ステップS32)。
ステップS30において撮像画像との差分をとる対象としては、予め撮影してある背景画像、又は、数フレーム前の撮像画像を用いることができる。差分を求める際には、各画素におけるRGB空間の値の差分を求めてもよいし、RGB空間を別の色空間、例えばHSV空間の値に変換した値による差分を求めてもよい。
背景画像との差分(以下、背景差分とする。)を用いた場合には、撮像画像を背景部分と前景部分とに区別することができる。さらに、背景部分は画像がほとんど変化していない部分であり、この部分に特徴点が含まれている可能性は低いため、ステップS32において特徴点存在範囲を推定する際に、特徴点存在範囲を撮像画像内の前景部分のみに絞り込むことができる。
なお、背景画像は、遠隔操作装置の起動時に撮像部10が自動撮影した背景画像であってもよいし、ユーザが装置本体のボタンなどを操作することにより撮像部10が撮影した背景画像であってもよい。但し、前景画像候補であるユーザが背景画像に含まれないように撮影する必要がある。
背景画像は、時間経過による照明変化の影響を軽減するために、逐次更新する(ステップS33)。更新は、一定周期で行われるものであってもよいし、急激な照明変化を検出した際に行われるものであってもよい。なお、照明変化が少ない場合の更新は、背景画像全体を一度に更新する代わりに、数フレームに分けて局所的に更新することにより(例えば、画像全体を1ブロック4×4のブロックで分割し、1フレームにつき各ブロック内の1画素のみを更新することにより)、処理を軽減することができる。
一方、ステップS30において、数フレーム前の撮像画像との差分(以下、フレーム間差分)を用いた場合には、この数フレームの間に生じた変化、主に撮影対象の動きを求めることができるため、ステップS32において、特徴点存在範囲を、動きのあった部分の周辺に絞り込むことが可能になる。なお、フレーム間差分を用いる場合は、1フレーム目の処理を行うことができないが、その場合には1フレーム目のみ背景差分を用い、2フレーム目からはフレーム間差分を行うことも可能である。
なお、2フレーム目以降では、背景差分とフレーム間差分の両方を用いるようにしてもよい。このようにすれば、特徴点存在範囲を、前景部分の中で特に動きのある部分として、さらに絞り込むことが可能になる。
ステップS30において、背景差分及びフレーム間差分を求める際には、1画素ずつ差分を求めてもよいし、複数の画素、例えば2×2の矩形領域の差分をまとめて求めてもよい。1画素ずつの差分を求める場合は、その1画素ずつの差分値に対して閾値処理を行うことで、前景部分及び動きのある部分を切り出すことができる。複数の画素の差分をまとめて求める場合は、複数の画素、例えば2×2の矩形領域同士の類似度を求め、その矩形領域の類似度に対して閾値処理を行うことで、前景部分及び動きのある部分を切り出すことができる。複数の画素の類似度としては、各1画素ずつの差分の平均値を用いてもよいし、例えば正規化相関のようなパターンマッチングを行うことで得られる相関値を用いてもよい。
特徴点存在範囲の形状は、矩形であってもよいし、検出対象の特徴点の形状特徴に応じて定義した形状、例えば楕円形であってもよい。なお、1フレーム目若しくは前フレームで特徴点が検出されなかった場合には、上記ステップS32において特徴点存在範囲を推定することができないため、撮像画像の全画素を対象として特徴点の検出処理を行う必要があるが、撮像部10の視野外から侵入してくる検出対象に対しては、例えば撮像画像の外周から数画素までの領域に限定して検出処理を行うことで対処することができる。
このように、実施の形態2によれば、撮像画像における特徴点存在範囲を推定することにより、後工程の特徴点検出処理において、特徴点存在範囲が重なり合う領域と重なり合わない領域とで検出処理の精度を分けることが可能になり、処理負担を軽減しつつ、ジェスチャによる遠隔操作を実現することができる。
特に、実施の形態2においては、撮像部10により取得した撮像画像と、背景画像又は数フレーム前の画像との差分から、撮像画像の変化した部分を求め、さらに前フレームでの特徴点位置に基づいて特徴点存在範囲を推定するようにしたので、撮像画像に含まれるノイズの影響を低減することができる。また、差分を求めるに際して、数画素をまとめて処理することにより、処理時間を短縮することが可能になる。
実施の形態3.
図8は、遠隔操作装置において読み取りの対象となるジェスチャの例を示す図である。ここでは、例えば、ユーザが右腕を左右に振るジェスチャ(A)、右腕を上下に振るジェスチャ(B)、及び、右腕を回転させるジェスチャ(C)などが考えられる。これらのジェスチャは、ユーザの両手2,3を特徴点として用いることで検出することができるが、実際に両手2,3のみを特徴点として用いたのでは、腕の振りと体全体の動きとが区別できない場合がある。そこで、ユーザの体の位置を推定するために、さらにユーザの頭(顔も含む)1を特徴点として用いる。
上記の特徴点1,2,3は、いずれも「肌色」という特徴があるため、特徴点を検出する際には、まず、上述した特徴点存在範囲内において、撮像画像中から肌色部分を検出する。肌色の検出は、RGB空間上で閾値処理を行ってもよいし、RGB空間を変換した別の色空間、例えば正規化色空間と呼ばれる色空間上で閾値処理を行ってもよい。さらに、肌色検出の結果を用い、肌色画素の塊を認識することで、特徴点候補点を検出する。
図9は、本発明の実施の形態3における特徴点検出処理の流れを示すフローチャートである。このフローチャートは、実施の形態1で説明した特徴点検出部15(図1)により実行されるステップS13〜S17(図6)の処理の一具体例である。
特徴点検出処理では、まず、実施の形態1で説明したように、特徴点存在範囲の重なり合いの有無を検出する(ステップS13)。特徴点存在範囲が重なり合う領域がある場合には、その重なり合う領域について、ラベリング法による高精度で計算量が多い検出処理を行い、複数の画素の塊をそれぞれ区別して検出し(ステップS50)、複数の「特徴点候補点」を得る(ステップS51)。なお、ラベリング法による検出処理は、同じ連結図形に属する画素には同じラベルを割り当て、異なった連結図形に属する画素には異なったラベルを割り当てるという処理であり、検出精度は高いが、計算量が多いため処理の負荷が大きいという特徴がある。
一方、特徴点存在範囲の重なり合っていない領域では、低精度で計算量が少ない色ヒストグラム法による検出処理を行い(ステップS52)、一つの画素の塊を検出する。画素の塊が一つのみ検出された場合には、その画素の塊を「特徴点候補点」とする。2つ以上の画素の塊が検出された場合には、例えば面積が最大のものを選択して、一つの「最大尤度特徴点候補点」とする(ステップS53)。なお、色ヒストグラム法による検出処理は、撮像画像における肌色画素の分布から特徴点存在範囲を特定する処理であり、計算量が少ないため処理の負荷は小さいが、検出精度はラベリング法よりも劣るものである。
さらに、ステップS51で得られた特徴点候補点と、ステップS53で得られた特徴点候補点(最大尤度特徴点候補点)とが連続するか否かを判断し、連続している場合には、これらを合わせて一つの「特徴点」とし、連続していない場合には、別々の「特徴点」とする(ステップS54)。
また、ステップS13において特徴点存在範囲の重なり合う領域が無かった場合には、低精度で計算量が少ない色ヒストグラム法による検出処理のみを行い、一つの画素の塊を検出し、これにより一つの「特徴点候補点」を得る(ステップS56)。2つ以上の画素の塊が検出された場合には、例えば面積が最大のものを選択して、「最大尤度特徴点候補点」を得る(ステップS57)。
色ヒストグラム法による検出処理のみを行った場合には、特徴点候補点の統合(ステップS54)は不要であるため、ステップS56〜57で取得した特徴点候補点(最大尤度特徴点候補点)を、そのまま「特徴点」とする。
ここでは、肌色情報を用いる特徴点検出処理について説明したが、肌色情報の他に、形状情報(輪郭線等)を用いる特徴点検出処理も可能である。すなわち、例えば、前景領域において輪郭線を抽出し、その中から楕円形のような単純な図形を当てはめることで、特徴点存在範囲を単純な図形内部として推定することができる。
この輪郭線を用いた検出処理では、特徴点存在範囲の重なり合う領域において、輪郭線を検出することにより、それぞれ輪郭線で外周を規定された複数の「特徴点候補点」を得る。特徴点存在範囲が重なり合わない領域では、輪郭線で外周を規定された一つの「特徴点候補点」を得て、また、複数の画素の塊が検出された場合には面積の最大のものを選択する等して一つの「最大尤度特徴点候補点」を得る。これにより、単純な図形の輪郭線で外周を規定された部分を特徴点候補点として近似することができる。この場合も、高精度で計算量が多い検出処理で得られた特徴点候補点と、低精度で計算量が少ない検出処理で得られた特徴点候補点(最大尤度特徴点候補点)とを統合することで、「特徴点」を得る。
また、この実施の形態3における特徴点の検出処理においては、頭や両手といった特徴点の重心位置に関する情報を、特徴点の検出に利用することができる。すなわち、特徴点の重心位置についての情報を予め記憶しておき、頭、右手、左手といった特徴点を相互に区別するために用いることができる。前フレームで特徴点存在範囲における各特徴点の区別が正しく行われていれば、それ以降の特徴点候補点の区別も正しく行われる。これに対し、前フレームの検出されていない特徴点については、例えば、頭は両手の上に存在することが多い、右手は頭や左手に対して右側に存在することが多い、左手は頭や右手に対して左側に存在することが多い、といった情報を予め記憶しておき、この情報に基づいて頭、右手、左手を判別することができる。
また、特徴点の重心位置に関する情報のほかに、特徴点候補点に接する図形(例えば楕円、矩形など)を用い、この図形の中心位置、形状、傾き等を、特徴点の位置及び姿勢の検出に利用することができる。例えば、特徴点候補領域に接する矩形を用いた場合には、その矩形の形状の変化によって、特徴点の位置だけでなく、手を広げているか閉じているかを検出することもできる。このようにすれば、ジェスチャ入力の種類を多様化することができる。また、特徴点の位置情報だけでは読み取り誤差が生じてしまうような場合に、図形の形状や傾きの情報を誤差の低減に利用することもできる。
以上説明したように、この実施の形態3によれば、色情報や形状情報(例えば輪郭線)を用いることにより、テンプレートマッチングのような複雑な処理を行わなくとも、特徴点としての両手や頭を検出することが可能となる。
また、特徴点の検出に、重心位置や特徴点に接する図形を利用することにより、ジェスチャ入力の種類を多様化することができ、また、特徴点の位置情報に含まれる誤差を軽減することができる。
実施の形態4.
図10は、実施の形態4に係るジェスチャ推定処理の流れを示すフローチャートである。この実施の形態4は、実施の形態1で説明したジェスチャ推定部16(図1)によるジェスチャ推定処理(図6のステップS19)の一具体例に関するものである。図11は、図10に示した処理で用いられる動きベクトルの一例を示す図である。
図10に示すジェスチャ推定処理では、まず、特徴点の検出処理(図6のステップS18)で検出された特徴点の位置情報に基づき、特徴点の動きを検出する(ステップS60)。特徴点の動きが検出されなかった場合には(ステップS61)、特徴点の動きを検出する処理(ステップS60)に戻る。特徴点の動きが検出された場合には、その動きに対応するジェスチャを推定する(ステップS62)。その後の処理は、図6(ステップS20,S21)を参照して説明したとおりである。
上述したステップS62において、特徴点の動きに対応するジェスチャを推定する際には、図11のように、特徴点のフレーム毎の動きベクトル80として、上(1)、左上(2)、左(3)、左下(4)、下(5)、右下(6)、右(7)、右上(8)の8方向の単位ベクトルで定義される「動きID81」を用い、この動きIDを用いて特徴点の動きを近似して表現する。ジェスチャ推定部16(図1)は、これらの動きID81をフレーム毎に組み合わせたものを、ユーザのジェスチャパターンに対応させて登録している。
図12(A)及び(B)は、ジェスチャ推定部16に記憶された、動きID81を組み合わせたジェスチャパターン列の例を示す図である。例えば、ユーザが手を上下に2度繰り返し動かすジェスチャAは、特徴点の動きが「上,下,上,下」となるため、図12(A)に示す1,5,1,5のジェスチャパターン列82と対応付けられる。また、ユーザが手を上下左右に動かすジェスチャBは、特徴点の動きが「上,下,左,右」となるため、図12(B)に示す1,5,3,7のジェスチャパターン列83が対応付けられる。
このジェスチャ推定処理では、特徴点の動きベクトルを、予め登録したジェスチャパターン列82,83と比較することで、ユーザのジェスチャの推定を行う。このジェスチャ推定処理においては、フレーム毎の特徴点の動きベクトルと、ジェスチャパターン列とを比較し、適当でないものをジェスチャパターンの選択肢から順次削除していくことが好ましい。
例えば、最初のフレームでの特徴点の動きベクトルが1(上)で、2フレーム目での特徴点の動きベクトルが5(下)であった場合には、ジェスチャA,Bの両方の可能性があるが、3フレーム目での特徴点の動きベクトルが1(上)であった場合には、ジェスチャB(3フレーム目は3)の可能性がなくなるため、この3フレーム目においてジェスチャBを選択肢から除外する。4フレーム目で特徴点の動きベクトルが5の場合には、ジェスチャAのパターン(1,5,1,5)と一致することが確認されるため、ユーザのジェスチャがジェスチャAであると判断する。このようにすれば、選択肢が徐々に狭まっていくため、ジェスチャ推定処理を簡単に行うことができる。
なお、図12(C)に示すように、ジェスチャパターン列に、ジェスチャの動きの速さの情報を加えることもできる。ジェスチャの動きの速さは、例えば、前フレームと現フレームとの間の変位の大きさを検出し、予め設定した基準値と比較することで、低速か高速かを判断する。この場合、例えば、ジェスチャパターン列の動きIDに続けて、低速及び高速を示す符号H,Lを付すことができる。一例として、ユーザが素早く上下に手を振るジェスチャには、1,H,5,H,1,H,5,Hというジェスチャパターン列を対応付けることができる。このようにすれば、定義可能なジェスチャパターンの種類を増やすことができる。
また、ユーザの手の動きが曖昧な場合もあるため、ジェスチャパターン列毎にに優先度を設定することが好ましい。例えば、ユーザの手の挙げ方が中途半端で、特徴点の動きが「上,下,上,下」か「右上,下,右上,下」かが曖昧な場合には、ジェスチャパターン列の「1,5,1,5」及び「1,2,1,2」の優先度を比較し、優先度の高い方を選択するようにすることが好ましい。
また、特徴点の動きベクトルとジェスチャパターンとの比較を随時行うためには、ユーザのジェスチャの開始時点を判別する必要がある。そこで、ユーザの手が一旦静止したことを確認してからジェスチャの推定を行うものとする。
このように、この実施の形態4によると、複数通りの方向を向いた単位ベクトル(動きベクトル)を用いることにより、特徴点の動きの方向を検出するだけで特徴点の動きを判断することができるため、ジェスチャの推定に要する計算量やメモリ消費量を小さくすることができる。
また、前フレームからの変位の大きさと基準値とを比較し、動きの速さに基づくジェスチャ推定を行うことにより、より多様なジェスチャパターンに対応した遠隔操作を実現することができる。
本発明の活用例として、既存の家庭用デジタル電化製品(デジタル家電)に適用することで、既存の赤外線リモコンを用いずその操作が可能になる。
この発明の実施の形態1に係る遠隔操作装置の構成を示すブロック図である。 この発明の実施の形態1における撮像画像の一例を示す図である。 この発明の実施の形態1における撮像画像の分割例を示す図である。 この発明の実施の形態1における撮像画像の分割方法を説明するための模式図である。 この発明の実施の形態1に係る特徴点存在範囲の統合を説明するための模式図である。 この発明の実施の形態1に係る遠隔操作処理の全体の流れを示すフローチャートである。 この発明の実施の形態2に係る特徴点存在範囲の推定処理を示すフローチャートである。 この発明の実施の形態3に係るジェスチャの一例を示す図である。 この発明の実施の形態3に係る特徴点検出処理の流れを示すフローチャートである。 この発明の実施の形態4に係るジェスチャ推定処理の流れを示すフローチャートである。 この発明の実施の形態4に係るジェスチャ推定処理で用いられる動きベクトルを示す図である。 この発明の実施の形態4に係るジェスチャ推定処理で用いられるジェスチャパターン列の一例を示す図である。
符号の説明
1 ジェスチャ認識部、 10 撮像部、 11 画像処理部、 12 認識処理部、 13 対象機器制御部、 14 特徴点存在範囲推定部、 15 特徴点検出部、 16 ジェスチャ推定部、 17 操作信号送信部、 20 領域境界、 21 特徴点の存在する可能性のある領域、 22 特徴点の存在する可能性のない領域、 30 特徴点1の存在領域、 31 特徴点2の存在領域、 32 特徴点1のみが存在する可能性のある領域、 33 特徴点2のみが存在する可能性のある領域、 34 特徴点1,2が存在する可能性のある領域、 80 動きベクトル、 81 動きID、 82,83 ジェスチャパターン列。

Claims (24)

  1. ユーザの像を含む撮像画像を取得する撮像手段と、
    前記撮像画像から特徴点を検出する特徴点検出手段と、
    検出された前記特徴点に基づき、前記ユーザのジェスチャを推定するジェスチャ推定手段と、
    前記ジェスチャに対応する操作信号を生成し、遠隔操作対象機器に送信する操作信号送信手段と
    を備え、
    前記特徴点検出手段は、前記撮像画像における第1の領域では第1の検出処理を行い、第2の領域では前記第1の検出処理よりも精度は低いが計算量が少ない第2の検出処理を行い、両検出処理の結果を統合することにより前記特徴点の検出を行う
    ことを特徴とする遠隔操作装置。
  2. 前記撮像画像において、前記特徴点が複数存在する可能性がある領域を前記第1の領域と推定し、前記特徴点が一つのみ存在する可能性がある領域を前記第2の領域と推定する特徴点存在範囲推定手段を更に備えたことを特徴とする請求項1に記載の遠隔操作装置。
  3. 前記特徴点検出手段は、前記特徴点として、ユーザの頭及び手を用いることを特徴とする請求項1又は2に記載の遠隔操作装置。
  4. 前記特徴点検出手段は、色情報に基づいて前記特徴点の検出を行うことを特徴とする請求項1から3までのいずれか1項に記載の遠隔操作装置。
  5. 前記特徴点検出手段は、輪郭線の情報に基づいて前記特徴点の検出を行うことを特徴とする請求項1から3までのいずれか1項に記載の遠隔操作装置。
  6. 前記特徴点検出手段は、前記特徴点の重心位置の情報を利用して、前記特徴点の検出を行うことを特徴とする請求項1から5までのいずれか1項に記載の遠隔操作装置。
  7. 前記特徴点検出手段は、前記特徴点に接する図形を利用して、前記特徴点の検出を行うことを特徴とする請求項1から5までのいずれか1項に記載の遠隔操作装置。
  8. 前記ジェスチャ推定手段は、前記特徴点の動きを、複数通りの方向を向いた単位ベクトルである動きベクトルを用いて表すことを特徴とする請求項1から7までのいずれか1項に記載の遠隔操作装置。
  9. 前記ジェスチャ推定手段は、前記動きベクトルの列で構成したパターンを用いて、推定対象のジェスチャを定義することを特徴とする請求項8に記載の遠隔操作装置。
  10. 前記ジェスチャ推定手段は、前記特徴点の動きを、複数通りの方向を向いた単位ベクトルである動きベクトルを用いて表し、前記特徴点の動きの速さを、基準値との比較結果により表すことを特徴とする請求項1から7までのいずれか1項に記載の遠隔操作装置。
  11. 前記ジェスチャ推定手段は、前記動きベクトルの列と、前記特徴点の動きの速さの前記基準値との比較結果とを組み合わせることにより、推定対象のジェスチャを定義することを特徴とする請求項10に記載の遠隔操作装置。
  12. 前記ジェスチャ推定手段は、ジェスチャの選択肢から、前記特徴点に基づいて不適合な選択肢を順次除外することにより、前記ジェスチャの推定を行うことを特徴とする請求項1から11までのいずれか1項に記載の遠隔操作装置。
  13. ユーザの像を含む撮像画像を取得する撮像ステップと、
    前記撮像画像から特徴点を検出する特徴点検出ステップと、
    検出された前記特徴点に基づき、前記ユーザのジェスチャを推定するジェスチャ推定ステップと、
    前記ジェスチャに対応する操作信号を生成し、遠隔操作対象機器に送信する操作信号送信ステップと
    を含み、
    前記特徴点検出ステップでは、前記撮像画像における第1の領域では第1の検出処理を行い、第2の領域では前記第1の検出処理よりも精度は低いが計算量が少ない第2の検出処理を行い、両検出処理の結果を統合することにより前記特徴点の検出を行う
    ことを特徴とする遠隔操作方法。
  14. 前記撮像画像において、前記特徴点が複数存在する可能性がある領域を前記第1の領域と推定し、前記特徴点が一つのみ存在する可能性がある領域を前記第2の領域と推定する特徴点存在範囲推定ステップを更に含むことを特徴とする請求項13に記載の遠隔操作方法。
  15. 前記特徴点検出ステップでは、前記特徴点として、ユーザの頭及び手を用いることを特徴とする請求項13又は14に記載の遠隔操作方法。
  16. 前記特徴点検出ステップでは、色情報に基づいて前記特徴点の検出を行うことを特徴とする請求項13から15までのいずれか1項に記載の遠隔操作方法。
  17. 前記特徴点検出ステップでは、輪郭線の情報に基づいて前記特徴点の検出を行うことを特徴とする請求項13から15までのいずれか1項に記載の遠隔操作方法。
  18. 前記特徴点検出ステップでは、前記特徴点の重心位置の情報を利用して、前記特徴点の検出を行うことを特徴とする請求項13から17までのいずれか1項に記載の遠隔操作方法。
  19. 前記特徴点検出ステップでは、前記特徴点に接する図形を利用して、前記特徴点の検出を行うことを特徴とする請求項13から17までのいずれか1項に記載の遠隔操作方法。
  20. 前記ジェスチャ推定ステップでは、前記特徴点の動きを、複数通りの方向を向いた単位ベクトルである動きベクトルを用いて表すことを特徴とする請求項13から19までのいずれか1項に記載の遠隔操作方法。
  21. 前記ジェスチャ推定ステップでは、前記動きベクトルの列で構成したパターンを用いて、推定対象のジェスチャを定義することを特徴とする請求項20に記載の遠隔操作方法。
  22. 前記ジェスチャ推定ステップでは、前記特徴点の動きを、複数通りの方向を向いた単位ベクトルである動きベクトルを用いて表し、前記特徴点の動きの速さを、基準値との比較結果により表すことを特徴とする請求項13から19までのいずれか1項に記載の遠隔操作方法。
  23. 前記ジェスチャ推定ステップでは、前記動きベクトルの列と、前記特徴点の動きの速さの前記基準値との比較結果とを組み合わせることにより、推定対象のジェスチャを定義することを特徴とする請求項22に記載の遠隔操作方法。
  24. 前記ジェスチャ推定ステップでは、ジェスチャの選択肢から、前記特徴点に基づいて不適合な選択肢を順次除外することで、前記ジェスチャを推定することを特徴とする請求項13から23までのいずれか1項に記載の遠隔操作方法。
JP2006144857A 2006-05-25 2006-05-25 遠隔操作装置及び方法 Expired - Fee Related JP4711885B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006144857A JP4711885B2 (ja) 2006-05-25 2006-05-25 遠隔操作装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006144857A JP4711885B2 (ja) 2006-05-25 2006-05-25 遠隔操作装置及び方法

Publications (2)

Publication Number Publication Date
JP2007316882A true JP2007316882A (ja) 2007-12-06
JP4711885B2 JP4711885B2 (ja) 2011-06-29

Family

ID=38850692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006144857A Expired - Fee Related JP4711885B2 (ja) 2006-05-25 2006-05-25 遠隔操作装置及び方法

Country Status (1)

Country Link
JP (1) JP4711885B2 (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271613A (ja) * 2008-05-01 2009-11-19 Burosukomu:Kk 情報入力方法、携帯端末、及びネットワークシステム
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
JP2010040052A (ja) * 2009-09-18 2010-02-18 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム
WO2010095191A1 (ja) * 2009-02-19 2010-08-26 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
WO2010096279A3 (en) * 2009-02-17 2010-11-18 Omek Interactive , Ltd. Method and system for gesture recognition
JP2011076255A (ja) * 2009-09-29 2011-04-14 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
US8013890B2 (en) 2008-05-28 2011-09-06 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method for recognizing an object with color
JP2011186576A (ja) * 2010-03-05 2011-09-22 Nec Corp 動作認識装置
JP2011209928A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 携帯端末
US8113991B2 (en) 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
JP2012123608A (ja) * 2010-12-08 2012-06-28 Nippon Syst Wear Kk ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2012515968A (ja) * 2009-01-21 2012-07-12 トムソン ライセンシング 顔検出及びホットスポットの動きによりメディアを制御する方法
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置
JP2013120502A (ja) * 2011-12-07 2013-06-17 Fujitsu Ltd 画像処理装置、画像処理方法
JP2013254377A (ja) * 2012-06-07 2013-12-19 Canon Inc 情報処理装置、およびその制御方法
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
JP2014044476A (ja) * 2012-08-24 2014-03-13 Fujitsu Ltd 画像処理装置、画像処理方法
EP2426576A3 (en) * 2010-09-07 2014-03-26 Sony Corporation Information processing device and information processing method
JP2014512620A (ja) * 2011-04-20 2014-05-22 クゥアルコム・インコーポレイテッド 仮想キーボードおよびその提供方法
JP2015001804A (ja) * 2013-06-14 2015-01-05 国立大学法人埼玉大学 ハンドジェスチャトラッキングシステム
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
JP2015197724A (ja) * 2014-03-31 2015-11-09 株式会社メガチップス ジェスチャー検出装置、ジェスチャー検出装置の動作方法および制御プログラム
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9910498B2 (en) 2011-06-23 2018-03-06 Intel Corporation System and method for close-range movement tracking
JP2018509670A (ja) * 2014-12-24 2018-04-05 ノキア テクノロジーズ オーユー モニタリング
CN111540059A (zh) * 2013-01-30 2020-08-14 英西图公司 提供加强环境感知的增强视频系统
CN112598691A (zh) * 2019-10-02 2021-04-02 佳能株式会社 图像处理装置、图像处理方法和存储介质
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302992A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970176B2 (en) 2007-10-02 2011-06-28 Omek Interactive, Inc. Method and system for gesture classification
JP2009271613A (ja) * 2008-05-01 2009-11-19 Burosukomu:Kk 情報入力方法、携帯端末、及びネットワークシステム
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
US8013890B2 (en) 2008-05-28 2011-09-06 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method for recognizing an object with color
US8113991B2 (en) 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
JP2012515968A (ja) * 2009-01-21 2012-07-12 トムソン ライセンシング 顔検出及びホットスポットの動きによりメディアを制御する方法
WO2010096279A3 (en) * 2009-02-17 2010-11-18 Omek Interactive , Ltd. Method and system for gesture recognition
CN102317977A (zh) * 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
US8824802B2 (en) 2009-02-17 2014-09-02 Intel Corporation Method and system for gesture recognition
WO2010095191A1 (ja) * 2009-02-19 2010-08-26 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US8879787B2 (en) 2009-02-19 2014-11-04 Sony Corporation Information processing device and information processing method
JP2010040052A (ja) * 2009-09-18 2010-02-18 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム
JP2011076255A (ja) * 2009-09-29 2011-04-14 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP2011186576A (ja) * 2010-03-05 2011-09-22 Nec Corp 動作認識装置
JP2011209928A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 携帯端末
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US9330470B2 (en) 2010-06-16 2016-05-03 Intel Corporation Method and system for modeling subjects from a depth map
US9513712B2 (en) 2010-09-07 2016-12-06 Sony Corporation Information processing device and information processing method
EP2426576A3 (en) * 2010-09-07 2014-03-26 Sony Corporation Information processing device and information processing method
US8744137B2 (en) 2010-09-07 2014-06-03 Sony Corporation Information processing device and information processing method
JP2012123608A (ja) * 2010-12-08 2012-06-28 Nippon Syst Wear Kk ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
JP2012137899A (ja) * 2010-12-27 2012-07-19 Hitachi Consumer Electronics Co Ltd 映像処理装置及び映像表示装置
JP2014512620A (ja) * 2011-04-20 2014-05-22 クゥアルコム・インコーポレイテッド 仮想キーボードおよびその提供方法
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
US9910498B2 (en) 2011-06-23 2018-03-06 Intel Corporation System and method for close-range movement tracking
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
JP2013120502A (ja) * 2011-12-07 2013-06-17 Fujitsu Ltd 画像処理装置、画像処理方法
US9213897B2 (en) 2011-12-07 2015-12-15 Fujitsu Limited Image processing device and method
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
JP2013254377A (ja) * 2012-06-07 2013-12-19 Canon Inc 情報処理装置、およびその制御方法
JP2014044476A (ja) * 2012-08-24 2014-03-13 Fujitsu Ltd 画像処理装置、画像処理方法
CN111540059A (zh) * 2013-01-30 2020-08-14 英西图公司 提供加强环境感知的增强视频系统
CN111540059B (zh) * 2013-01-30 2023-12-01 英西图公司 提供加强环境感知的增强视频系统
JP2015001804A (ja) * 2013-06-14 2015-01-05 国立大学法人埼玉大学 ハンドジェスチャトラッキングシステム
JP2015197724A (ja) * 2014-03-31 2015-11-09 株式会社メガチップス ジェスチャー検出装置、ジェスチャー検出装置の動作方法および制御プログラム
US10540542B2 (en) 2014-12-24 2020-01-21 Nokia Technologies Oy Monitoring
JP2018509670A (ja) * 2014-12-24 2018-04-05 ノキア テクノロジーズ オーユー モニタリング
CN112598691A (zh) * 2019-10-02 2021-04-02 佳能株式会社 图像处理装置、图像处理方法和存储介质
US11869196B2 (en) 2019-10-02 2024-01-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7446756B2 (ja) 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP4711885B2 (ja) 2011-06-29

Similar Documents

Publication Publication Date Title
JP4711885B2 (ja) 遠隔操作装置及び方法
US9412001B2 (en) Method and computer-readable recording medium for recognizing object using captured image
US9690388B2 (en) Identification of a gesture
KR101603017B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
US9268412B2 (en) Input apparatus having an input recognition unit and input recognition method by using the same
US8831282B2 (en) Imaging device including a face detector
US8644556B2 (en) Image processing apparatus and method and program
US9256324B2 (en) Interactive operation method of electronic apparatus
US8897490B2 (en) Vision-based user interface and related method
CN109076159A (zh) 电子设备及其操作方法
KR20110103842A (ko) 대상물 추적 장치, 대상물 추적 방법, 및 제어 프로그램
JP4682820B2 (ja) オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム
JP2011078009A (ja) 撮像装置および撮像装置用プログラム
JP2013228930A (ja) 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP2007052609A (ja) 手領域検出装置及び手領域検出方法、並びにプログラム
JP6157165B2 (ja) 視線検出装置及び撮像装置
JP3657463B2 (ja) 動作認識システムおよび動作認識プログラムを記録した記録媒体
JP5887264B2 (ja) 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
JP2009211563A (ja) 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム
WO2017113794A1 (zh) 手势动作识别方法、控制方法和装置以及腕式设备
JP2010079651A (ja) 動作認識装置、方法及びプログラム
JP2015184906A (ja) 肌色検出条件決定装置、肌色検出条件決定方法及び肌色検出条件決定用コンピュータプログラム
CN114613006A (zh) 一种远距离手势识别方法及装置
JP2016152467A (ja) 追尾装置、追尾方法及び追尾プログラム
KR20160025823A (ko) 깊이영상 기반 손영역 검출 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110322

LAPS Cancellation because of no payment of annual fees