JP2011076255A - ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム - Google Patents

ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム Download PDF

Info

Publication number
JP2011076255A
JP2011076255A JP2009225369A JP2009225369A JP2011076255A JP 2011076255 A JP2011076255 A JP 2011076255A JP 2009225369 A JP2009225369 A JP 2009225369A JP 2009225369 A JP2009225369 A JP 2009225369A JP 2011076255 A JP2011076255 A JP 2011076255A
Authority
JP
Japan
Prior art keywords
interest
point
gesture recognition
image
image frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009225369A
Other languages
English (en)
Other versions
JP5381569B2 (ja
Inventor
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009225369A priority Critical patent/JP5381569B2/ja
Publication of JP2011076255A publication Critical patent/JP2011076255A/ja
Application granted granted Critical
Publication of JP5381569B2 publication Critical patent/JP5381569B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】カメラにより得られる画像を利用してジェスチャを安定して認識する。
【解決手段】対象物の移動軌跡に基づいてジェスチャを認識するジェスチャ認識装置は、異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出する対象領域抽出部と、前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出する着目点抽出部と、前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定する移動方向判定部と、前記複数の画像フレームについての前記移動方向判定部の判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する移動軌跡検出部、を有する。
【選択図】図3

Description

本発明は、カメラにより得られる画像を利用してジェスチャを認識する装置、方法、およびプログラムに係わる。
表示装置に表示されている対象物を選択するインタフェースの1つとして、カメラにより得られる画像を利用して、ユーザの手の動きとして例えばジャンケンのパーの形など所定の形状を保ったまま動かした手の動きを検出するジェスチャ認識が提案および実用化されている。ジェスチャ認識によるインタフェースは、ユーザが特別な機器を装着することなく、ユーザを撮影するカメラを用意することで実現される。このため、ジェスチャ認識によるインタフェースは、キーボードやマウス等の入力装置が適さない環境(たとえば、公共スペースに設けられる大型ディスプレイ等を利用するインタラクション)への適用が期待されている。
ジェスチャ認識は、例えば、ユーザを撮影した動画像データからそのユーザの手の動きを検出することにより実現される。以下、図1を参照しながら、動画像データを利用してユーザの手の動きを検出する方法の一例を説明する。
図1において、画像フレーム1〜3は、カメラにより得られる動画像データの一部である。画像フレーム2は、画像フレーム1よりも後のピクチャであり、画像フレーム3は、画像フレーム2よりも後のピクチャである。また、画像フレーム1〜3は、ユーザの手101の画像を含んでいる。
ジェスチャ認識は、図1に示す方法では、手101に対応する領域内の特徴点を追跡することにより実現される。たとえば、画像フレーム1の特徴点a1は、画像フレーム2では特徴点a2として検出され、画像フレーム3では特徴点a3として検出される。この場合、手101は、特徴点a1から特徴点a2を経由して特徴点a3に至る経路で移動したものと判断される。これにより、ユーザがどのように手を動かしたのかが認識される。なお、動画像データからユーザの手に対応する領域を抽出して追跡することにより、特定の動作パターンを検出する方法は、例えば、非特許文献1に記載されている。
情報処理学会論文誌、Vol.44、No.SIG5(CVIM 6)、Apr.2003「拡張机型インタフェースのための複数指先の追跡とその応用」
図1に示す方法では、ジェスチャを安定して認識することは難しい。特に、ユーザの手の動きを検出する場合は、画像上で手の形状が大きく変化することがあり、また、手と背景(例えば、ユーザの衣服、或いはそのユーザの後ろで動く別の人)とを識別することが困難なことがあり、特徴点の追跡が難しい。
例えば、図1に示す例では、画像上で手101の形状が変化しており、画像フレーム2において、画像フレーム1の特徴点b1に対応する特徴点は検出されない。すなわち、特徴点b1の追跡は失敗している。この場合、手101の動きを検出することができない。また、画像フレーム2においては、ノイズ102が発生している。ノイズ102は、例えば、背景の動きに起因する。このとき、画像フレーム1の特徴点c1は、誤追跡により、画像フレーム2において特徴点c2として検出されたとすると、実際の手の動きとは異なるジェスチャが認識されてしまう。このように、特徴点を追跡する方法においては、特徴点の誤検出あるいは未検出が発生することがあり、安定してジェスチャを認識することができない。
本発明の課題は、カメラにより得られる画像を利用してジェスチャを安定して認識することである。
本発明の1つの態様のジェスチャ認識装置は、対象物の移動軌跡に基づいてジェスチャを認識する装置であって、異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出する対象領域抽出部と、前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出する着目点抽出部と、前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定する移動方向判定部と、前記複数の画像フレームについての前記移動方向判定部の判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する移動軌跡検出部、を有する。
本出願において開示される構成または方法によれば、カメラにより得られる画像を利用してジェスチャを安定して認識することができる。
ユーザの手の動きを検出する方法の一例を説明する図である。 ジェスチャ認識システムの一例を示す図である。 第1の実施形態のジェスチャ認識装置の構成を示す図である。 ジェスチャ認識装置の動作を説明する図である。 着目点の動きベクトルを計算する方法の一例を説明する図である。 方向領域について説明する図である。 遷移データ照合部の動作を説明する図である。 第1の実施形態のジェスチャ認識方法を示すフローチャートである。 第2の実施形態のジェスチャ認識方法を説明する図である。 アイコン画像データ格納部の実施例である。 第3の実施形態のジェスチャ認識方法を説明する図である。 複数の対象領域が抽出された画像フレームを示す図である。 ジェスチャ認識装置のハードウェア構成を示す図である。
図2は、実施形態のジェスチャ認識方法を提供するジェスチャ認識システムの一例を示す図である。ジェスチャ認識システムは、この実施例では、ジェスチャ認識装置1、カメラ2、表示装置3を備える。そして、ジェスチャ認識装置1は、この実施例では、コンピュータを用いてジェスチャ認識プログラムを実行することにより実現され、カメラ2により撮影される人物(以下、ユーザ)のジェスチャを認識する。
カメラ2は、表示装置3の正面方向(表示画面にほぼ垂直な方向)を撮影するように、表示装置3の近傍に設置されている。なお、カメラ2は、表示装置3に取り付けられていてもよいし、表示装置3に内蔵されていてもよい。また、カメラ2は、例えばデジタルビデオカメラであり、カメラ2により得られる動画像データはジェスチャ認識装置1に有線または無線通信により送信される。表示装置3はジェスチャ認識装置1に有線または無線通信により接続されており、カメラ2により撮影される動画像をリアルタイムで表示することができる。したがって、表示装置3の正面にユーザが位置すると、そのユーザを含む画像のデータがジェスチャ認識装置1に送信されると共に、そのユーザを含む画像が表示装置3に表示される。
ジェスチャ認識装置1は、カメラ2により得られる動画像データを利用して、表示装置3の正面に位置するユーザ(すなわち、カメラ2により撮影されるユーザ)のジェスチャを認識する。この実施例では、ジェスチャ認識装置1は、ユーザの手がどのような軌道パターンで動かされたのかを検出する。図2においては、ジェスチャ認識装置1は、ユーザが手で「輪」を描いたことを認識する。
なお、この実施例では、ユーザは、あたかも鏡に映った自分の姿を見ているかのように、表示装置3に表示されている自分の姿を見ながら所望のジェスチャを行うことができる。したがって、特に限定されるものではないが、表示装置3には、図2に示すように、カメラ2で得られる画像の左右反転画像が表示されるようにしてもよい。ただし、表示装置3は、実施形態のジェスチャ認識方法を実現するための必須の構成要素ではない。
<第1の実施形態>
図3は、第1の実施形態のジェスチャ認識装置1の構成を示す図である。ジェスチャ認識装置1は、この実施例では、対象領域抽出部11、着目点抽出部12、移動方向判定部13、移動軌跡検出部14を備える。そして、ジェスチャ認識装置1には、カメラ2により得られる動画像データが入力される。動画像データは、特に限定されるものではないが、例えば、30フレーム/秒である。なお、後述する第2および第3の実施形態においても、ジェスチャ認識装置の基本的な構成は同じである。
対象領域抽出部11は、異なる時刻に得られる複数の画像フレームにおいて、それぞれ対象物に対応する対象領域を抽出する。このとき、ジェスチャ認識装置1は、例えば、入力される動画像データを構成する各画像フレームにおいてそれぞれ対象領域を抽出する。ただし、対象領域抽出部11は、所定の割合で間引きが行われた動画像データの各画像フレームから対象領域を抽出するようにしてもよい。
上記対象物は、この実施例では、カメラ2により撮影されるユーザの「手」である。したがって、対象領域抽出部11は、各画像フレームにおいて、ユーザの手に対応する画像領域を抽出する。ユーザの手に対応する画像領域は、例えば、画素の色に基づいて抽出される。また、ジェスチャ認識装置1は、ユーザのジェスチャ(すなわち、「動き」)を検出して認識する。よって、対象領域抽出部11は、画像フレーム内で動いている領域を、ユーザの手に対応する画像領域として抽出するようにしてもよい。さらに、対象領域抽出部11は、上記2つの抽出条件を組み合わせてユーザの手に対応する画像領域を抽出するようにしてもよい。
図4は、ジェスチャ認識装置1の動作を説明する図である。図4(a)において、画像フレーム1〜3は、カメラ2により得られる動画像データの一部である。画像フレーム2は、画像フレーム1よりも後のピクチャであり、画像フレーム3は、画像フレーム2よりも後のピクチャである。ここで、画像フレーム1〜3は、例えば、連続する3枚の画像フレームであってもよい。
対象領域21は、この実施例では、上述したように、カメラ2により撮影されるユーザの手に対応する画像領域である。ここで、図4(a)に示す例では、時間経過に伴って、ユーザの手の位置が移動するとともに、その形状も変化している。このため、画像フレーム1〜3において、対象領域21の位置が移動しており、また、対象領域21の形状も変化している。なお、画像フレーム1、3においては、対象領域21のみが検出されているが、画像フレーム2においては、対象領域21および対象領域22が検出されている。対象領域22は、上述した抽出条件に従って検出された領域ではあるが、ユーザの手に対応する画像領域でないものとする。すなわち、対象領域22は、ノイズ画像領域である。なお、ノイズ画像領域は、例えば、ユーザの背景の動きに起因して生じる。
着目点抽出部12は、各画像フレームにおいて、それぞれ、対象領域抽出部11により抽出された対象領域(21、22)の中から、1以上の着目点を抽出する。この実施例では、各画像フレームにおいて複数の着目点が抽出される。画像フレーム1においては、対象領域21から着目点a1〜g1が抽出されている。また、画像フレーム2においては、対象領域21から着目点a2〜g2が抽出され、対象領域22から着目点h2が抽出されている。さらに、画像フレーム3においては、対象領域21から着目点a3〜g3が抽出されている。
着目点は、特に限定されるものではないが、画像上の特徴点である。特徴点は、画素値の変化が大きい点(または、画素値の変化が大きい位置の画素)であり、公知の技術(例えば、デジタルフィルタ)を利用して抽出することができる。なお、特徴点は、例えば、画像上のエッジの角に存在する。また、画素値は、例えば、各画素の輝度情報または色情報である。ここで、着目点として特徴点を使用すれば、後述する動きベクトル計算の精度が向上する。ただし、着目点は、特徴点である必要はなく、例えば、対象領域の重心点であってもよい。なお、着目点抽出部12は、画像フレーム毎に独立して、それぞれ、1以上の着目点を抽出することができる。すなわち、着目点抽出部12は、画像フレーム1において抽出される着目点a1〜g1とは無関係に、着目点a2〜g2、a3〜g3を抽出することができ、画像フレーム2において抽出される着目点a2〜g2とは無関係に、着目点a3〜g3を抽出することができる。このように、実施形態のジェスチャ認識方法においては、画像フレーム間で着目点(または、特徴点)を追跡する必要はなく、また、画像フレーム間で着目点を対応づける必要もない。
移動方向判定部13は、動きベクトル計算部13aおよびヒストグラム作成部13bを備える。そして、移動方向判定部13は、各画像フレームにおいて、対象領域抽出部11により抽出された対象領域の移動方向を判定する。ここで、対象領域の移動方向は、その対象領域から抽出された各着目点の移動方向に基づいて判定される。
動きベクトル計算部13aは、各着目点の動きベクトルを計算する。ここで、動画像データにおいて任意の画像領域の動きベクトルを計算する方法は、特に限定されるものではなく、公知の技術を利用することができる。
図5は、着目点の動きベクトルを計算する方法の一例を説明する図である。ここで、図5(a)は、着目点の動きベクトルを計算すべき画像フレーム(以下、当該フレーム)を示している。以下の説明では、図5(a)において、座標(4,4)に位置する画素が着目点であるものとする。また、図5(b)は、当該フレームの直前の画像フレームを示している。なお、図5(a)および図5(b)において、各画素に対応する数値は、たとえば、輝度情報などの画素値、または画像フレーム全体に対して所定のフィルタ演算を行った演算結果に相当する。
動きベクトル計算部13aは、まず、図5(a)に示す当該フレームにおいて、着目点画素および着目点画素に隣接する8個の画素を備える3×3画素領域(以下、領域41)を抽出する。続いて、動きベクトル計算部13aは、図5(b)に示す画像フレームにおいて、領域41と最も相関の高い3×3画素領域をサーチする。領域間の相関は、たとえば、対応する画素間の画素値の差分の絶対値の総和により計算される。この場合、例えば、総和が最小になる3×3画素領域が抽出される。図5に示す例では、破線枠で囲まれた領域42が検出される。そして、領域41、42間に座標の差分に基づいて、着目点の動きベクトルが算出される。この例では、当該フレームにおける着目点の座標が(4,4)であり、その直前のフレームの領域42の中心座標が(5,5)である。したがって、この着目点の動きベクトルとして「−1,−1」が得られる。なお、上記説明の座標系は、図5が示されている紙面において、右方向がX軸正方向であり、下方向がY軸正方向であるものとしている。
以下、同様に、動きベクトル計算部13aは、各画像フレームにおいて、各着目点の動きベクトルを計算する。なお、着目点の動きベクトルは、例えば、着目点を含む画像フレームおよびその直前の画像フレームを利用して計算されるが、これに限定されるものではない。すなわち、着目点を含む画像フレームおよびその画像フレームよりも2以上前の画像フレームを利用して動きベクトルが計算されてもよい。或いは、着目点を含む画像フレームおよびその画像フレームよりも後の画像フレームを利用して動きベクトルが計算されてもよい。
ヒストグラム作成部13bは、各画像フレームにおいて、各着目点の移動方向が、図6に示す方向領域1〜9のいずれに属すのかを判定する。例えば、図5に示す例では、着目点の移動ベクトルは「−1,−1」である。この場合、この着目点の移動方向は135°である。そうすると、この着目点は、方向領域4に属すると判定される。さらに、他の着目点についても、同様に、移動方向が属する方向領域が判定される。そして、ヒストグラム作成部13bは、各方向領域に属する着目点の数をカウントすることにより、移動方向ヒストグラムを作成する。
図4(b)は、図4(a)に示す画像フレーム1〜3について作成された移動方向ヒストグラムの例である。画像フレーム1においては、多くの着目点(例えば、a1、d1、e1、f1)が右方向または概ね右方向に移動している。したがって、画像フレーム1についてのヒストグラムでは、方向領域1(0〜40°)に属する着目点の個数が最も多くなっている。また、画像フレーム2においては、多くの着目点(例えば、b2、d2、f2、g2)が右下方向または概ね右下方向に移動している。したがって、画像フレーム2についてのヒストグラムでは、方向領域8(280〜320°)に属する着目点の個数が最も多くなっている。さらに、画像フレーム3についてのヒストグラムにおいては、方向領域7(240〜280°)に属する着目点の個数が最も多くなっている。
ヒストグラム作成部13bは、各画像フレームについて、作成した移動方向ヒストグラムに基づいて、対象領域21の移動方向を判定する。この例では、着目点の個数が最も多い方向領域(着目点の属する頻度が最も高い方向領域)が、対象領域21の尤らしい移動方向と判定される。したがって、図4に示す例では、画像フレーム1、2、3に対して、対象領域21の移動方向の判定結果として、それぞれ「1」「8」「7」が出力される。
移動軌跡検出部14は、遷移データ作成部14a、遷移データ照合部14b、ジェスチャ判定部14cを備える。そして、移動軌跡検出部14は、各画像フレームについての移動方向判定部13の判定結果を時系列に並べることにより生成されるデータに基づいて、対象物の移動軌跡を検出する。ここで、この時系列データは、各画像フレームにおける対照領域21の移動方向の時間変化を表している。したがって、以下では、この時系列データを、方向遷移データと呼ぶことがある。
遷移データ作成部14aは、各画像フレームにおける対象領域の移動方向の判定結果を時系列に並べることにより、方向遷移データを生成する。例えば、図4(a)に示す画像フレーム1〜3に対して、図4(b)に示す移動方向ヒストグラムが作成された場合は、判定結果「1」「8」「7」が得られる。この場合、図4(c)に示す方向遷移データが生成される。
遷移データ照合部14bは、遷移データ作成部14aにより生成された方向遷移データと、予め決められた移動軌跡を方向遷移データと同じ形式で表した参照パターンデータとを比較する。ここで、予め決められた移動軌跡が「円」であるものとする。移動軌跡が円である場合、対象物の移動方向は、時間経過に伴って連続的に変化する。すなわち、この場合、参照パターンデータは、例えば以下のように表される。なお、下記の例では、参照パターンデータは、18桁で表されている。
参照パターンデータ(円)=112233445566778899
また、この例では、下記の方向遷移データが得られているものとする。
方向遷移データ=132233455565678889
遷移データ照合部14bは、図7に示すように、桁ごとに、方向遷移データと参照パターンデータとの間の差分値の絶対値を計算する。ここで、方向遷移データの各桁の値は、上述したように、図6に示す方向領域(すなわち、対象領域21の移動方向)を表す。
遷移データ照合部14bは、各桁の差分絶対値の総和を計算する。図7に示す例では、「6」が得られている。さらに、遷移データ照合部14bは、この総和と予め設定されている照合閾値とを比較する。そして、この比較結果は、ジェスチャ判定部14cに与えられる。
ジェスチャ判定部14cは、上記総和が照合閾値よりも小さければ、方向遷移データにより表される移動軌跡と参照パターンデータにより表される移動軌跡が類似していると判定する。上述の例では、対象物(すなわち、カメラ2により撮影されるユーザの手)の移動軌跡が円であると判定される。換言すれば、ジェスチャ判定部14cは、ユーザが手で円を描くジェスチャを行った、と判定する。
図8は、第1の実施形態のジェスチャ認識方法を示すフローチャートである。ステップS1では、カメラ2により得られる動画像データの各画像フレームがジェスチャ認識装置1に入力される。ステップS2において、対象領域抽出部11は、各画像フレームにおいて、対象領域を抽出する。対象領域は、上述の例では、カメラ2により撮影されるユーザの手に対応する画像領域である。ステップS3において、着目点抽出部12は、各画像フレームにおいて、抽出されている対象領域から複数の着目点を抽出する。着目点は、例えば、画像の特徴点である。
ステップS4において、動きベクトル計算部13aは、各画像フレームにおいて、各着目点の動きベクトルを計算する。そして、動きベクトル計算部13aは、算出した動きベクトルに基づいて、各着目点の移動方向(上述の例では、図6に示す方向領域)を判定する。ステップS5において、ヒストグラム作成部13bは、各画像フレームについて、各着目点の移動方向についての出現頻度を表す移動方向ヒストグラムを作成する。画像フレームごとに作成された移動方向ヒストグラムは、ジェスチャ認識装置1が備えるメモリ領域に格納される。このとき、ジェスチャ認識装置1は、最新の数秒間分の画像フレームについての移動方向ヒストグラムのみを保持するようにしてもよい。
ステップS6において、遷移データ作成部14aは、各画像フレームについての移動方向ヒストグラムを参照し、最も出現頻度の高い移動方向を判定する。そして、遷移データ作成部14aは、各画像フレームについての判定結果(すなわち、対象領域の尤らしい移動方向を表すデータ)を時系列に並べることにより、方向遷移データを生成する。ステップS7において、遷移データ照合部14bは、作成された方向遷移データと参照パターンデータとの差分を計算する。参照パターンデータは、予め決められた特定のジェスチャを表す。
ステップS8において、ジェスチャ判定部14cは、方向遷移データと参照パターンデータとの差分と照合閾値とを比較する。そして、上記差分が照合閾値よりも小さければ、ジェスチャ判定部14cは、ユーザが上記特定のジェスチャを行ったと判定する。一方、上記差分が照合閾値以上であれば、ジェスチャ判定部14cは、ユーザが上記特定のジェスチャを行っていないと判定する。
このように、第1の実施形態のジェスチャ認識装置1は、画像フレームごとに対象領域(ユーザの手に対応する画像領域)を抽出するとともに、その対象領域から着目点を抽出する。そして、抽出された着目点について前画像フレームからの移動方向が特定され、その移動方向の時間変化に基づいて対象物(ユーザの手)の移動軌跡が検出される。すなわち、ユーザのジェスチャが認識される。これにより、画像上で対象物の位置および形状の時間変化が大きくても、その移動軌跡を検出することができる。
また、ジェスチャ認識装置1は、画像フレーム毎に複数の着目点を抽出し、各着目点の動きベクトル(すなわち、移動方向)を計算する。各着目点の移動方向は、所定角度幅ごとに出現数をカウントするヒストグラムで管理される。このヒストグラムを利用して、最も出現頻度の高い移動方向が特定され、この特定された移動方向が対象物の移動方向と判定される。このため、例えば、対象物(ユーザの手)の形状が変わることに起因して、各着目点の移動方向が一定でない場合であっても、対象物全体としての移動方向を精度よく検出できる。また、図4(a)に示すように、画像フレーム2においてノイズ(対象領域22)が発生しても、そのノイズの影響は適切に除去または抑制される。よって、第1の実施形態のジェスチャ認識装置1は、対象物の移動軌跡を精度よく検出でき、ユーザのジェスチャを精度よく認識できる。
次に、図1に示す方法と、第1の実施形態の方法とを比較する。図1に示す方法では、まず、ある画像フレームにおいて特徴点を抽出し、以降の画像フレームにおいてその特徴点が追跡される。すなわち、特徴点が複数の画像フレームに渡って時系列に対応づけられる。このため、ユーザの手の位置および形状の変化が大きいと、画像フレーム間で対応づけられるべき特徴点の検出が困難(或いは、不可能)である。
これに対して、第1の実施形態の方法によれば、各画像フレームにおいてそれぞれユーザの手に対応する領域から複数の着目点を抽出し、各着目点の移動方向を特定する。そして、最も出現頻度の高い移動方向に基づいて、支配的な移動方向が判定される。このとき、移動方向を判定する処理は、画像フレーム毎に独立して行うことができ、複数の画像フレームに渡って着目点を追跡して対応づける必要はない。このため、第1の実施形態の方法によれば、特徴点の誤検出あるいは未検出の問題が発生することはなく、認識精度が低下することはない。
なお、ユーザがカメラ2の前でジェスチャを行うとき、手の移動速度はユーザ毎に異なる。このため、ジェスチャ認識装置1は、データ長の異なる複数の参照パターンデータを保持し、方向遷移データを各参照パターンデータにそれぞれ照合するようにしてもよい。この場合、ジェスチャ認識装置1は、例えば、下記の参照パターンデータを保持する。
参照パターン(高速)=123456789
参照パターン(中速)=112233445566778899
参照パターン(低速)=111222333444555666777888999
あるいは、ジェスチャ認識装置1は、必要に応じて、参照パターンデータのデータ長に合わせるように、生成した方向遷移データのデータ長を伸張または圧縮するようにしてもよい。
また、ユーザが手で円を描くジェスチャをするとき、その移動軌跡の開始位置はユーザ毎に異なる。例えば、あるユーザは、円の最下点から軌道を開始するかも知れないし、他のユーザは円の最上点から軌道を開始するかも知れない。したがって、ジェスチャ認識装置1は、開始位置の異なる複数の参照パターンデータを保持し、方向遷移データを各参照パターンデータに照合するようにしてもよい。この場合、ジェスチャ認識装置1は、例えば、下記の参照パターンデータを保持する。
参照パターン=112233445566778899
参照パターン=223344556677889911
参照パターン=334455667788991122
参照パターン=445566778899112233
参照パターン=556677889911223344
参照パターン=667788991122334455
参照パターン=778899112233445566
参照パターン=889911223344556677
参照パターン=991122334455667788
さらに、ユーザが手で円を描くジェスチャをするとき、時計回りで円が描かれるかも知れないし、反時計回りで円が描かれるかも知れない。したがって、ジェスチャ認識装置1は、例えば下記の2つの参照パターンデータを保持し、方向遷移データを各参照パターンデータに照合するようにしてもよい。
参照パターン=112233445566778899
参照パターン=119988776655443322
また、上述の実施例では、各画像フレームについての移動方向ヒストグラムにおいて、それぞれ1つの移動方向が特定されているが、2以上の移動方向の出現頻度がほぼ同じになることがある。例えば、画像フレーム1において、方向領域1および方向領域2の出現頻度がほぼ同じ程度に高いものとする。この場合、移動軌跡検出部14は、画像フレーム1の方向領域データが「1」である第1の方向遷移データ、および画像フレーム1の方向領域データが「2」である第2の方向遷移データを生成する。そして、移動軌跡検出部14は、第1および第2の方向遷移データをそれぞれ参照パターンデータと照合する。このとき、第1または第2の方向遷移データのいずれか一方と参照パターンデータとの差分の総和が照合閾値よりも小さければ、移動軌跡検出部14は、ユーザが参照パターンデータに対応するジェスチャを行ったと判定することができる。
さらに、上述の実施例では、各画像フレームにおいて複数の着目点が抽出され、各着目点の移動方向に基づいてジェスチャが認識されるが、本発明はこれに限定されるものではない。すなわち、各画像フレームにおいて対象領域から1つの着目点を抽出し、その着目点の移動方向に基づいてジェスチャを認識するようにしてもよい。ただし、各画像フレームにおいて抽出する着目点の数を多くすれば、ジェスチャの認識精度は高くなる。
さらに、上述の実施例では、ジェスチャ認識装置1は、ユーザが手で「円」を描くジェスチャを認識するが、本発明はこれに限定されるものではない。すなわち、第1の実施形態のジェスチャ認識装置1は、他のジェスチャを認識してもよい。たとえば、ジェスチャ認識装置1は、一筆書きで描くことができる図形、文字、数字などを認識することができる。この場合、ジェスチャ認識装置1は、各図形、文字、数字に対応する参照パターンデータを保持し、各画像フレームから作成される方向遷移データを各参照パターンデータに照合することにより、ユーザのジェスチャを認識する。
<第2の実施形態>
第2の実施形態のジェスチャ認識装置は、図9に示すように、カメラ2により得られる動画像に所望の画像を重畳させることができる。重畳される画像は、特に限定されるものではないが、例えば、ユーザにより選択される対象を表す画像(以下、アイコン画像)である。図9では、アイコン23〜25が表示装置3に表示されている。この場合、表示装置3の正面にユーザが位置すると、表示装置3には、カメラ2で撮影されたユーザの画像およびアイコン23〜25が重畳して表示される。このとき、ユーザは、表示装置3に表示されている自分の姿(および重畳表示されているアイコン23〜25)を見ることができる。
ユーザは、表示装置3に表示されている所望のアイコンを選択する場合には、表示装置3の画面上で、選択したいアイコンの近傍領域で自分の手に対応する画像が円を描くように、自分の手を動かす。図9に示す例では、アイコン23が選択される。このとき、ジェスチャ認識装置1は、アイコン23の近傍領域において、ユーザの手に対応する対象領域の移動軌跡が円であることを検出すると、ユーザがアイコン23を選択したものと判断する。
第2の実施形態のジェスチャ認識装置1は、図3に示す構成に加えて、点線で示すアイコン画像データ格納部31および画像重畳部32を備える。アイコン画像データ格納部31には、図10に示すように、表示装置3に重畳して表示する各アイコンについて、画像データ、表示位置データ、および判定領域データが格納されている。画像データは、例えば、表示すべきアイコンのビットマップデータである。表示位置データは、表示装置3の表示画面上でのアイコンの表示領域の中心座標を表す。判定領域データは、表示装置3の表示画面において、対象物の移動軌跡を検出するための判定領域の範囲を指定する。この例では、判定領域は長方形であり、左上角および右下角の座標が格納されている。
画像重畳部32は、カメラ2から入力される動画像データの各画像フレームにアイコン画像を重畳することにより表示データを作成する。各アイコンの表示位置は、アイコン画像データ格納部31に格納されている表示位置データに従う。そして、表示装置3は、表示データに従ってカメラ画像およびアイコン画像を重畳して表示する。
対象領域抽出部11は、各画像フレームにおいて、対象領域(ここでは、ユーザの手に対応する画像領域)を抽出する。ただし、第2の実施形態では、対象領域抽出部11は、画像フレーム全体から対象領域を抽出するのではなく、判定領域データにより指定される判定領域内で対象領域を抽出するようにしてもよい。図9に示す例では、アイコン23〜25に対してそれぞれ判定領域26〜28が設定されている。なお、判定領域26〜28は、図9では破線で描かれているが、表示装置3の画面上には表示されない。ただし、表示装置3に判定領域が表示されるようにしてもよい。
着目点抽出部12、移動方向判定部13、移動軌跡検出部14の動作は、基本的に、図2〜図8を参照しながら説明した手順と同じである。すなわち、対象領域から複数の着目点が抽出され、各着目点の移動方向が計算され、出現頻度の高い移動方向に基づいて各画像フレームにおける対象物の移動方向が判定される。そして、対象物の移動方向の時間変化に基づいてその対象物の移動軌跡が検出される。
ただし、第2の実施形態のジェスチャ認識装置は、ユーザのジェスチャによる対象物の移動軌跡が、いずれの判定領域26〜28において検出されたのかを特定する機能を備えている。そして、例えば、判定領域26において予め決められた所定の移動軌跡(この例では、円を描く軌跡)が検出されたときは、ジェスチャ認識装置は、ユーザによりアイコン23が選択されたと判断する。この場合、ジェスチャ認識装置(または、ジェスチャ認識装置に接続された他のコンピュータ)は、選択されたアイコンに対応する処理を実行する。
このように、第2の実施形態のジェスチャ認識装置は、ユーザのジェスチャを認識することにより、表示装置3に表示された選択対象物の中からユーザが選択した対象物を検出することができる。なお、第2の実施形態では、判定領域についてのみ画像処理(領域抽出、着目点抽出、動きベクトル計算など)を行うようにすれば、ジェスチャ認識装置の処理量を少なくなる。
<第3の実施形態>
第3の実施形態のジェスチャ認識装置は、第1または第2の実施形態と同様に、対象領域抽出部11、着目点抽出部12、移動方向判定部13、移動軌跡検出部14を備え、対象物の移動方向の時間変化に基づいて移動軌跡を検出する。そして、第3の実施形態のジェスチャ認識装置は、画像フレーム上での対象物の位置情報の時間変化を表すデータを利用して、上記移動軌跡の検出処理を補完する。以下、図11を参照しながら第3の実施形態について説明する。
第3の実施形態においても、対象領域抽出部11は、各画像フレームにおいて、対象領域(ユーザの手に対応する画像領域)を抽出する。続いて、ジェスチャ認識装置は、各画像フレームにおいて、抽出した対象領域の重心位置を計算する。重心位置は、たとえば、着目点抽出部12により抽出された複数の着目点の重心座標を計算することにより得られる。重心位置は、図11に示す位置検出ブロック1〜9によって表される。なお、位置検出ブロックは、画像フレームまたはその一部領域を複数の領域に分割することで設定される。
第3の実施形態のジェスチャ認識装置は、各画像フレームの重心位置を時系列に並べることにより得られる位置遷移データと、参照パターンデータとを比較する。この参照パターンは、位置遷移データと同じデータ形式であり、所定のジェスチャに対応する対象物の移動軌跡を表す。ここで、対象物の移動軌跡が円であるものとすると、対象物は、画像フレーム上で、図11に示すように、例えば、位置検出ブロック1から、位置検出ブロック2、3、6、9、8、7、4を順番に通過した後に、位置対象ブロック1に戻る経路を移動する。この場合、参照パターンデータは、例えば以下のように表される。なお、下記の例では、参照パターンデータは、19桁で表されている。
参照パターンデータ(円)=1122336699887744112
また、この例では、各画像フレームの対象領域の重心位置を時系列に並べることにより、下記の位置遷移データが得られているものとする。
遷移データ=1122233669888774411
続いて、ジェスチャ認識装置は、位置遷移データと参照パターンデータとの相違度を計算する。相違度は、桁ごとに、位置遷移データおよび参照パターンデータの値の差分の絶対値を算出し、各差分絶対値の和を計算することで得られる。そして、この相関度が予め決められた閾値よりも小さければ、対象物の移動軌跡が円であると判定される。
なお、ジェスチャ認識装置は、位置遷移データと参照パターンデータとの間の相関度を計算してもよい。相関度は、桁ごとに、位置遷移データおよび参照パターンデータの値を互いに比較し、一致している桁の数をカウントすることで得られる。この場合、相関度が予め決められた閾値よりも高ければ、対象物の移動軌跡が円であると判定される。
さらに、ジェスチャ認識装置は、対象物の移動方向の時間変化に基づく検出結果と、対象物の位置情報の時間変化に基づく検出結果とを比較する。そして、これらの検出結果が互いに一致していれば、その検出結果を出力する。例えば、移動方向の時系列データに基づいて得られる移動軌跡が円であり、位置情報の時系列データに基づいて得られる移動軌跡も円であった場合に、ジェスチャ認識装置は、ユーザが円を描くジェスチャを行ったと認識する。一方、移動方向の時系列データに基づいて得られる移動軌跡が円であっても、位置情報の時系列データに基づいて同様の検出結果が得られなければ、ジェスチャ認識装置は、ユーザが円を描くジェスチャを行ったと認識しないようにすることができる。したがって、第3の実施形態によれば、ユーザのジェスチャの認識精度がさらに向上する。
このように、第3の実施形態では、画像上での対象物の移動方向に基づいてその対象物の移動軌跡が検出され、さらに、画像上での対象物の位置情報を利用してその検出処理が補完される。したがって、例えば、図12に示すように、対象領域抽出部11により複数の対象領域21、22が検出され、各対象領域上の着目点の移動方向が互いに異なっている場合などにおいて、対象物の移動軌跡の検出精度が向上する。或いは、ユーザのジェスチャを誤って認識する可能性が低下する。
なお、第1〜第3の実施形態の構成および動作は、互いに矛盾の生じない限りにおいて任意に組み合わせるようにしてもよい。
<ジェスチャ認識装置のハードウェア構成>
図13は、ジェスチャ認識装置のハードウェア構成を示す図である。図13において、CPU51は、メモリ53を利用してジェスチャ認識プログラムを実行することにより、実施形態のジェスチャ認識方法を提供する。記憶装置52は、例えばハードディスクであり、ジェスチャ認識プログラムを格納する。なお、記憶装置52は、外部記録装置であってもよい。メモリ53は、例えば半導体メモリであり、RAM領域およびROM領域を含んで構成される。なお、参照パターンデータは、例えば、記憶装置52またはメモリ53に格納される。
読み取り装置54は、CPU51の指示に従って可搬型記録媒体55にアクセスする。可搬性記録媒体55は、例えば、半導体デバイス、磁気的作用により情報が入出力される媒体、光学的作用により情報が入出力される媒体を含むものとする。通信インタフェース56は、CPU51の指示に従って、ネットワークを介してデータを送受信する。入出力装置57は、例えば、ユーザからの指示を受け付けるデバイス等に相当する。
実施形態に係わるジェスチャ認識プログラムは、例えば、下記の形態で提供される。
(1)記憶装置52に予めインストールされている。
(2)可搬型記録媒体55により提供される。
(3)プログラムサーバ60からダウンロードする。
そして、上記構成のコンピュータでジェスチャ認識プログラムを実行することにより、実施形態に係わるジェスチャ認識装置が実現される。すなわち、上記構成のコンピュータでジェスチャ認識プログラムを実行することにより、対象領域抽出部11、着目点抽出部12、移動方向判定部13、移動軌跡検出部14の一部または全部が実現される。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
対象物の移動軌跡に基づいてジェスチャを認識するジェスチャ認識装置であって、
異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出する対象領域抽出部と、
前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出する着目点抽出部と、
前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定する移動方向判定部と、
前記複数の画像フレームについての前記移動方向判定部の判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する移動軌跡検出部、
を有するジェスチャ認識装置。
(付記2)
付記1に記載のジェスチャ認識装置であって、
前記着目点抽出部は、前記複数の画像フレームのそれぞれにおいて、前記対象領域の中から複数の着目点を抽出し、
前記移動方向判定部は、前記複数の画像フレームのそれぞれにおいて、各着目点の移動方向に基づいて、前記対象領域の尤らしい移動方向を判定する
ことを特徴とするジェスチャ認識装置。
(付記3)
付記2に記載のジェスチャ認識装置であって、
前記移動方向判定部は、前記複数の画像フレームのそれぞれにおいて、各着目点の移動方向が、所定角度に区切られた複数の方向領域のいずれに属すのかを決定し、前記着目点の移動方向が属する頻度が高い方向領域に基づいて、前記尤らしい移動方向を判定する
ことを特徴とするジェスチャ認識装置。
(付記4)
付記3に記載のジェスチャ認識装置であって、
第1および第2の方向領域において前記着目点の移動方向が属する頻度が高いときは、前記移動軌跡検出部は、前記第1の方向領域に基づいて判定される移動方向を含む第1の遷移データおよび前記第2の方向領域に基づいて判定される移動方向を含む第2の遷移データを利用して、前記対象物の移動軌跡を検出する
ことを特徴とするジェスチャ認識装置。
(付記5)
付記1〜4のいずれか1つに記載のジェスチャ認識装置であって、
人物を撮影したカメラ画像に選択対象画像を重畳することで画像フレームを生成する画像重畳部、をさらに備え、
前記対象物は、前記人物の手であり、
前記対象領域抽出部は、前記画像フレーム内の前記選択対象画像を含む所定の判定領域において、前記人物の手に対応する対象領域を抽出する
ことを特徴とするジェスチャ認識装置。
(付記6)
付記1〜5のいずれか1つに記載のジェスチャ認識装置であって、
前記移動軌跡検出部は、予め決められた移動軌跡を表す参照パターンデータと前記遷移データとを比較することにより、前記対象物の移動軌跡を検出する
ことを特徴とするジェスチャ認識装置。
(付記7)
付記1〜6のいずれか1つに記載のジェスチャ認識装置であって、
移動軌跡検出部は、前記複数の画像フレームを利用して前記対象物の位置の時間変化を表す位置情報を生成し、前記遷移データおよび前記位置情報に基づいて前記対象物の移動軌跡を検出する
ことを特徴とするジェスチャ認識装置。
(付記8)
対象物の移動軌跡に基づいてジェスチャを認識するために、コンピュータを、
異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出する対象領域抽出部、
前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出する着目点抽出部、
前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定する移動方向判定部、
前記複数の画像フレームについての前記移動方向判定部の判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する移動軌跡検出部、
として機能させるためのジェスチャ認識プログラム。
(付記9)
対象物の移動軌跡に基づいてジェスチャを認識するジェスチャ認識方法であって、
異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出し、
前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出し、
前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定し、
前記複数の画像フレームについての前記判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する、
ことを特徴とするジェスチャ認識方法。
1 ジェスチャ認識装置
2 カメラ
3 表示装置
11 対象領域抽出部
12 着目点抽出部
13 移動方向判定部
13a 動きベクトル計算部
13b ヒストグラム作成部
14 移動軌跡検出部
14a 遷移データ作成部
14b 遷移データ照合部
14c ジェスチャ判定部
31 アイコン画像データ格納部
32 画像重畳部

Claims (7)

  1. 対象物の移動軌跡に基づいてジェスチャを認識するジェスチャ認識装置であって、
    異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出する対象領域抽出部と、
    前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出する着目点抽出部と、
    前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定する移動方向判定部と、
    前記複数の画像フレームについての前記移動方向判定部の判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する移動軌跡検出部、
    を有するジェスチャ認識装置。
  2. 請求項1に記載のジェスチャ認識装置であって、
    前記着目点抽出部は、前記複数の画像フレームのそれぞれにおいて、前記対象領域の中から複数の着目点を抽出し、
    前記移動方向判定部は、前記複数の画像フレームのそれぞれにおいて、各着目点の移動方向に基づいて、前記対象領域の尤らしい移動方向を判定する
    ことを特徴とするジェスチャ認識装置。
  3. 請求項2に記載のジェスチャ認識装置であって、
    前記移動方向判定部は、前記複数の画像フレームのそれぞれにおいて、各着目点の移動方向が、所定角度に区切られた複数の方向領域のいずれに属すのかを決定し、前記着目点の移動方向が属する頻度が高い方向領域に基づいて、前記尤らしい移動方向を判定する
    ことを特徴とするジェスチャ認識装置。
  4. 請求項1〜3のいずれか1つに記載のジェスチャ認識装置であって、
    人物を撮影したカメラ画像に選択対象画像を重畳することで画像フレームを生成する画像重畳部、をさらに備え、
    前記対象物は、前記人物の手であり、
    前記対象領域抽出部は、前記画像フレーム内の前記選択対象画像を含む所定の判定領域において、前記人物の手に対応する対象領域を抽出する
    ことを特徴とするジェスチャ認識装置。
  5. 請求項1〜4のいずれか1つに記載のジェスチャ認識装置であって、
    移動軌跡検出部は、前記複数の画像フレームを利用して前記対象物の位置の時間変化を表す位置情報を生成し、前記遷移データおよび前記位置情報に基づいて前記対象物の移動軌跡を検出する
    ことを特徴とするジェスチャ認識装置。
  6. 対象物の移動軌跡に基づいてジェスチャを認識するために、コンピュータを、
    異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出する対象領域抽出部、
    前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出する着目点抽出部、
    前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定する移動方向判定部、
    前記複数の画像フレームについての前記移動方向判定部の判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する移動軌跡検出部、
    として機能させるためのジェスチャ認識プログラム。
  7. 対象物の移動軌跡に基づいてジェスチャを認識するジェスチャ認識方法であって、
    異なる時刻に得られる複数の画像フレームにおいて、それぞれ、前記対象物に対応する対象領域を抽出し、
    前記複数の画像フレームにおいて、それぞれ、前記対象領域の中から着目点を抽出し、
    前記複数の画像フレームにおいて、それぞれ、前記着目点の移動方向に基づいて前記対象領域の移動方向を判定し、
    前記複数の画像フレームについての前記判定結果を時系列に並べることにより得られる遷移データに基づいて、前記対象物の移動軌跡を検出する、
    ことを特徴とするジェスチャ認識方法。
JP2009225369A 2009-09-29 2009-09-29 ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム Expired - Fee Related JP5381569B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009225369A JP5381569B2 (ja) 2009-09-29 2009-09-29 ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009225369A JP5381569B2 (ja) 2009-09-29 2009-09-29 ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム

Publications (2)

Publication Number Publication Date
JP2011076255A true JP2011076255A (ja) 2011-04-14
JP5381569B2 JP5381569B2 (ja) 2014-01-08

Family

ID=44020190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009225369A Expired - Fee Related JP5381569B2 (ja) 2009-09-29 2009-09-29 ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム

Country Status (1)

Country Link
JP (1) JP5381569B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123608A (ja) * 2010-12-08 2012-06-28 Nippon Syst Wear Kk ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
KR20130081126A (ko) * 2012-01-06 2013-07-16 한국전자통신연구원 손 제스처 인식 방법 및 그 장치
KR20130116013A (ko) * 2012-04-13 2013-10-22 삼성전자주식회사 카메라 장치 및 그의 제어 방법
EP2793102A2 (en) 2013-03-18 2014-10-22 Fujitsu Limited Information processing device
US8913117B2 (en) 2011-08-19 2014-12-16 Fujitsu Limited Image processing apparatus and image processing method
EP2908218A1 (en) 2014-02-14 2015-08-19 Omron Corporation Gesture recognition apparatus and control method of gesture recognition apparatus
KR20150106824A (ko) 2014-03-12 2015-09-22 오므론 가부시키가이샤 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2016521894A (ja) * 2013-06-14 2016-07-25 クアルコム,インコーポレイテッド 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
KR101803574B1 (ko) 2011-07-06 2017-12-28 엘지디스플레이 주식회사 비젼 기반의 제스쳐 인식 시스템
JP2018085087A (ja) * 2016-11-14 2018-05-31 アイシン精機株式会社 動作判定装置
KR101870292B1 (ko) 2011-08-26 2018-06-25 엘지디스플레이 주식회사 사용자 제스처 인식 방법 및 장치와, 이를 사용하는 전기 사용 장치
CN108780581A (zh) * 2016-03-31 2018-11-09 索尼公司 信息处理装置、信息处理方案以及程序
CN110083300A (zh) * 2019-04-08 2019-08-02 南京航空航天大学 一种基于距离变化的手势数据提取方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134388A (ja) * 2001-10-26 2003-05-09 Fujitsu Ltd 補正画像生成装置および補正画像生成プログラム
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置
JP2007316882A (ja) * 2006-05-25 2007-12-06 Mitsubishi Electric Corp 遠隔操作装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134388A (ja) * 2001-10-26 2003-05-09 Fujitsu Ltd 補正画像生成装置および補正画像生成プログラム
JP2004246578A (ja) * 2003-02-13 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2007316882A (ja) * 2006-05-25 2007-12-06 Mitsubishi Electric Corp 遠隔操作装置及び方法
JP2007164814A (ja) * 2007-02-09 2007-06-28 Toshiba Corp インタフェース装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123608A (ja) * 2010-12-08 2012-06-28 Nippon Syst Wear Kk ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
KR101803574B1 (ko) 2011-07-06 2017-12-28 엘지디스플레이 주식회사 비젼 기반의 제스쳐 인식 시스템
US8913117B2 (en) 2011-08-19 2014-12-16 Fujitsu Limited Image processing apparatus and image processing method
KR101870292B1 (ko) 2011-08-26 2018-06-25 엘지디스플레이 주식회사 사용자 제스처 인식 방법 및 장치와, 이를 사용하는 전기 사용 장치
KR20130081126A (ko) * 2012-01-06 2013-07-16 한국전자통신연구원 손 제스처 인식 방법 및 그 장치
KR101868520B1 (ko) * 2012-01-06 2018-06-19 한국전자통신연구원 손 제스처 인식 방법 및 그 장치
KR20130116013A (ko) * 2012-04-13 2013-10-22 삼성전자주식회사 카메라 장치 및 그의 제어 방법
KR102070598B1 (ko) * 2012-04-13 2020-01-29 삼성전자주식회사 카메라 장치 및 그의 제어 방법
EP2793102A2 (en) 2013-03-18 2014-10-22 Fujitsu Limited Information processing device
JP2016521894A (ja) * 2013-06-14 2016-07-25 クアルコム,インコーポレイテッド 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法
EP2908218A1 (en) 2014-02-14 2015-08-19 Omron Corporation Gesture recognition apparatus and control method of gesture recognition apparatus
KR20150106824A (ko) 2014-03-12 2015-09-22 오므론 가부시키가이샤 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
CN108780581A (zh) * 2016-03-31 2018-11-09 索尼公司 信息处理装置、信息处理方案以及程序
CN108780581B (zh) * 2016-03-31 2023-04-11 索尼公司 信息处理装置、信息处理方案以及程序
JP2018085087A (ja) * 2016-11-14 2018-05-31 アイシン精機株式会社 動作判定装置
CN110083300A (zh) * 2019-04-08 2019-08-02 南京航空航天大学 一种基于距离变化的手势数据提取方法
CN110083300B (zh) * 2019-04-08 2022-01-11 南京航空航天大学 一种基于距离变化的手势数据提取方法

Also Published As

Publication number Publication date
JP5381569B2 (ja) 2014-01-08

Similar Documents

Publication Publication Date Title
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP6158446B2 (ja) 表示の区分およびビデオフレームのクラスタ化のためのオブジェクトの選択およびトラッキング
EP2941756B1 (en) Rendering augmented reality based on foreground object
CN105830093B (zh) 用于产生与非均匀大小的空间区相关的元数据的系统、方法及设备
JP6961363B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
CN108762505B (zh) 基于手势的虚拟对象控制方法、装置、存储介质和设备
JP2018507476A (ja) コンピュータビジョンに関する遮蔽処理
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
CN104487915A (zh) 维持扩增的连续性
WO2011161579A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP2011134114A (ja) パターン認識方法およびパターン認識装置
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
JP6283008B2 (ja) 追跡装置
KR101439037B1 (ko) 영상에서 객체를 추적하는 방법 및 장치
JP5776471B2 (ja) 画像表示システム
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
CN111986229A (zh) 视频目标检测方法、装置及计算机系统
JP6030457B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2010113562A (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Siam et al. Human computer interaction using marker based hand gesture recognition
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
Adorno et al. Smartphone-based floor detection in unstructured and structured environments
WO2023017723A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130916

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees