JP4613142B2 - ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 - Google Patents
ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 Download PDFInfo
- Publication number
- JP4613142B2 JP4613142B2 JP2006101205A JP2006101205A JP4613142B2 JP 4613142 B2 JP4613142 B2 JP 4613142B2 JP 2006101205 A JP2006101205 A JP 2006101205A JP 2006101205 A JP2006101205 A JP 2006101205A JP 4613142 B2 JP4613142 B2 JP 4613142B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- vector
- gesture
- gesture recognition
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
HMM以外の手法としては、ダイナミックプログラミング(以下、DP(dynamic programming)と言う)マッチングがある(例えば、非特許文献2参照)。DPマッチングは特に複雑な処理を行う必要がなく認識結果が良好である。ただし認識にはジェスチャの開始と終了を指定する必要がある。
Masato Aoba and Yoshiyasu Takefuji:"Motion feature extraction usingsecond-order neural network and self-organizing map for gesture recognition",情報処理学会研究報,2004-MPS-52,pp.5-8,2004年12月 Osaki, R., Shimada, M. and Uehara, K. : Extraction of primitivemotions by using clustering and segmentation of motion-captured data, JSAIVol.15, No.5, pp.878-886,(2000).
またジェスチャ全体でマッチングしているため、動作終了から認識処理を開始し、処理時間がかかってしまう。
したがって、本発明の課題は、ジェスチャの始めと終わりを何らかの方法で抽出することなしに、リアルタイムでジェスチャの認識が可能であるジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体を提供することである。
[1] A ジェスチャを連続的にフレーム画像として入力するための撮像手段と、
B 前記撮像手段から連続的に入力されたフレーム画像から移動物体の動作方向をベクトルとして取得するベクトル取得部と、取得したベクトルを連続して出力するベクトル出力部とから構成されるフレーム画像処理手段と、
C 前記連続して出力されたベクトルに基づいて、ベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量から作成された状態特徴マップデータを格納し、前記連続した特徴量と状態特徴マップとから作成された状態重みマップデータを格納するジェスチャ要素登録手段と、
D 前記ジェスチャ要素登録手段に格納された状態特徴マップと状態重みマップを入力し、各状態位置を初期化する状態位置初期化部と、前記フレーム画像処理手段で出力されたベクトルをベクトル特徴量に変換し、連続的に入力し、さらに前記ジェスチャ要素登録手段に格納された状態マップを入力し、両者に基づいて、所定の状態およびその前後の状態の比較値として一時的に格納し、出力するベクトル特徴量マッチング部と、前記比較値に基づいて、前記初期化された状態位置と前記比較値により各状態の推移を判定し、出力する状態遷移判定部と、前記各状態における推移と状態重みマップとを比較して、所定の閾値によりジェスチャ認識フラグを成立させるか否かを判定するジェスチャ判定部と、
から構成されるジェスチャ認識手段と、
を備えたことを特徴とするジェスチャ認識装置。
前記連続して出力されたベクトルを蓄積するベクトル蓄積部と、
蓄積されたベクトルからベクトル行列を取得するベクトル行列取得部と、
取得したベクトル行列からベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量に変換するベクトル特徴量変換部と、
連続した特徴量から状態特徴マップを作成し格納する状態特徴マップ作成部と、
前記連続した特徴量と状態特徴マップとから状態重みマップを作成し格納する状態重みマップ作成部と、
から構成されることを特徴とする、[1]に記載のジェスチャ認識装置。
[3] さらに、取得したベクトルを連続して表示するための表示手段を備えたことを特徴とする、[1]または[2]に記載のジェスチャ認識装置。
予め取得した状態特徴マップと状態重みマップを入力する工程(S101)と、
各状態位置を初期化する工程(S102)と、
撮像手段からのジェスチャをフレーム画像として連続的に入力する工程(S103)と、
前記撮像手段から連続的に入力されたフレーム画像から移動物体の動作方向をベクトルとして取得する工程(S104)と、
取得したベクトルを連続して出力する工程(S105)と、
前記出力されたベクトルをベクトル特徴量に変換する工程(S106)と、
前記変換された各ベクトル特徴量を連続的に入力し、さらに予め作成された状態マップを入力し、両者に基づいて、所定の状態およびその前後の状態の比較値として一時的に格納し、出力する工程(S107)と、
前記比較値に基づいて、前記初期化された状態位置と前記比較値により各状態の推移を判定し、前記各状態における推移と状態重みマップとを比較して、所定の閾値によりジェスチャ認識フラグを成立させるか否かを判定する工程(S108)と、
を含み、
前記工程S108でジェスチャ認識フラグが成立した場合には、ジェスチャ認識を完了し、前記ジェスチャ認識フラグが成立しない場合には、工程(S103)へ移行することを特徴とするジェスチャ認識方法。
なお、[5]において、前記工程(S108)における推移の判定を所定の閾値に基づいて行うことも可能である。
請求項1から請求項3のいずれか1項に記載のジェスチャ認識装置を用いて、入力されたジェスチャを登録するジェスチャ登録方法であって、
撮像手段からのジェスチャをフレーム画像として連続的に入力する工程(S201)と、
前記撮像手段から連続的に入力されたフレーム画像から移動物体の動作方向をベクトルとして取得する工程(S202)と、
取得したベクトルを連続して出力する工程(S203)と、
前記連続して出力されたベクトルを蓄積する工程(S204)と、
蓄積されたベクトルからベクトル行列を取得する工程(S205)と、
取得したベクトル行列からベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量に変換する工程(S206)と、
C-4 連続した特徴量から状態特徴マップを作成し格納する工程(S207)と、
C-5 前記連続した特徴量と状態特徴マップとから状態重みマップを作成し格納する工程(S208)と、
を含むことを特徴とするジェスチャ登録方法。
なお、本発明のコンピュータ可読媒体において、前記ジェスチャ認識結果がコンピュータアプリケーションの動作と関連付けされていることも可能である。
[9] オンラインに所定の動作を行う装置を操作するオンライン動作システムであって、請求項1から請求項3のいずれか1に記載のジェスチャ認識装置と、前記ジェスチャ認識装置と公衆回線を介して接続され、前記ジェスチャ認識装置の認識結果に応じて所定の動作を行う装置とから構成されたオンライン動作システム。
さらに、このようにしてジェスチャを「状態」として設定するので、動作速度に関わらず認識可能である。さらに、従来技術と相違してジェスチャの開始と終了を指定することなしに、動作速度に依存することなく簡単な手法でジェスチャ認識することが可能となる。
このジェスチャ認識装置をオンラインで動作させたい動作対象装置と接続することによって、ジェスチャの始めと終わりを意識することなく効率よく認識させて、動作対象装置をオンラインでより容易に動作可能となる。
本発明においては、ジェスチャを、「状態」として設定し、設定した状態の遷移に基づいて認識することを特徴としている。
まず、図1〜図9を用いて本発明のジェスチャ認識装置について説明する。
図1は、本発明のジェスチャ認識装置全体を示す概略図であり、図2は、図1に示すフレーム画像処理手段、ジェスチャ要素登録手段、ベクトル特徴量マッチング手段、およびジェスチャ認識手段を示す概略図であり、図3は、ベクトル蓄積部31においてジェスチャをフレーム毎にベクトル分割した状態を示す図面であり、図4は、重みづけの例を示す図面であり、図5は、状態特徴マップの一例を示す図面であり、図6は、状態重みマップの一例を示す図面であり、図7はベクトル特徴量マッチング部42における比較値を求める例を示す図面であり、図8は、状態特徴マップにおける状態の遷移の一例を示す図面であり、そして図9は、ジェスチャ判断部により比較する滞在値を示す図面である。
しかしながら、同等の機能を有する装置であれば本発明は、撮像手段10とコンピュータシステムに限定されず、同等の機能を有していれば本発明の範囲内である。
後段のジェスチャ要素登録手段30と、ジェスチャ認識手段40に出力する機能を有している。
これらのデータは事前にジェスチャ要素登録手段30に格納されていてもよいが、本実施形態では、ジェスチャを登録して格納する機能を有する場合について説明する。
ジェスチャ要素登録手段30は、例えば事前に登録した要素(状態特徴マップデータ及び状態重みマップデータの要素)を格納したROMなどで提供することも可能であるが、新たに認識したいジェスチャを登録したい場合には、前記撮像手段10で入力され、前記フレーム画像処理手段22から出力されたベクトルに基づいて状態特徴マップデータ及び状態重みマップデータを作成し、格納する必要がある。
すなわち、本実施形態におけるジェスチャ要素登録手段30は、前記ベクトル出力部22から前記連続して出力されたベクトルを蓄積するベクトル蓄積部31と、蓄積されたベクトルからベクトル行列を取得するベクトル行列取得部32と、取得したベクトル行列からベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量に変換するベクトル特徴量変換部33と、連続した特徴量から状態特徴マップを作成し格納する状態特徴マップ作成部34と、前記連続した特徴量と状態特徴マップとから状態重みマップを作成し格納する状態重みマップ作成部35とから構成されている。
なお本発明において使用する用語「角度に重み付けしたベクトル特徴量」とは、取得したベクトルの方向が角度0〜360°に対してどのくらいずれているかを示す量であり、例えば同じ方向の角度の値が1で、逆向きの角度の値が0であるx軸が0〜360、y軸が0〜1の特徴量を意味する。このように本発明において、角度に重み付けしたベクトル特徴量を取得することによって取得したベクトルは下図に示す通り、0°から360°のいずれか一点を示しているのに対して、周囲の重み付けを行うことによって、多少ずれたベクトルでも同方向として取り扱うことができる。
また、本発明において使用する用語「状態特徴マップ」とは、ジェスチャを表す連続したベクトル特徴量の集合を意味し、決まった順番で方向が移り変わっていることを示す。
具体的には、図3に示す通り、ジェスチャをフレーム毎にベクトル分割し(V(t)、V(t-1)、V(t-2)、V(t-3)・・・、このベクトルの集合がジェスチャのベクトル行列とする。
すなわち、状態特徴マップは、ベクトル特徴量に変換したベクトル行列において、いくつかの代表的なベクトル特徴量に集約する機能を有している。
代表的なベクトル特徴量を一つの状態と考え、状態数をベクトル行列分に初期化し徐々に状態数を減らしていき、この時ベクトル行列の一つ一つのベクトル状態量がどの状態に最もマッチングしているか検索する。状態全体のマッチング和が閾値より小さくなったときの状態群を状態特徴マップとするものである。
またジェスチャを追加する場合は、以前の状態特徴マップと上記処理を行った状態特徴マップで比較し、状態の統合・追加・削除を行い新しい状態特徴マップを作成する。
状態特徴マップは、例えば図5に示すような代表状態数毎にベクトル特徴量が存在する3次元のマップである。
状態重みマップは、例えば図6に示す通りの代表状態毎の重みを全体との比率で表した2次元マップである。
ジェスチャ要素登録手段30は、前記連続して出力されたベクトルに基づいて、ベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量から作成された状態特徴マップデータを格納し、前記連続した特徴量と状態特徴マップとから作成された状態重みマップデータを格納し、必要に応じて後段のジェスチャ認識手段に必要データを出力する構成とすることも可能である。
具体的には、状態位置初期化部41の機能によりメモリ上に存在するモーション特徴マップ(状態特徴マップ+状態重みマップ)と、認識用ベクトル特徴量変換部42Aからリアルタイムに出力されるベクトル特徴量とを比較して、この比較値をリアルタイムに連続して出力する。
比較値は、例えば図7に示す通り、差分和のノルムの他に積和ノルムや分散値を用いて取得する。好ましい実施形態においては、比較は現在の状態と一つ前の状態、次の状態の3つ行う。
より具体的には、特徴状態の遷移のみで、状態を認識することが考えられるが、この場合には少しの誤差であっても状態が後退してしまう場合があり、正しいジェスチャ認識ができない場合がある。そのため、状態が後退する場合に少しウエイトをかけてから後退するように修正して誤差を吸収することができた。
また、最終状態に到達した瞬間にジェスチャ成立となってしまうため、誤認識する可能がある。そこで、前記した滞在値と状態重みを導入し、各状態における滞在比率でジェスチャの成立判断をすることとした。
これにより、瞬間的なノイズに強く、滞在比率により動作速度が遅くても速くても同様に取り扱うことが可能となった。
すなわち、ジェスチャ判定部44は、前記ジェスチャ要素登録手段30に格納された状態特徴マップを読み込み、さらに状態遷移判定部43からの各状態における滞在値を、例えば図9に示す通り、差分和のノルムまたは積和ノルムや分散値を用いて比較してジェスチャ認識フラグを成立するか否かを判断する。
また、本発明のジェスチャ認識装置は、認識する際のデータ量が少なく、また認識すべきジェスチャを簡単に登録可能である。
さらに、本発明の別の実施形態において、認識すべき要素をROM、ハードディスクなの記憶手段に予め登録しておくことにより、簡単な構成でリアルタイムでジェスチャを認識可能なジェスチャ認識装置を構成することが可能となる。
さらに、本発明のジェスチャ認識装置は、単一のジェスチャだけでなく、例えば複数のジェスチャについて各々解析し状態特徴マップを保存しておき、認識手段を並列に処理することで適合するジェスチャを認識することも可能である。
次に本発明のジェスチャ認識装置の動作、すなわちジェスチャ認識方法を、図10〜図11に基づいて説明する。
図10Aは、本発明におけるジェスチャ登録方法を示すフローチャートであり、図10Bは、本発明におけるジェスチャ認識方法を示すフローチャートである。図11は、図10Aの工程S206を説明するためのグラフである。
なお、S202、S203は、従来公知の技術により、撮像手段からの連続した画像、例えばRGBイメージ画像を取り込み、解像度を変換(低解像度化)、L*a*b*イメージ変換し、ジェスチャの動作主体である移動体を検出し、平滑処理し、2値化し、クラスタリングし、トラッキングした後に、移動物体の動作方向をベクトルとして取得することができる。
なお、前記移動体の検出は、従来公知の方法、例えばフレーム差分法により行うことができる。
すなわち、工程S204〜S208は、ジェスチャ単位でベクトルを蓄積、行列化したものを入力とし、ベクトル特徴量に変換、状態特徴マップと状態重みマップから成るモーション特徴マップを作成し出力する工程である。
すなわち、図11に示す通り、ベクトルとは方向を示すものであり、0〜360度の中の1点だけが求まっている状態である。これに対して、周りの角度に重みを持たせることで、ベクトル特徴量への変換が容易になる。
次に、本発明のジェスチャ認識装置において、ジェスチャを認識する方法について図10Bに基づいて説明する。
まず、工程S101において、状態特徴マップと状態重みマップを入力し、各状態位置を初期化する(S102)。
次いで、フレーム画像を入力し(S103)、移動体の動作方向をベクトルとして取得し(S104)、そして前記工程S206と同様に取得したベクトル行列からベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量に変換する(S105)。
そして、このベクトル特徴量と各状態における推移と状態重みマップとを比較して、所定の閾値によりジェスチャ認識フラグを成立させるか否かを判定する(すなわち、得られたベクトル特徴量がジェスチャとして成立するか否かをマッチングする)(S106)。
この際、入力した状態マップとベクトル特徴量に基づいて、所定の状態およびその前後の状態の比較値として一時的に格納し、出力し(S107)、前記比較値に基づいて、前記初期化された状態位置と前記比較値により各状態の推移を判定し、前記各状態における推移と状態重みマップとを比較して、所定の閾値によりジェスチャ認識フラグを成立させるか否かを判定する。
ジェスチャ認識フラグが成立した場合には(Yes)、ジェスチャ認識を完了する(エンド)。一方、ジェスチャ認識フラグが成立しない場合には、工程103へ移行して
フレーム画像を入力する。
このように判断するのは、前述の通り、瞬間的なノイズに強く、様々な動作速度に対応して認識処理することが可能だからである。
また、前記工程S108における推移の判定が所定の閾値に基づいて行うことができる。
すなわち、予めベクトル特徴量を作成し、状態特徴マップ、状態重みマップが作成され、利用可能であれば図10Aに示す登録処理を省略して図10Bに示す認識処理を直接実行することが可能である。
以上のように構成された本発明のジェスチャ認識方法は、従来技術と相違してジェスチャの開始と終了を指定することなしに、動作速度に依存することなく簡単な手法でリアルタイムにジェスチャ認識することが可能となる。しかも、取り扱う情報も従来のジェスチャ認識方法に比較して非常に少ないので、装置に多大の負荷をかけずに(より安価な装置で)、ジェスチャ認識を行うことが可能である。
例えば、本発明の撮像手段に、連続的に入力されたフレーム画像の解像度を変換して低解像度画像とする画像変換部と、前記画像変換手段で低解像度化した画像を、L*a*b*イメージ変換するL*a*b*イメージ変換部と、前記L*a*b*イメージ変換部でL*a*b*イメージ変換した画像から移動物体を検出する移動体検出部と、L*a*b*イメージ変換した画像を平滑化処理するスムージングフィルタと、前記スムージングフィルタで平滑化した画像を二値化する二値化処理部と、二値化した画像をクラスタリング処理するクラスタリング処理部と設けることが可能である。このような撮像手段は、本発明のジェスチャ認識装置に適用すると、後段の各種処理が軽減される。また、ジェスチャ認識以外に防犯用・駐車場管理装置などの移動体を検出する装置に使用可能。出力可能なデータが予め処理された二値化データであるので移動体を処理する際の負荷が軽減される。
10 撮像手段
20 フレーム画像処理手段
30 ジェスチャ要素登録手段
31 ベクトル蓄積部
32 ベクトル行列取得部
33 ベクトル特徴量変換部
34 状態特徴マップ作成部
35 状態重みマップ作成部
40 ジェスチャ認識手段
41 状態位置初期化部
42 ベクトル特徴量マッチング部
42A 認識用ベクトル特徴量変換部
42B マッチング部
43 状態遷移判定部
44 ジェスチャ判定部
Claims (9)
- A ジェスチャを連続的にフレーム画像として入力するための撮像手段と、
B 前記撮像手段から連続的に入力されたフレーム画像から移動物体の動作方向をベクトルとして取得するベクトル取得部と、
取得したベクトルを連続して出力するベクトル出力部とから構成されるフレーム画像処理手段と、
C 前記連続して出力されたベクトルに基づいて、ベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量から作成された状態特徴マップデータを格納し、前記連続した特徴量と状態特徴マップとから作成された状態重みマップデータを格納するジェスチャ要素登録手段と、
D 前記ジェスチャ要素登録手段に格納された状態特徴マップと状態重みマップを入力し、各状態位置を初期化する状態位置初期化部と、
前記フレーム画像処理手段で出力されたベクトルをベクトル特徴量に変換し、連続的に入力し、さらに前記ジェスチャ要素登録手段に格納された状態マップを入力し、両者に基づいて、所定の状態およびその前後の状態の比較値として一時的に格納し、出力するベクトル特徴量マッチング部と、
前記比較値に基づいて、前記初期化された状態位置と前記比較値により各状態の推移を判定し、出力する状態遷移判定部と、
前記各状態における推移と状態重みマップとを比較して、所定の閾値によりジェスチャ認識フラグを成立させるか否かを判定するジェスチャ判定部と、
から構成されるジェスチャ認識手段と、
を備えたことを特徴とするジェスチャ認識装置。 - 前記ジェスチャ要素登録手段は、
前記連続して出力されたベクトルを蓄積するベクトル蓄積部と、
蓄積されたベクトルからベクトル行列を取得するベクトル行列取得部と、
取得したベクトル行列からベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量に変換するベクトル特徴量変換部と、
連続した特徴量から状態特徴マップを作成し格納する状態特徴マップ作成部と、
前記連続した特徴量と状態特徴マップとから状態重みマップを作成し格納する状態重みマップ作成部と、
から構成されることを特徴とする、請求項1に記載のジェスチャ認識装置。 - さらに、取得したベクトルを連続して表示するための表示手段を備えたことを特徴とする、請求項1または請求項2に記載のジェスチャ認識装置。
- 請求項1から請求項3のいずれか1項に記載のジェスチャ認識装置を用いて、ジェスチャを認識させるジェスチャ認識方法であって、
予め取得した状態特徴マップと状態重みマップを入力する工程(S101)と、
各状態位置を初期化する工程(S102)と、
撮像手段からのジェスチャをフレーム画像として連続的に入力する工程(S103)と、
前記撮像手段から連続的に入力されたフレーム画像から移動物体の動作方向をベクトルとして取得する工程(S104)と、
取得したベクトルを連続して出力する工程(S105)と、
前記出力されたベクトルをベクトル特徴量に変換する工程(S106)と、
前記変換された各ベクトル特徴量を連続的に入力し、さらに予め作成された状態マップを入力し、両者に基づいて、所定の状態およびその前後の状態の比較値として一時的に格納し、出力する工程(S107)と、
前記比較値に基づいて、前記初期化された状態位置と前記比較値により各状態の推移を判定し、前記各状態における推移と状態重みマップとを比較して、所定の閾値によりジェスチャ認識フラグを成立させるか否かを判定する工程(S108)と、
を含み、
前記工程S108でジェスチャ認識フラグが成立した場合には、ジェスチャ認識を完了し、前記ジェスチャ認識フラグが成立しない場合には、工程(S103)へ移行することを特徴とするジェスチャ認識方法。 - 前記初期化が状態数分のゼロ行列を作成することによって行われ、
前記推移の判定がフレーム処理で得られるベクトルに対し、現状の状態と前後の状態の3つを比較対象として、それぞれの比較値を次の状態の一致度が高い場合は進行すると判定し、進行した状態の値を1とし、現状の状態の一致度が高い場合は滞在とし、現状の状態の値を+1とし、
前の状態の一致度が高い時は現状の状態の値を-1とし、0になったとき状態が後退すると判定することを特徴とする請求項4に記載のジェスチャ認識方法。 - 請求項1から請求項3のいずれか1項に記載のジェスチャ認識装置を用いて、入力されたジェスチャを登録するジェスチャ登録方法であって、
撮像手段からのジェスチャをフレーム画像として連続的に入力する工程(S201)と、
前記撮像手段から連続的に入力されたフレーム画像から移動物体の動作方向をベクトルとして取得する工程(S202)と、
取得したベクトルを連続して出力する工程(S203)と、
前記連続して出力されたベクトルを蓄積する工程(S204)と、
蓄積されたベクトルからベクトル行列を取得する工程(S205)と、
取得したベクトル行列からベクトルの長さを正規化して、角度に重み付けしたベクトル特徴量に変換する工程(S206)と、
連続した特徴量から状態特徴マップを作成し格納する工程(S207)と、
前記連続した特徴量と状態特徴マップとから状態重みマップを作成し格納する工程(S208)と、
を含むことを特徴とするジェスチャ登録方法。 - 前記ベクトル変換工程において、同じ方向の角度の値を1とし、逆向きの角度の値を0とし、x軸0〜360およびy軸0〜1のグラフとしてマッピングすることを特徴とする請求項6に記載のジェスチャ登録方法。
- 請求項4から請求項7のいずれか1項に記載の工程を実行するプログラムが格納されたコンピュータ可読媒体。
- オンラインに所定の動作を行う装置を操作するオンライン動作システムであって、請求項1から請求項3のいずれか1に記載のジェスチャ認識装置と、前記ジェスチャ認識装置と公衆回線を介して接続され、前記ジェスチャ認識装置の認識結果に応じて所定の動作を行う装置とから構成されたオンライン動作システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006101205A JP4613142B2 (ja) | 2006-03-31 | 2006-03-31 | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006101205A JP4613142B2 (ja) | 2006-03-31 | 2006-03-31 | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007272839A JP2007272839A (ja) | 2007-10-18 |
JP4613142B2 true JP4613142B2 (ja) | 2011-01-12 |
Family
ID=38675543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006101205A Expired - Fee Related JP4613142B2 (ja) | 2006-03-31 | 2006-03-31 | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4613142B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8542907B2 (en) * | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
JP5569062B2 (ja) | 2010-03-15 | 2014-08-13 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP5479414B2 (ja) * | 2010-11-24 | 2014-04-23 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP5604279B2 (ja) * | 2010-12-08 | 2014-10-08 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
JP6091407B2 (ja) * | 2013-12-18 | 2017-03-08 | 三菱電機株式会社 | ジェスチャ登録装置 |
CN113128312B (zh) * | 2020-01-14 | 2023-12-22 | 普天信息技术有限公司 | 挖掘机位置和工作状态检测方法及装置 |
CN111680618B (zh) * | 2020-06-04 | 2023-04-18 | 西安邮电大学 | 基于视频数据特性的动态手势识别方法、存储介质和设备 |
CN114413882B (zh) * | 2022-03-29 | 2022-08-05 | 之江实验室 | 一种基于多假设跟踪的全局初定位方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296673A (ja) * | 1998-04-15 | 1999-10-29 | Image Joho Kagaku Kenkyusho | ジェスチャ認識装置 |
JP2002373340A (ja) * | 2001-06-14 | 2002-12-26 | Nippon Hoso Kyokai <Nhk> | 動作特徴抽出法および動作認識装置ならびに動作認識プログラム |
JP2005326920A (ja) * | 2004-05-12 | 2005-11-24 | Namco Ltd | 画像処理システム、プログラム、情報記憶媒体および画像処理方法 |
-
2006
- 2006-03-31 JP JP2006101205A patent/JP4613142B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296673A (ja) * | 1998-04-15 | 1999-10-29 | Image Joho Kagaku Kenkyusho | ジェスチャ認識装置 |
JP2002373340A (ja) * | 2001-06-14 | 2002-12-26 | Nippon Hoso Kyokai <Nhk> | 動作特徴抽出法および動作認識装置ならびに動作認識プログラム |
JP2005326920A (ja) * | 2004-05-12 | 2005-11-24 | Namco Ltd | 画像処理システム、プログラム、情報記憶媒体および画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2007272839A (ja) | 2007-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4613142B2 (ja) | ジェスチャ認識装置、これを用いたオンライン動作システム、ジェスチャ認識方法及びコンピュータ可読媒体 | |
US8570383B2 (en) | Apparatus, method and computer program for recognizing a gesture in a picture, and apparatus, method and computer program for controlling a device | |
Boulgouris et al. | Gait recognition using linear time normalization | |
EP2946338B1 (en) | Describing objects using edge-pixel-feature descriptors | |
US20120114177A1 (en) | Image processing system, image capture apparatus, image processing apparatus, control method therefor, and program | |
AU2011207120B8 (en) | Identifying matching images | |
Chattopadhyay et al. | Frontal gait recognition from occluded scenes | |
WO2016029346A1 (zh) | 指纹提取方法和装置 | |
KR101559502B1 (ko) | 실시간 손 포즈 인식을 통한 비접촉식 입력 인터페이스 방법 및 기록 매체 | |
EP4030749B1 (en) | Image photographing method and apparatus | |
CN111797078A (zh) | 数据清洗方法、模型训练方法、装置、存储介质及设备 | |
US11281922B2 (en) | Face recognition system, method for establishing data of face recognition, and face recognizing method thereof | |
JP2008102611A (ja) | 画像処理装置 | |
JPWO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
CN114139630A (zh) | 姿态识别方法、装置、存储介质和电子设备 | |
Elisha Raju et al. | A two-level security system based on multimodal biometrics and modified fusion technique | |
CN116894210B (zh) | 包含力传感器的电子设备及数据处理方法 | |
Golla et al. | Performance evaluation of facenet on low resolution face images | |
JP2015060421A (ja) | 類似画像検索方法及び類似画像検索装置 | |
JP5083162B2 (ja) | 画像データ判定装置、画像データ判定システム、及びプログラム | |
JP5030235B2 (ja) | パターン認識装置及びパターン認識方法 | |
JP5643147B2 (ja) | 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム | |
JP2018526753A (ja) | 物体認識装置、物体認識方法及び記憶媒体 | |
JP2015158745A (ja) | 行動識別器生成装置、行動認識装置及びプログラム | |
JP2014029677A (ja) | 画像処理装置、画像処理方法および画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100921 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101018 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4613142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |