JP5078017B2 - 動体の動作認識方法 - Google Patents
動体の動作認識方法 Download PDFInfo
- Publication number
- JP5078017B2 JP5078017B2 JP2008014124A JP2008014124A JP5078017B2 JP 5078017 B2 JP5078017 B2 JP 5078017B2 JP 2008014124 A JP2008014124 A JP 2008014124A JP 2008014124 A JP2008014124 A JP 2008014124A JP 5078017 B2 JP5078017 B2 JP 5078017B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- motion
- data
- eigenspace
- recognition method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
そこで、動作を認識する方法として、以下の方法が提案されている。
また、特許文献2には、少数の典型的な画像パターンを観測するのみで、簡易に物体認識の学習を行う装置が提案されている。
そして、特許文献3には、画像データベースなどに蓄積された画像の中から、利用者の指定により、必要な画像を選択的に取り出し、不必要な画像を排除する画像フィルタリングシステムが提案されている。
更に、特許文献4には、基本動作の画像データを、仮想カメラ群を用い多方向から観察した動作画像から得て、動体の動作を認識する方法が提案されている。
特許文献1は、人の正面像、あるいは側面像のみを対象とする手法であり、任意方向から観察して得られる画像を前提とする手法は提案されていない。また、動体の動作を3次元で処理して認識するため、データ量が多くなり、処理時間が膨大となるという問題もあった。
また、特許文献2の装置は、少数の画像を補間又は変形することによって、多数の画像を生成する装置であるため、任意方向から観察して得られる画像を前提としていない。また、複数の動作の画像が類似している場合、動体の動作を高精度に認識できない。更に、簡単な動きであれば、これに基づき多数の画像を生成できるが、人のように動作が複雑な場合は、少数の画像から多数の画像を生成することが難しい。
更に、特許文献4は、基本動作の画像データを、仮想カメラ群を用い多方向から観察した動作画像から得るため、上記した特許文献1〜3とは異なり、対象動体の動作を任意の方向から判別できる。しかし、対象動体の動作の認識精度を高めようとすれば、それに伴い動作画像も膨大な量となるため、データ量が多くなり、動作の認識のための処理時間が膨大になるという問題がある。
前記固有空間データ作成工程でデータベース化された前記固有空間データAを、前記動体Aの基本動作が保有している情報ごとに木構造内に分配し(木構造内に記述し)、前記記憶手段に格納して構造化する木構造作成工程と、
認識しようとする対象となる人である動体Bのフレーム画像データBが点で表示された固有空間データBと前記基本動作ごとの複数の前記固有空間データAを比較して、前記固有空間データBからの距離が最も近い固有空間データAを選び、前記動体Bの動作を認識する認識工程とを有する動体の動作認識方法であって、
前記基本動作は静止した姿勢であり、該基本動作ごとの各フレーム画像データAは、前記動体Aに該基本動作を行わせ、該基本動作を行う前記動体Aを複数の画像入力手段を用いて多方向から撮影し、該画像入力手段ごとに取得した連続する複数のフレーム画像に、それぞれ重みをつけ、該複数のフレーム画像のうち、前記姿勢を最もよく現す1のフレーム画像の前記重みを1とし、他のフレーム画像の前記重みを0とした後、該連続する複数のフレーム画像を重ね合わせることで作成される圧縮画像から得る。
前記目的に沿う第2の発明に係る動体の動作認識方法は、予め疑似人モデル又は人である動体Aの基本動作ごとの複数のフレーム画像データAがそれぞれ点で表示される固有空間データAを、該基本動作ごとに作成し記憶手段に格納してデータベース化する固有空間データ作成工程と、
前記固有空間データ作成工程でデータベース化された前記固有空間データAを、前記動体Aの基本動作が保有している情報ごとに木構造内に分配し(木構造内に記述し)、前記記憶手段に格納して構造化する木構造作成工程と、
認識しようとする対象となる人である動体Bのフレーム画像データBが点で表示された固有空間データBと前記基本動作ごとの複数の前記固有空間データAを比較して、前記固有空間データBからの距離が最も近い固有空間データAを選び、前記動体Bの動作を認識する認識工程とを有する動体の動作認識方法であって、
前記基本動作は一連の動作であり、該基本動作ごとの各フレーム画像データAは、前記動体Aに該基本動作を行わせ、該基本動作を行う前記動体Aを複数の画像入力手段を用いて多方向から撮影し、該画像入力手段ごとに取得した連続する複数のフレーム画像に、それぞれ重みをつけ、該複数のフレーム画像のうち、前記動作の特徴が現れたフレーム画像の前記重みよりも、他のフレーム画像の前記重みを小さくした後、該連続する複数のフレーム画像を重ね合わせることで作成される圧縮画像から得る。
第2の発明に係る動体の動作認識方法において、前記圧縮画像は、前記複数のフレーム画像のうち連続する又は間隔を有する2つずつのフレーム画像を重ね合わせ、変化のない背景を削除して得られる複数の差分画像を、それぞれ重ね合わせることで得られることが好ましい。
第1、第2の発明に係る動体の動作認識方法において、前記動体Aは前記擬似人モデルであって、該疑似人モデルの行う基本動作は、モーションキャプチャー法によって得られたものであることが好ましい。
第1、第2の発明に係る動体の動作認識方法において、前記固有空間データAは、前記フレーム画像データAをカルーネン・レーベ変換して求められた固有値及び固有ベクトルから作成される固有空間に投影して得られ、前記固有空間データBは、前記フレーム画像データBを前記固有空間に投影して得られることが好ましい。
第1、第2の発明に係る動体の動作認識方法において、認識した前記動体Bの動作を、擬似人モデル又はロボットを用いて再現することが好ましい。
これにより、対象動体の動作を高速に認識できる。
また、基本動作として、動体を多方向から撮影した複数のフレーム画像を用いるので、対象となる動体をどの方向から観察した場合でも、その動作を認識することができ、例えば、任意方向からの人の動作の認識が可能になる。
そして、固有空間データAを木構造内に分配するので、固有空間データAと固有空間データBとの全てを比較することなく、固有空間データAを選んで対象動体の動作を特定でき、処理速度の更なる高速化を図ることができる。
更に、基本動作を疑似人モデルに行わせ複数のフレーム画像データAを得た場合、標準化した人のデータとすることができ、体型の違いを無くすことができる。また、疑似人モデル又は人を多方向から観察した動作画像を用いるので、対象物体をどの方向から観察した場合でも動作を特定することができる。
請求項2記載の動体の動作認識方法においては、基本動作が一連の動作であり、複数のフレーム画像のうち、動作の特徴が現れたフレーム画像の重みよりも、他のフレーム画像の重みを小さくすることで、不要なデータを低減できる。これにより、一連の動作を構成する複数のフレーム画像であっても、処理するデータの量を少なくでき、対象動体の動作を高速に認識できる。
請求項4記載の動体の動作認識方法においては、基本動作ごとの各フレーム画像データAが、差分画像をそれぞれ重ね合わせることで得られるので、処理するデータ量を少なくでき、動作認識の処理時間を更に短くできる。
請求項8記載の動体の動作認識方法においては、固有空間データAが、フレーム画像データAをカルーネン・レーベ変換して求められた固有値及び固有ベクトルから作成される固有空間に投影して得られ、固有空間データBも、フレーム画像データBを固有空間に投影して得られるので、次元を低くでき、動作認識の処理時間を短くできる。
請求項9記載の動体の動作認識方法においては、認識した対象動体の動作を、擬似人モデル又はロボットを用いて再現するので、例えば、玩具等への利用も可能である。
本発明の一実施の形態に係る動体の動作認識方法は、対象となる動体Bの一例である対象人が行った動作を、予め登録された動体Aの一例である人が行った複数の基本動作と比較して、対象人がどの基本動作(類似している動作も含む)を行ったかを認識する方法である。以下、詳しく説明する。
人を中心にして複数台(例えば、4台)のビデオカメラ(画像入力手段の一例:静止画及び動画が撮影可能であればよい)からなるカメラ群を配置し、人が行う各基本動作を多方向から撮影する。
ここで、ビデオカメラとしては、例えば、CCDカメラ、高速度カメラ、ハンディータイプカメラ、デジタルVTR、又はデジタルビデオカメラを使用できる。なお、各ビデオカメラは、等距離で等角度に配置してもよいし、異なる距離に配置、また異なる角度に配置してもよい。このように、各ビデオカメラを等距離に配置することで、略同一の大きさの人の画像を得ることができ、また異なる角度に配置することで、人の動作の特徴が現れた方向からの画像を得ることができる。
次に、それぞれの基本動作を撮影した映像をコンピュータに取り込む。なお、ビデオカメラとしてCCDカメラを使用する場合は、CCDカメラで、動体を撮像することにより、アナログ画像信号(輝度を表すビデオ信号)が出力されるため、アナログ画像信号を、256階調のデジタル画像データ(輝度を表す画像データ)に変換した後、コンピュータ内に取り込む。
以下の作業は、コンピュータ内で計算して行われ、コンピュータ内のプログラムにより処理される。
ここで、複数のフレーム画像に重みをつけるとは、このフレーム画像のデジタル画像データの階調に重みを乗ずることを意味する。この重みとは、各フレーム画像につける0又は0を超え1以下の係数(即ち、階調を調整する係数)である。ここで、重みが0とは、そのデジタル画像データを無くして使用することを意味し、1とは、そのデジタル画像データを無くすことなく全てそのまま使用することを意味する。なお、重みは、連続するデジタル画像データの階調の変化の度合い(閾値に対する変化量)を求めるプログラムにより、コンピュータで自動的に行ってもよく、また人が行ってもよい。
また、基本動作が一連の動作の場合、複数のフレーム画像のうち、この動作の特徴が現れたフレーム画像の重みよりも、他のフレーム画像の重みを小さくする。例えば、動作の特徴が現れたフレーム画像の重みを最大とし、他のフレーム画像の重みを0を超え1未満とする(具体的には、動作の特徴が現れたフレーム画像の重みと他のフレーム画像の重みを、合計して1になるようにつける。)。例えば、下げた状態の手を上げる場合のように、動作の特徴が、手を下げた状態と上げた状態とにあり、手の動きが一義的に決まる場合は、特徴が現れたフレーム画像を、一連の動作の最初のフレーム画像、即ち手を下げた画像と、最後のフレーム画像、即ち手を上げた画像とすることで、処理するデータ量を低減できる。
なお、圧縮画像を作成するに際しては、変化のない部分、例えば、人の周囲に存在する背景画像(例えば、壁、床、及び空)を削除するが、人の画像についても、動きが無い部分(僅かに動く部分を含んでもよく、また含まなくてもよい)を削除してもよい。なお、複数のフレーム画像は、例えば、2枚ごと、又は3枚ごとのように、複数枚ごとに間隔を有するものでもよい。
これにより、静止した姿勢として示される1枚の圧縮された画像と、一連の動作が残像として示される1枚の圧縮された画像を、それぞれ基本動作の複数のフレーム画像データAとして、コンピュータ内の記憶手段に格納できる。
ここで、差分画像とは、例えば、2画像間で減算を行い、変化のない画像部分を削除することにより得られる画像であり、このような変化のない画像部分を削除することで、処理するデータ量を少なくできる。
このモーションキャプチャー法とは、例えば、光学式、音波(超音波を含む)式、又は磁気式等の非接触で計測可能な機器、あるいは機械式のように接触して計測する機器を使用して、人や動物の動きをコンピュータに取り込んで立体化して再現する方法である。
光学式は、動体に、例えば、発光マーカー、反射マーカー、及びパターンマーカー等のいずれかのマーカーを取付けて、複数のカメラ(例えば、CCDカメラ、高速度カメラ、ハンディータイプカメラ、デジタルVTR、及びデジタルビデオカメラのいずれか1又は2以上)で動体を撮影し、この映像をコンピュータに入力して、動体の動きを検知することができる。
更に、磁気式では、動体に磁界を発生する磁界発生器を取付け、磁界中に配置されると電流が流れる磁力計測器によって、誘起された電流の強さから磁界発生器までの距離と方向とを検知して、動体の動きが再現される。
このように、人の基本動作を疑似人モデルに行わせ、この疑似人モデルを中心として、水平方向、上方向、及び下方向のいずれか1又は2以上に配置される多数(例えば、6台以上)の仮想ビデオカメラからなる仮想カメラ群により、疑似人モデルを撮影して、複数のフレーム画像データAを得る。
次に、コンピュータ内の固有空間データ作成手段により、予め人の基本動作の各フレーム画像データAが点で表示される固有空間データAを作成する。なお、この固有空間データAの作成は、特願2005−237785の方法と同様の手法で実施できる。
xp=(x1,x2,・・・,xN)T・・・(1)
ここで、ベクトルの各要素は、スキャンした順番で並んでいる画素数である。なお、Nはピクセル数を示し、Tは転置を示し、またxpは‖xp‖=1となるように正規化されている。
なお、基本動作である一連の動作の正規化された画像であって、フレーム画像に重みがつけられていないものは、例えば、本願発明者が出願した特願2006−355691に記載されているが、このフレーム画像に重みをつけた場合、例えば、一連の動作の最初と最後を除く残像部分の画像を薄く、また無くすことができる。
X≡(x1−c,x2−c,・・・,xP−c)・・・(2)
なお、Pは、1動作の画像の数である。
ここで、cは画像の平均値であり、(3)式で計算される。
Q=XXT・・・(4)
Qu=λu・・・(5)
ここで、uはN個の成分を持つベクトルである。
得られた固有値λ1,λ2,・・・,λNから、固有ベクトルe1,e2,・・・,eNが求められる。
ES(e1,e2,・・・,ek)≡ES・・・(6)
なお、k≪Nであり、固有空間ES上に画像データを写像する変換行列Eは、(7)式で示される。例えば、kを100とした場合には、N次元からk次元、すなわち、65536次元から100次元に次元を下げることができる。
E=(e1,e2,・・・,ek)・・・(7)
gp=(e1,e2,・・・,ek)Txp・・・(8)
このようにして、人の姿勢は、固有空間上で単なる点として登録される。
この得られた点の集合gpを、記憶手段に格納してデータベース化する。
なお、固有空間データAの作成に際しては、事前に、コンピュータ内に取り込まれた画像の各フレーム画像データAのそれぞれの画像データを、従来公知のログフィルタにかけ、各フレーム画像データAをぼかして微分処理してもよい。なお、微分処理は、例えば、ログ(LoG)フィルタ又はソーベルフィルタ等によって行うことができる。また、ログフィルタは、画像データをぼかして、微分することができる。
また、複数の基本動作の全てのフレーム画像データAから、同様にして固有空間データAを作成し、記憶手段に格納してデータベース化する。
次に、以上に示した固有空間データ作成工程において、固有空間データ作成手段でデータベース化された固有空間データAを、コンピュータ内の木構造作成手段により、人の基本動作が保有している情報ごとに木構造内に分配する木構造作成工程について説明する。ここで、木構造とは、動体の基本動作が保有している情報、例えば、動体の基本動作をその画像特徴ごとに区分する方法であり、例えば、B−tree、B*−tree、又はB+−treeが従来知られている。
B−tree構造を固有空間に導入して、固有空間の構造化を行うことにより、圧縮画像が点として表現された固有空間は、複数のビンに分けられ、ビンはB−tree構造で表現される。
なお、人の動作を表すこの固有空間を、動作データベースと呼ぶ。
以下の条件を満たすものを、τ(m,H)に属するB−tree Τという。ここで、mは、根(ルート)又は節(ノード)が持つことのできる子供の数である。また、Hは木の高さを表し、検索速度に関係する。
1.根は葉であるか、又は2〜m個の子を持つ。
2.根、葉以外の節は、[m/2]〜m個の子を持つ。ただし、[x]はx以下の最大の整数を表す。
3.根からすべての葉までの経路の長さは等しい。
B−treeでは、格納するデータから造られる「境界を表す値」、即ちキーが重要な意味を持ち、このキーによって根や節が構築される。このキーは、大小比較することが可能なスカラー値である。また、データは、葉のみに格納される。
ここで、画像IPが式(8)によって固有空間の点g=(g1,g2,・・・,gK)に投影されると、gk(k=1,2,・・・,K)は、いずれかのセクションに含まれるから、そのセクションの固有の番号Sk,r(r=0,1,・・・,R−1)が与えられる。
この結果gは、式(10)によって、K桁R進数であるSpに変換される。
SP=S1,r1S2,r2S3,r3・・・SK,rK・・・(10)
これにより、画像は、SPをキーとして、木構造であるB−tree Τに分配されて格納されるので、これを、記憶手段に格納して、構造化する。
以上の方法により、人の各基本動作がデータベース化される。
まず、対象人の動作を1台のビデオカメラで撮影する。
動作画像をコンピュータに取り込み、(11)式に示す各フレーム画像データBの集合yを得る。
y=(y1,y2,・・・,yP)・・・(11)
そして、前記した固有空間データAの前処理と同様の方法により、その動作を表す連続フレームを圧縮表現して1画像とすることで、フレーム画像データBが作成される。
h=ETy´=(e1,e2,・・・,ek)Ty´・・・(12)
そして、コンピュータ内の認識手段により、固有空間データBと、木構造作成手段でデータベース化された人の基本動作ごとの固有空間データAとを比較する認識工程について説明する。
最後に、(13)式を適用すれば、固有空間データBを示す点hからの距離が最も近い(距離が最小)固有空間データAを示す点の集合giが選ばれ、最も近い姿勢p′=p*が得られる。
dp *=min‖gpr−gp‖・・・(13)
ここでは、R≪Pとなることが期待されるため、検索速度は大幅に改善される。
ただし、R≪動作データベースに登録されている全基本動作の数である。
なお、未知の動作を認識する場合、画像の前処理により、その動作を表す連続するフレーム画像は、1画像Iで圧縮表現されるため、画像Iに最も近い圧縮画像が、コンピュータ内の基本動作のデータベースから検索される。このデータベースは、前記したように、B−tree構造を持つため、検索は高速に行われる。従って、画像Iと最も距離の短い画像が検索され、この距離がある閾値より小さければ、未知動作は、その動作として判断(認識)される。
以上の方法により、データベース検索による動作認識が実現する。
なお、認識した対象人の動作は、擬似人モデル(3次元グラフィックスモデル)又はロボットを用いて再現してもよい。
Claims (9)
- 予め疑似人モデル又は人である動体Aの基本動作ごとの複数のフレーム画像データAがそれぞれ点で表示される固有空間データAを、該基本動作ごとに作成し記憶手段に格納してデータベース化する固有空間データ作成工程と、
前記固有空間データ作成工程でデータベース化された前記固有空間データAを、前記動体Aの基本動作が保有している情報ごとに木構造内に分配し、前記記憶手段に格納して構造化する木構造作成工程と、
認識しようとする対象となる人である動体Bのフレーム画像データBが点で表示された固有空間データBと前記基本動作ごとの複数の前記固有空間データAを比較して、前記固有空間データBからの距離が最も近い固有空間データAを選び、前記動体Bの動作を認識する認識工程とを有する動体の動作認識方法であって、
前記基本動作は静止した姿勢であり、該基本動作ごとの各フレーム画像データAは、前記動体Aに該基本動作を行わせ、該基本動作を行う前記動体Aを複数の画像入力手段を用いて多方向から撮影し、該画像入力手段ごとに取得した連続する複数のフレーム画像に、それぞれ重みをつけ、該複数のフレーム画像のうち、前記姿勢を最もよく現す1のフレーム画像の前記重みを1とし、他のフレーム画像の前記重みを0とした後、該連続する複数のフレーム画像を重ね合わせることで作成される圧縮画像から得ることを特徴とする動体の動作認識方法。 - 予め疑似人モデル又は人である動体Aの基本動作ごとの複数のフレーム画像データAがそれぞれ点で表示される固有空間データAを、該基本動作ごとに作成し記憶手段に格納してデータベース化する固有空間データ作成工程と、
前記固有空間データ作成工程でデータベース化された前記固有空間データAを、前記動体Aの基本動作が保有している情報ごとに木構造内に分配し、前記記憶手段に格納して構造化する木構造作成工程と、
認識しようとする対象となる人である動体Bのフレーム画像データBが点で表示された固有空間データBと前記基本動作ごとの複数の前記固有空間データAを比較して、前記固有空間データBからの距離が最も近い固有空間データAを選び、前記動体Bの動作を認識する認識工程とを有する動体の動作認識方法であって、
前記基本動作は一連の動作であり、該基本動作ごとの各フレーム画像データAは、前記動体Aに該基本動作を行わせ、該基本動作を行う前記動体Aを複数の画像入力手段を用いて多方向から撮影し、該画像入力手段ごとに取得した連続する複数のフレーム画像に、それぞれ重みをつけ、該複数のフレーム画像のうち、前記動作の特徴が現れたフレーム画像の前記重みよりも、他のフレーム画像の前記重みを小さくした後、該連続する複数のフレーム画像を重ね合わせることで作成される圧縮画像から得ることを特徴とする動体の動作認識方法。 - 請求項2記載の動体の動作認識方法において、前記動作の特徴が現れたフレーム画像は、前記一連の動作の最初と最後のフレーム画像であることを特徴とする動体の動作認識方法。
- 請求項2又は3記載の動体の動作認識方法において、前記圧縮画像は、前記複数のフレーム画像のうち連続する又は間隔を有する2つずつのフレーム画像を重ね合わせ、変化のない背景を削除して得られる複数の差分画像を、それぞれ重ね合わせることで得られることを特徴とする動体の動作認識方法。
- 請求項1〜4のいずれか1項に記載の動体の動作認識方法において、前記複数の画像入力手段は、前記動体Aが擬似人モデルの場合は仮想カメラ群、前記動体Aが人の場合はカメラ群であることを特徴とする動体の動作認識方法。
- 請求項1〜5のいずれか1項に記載の動体の動作認識方法において、前記動体Aは前記擬似人モデルであって、該疑似人モデルの行う基本動作は、モーションキャプチャー法によって得られたものであることを特徴とする動体の動作認識方法。
- 請求項1〜6のいずれか1項に記載の動体の動作認識方法において、前記固有空間データAは、前記フレーム画像データAに微分処理を行って作成されることを特徴とする動体の動作認識方法。
- 請求項1〜7のいずれか1項に記載の動体の動作認識方法において、前記固有空間データAは、前記フレーム画像データAをカルーネン・レーベ変換して求められた固有値及び固有ベクトルから作成される固有空間に投影して得られ、前記固有空間データBは、前記フレーム画像データBを前記固有空間に投影して得られることを特徴とする動体の動作認識方法。
- 請求項1〜8のいずれか1項に記載の動体の動作認識方法において、認識した前記動体Bの動作を、擬似人モデル又はロボットを用いて再現することを特徴とする動体の動作認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008014124A JP5078017B2 (ja) | 2008-01-24 | 2008-01-24 | 動体の動作認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008014124A JP5078017B2 (ja) | 2008-01-24 | 2008-01-24 | 動体の動作認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009176059A JP2009176059A (ja) | 2009-08-06 |
JP5078017B2 true JP5078017B2 (ja) | 2012-11-21 |
Family
ID=41031071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008014124A Expired - Fee Related JP5078017B2 (ja) | 2008-01-24 | 2008-01-24 | 動体の動作認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5078017B2 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3753232B2 (ja) * | 2001-03-30 | 2006-03-08 | オムロン株式会社 | 運動動作解析支援装置 |
JP2007052665A (ja) * | 2005-08-18 | 2007-03-01 | Kyushu Institute Of Technology | 固有空間を用いた動体の動作判別方法 |
-
2008
- 2008-01-24 JP JP2008014124A patent/JP5078017B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009176059A (ja) | 2009-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5422735B2 (ja) | 可変姿勢を含む画像シーケンスのリアルタイム利用可能なコンピュータ支援分析方法 | |
US20180210556A1 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4930854B2 (ja) | 関節物体位置姿勢推定装置及びその方法ならびにプログラム | |
JP5877053B2 (ja) | 姿勢推定装置および姿勢推定方法 | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
WO2008007471A1 (fr) | Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur | |
JP5699697B2 (ja) | ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 | |
US8599278B2 (en) | Method for estimating a plane in a range image and range image camera | |
JP2016206795A (ja) | 実空間情報によって学習する識別器を用いて物体を追跡する装置、プログラム及び方法 | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
WO2024060978A1 (zh) | 关键点检测模型训练及虚拟角色驱动的方法和装置 | |
JP2008148237A (ja) | 姿勢検知装置 | |
KR20190050551A (ko) | 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치 | |
JP2009288917A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2006215743A (ja) | 画像処理装置及び画像処理方法 | |
JP5078017B2 (ja) | 動体の動作認識方法 | |
JPWO2005004060A1 (ja) | 輪郭抽出装置、輪郭抽出方法及び輪郭抽出プログラム | |
WO2020013021A1 (ja) | 検出装置、処理装置、検出方法、及び処理プログラム | |
Nguyen et al. | Vision-based global localization of points of gaze in sport climbing | |
JP4802330B2 (ja) | 動体の動作判別方法 | |
JP4376199B2 (ja) | 画像処理装置 | |
Arowolo et al. | Development of a human posture recognition system for surveillance application | |
Wong et al. | Enhanced classification of abnormal gait using BSN and depth | |
KR102258114B1 (ko) | 다중 사용자 추적 장치 및 방법 | |
Muhlbauer et al. | A model-based algorithm to estimate body poses using stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120807 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120823 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150907 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5078017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150907 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20180907 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |