JP2008305059A - 物体認識装置および物体認識方法 - Google Patents
物体認識装置および物体認識方法 Download PDFInfo
- Publication number
- JP2008305059A JP2008305059A JP2007150226A JP2007150226A JP2008305059A JP 2008305059 A JP2008305059 A JP 2008305059A JP 2007150226 A JP2007150226 A JP 2007150226A JP 2007150226 A JP2007150226 A JP 2007150226A JP 2008305059 A JP2008305059 A JP 2008305059A
- Authority
- JP
- Japan
- Prior art keywords
- eigenvector
- image
- vector
- image information
- cut
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
ビデオカメラなどで撮影した監視対象物の位置を高速認識することができる物体認識装置を提供する。
【解決手段】
監視対象物またはその三次元モデルを回転させて得た複数のテンプレート画像の画像情報からテンプレート画像固有ベクトルを求めて、テンプレート画像固有ベクトル記憶部11にあらかじめ記憶させておき、実画像情報を所定の時間間隔で記憶する画像情報記憶部12と、実画像情報とテンプレート画像固有ベクトルとを比較して監視対象物の位置を特定する固有空間法状態推定部13と、パーティクルフィルタ法によって監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、固有空間法状態推定部13とパーティクルフィルタ法状態推定部14の切り替えを行う推定方法切替部15とにより、監視対象物の位置をリアルタイムで認識する。
【選択図】 図1
Description
パーティクルフィルタでは、独立な実現値とみなせる多数のパーティクル(=状態ベクトル)を発生させ、各パーティクルについて、次の状態を近似によって推定し(手順a)、 更に次の状態として残すべきパーティクルを、そのパーティクルを確率分布に従ってリサンプリングし(手順b)、この手順a, 手順bを繰り返すことで、各時刻における状態ベクトルが逐次的に推定される。
非特許文献1の固有空間法によって、特定の物体を認識させようとすると、撮影した画像とテンプレート画像を比較しなければならず、撮影された画像のどの範囲に監視対象物が存在するかを確認する作業(たとえば、撮影した画像から監視対象物の中心位置を求めるといった作業等)が必要となってくる。監視対象物の中心位置が判らない場合には、撮影した画像を複数切り出して、その切り出した画像のそれぞれについてテンプレート画像との比較を行わなければならず、画像処理における計算量を増大させてしまう。
図1は実施例1による物体認識装置の構成を示す説明図である。物体認識装置1は、撮影装置(ビデオカメラ)10と接続され、撮影装置10が撮影した監視対象物の位置をリアルタイムにて特定する。内部にはテンプレート画像固有ベクトル記憶部11、実画像情報記憶部12、固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15を備える。
なお、固有空間法状態推定部13は、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。
なお、パーティクルフィルタ法状態推定部14は、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。
撮影装置10により撮影された画像情報は、実画像情報記憶部12に送られ、実画像情報記憶ステップS12では、所定の時間間隔で撮影された画像を実画像情報として記憶する。
本実施例では、監視対象物が一つの場合を例にとって説明しているが、監視対象物が複数ある場合には、ステップS13c−3にて|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求めたあとで、切り出した画像r’およびその周辺以外で切り出した画像を対象にステップS13c−3と同様の処理を行い、以降、監視対象物の個数分だけ(または|gi−ET(y(r)−M)|の最小値が一定値以下である限り)同じ処理を繰り返せばよい。
このように、固有空間法状態推定部13(固有空間法状態推定ステップS13)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
すなわち、ステップS14a−2では、P(n)(t+1)=(Px (n)(t)+ (T(t+1)-T(t))×Vx(t)+Randx, Py (n)(t)+ (T(t+1)-T(t))×Vy(t)+ Randy)により、次タイミングt+1におけるパーティクルの位置を決定させるようにする。
このように、特定された監視対象物の位置から速度を算出し、その速度に応じて各パーティクルを平行移動させることで、動きのある測定対象物の位置追従を高い精度で行わせることが出来る。
本実施例では、監視対象物が一つの場合を例にとって説明しているが、監視対象物が複数ある場合には、ステップS14dにて|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求めたあとで、切り出した画像n’およびその周辺以外で切り出した画像を対象にステップS14dと同様の処理を行い、以降、監視対象物の個数分だけ(または|gi−ET(y(n)−M)|の最小値が一定値以下である限り)同じ処理を繰り返せばよい。
このように、パーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
図7は、監視対象物である自動車の模型について、その角度を変えて複数撮影したテンプレート画像であり、自動車の角度を10degreeずつ回転させて撮影を行った36枚のうち、12枚を抜き出して表示させている。なお、テンプレート画像は、図7に示すように実際に撮影した画像情報から、監視対象物以外の背景を取り除いてから処理することが好ましい。
図8は、自動車の模型の回転角度が30degreeであるときのテンプレート画像について、その固有ベクトルを求め、それを画像表示させたものである。このように、固有ベクトルを画像表示させると、監視対象物たる自動車模型の輪郭等が現れる。
(1)切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求めるか、
(2)切出画像ベクトルと拡大画像固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)切出画像ベクトルと縮小画像固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する実画像情報の切出し位置や切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定するようにする。
つまり、実画像情報94のうち、遠くの位置として撮影される部分94aでは監視対象物が見かけ上で小さく見え、近くの位置として撮影される部分94bでは監視対象物が見かけ上で大きく見えることから、遠くの位置に対応する切出し画像に対しては縮小画像固有ベクトルとの比較を行い、近くの位置に対応する切出し画像に対しては拡大画像固有ベクトルとの比較を行うようにする。
10 撮影装置
11 テンプレート画像固有ベクトル記憶部
12 実画像情報記憶部
13 固有空間法状態推定部
14 パーティクルフィルタ法状態推定部
15 推定方法切替部
51,52,53 パーティクル
91 監視対象物たる自動車模型を縮小表示した縮小画像情報
92 テンプレート画像
93 監視対象物たる自動車模型を拡大表示した拡大画像情報
94 実画像情報
94a 実画像情報のうち遠くの位置として撮影される部分
94b 実画像情報のうち近くの位置として撮影される部分
101 監視対象物
102 進行方向
103 パーティクルの発生範囲
Claims (10)
- 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、
前記固有ベクトルを記憶するテンプレート画像固有ベクトル記憶部11と、
所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶部12と、
前記実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定する固有空間法状態推定部13と、
パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、
前記固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定を前記パーティクルフィルタ法状態推定部14で行わせるようにし、前記パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を前記固有空間法状態推定部13で行わせる推定方法切替部15と、
を備える物体認識装置。 - 前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とする請求項1に記載の物体認識装置。
- 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、
前記テンプレート画像固有ベクトル記憶部11では、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルがあわせて記憶され、
前記固有空間法状態推定部13では、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、
前記パーティクルフィルタ法状態推定部14では、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とする請求項1または請求項2に記載の物体認識装置。 - 前記固有空間法状態推定部13は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、
前記パーティクルフィルタ法状態推定部14は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することを特徴とする請求項1ないし請求項3のいずれかに記載の物体認識装置。 - 前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることを特徴とする請求項4に記載の物体認識装置。
- 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶するテンプレート画像固有ベクトル記憶ステップS11と、
所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶ステップS12と、
前記実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13c、を含んだ固有空間法状態推定ステップS13と、
パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成するステップS14a、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS14b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるステップS14c、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するステップS14d、を含んだパーティクルフィルタ法状態推定ステップS14と、
固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15b、を含んだ推定方法切替ステップS15と、
によって、監視対象物の位置を特定させる物体認識方法。 - 前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とする請求項6に記載の物体認識方法。
- 前記テンプレート画像固有ベクトル記憶ステップS11では、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出して、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルをあわせて記憶し、
前記固有空間法状態推定ステップS13のステップS13cでは、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、
前記パーティクルフィルタ法状態推定ステップS14のステップS14cでは、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、
前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とする請求項6または請求項7に記載の物体認識方法。 - 前記固有空間法状態推定ステップS13のステップS13cでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、
前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することによって、監視対象物の位置および角度を特定させることを特徴とする請求項6ないし請求項8のいずれかに記載の物体認識方法。 - 前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることによって、監視対象物の位置および角度を特定させることを特徴とする請求項9に記載の物体認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007150226A JP4866793B2 (ja) | 2007-06-06 | 2007-06-06 | 物体認識装置および物体認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007150226A JP4866793B2 (ja) | 2007-06-06 | 2007-06-06 | 物体認識装置および物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008305059A true JP2008305059A (ja) | 2008-12-18 |
JP4866793B2 JP4866793B2 (ja) | 2012-02-01 |
Family
ID=40233755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007150226A Expired - Fee Related JP4866793B2 (ja) | 2007-06-06 | 2007-06-06 | 物体認識装置および物体認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4866793B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018139301A1 (ja) * | 2017-01-24 | 2018-08-02 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、情報処理プログラムが記録された記録媒体 |
JP2018151830A (ja) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2018197945A (ja) * | 2017-05-23 | 2018-12-13 | 株式会社デンソーテン | 障害物検出装置および障害物検出方法 |
US11693538B2 (en) | 2012-12-17 | 2023-07-04 | Interdigital Madison Patent Holdings, Sas | Method for activating a mobile device in a network, and associated display device and system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863602A (ja) * | 1994-08-19 | 1996-03-08 | Fuji Electric Co Ltd | 物体追跡装置 |
JP2005267512A (ja) * | 2004-03-22 | 2005-09-29 | Fuji Photo Film Co Ltd | 特定領域検出方法、特定領域検出装置、およびプログラム |
JP2006146922A (ja) * | 2004-11-17 | 2006-06-08 | Samsung Electronics Co Ltd | テンプレート方式の顔検出方法 |
JP2007128513A (ja) * | 2005-10-31 | 2007-05-24 | Sony United Kingdom Ltd | シーン解析 |
-
2007
- 2007-06-06 JP JP2007150226A patent/JP4866793B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863602A (ja) * | 1994-08-19 | 1996-03-08 | Fuji Electric Co Ltd | 物体追跡装置 |
JP2005267512A (ja) * | 2004-03-22 | 2005-09-29 | Fuji Photo Film Co Ltd | 特定領域検出方法、特定領域検出装置、およびプログラム |
JP2006146922A (ja) * | 2004-11-17 | 2006-06-08 | Samsung Electronics Co Ltd | テンプレート方式の顔検出方法 |
JP2007128513A (ja) * | 2005-10-31 | 2007-05-24 | Sony United Kingdom Ltd | シーン解析 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11693538B2 (en) | 2012-12-17 | 2023-07-04 | Interdigital Madison Patent Holdings, Sas | Method for activating a mobile device in a network, and associated display device and system |
WO2018139301A1 (ja) * | 2017-01-24 | 2018-08-02 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、情報処理プログラムが記録された記録媒体 |
JPWO2018139301A1 (ja) * | 2017-01-24 | 2019-11-07 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、情報処理プログラムが記録された記録媒体 |
JP2018151830A (ja) * | 2017-03-13 | 2018-09-27 | オムロン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2018197945A (ja) * | 2017-05-23 | 2018-12-13 | 株式会社デンソーテン | 障害物検出装置および障害物検出方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4866793B2 (ja) | 2012-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2088535B1 (en) | Image processing apparatus and method, and program | |
US9177404B2 (en) | Systems and methods of merging multiple maps for computer vision based tracking | |
Cootes et al. | Robust and accurate shape model fitting using random forest regression voting | |
Liu et al. | Joint subspace learning for view-invariant gait recognition | |
KR100714724B1 (ko) | 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템 | |
JP5940453B2 (ja) | 画像のシーケンス内のオブジェクトのリアルタイム表現のハイブリッド型追跡のための方法、コンピュータプログラム、および装置 | |
EP2192549B1 (en) | Target tracking device and target tracking method | |
WO2011080900A1 (ja) | 移動体検出装置および移動体検出方法 | |
JP2009015827A (ja) | 物体追跡方法、物体追跡システム、及び物体追跡プログラム | |
Chu et al. | Posture and gesture recognition using 3D body shapes decomposition | |
JP4709668B2 (ja) | 3次元物体認識システム | |
Sedai et al. | A Gaussian process guided particle filter for tracking 3D human pose in video | |
JP2007072620A (ja) | 画像認識装置及びその方法 | |
TW201832182A (zh) | 動作學習裝置、技能判別裝置以及技能判別系統 | |
US7224835B2 (en) | Three-dimensional object recognizing apparatus, method and computer program product | |
EP3886046A1 (en) | Multi-view positioning using reflections | |
JP4866793B2 (ja) | 物体認識装置および物体認識方法 | |
JPWO2018235219A1 (ja) | 自己位置推定方法、自己位置推定装置および自己位置推定プログラム | |
Bhuyan et al. | Trajectory guided recognition of hand gestures having only global motions | |
Zhang et al. | Real time feature based 3-d deformable face tracking | |
EP2672424A1 (en) | Method and apparatus using adaptive face registration method with constrained local models and dynamic model switching | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 | |
CN114743264A (zh) | 拍摄行为检测方法、装置、设备及存储介质 | |
Hammouche et al. | Toward a real time view-invariant 3d action recognition | |
Joshi et al. | Meta-Learning, Fast Adaptation, and Latent Representation for Head Pose Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111101 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141118 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |