JP5604256B2 - 人物動作検出装置およびそのプログラム - Google Patents
人物動作検出装置およびそのプログラム Download PDFInfo
- Publication number
- JP5604256B2 JP5604256B2 JP2010234240A JP2010234240A JP5604256B2 JP 5604256 B2 JP5604256 B2 JP 5604256B2 JP 2010234240 A JP2010234240 A JP 2010234240A JP 2010234240 A JP2010234240 A JP 2010234240A JP 5604256 B2 JP5604256 B2 JP 5604256B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- trajectory
- feature point
- feature amount
- motion detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
しかし、このように身体に測定器を取り付けて動作を認識する手法は、設営コストや人体に与える影響(負荷)を考慮すると好ましいものとは言えない。そこで、さらに、近年では、人物を撮影した映像を解析することで人物の動作を認識する研究が多く行われている。例えば、映像中の人物の軌跡から人物の動作を認識する手法が提案されている(特許文献2,3参照)。
この非特許文献1に記載された手法は、追跡する時間を所定時間に限定し、3次元特徴を固定次元(固定長)の軌跡の特徴量(軌跡特徴量)とすることで、当該軌跡特徴量を1つの単語とみなして分類を行う「Bag−of−words(BOW)」の手法を用いて、人物の動作を予め学習によって求めた動作に分類するものである。
この非特許文献2に記載された手法は、移動ベクトルの角度を予め定めたビン幅θ(ビン数2π/θ)で、[0,θ),[θ,2θ),…,[2π−θ,2π)ごと(なお、[a,b)は、a以上b未満の範囲を示す)に累計することで、固定次元の軌跡特徴量としてヒストグラム化し、「Bag−of−words」手法を用いた人物の動作検出を可能にしている。
しかし、非特許文献1,2に記載の手法は、以下に示すような問題点を含んでいる。
非特許文献2に記載の手法は、動作の判定要素としては、移動ベクトルの角度以外に、特徴点が移動する速度(移動ベクトルの長さ)も重要な要素であるにもかかわらず、その速度が考慮されていない。そのため、非特許文献2に記載の手法は、動き速度が不自然であるにも関わらず、移動ベクトルの角度が予め学習した結果と近似した場合、動作を誤って検出してしまうという問題を含んでいる。
この移動ベクトルの向きは、特徴点が移動する方向を表し、移動ベクトルの大きさは、特徴点が移動する速度を表すことになり、人物の動作を特徴付ける特徴量となる。また、時間特徴量生成手段は、移動ベクトルの向きおよび大きさの取り得る範囲を予め定めた数に分割した範囲幅ごとに累計することで、軌跡の長さ、すなわち、動作の時間長に依存せず、固定長の特徴量が抽出されることになる。
このように、人物の動作を構成する複数の軌跡特徴量が、クラスタの分布によって特定され、動作識別手段は、当該分布と学習データの分布とを比較することで、人物の動作を検出することができる。
このように、人物動作検出装置は、時間方向の特徴量に、さらに空間方向の特徴量を付加して軌跡特徴量を生成する。これによって、動作識別手段は、人物の動きの特徴のみならず、外観の特徴を加味して、動作を識別することになる。
これによって、方向特徴量には、人物の動きの方向を粗く分類した分布から細かく分類した分布まで、複数の特徴が含まれることになる。また、速度特徴量には、人物の動きの速さを粗く分類した分布から細かく分類した分布まで、複数の特徴が含まれることになる。
これによって、方向特徴量および速度特徴量には、厳密に再現された軌跡からおおまかに再現された軌跡まで、複数の特徴が含まれることになる。
また、人物動作検出装置は、分類手段によって、重み付き分布生成手段で生成されたクラスタの分布と、学習データ記憶手段に学習データとして記憶されている動作ごとのクラスタの分布との距離に基づいて類似を判定し、人物の動作を分類する。この距離は、例えば、ユークリッド距離を用いる。
請求項1,6に記載の発明によれば、映像から、人物の動作に関する特徴量を、動作時間に関係なく固定長の軌跡特徴量で表すことができるため、動作途中で特徴量が遮断されることなく、正確に動作の特徴量を抽出することができる。これによって、本発明は、精度の高い特徴量を用いることで、映像から、高精度に人物の動作を検出することができる。
[人物動作検出装置の構成]
最初に、図1を参照して、本発明の実施形態に係る人物動作検出装置の構成について説明する。人物動作検出装置1は、カメラ(不図示)で撮影された映像から、当該映像に映された人物の動作を検出するものである。ここでは、人物動作検出装置1は、特徴点軌跡情報生成手段10と、特徴量抽出手段20と、動作識別手段30と、学習データ記憶手段40と、を備えている。
ここでは、特徴点軌跡情報生成手段10は、前景領域抽出手段11と、特徴点検出手段12と、特徴点追跡手段13と、を備えている。
このように、前景領域抽出手段11は、動きのある領域を前景領域として抽出することで、主に人物の動いた領域を抽出することができる。
このHarrisオペレータは、画像信号の相関性に基づいて特徴点を検出する手法で、画像内のエッジやコーナー等の特徴点において相関出力値が大きくなるという特徴を有するオペレータである。
このように、特徴点検出手段12は、フレーム画像ごとに特徴点を検出し、前景領域抽出手段11で抽出された前景領域内の特徴点のみを、特徴点追跡手段13に出力する。
なお、特徴点検出手段12は、Harrisオペレータのほか、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)等の一般的な特徴量検出手法を用いてもよい。
このLucas−Kanade法は、同一物体の局所領域内では、オプティカルフローが同一になると仮定した空間的局所最適化法の一つである。オプティカルフローとは、連続した画像間で特徴点がどの方向にどの程度移動するかを表す速度ベクトルである。
ここでは、特徴点追跡手段13は、特徴点の軌跡ごとに、時間情報(例えば、フレーム番号)に対応付けて、フレーム画像内の特徴点の座標位置を連結することで特徴点軌跡情報を生成する。この特徴点追跡手段13で生成された特徴点軌跡情報は、特徴量抽出手段20に出力される。
このように、特徴点軌跡情報生成手段10は、追跡した軌跡pi,…,pj,…,pkの座標位置を連結することで特徴点軌跡情報を生成する。
図1に戻って、人物動作検出装置1の構成について説明を続ける。
ここでは、時間特徴量生成手段21は、平滑化手段211と、方向特徴量生成手段212と、速度特徴量生成手段213と、を備えている。
Haarフィルタは、離散時間(z空間)で、以下の(5)式の伝達関数で表されるフィルタである。
図1に戻って、人物動作検出装置1の構成について説明を続ける。
この方向特徴量生成手段212は、平滑化手段211で生成された各平滑化レベルの軌跡について、フレーム画像上における特徴点が移動する角度(移動ベクトルの向き)を一定の角度幅ごとに累計(ヒストグラム化)することで、方向特徴量を生成する。
すなわち、方向特徴量生成手段212は、ヒストグラムのビン幅(角度幅)をθとしたとき、[0,θ),[θ,2θ),…,[2π−θ,2π)ごとに、特徴点が移動する角度を累計する。ここで、[a,b)は、a以上b未満を示す。
なお、このとき、方向特徴量生成手段212は、ヒストグラムのビン幅(角度幅)が異なる複数のヒストグラムを生成することとする。
具体的には、速度特徴量生成手段213は、例えば、水平方向の速度について特徴量を生成する場合、特徴点軌跡情報に基づいて、水平速度が最も遅い、すなわち、移動ベクトルの水平方向の長さが最も短い速度(長さ)をヒストグラムの最小値vsとする。また、水平速度が最も早い、すなわち、移動ベクトルの水平方向の長さが最も長い速度(長さ)をヒストグラムの最大値vfとする。
また、速度特徴量生成手段213は、垂直方向の速度についても水平方向と同様に、ヒストグラムを生成する。
図5に示すように、速度特徴量生成手段213は、水平方向および垂直方向の速度特徴量として、方向特徴量生成手段212と同様に、それぞれ84次元の固定の特徴量を生成する。すなわち、速度特徴量生成手段213は、水平方向および垂直方向の速度特徴量として、168次元(84×2)の固定次元の特徴量(速度特徴量:速度特徴量ヒストグラム)を生成する。
このように、速度特徴量生成手段213は、特徴点の軌跡の時間長に依存せずに、固定次元(固定長)の速度特徴量を生成することができる。
すなわち、空間特徴量生成手段22は、特徴点ごとに、SURF特徴量として、64次元(16×4)の特徴量を算出する。
また、特徴量としてSIFT特徴量を用いる場合であれば、空間特徴量生成手段22は、特徴点ごとに、128次元の特徴量を算出することとする。
ここでは、特徴量抽出手段20は、特徴点の軌跡ごとに、固定次元の軌跡特徴量(時間特徴量および空間特徴量)を、当該軌跡の終了時間、すなわち、人物の動作が完了した時間(例えば、軌跡の最終フレーム番号)とともに、動作識別手段30に出力する。
このコードブックは、複数の軌跡単語を、その特徴(多次元の特徴量)に基づいて、予め定めたk個(例えば、1000個)に分類した単語辞書である。
このコードブック生成手段311におけるクラスタリングは、例えば、K平均法(K−means法)を用いて行うことができる。
このコードブック生成手段311は、k個のクラスタに分類された複数の軌跡単語からなるコードブックを、学習データ記憶手段40に書き込み記憶する。
また、ここでは、コードブック生成手段311は、予め定めた時間長(所定時間区間)のシーケンス(例えば、1秒〔25フレーム相当〕)に軌跡が終了した複数の軌跡単語について、当該シーケンスを1ドキュメント(文書)として、当該ドキュメントに含まれる軌跡単語およびそのクラスタをドキュメントごとに学習データ記憶手段40に書き込み記憶しておくこととする。このドキュメントは、後記する動作判定手段32の重み付きヒストグラム生成手段321において、軌跡単語の重要度を算出する際に使用される。
このヒストグラム生成手段312は、予め既知の動作において、複数の軌跡単語のそれぞれを、コードブック生成手段311で生成されたコードブックのk個のクラスタの中で、距離(ユークリッド距離)が最も近いクラスタに分類し、k個のビン数からなるヒストグラムを生成する。
このように、ヒストグラム生成手段312は、既知の動作において作成したヒストグラムを、動作に対応付けて、学習データ記憶手段40に書き込み記憶する。
まず、学習手段31は、図6(a)に示すように、特徴量抽出手段20で抽出された複数の多次元の軌跡特徴量(軌跡単語W1,W2,…,Wn)を入力し、学習データ記憶手段40に書き込む。その後、学習手段31は、コードブック生成手段311によって、図6(b)に示すように、複数の軌跡単語W1,W2,…,Wnを、例えば、K平均法により特徴量に基づいてk個のクラスタ(C1,C2,…,Ck)に分類する。このように、コードブック生成手段311は、k個のクラスタに分類された軌跡単語の辞書であるコードブックCBを生成する。
このように、学習手段31は、ヒストグラム生成手段312によって、既知の動作ごとに、ヒストグラムHを生成することで、学習データを生成する。
図1に戻って、人物動作検出装置1の構成について説明を続ける。
この動作判定手段32は、予め定めた時間長(所定時間区間)のシーケンス(例えば、1秒〔25フレーム相当〕)に軌跡の終点が存在する複数の軌跡単語について、学習データ記憶手段40に記憶されている学習データを参照して動作を判定する。このように、所定時間区間内に軌跡が終了した複数の軌跡単語は、動作が完了した一連の動作の特徴を示すことになる。なお、このシーケンスの時間長は、任意に定めることができる。
ここでは、動作判定手段32は、重み付きヒストグラム生成手段321と、分類手段322と、を備えている。
また、重み付きヒストグラム生成手段321は、1シーケンス内の軌跡単語を、1つのドキュメント(文書)とみなし、全ドキュメントにおける軌跡単語の重要度を、tf−idf法を用いて算出し、当該軌跡単語が属するクラスタの出現頻度に重要度を乗算することで、ヒストグラム(クラスタの分布)に重みを付加する。ここで、全ドキュメントとは、学習手段31によって、予め学習フェーズにおいて、種々の動作を撮影した複数の映像から収集したドキュメントを指す。
このように生成された軌跡単語の出現頻度の分布(ヒストグラム)は、分類手段322に出力される。
ここでは、重み付きヒストグラム生成手段321は、予め定めた時間長(例えば、1秒)のシーケンス内に軌跡の終点が存在する複数の軌跡単語について、その軌跡単語が属するクラスタごとの重要度を算出する。
すなわち、重み付きヒストグラム生成手段321は、軌跡単語が属するクラスタxのドキュメントd内における重要度wxdを、以下の(9)式に示すtfxd値とidfx値の積により算出する。
また、(9)式のtfxd値は、あるドキュメントdにおけるクラスタxの頻度で、以下の(11)式で表される。
このように、重み付きヒストグラム生成手段321は、tf−idf法により軌跡単語が属するクラスタの重要度を算出して、ヒストグラムを生成するため、頻繁に発生する背景領域上の軌跡単語の重要度を下げ、特定のシーケンスで頻繁に発生する軌跡単語の重要度を高めることができる。なお、特徴点軌跡情報生成手段10において、前景の特徴点から軌跡を抽出することとしているが、照明やノイズ等の原因で、背景において特徴点を追跡する場合もある。この場合、重み付きヒストグラム生成手段321によって、背景領域上の軌跡単語の重要度を下げることで、人物の動作をより適切に表したヒストグラムを生成することができる。
図1に戻って、人物動作検出装置1の構成について説明を続ける。
この分類結果は、人物動作検出装置1における人物の動作検出結果として出力される。
さらに、学習データ記憶手段40には、予め定めた時間長(所定時間区間)のシーケンスに軌跡の終点が存在する複数の軌跡単語について、当該シーケンスを1ドキュメント(文書)として、当該ドキュメントに含まれる軌跡単語およびそのクラスタをドキュメントごとに記憶しておく。
なお、人物動作検出装置1は、一般的なコンピュータを前記した各手段として機能させるプログラム(人物動作検出プログラム)により動作させることができる。
次に、図8〜図10を参照して、本発明の実施形態に係る人物動作検出装置の動作について説明する。ここでは、人物動作検出装置1の動作を、「学習フェーズ」と、「動作検出フェーズ」とに分けて説明する。
最初に、図8を参照(構成については適宜図1参照)して、人物動作検出装置1の学習フェーズ(第1段階)における動作について説明する。なお、図8の学習フェーズ(第1段階)は、種々の動作を撮影した複数の映像から、軌跡特徴量(軌跡単語)を抽出し、複数の軌跡単語を、予め定めた数(k個)のクラスタにクラスタリングすることで、軌跡を分類する際に用いるコードブックを生成する動作である。
すなわち、人物動作検出装置1は、前景領域抽出手段11によって、入力された映像のフレーム画像ごとに、背景差分処理により、動きのある領域を前景領域として抽出する(ステップS1)。
そして、人物動作検出装置1は、特徴点追跡手段13によって、ステップS2で検出された特徴点において、特徴量(例えば、輝度勾配)が類似する特徴点をフレームごと(時間方向)に追跡し、特徴点軌跡情報を生成する(ステップS3)。
すなわち、人物動作検出装置1は、平滑化手段211によって、ステップS3で生成された特徴点軌跡情報に記述されている特徴点の軌跡(座標)に対して、多段階の平滑化処理を行う(ステップS4)。このとき、例えば、平滑化手段211は、Haarフィルタを2段階適用し、平滑化レベルが3段階の特徴点軌跡情報を生成する。
このとき、方向特徴量生成手段212は、異なる角度幅(例えば、π/2,π/4,π/8)をビン幅として各角度の移動ベクトルを累計することでヒストグラムを生成する。
このとき、速度特徴量生成手段213は、特徴点の速度として、フレーム画像上におけるフレームごとの特徴点の移動ベクトルの水平方向の長さおよび垂直方向の長さを用いることとする。また、速度特徴量生成手段213は、異なる速度幅をビン幅として各速度の移動ベクトルを累計することでヒストグラムを生成する。
このとき、空間特徴量生成手段22は、軌跡上のすべての特徴点において、対応するフレーム画像から特徴量(SURF特徴量あるいはSIFT特徴量)を抽出し、軌跡ごとに平均化する。
なお、このステップS5〜S7における各特徴量の生成は、必ずしもこの順番で行う必要はなく、並列処理で各特徴量を生成することとしてもよい。
すなわち、人物動作検出装置1は、コードブック生成手段311によって、特徴量抽出手段20において種々の動作を撮影した複数の映像から抽出された軌跡特徴量(軌跡単語)を用いて、複数の軌跡単語を、予め定めた数(k個)のクラスタにクラスタリングすることで、単語辞書となるコードブックを生成する(ステップS8)。そして、コードブック生成手段311は、生成したコードブックを、学習データ記憶手段40に書き込み記憶する(ステップS9)。なお、コードブック生成手段311は、後記する動作検出フェーズにおいて、tf−idf法を用いる場合、入力映像の予め定めた時間長のシーケンスを1ドキュメントとしたときのドキュメントごとの軌跡単語およびそのクラスタを、学習データ記憶手段40に書き込み記憶しておくこととする。
次に、図9を参照(構成については適宜図1参照)して、人物動作検出装置1の学習フェーズ(第2段階)における動作について説明する。なお、図9の学習フェーズ(第2段階)は、予め定めた動作を撮影した映像から、軌跡特徴量(軌跡単語)を抽出し、学習フェーズ(第1段階)で生成したコードブックを参照し、クラスタ単位でヒストグラム化することで、当該動作の特徴量をヒストグラムとして生成する動作である。
なお、ステップS11〜S17までの動作は、図8で説明したステップS1〜S7までの動作と同じであるため、ここでは説明を省略する。
以上の動作によって、人物動作検出装置1は、ある動作における軌跡単語の出現頻度の分布(ヒストグラム)を動作ごとの特徴量として生成することができる。
次に、図10を参照(構成については適宜図1参照)して、人物動作検出装置1の動作検出フェーズにおける動作について説明する。
なお、ステップS21〜S27までの動作は、図8で説明したステップS1〜S7までの動作と同じであるため、ここでは説明を省略する。
このように分類された動作は、人物動作検出装置1の人物の動作検出結果として外部に出力される。
さらに、人物動作検出装置1は、特徴点の軌跡の特徴量として、固定長(固定次元)の軌跡特徴量を用いるため、その軌跡特徴量を単語(軌跡単語)とみなして、「Bag−of−words」手法を用いて人物の動作検出を行うことができる。これによって、人物動作検出装置1は、頻繁に発生する背景上の特徴量の重要度を下げ、人物動作をより頑健に行うことができる。
例えば、ここでは、特徴量抽出手段20が、時間特徴量と空間特徴量との両方を軌跡特徴量として生成することとしたが、時間特徴量のみを用いることとしてもよい。この場合、図1の構成から空間特徴量生成手段22を省略して構成すればよい。このとき、軌跡特徴量は、時間特徴量である方向特徴量および速度特徴量で構成されることになる。
最後に、本発明の実施形態に係る人物動作検出装置1において、従来では、加味することができなかった時間方向の特徴量を用いた場合の人物の動作検出結果について説明する。ここでは、人物の動作として、「指を指す動作(Pointing)」、「物を置く動作(ObjectPut)」について、映像から各動作を検出することができた再現率〔Recall〕(%)を測定した。
このように、本発明は、可変長の特徴量である時間方向の特徴量を固定長の特徴量として扱うことで、従来の動作検出手法に比べて、頑健に人物の動作を検出することができる。
10 特徴点軌跡情報生成手段
11 前景領域抽出手段
12 特徴点検出手段
13 特徴点追跡手段
20 特徴量抽出手段
21 時間特徴量生成手段
211 平滑化手段
212 方向特徴量生成手段
213 速度特徴量生成手段
22 空間特徴量生成手段
30 動作識別手段
31 学習手段
311 コードブック生成手段
312 ヒストグラム生成手段
32 動作判定手段
321 重み付きヒストグラム生成手段(重み付き分布生成手段)
322 分類手段
40 学習データ記憶手段
Claims (6)
- 人物を撮影した映像から、前記人物の動作を検出する人物動作検出装置であって、
前記映像のフレーム画像ごとに特徴点を検出し、前記フレーム画像ごとに前記特徴点の特徴量のマッチングを行うことで、前記特徴点の位置を時間方向に追跡した軌跡を特徴点軌跡情報として生成する特徴点軌跡情報生成手段と、
この特徴点軌跡情報生成手段で生成された特徴点軌跡情報に含まれる前記特徴点の位置に基づいて、前記特徴点の前記フレーム画像ごとの移動ベクトルの向きおよび大きさを、当該向きおよび当該大きさの取り得る範囲を予め定めた数に分割した範囲幅ごとに累計することで時間特徴量を生成し、前記特徴点の軌跡の特徴量である軌跡特徴量とする時間特徴量生成手段と、
複数の軌跡特徴量を予め定めた数のクラスタにクラスタリングしておき、既知の動作を構成する複数の軌跡特徴量を前記クラスタごとに累計した分布を、前記既知の動作ごとに対応付けて予め学習データとして記憶する学習データ記憶手段と、
所定時間区間ごとに、当該時間区間内に軌跡の終点が存在する複数の軌跡特徴量から、当該軌跡特徴量が属する前記クラスタを累計した分布を生成し、前記学習データ記憶手段に記憶されている動作ごとのクラスタの分布と類似するか否かにより、前記人物の動作を識別する動作識別手段と、
を備えることを特徴とする人物動作検出装置。 - 前記特徴点軌跡情報生成手段で生成された特徴点軌跡情報に含まれる前記特徴点の位置におけるフレーム画像の輝度勾配を空間特徴量として生成し、前記軌跡特徴量に付加する空間特徴量生成手段をさらに備えることを特徴とする請求項1に記載の人物動作検出装置。
- 前記時間特徴量生成手段は、
前記移動ベクトルの向きの取り得る範囲を予め定めた複数の数で分割したそれぞれ異なる範囲幅ごとに、前記移動ベクトルの向きを累計することで、前記時間特徴量を構成する特徴量である方向特徴量を生成する方向特徴量生成手段と、
前記移動ベクトルの大きさの取り得る範囲を予め定めた複数の数で分割したそれぞれ異なる範囲幅ごとに、前記移動ベクトルの大きさを累計することで、前記時間特徴量を構成する特徴量である速度特徴量を生成する速度特徴量生成手段と、
を備えることを特徴とする請求項1または請求項2に記載の人物動作検出装置。 - 前記時間特徴量生成手段は、前記特徴点軌跡情報における特徴点の軌跡を平滑化した複数の軌跡を生成する平滑化手段をさらに備え、
前記方向特徴量生成手段および前記速度特徴量生成手段は、前記平滑化手段で平滑化された複数の軌跡に対して、前記方向特徴量および前記速度特徴量をそれぞれ生成することを特徴とする請求項3に記載の人物動作検出装置。 - 前記動作識別手段は、
前記時間区間内に軌跡の終点が存在する個々の軌跡特徴量を単語とみなし、前記時間区間内に存在する複数の単語を文書とみなすことで、tf−idf法により、前記時間特徴量生成手段で生成された前記軌跡特徴量の重要度を算出し、当該軌跡特徴量が属するクラスタの頻度に重み付けを行うことでクラスタの分布を生成する重み付き分布生成手段と、
この重み付き分布生成手段で生成されたクラスタの分布と、前記学習データ記憶手段に学習データとして記憶されている動作ごとのクラスタの分布との距離に基づいて類似を判定し、前記人物の動作を分類する分類手段と、
を備えることを特徴とする請求項1から請求項4のいずれか一項に記載の人物動作検出装置。 - 人物を撮影した映像から、前記人物の動作を検出するために、コンピュータを、
前記映像のフレーム画像ごとに特徴点を検出し、前記フレーム画像ごとに前記特徴点の特徴量のマッチングを行うことで、前記特徴点の位置を時間方向に追跡した軌跡を特徴点軌跡情報として生成する特徴点軌跡情報生成手段、
この特徴点軌跡情報生成手段で生成された特徴点軌跡情報に含まれる前記特徴点の位置に基づいて、前記特徴点の前記フレーム画像ごとの移動ベクトルの向きおよび大きさを、当該向きおよび当該大きさの取り得る範囲を予め定めた数に分割した範囲幅ごとに累計することで時間特徴量を生成し、前記特徴点の軌跡の特徴量である軌跡特徴量とする時間特徴量生成手段、
複数の軌跡特徴量を予め定めた数のクラスタにクラスタリングしておき、既知の動作を構成する複数の軌跡特徴量を前記クラスタごとに累計した分布を、前記既知の動作ごとに対応付けて予め学習データとして記憶した学習データ記憶手段を参照して、所定時間区間ごとに、当該所定時間区間内に軌跡の終点が存在する複数の軌跡特徴量から、当該軌跡特徴量が属する前記クラスタを累計した分布を生成し、前記学習データ記憶手段に記憶されている動作ごとのクラスタの分布と類似するか否かにより、前記人物の動作を識別する動作識別手段、
として機能させることを特徴とする人物動作検出プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010234240A JP5604256B2 (ja) | 2010-10-19 | 2010-10-19 | 人物動作検出装置およびそのプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010234240A JP5604256B2 (ja) | 2010-10-19 | 2010-10-19 | 人物動作検出装置およびそのプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012088881A JP2012088881A (ja) | 2012-05-10 |
| JP5604256B2 true JP5604256B2 (ja) | 2014-10-08 |
Family
ID=46260447
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010234240A Expired - Fee Related JP5604256B2 (ja) | 2010-10-19 | 2010-10-19 | 人物動作検出装置およびそのプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5604256B2 (ja) |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014127187A (ja) * | 2012-12-27 | 2014-07-07 | Toshiba Corp | 特徴算出装置、方法及びプログラム |
| US9076257B2 (en) * | 2013-01-03 | 2015-07-07 | Qualcomm Incorporated | Rendering augmented reality based on foreground object |
| KR101472674B1 (ko) * | 2013-05-07 | 2014-12-15 | 성균관대학교산학협력단 | 군중 궤적 추출을 이용한 비정상 행동 검출에 기초한 영상 감시 방법 및 영상 감시 장치 |
| JP6289027B2 (ja) * | 2013-10-24 | 2018-03-07 | 日本放送協会 | 人物検出装置及びプログラム |
| JP2015228131A (ja) * | 2014-05-30 | 2015-12-17 | 東芝テック株式会社 | 情報処理装置および報知システム |
| JP6435049B2 (ja) | 2015-07-15 | 2018-12-05 | 日本電信電話株式会社 | 画像検索装置及び方法、撮影時刻推定装置及び方法、反復構造抽出装置及び方法、並びにプログラム |
| JP6540809B2 (ja) * | 2015-08-06 | 2019-07-10 | 株式会社ニコン | 電子制御装置、及び電子制御プログラム |
| JP6737067B2 (ja) * | 2016-08-23 | 2020-08-05 | 沖電気工業株式会社 | 画像処理装置、画像処理方法およびプログラム |
| CN110291559A (zh) * | 2017-02-24 | 2019-09-27 | 三菱电机株式会社 | 动作学习装置、技能判别装置以及技能判别系统 |
| WO2018179420A1 (ja) * | 2017-03-31 | 2018-10-04 | 株式会社オプティム | コンピュータシステム、植物診断方法及びプログラム |
| WO2018179419A1 (ja) * | 2017-03-31 | 2018-10-04 | 株式会社オプティム | コンピュータシステム、動物診断方法及びプログラム |
| JP2019003558A (ja) * | 2017-06-19 | 2019-01-10 | アイシン精機株式会社 | 物体検出装置 |
| EP3651055B1 (en) * | 2017-08-01 | 2026-02-25 | Huawei Technologies Co., Ltd. | Gesture recognition method, apparatus, and device |
| JP7210890B2 (ja) * | 2018-03-29 | 2023-01-24 | 株式会社リコー | 行動認識装置、行動認識方法、そのプログラム及びそのプログラムを記録したコンピュータ読取り可能な記録媒体 |
| WO2021166154A1 (ja) * | 2020-02-20 | 2021-08-26 | 日本電信電話株式会社 | 行動分類装置、行動分類方法及びプログラム |
| US12579216B2 (en) | 2021-06-02 | 2026-03-17 | Nvidia Corporation | Techniques for classification with neural networks |
| JP7248755B1 (ja) | 2021-09-10 | 2023-03-29 | みずほリサーチ&テクノロジーズ株式会社 | 学習データ生成システム、学習データ生成方法及び学習データ生成プログラム |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0546583A (ja) * | 1991-08-15 | 1993-02-26 | Nippon Telegr & Teleph Corp <Ntt> | 動物体行動認識装置 |
| JP5149033B2 (ja) * | 2008-02-26 | 2013-02-20 | 岐阜車体工業株式会社 | 動作解析方法及び動作解析装置並びにその動作解析装置を利用した動作評価装置 |
| JP4683123B2 (ja) * | 2008-12-24 | 2011-05-11 | 株式会社デンソー | 行動推定装置、プログラム |
-
2010
- 2010-10-19 JP JP2010234240A patent/JP5604256B2/ja not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2012088881A (ja) | 2012-05-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5604256B2 (ja) | 人物動作検出装置およびそのプログラム | |
| Vishwakarma et al. | A unified model for human activity recognition using spatial distribution of gradients and difference of Gaussian kernel | |
| Chou et al. | Robust feature-based automated multi-view human action recognition system | |
| Shen et al. | Dynamic hand gesture recognition: An exemplar-based approach from motion divergence fields | |
| Cheema et al. | Action recognition by learning discriminative key poses | |
| CN105022982B (zh) | 手部运动识别方法和装置 | |
| Abdul-Azim et al. | Human action recognition using trajectory-based representation | |
| CN112329656B (zh) | 一种视频流中人体动作关键帧的特征提取方法 | |
| Ming et al. | Activity recognition from RGB-D camera with 3D local spatio-temporal features | |
| Yi et al. | Motion keypoint trajectory and covariance descriptor for human action recognition | |
| CN106815578A (zh) | 一种基于深度运动图‑尺度不变特征变换的手势识别方法 | |
| CN105512618A (zh) | 视频跟踪方法 | |
| Yi et al. | Human action recognition based on action relevance weighted encoding | |
| CN103605993A (zh) | 一种基于面向场景判别性分析的图像到视频人脸识别方法 | |
| Yadav et al. | Action recognition using interest points capturing differential motion information | |
| CN109858342B (zh) | 一种融合手工设计描述子和深度特征的人脸姿态估计方法 | |
| Zhang et al. | Moving people tracking with detection by latent semantic analysis for visual surveillance applications | |
| KR101521136B1 (ko) | 얼굴 인식 방법 및 얼굴 인식 장치 | |
| Ding et al. | Recognition of hand-gestures using improved local binary pattern | |
| Wang et al. | Detecting action-relevant regions for action recognition using a three-stage saliency detection technique | |
| Bardeh et al. | New approach for human detection in images using histograms of oriented gradients | |
| Bai et al. | Dynamic hand gesture recognition based on depth information | |
| Sun et al. | Efficient compressive sensing tracking via mixed classifier decision | |
| Kamishima et al. | Event detection in consumer videos using GMM supervectors and SVMs | |
| Mishra et al. | Automated detection of fighting styles using localized action features |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130624 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140218 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140326 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140402 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140825 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5604256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |
