JP2013016170A - 人体動作の認識の方法、装置、及びプログラム - Google Patents
人体動作の認識の方法、装置、及びプログラム Download PDFInfo
- Publication number
- JP2013016170A JP2013016170A JP2012147130A JP2012147130A JP2013016170A JP 2013016170 A JP2013016170 A JP 2013016170A JP 2012147130 A JP2012147130 A JP 2012147130A JP 2012147130 A JP2012147130 A JP 2012147130A JP 2013016170 A JP2013016170 A JP 2013016170A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- human body
- motion
- area
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】
異なる動作や異なる個体に対応する人体動作周期及び人体動作を特定すること。
【解決手段】
本発明は人体動作周期を特定し、及び人体動作を認識する方法並びに装置を開示する。ビデオにおける人体動作周期を特定する方法は、所定の探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索し、探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とすることを含む。異なる動作や異なる個体に対して、相応する人体動作周期を特定することによって、時間的・空間的特徴をより正確に抽出し、より正確な人体動作の認識を実現することができる。
【選択図】図1
異なる動作や異なる個体に対応する人体動作周期及び人体動作を特定すること。
【解決手段】
本発明は人体動作周期を特定し、及び人体動作を認識する方法並びに装置を開示する。ビデオにおける人体動作周期を特定する方法は、所定の探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索し、探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とすることを含む。異なる動作や異なる個体に対して、相応する人体動作周期を特定することによって、時間的・空間的特徴をより正確に抽出し、より正確な人体動作の認識を実現することができる。
【選択図】図1
Description
本発明は、人体動作のコンピュータ認識に関する。
人体動作認識技術は、広く応用されており、益々注目されている。当該技術を用い、ビデオから人々に注目される動作を迅速に検出することができる。人体動作認識技術はビデオモニター(銀行、病院、工場などの環境)やヒューマンコンピュータインタラクション(仮想ゲームなどのシーン)やスポーツの教則などの分野に応用可能である。
人体動作認識技術について、現在、種々の実現方法が提案されており、そのうちの時間的・空間的特徴による実現方法は盛んに研究されており、しかも有効な方法である。この種類の方法において、時間的・空間的特徴を利用して現在のフレーム及び隣接する複数のフレームの情報を示し、その後に時間的・空間的特徴を利用して人体動作の認識を実現する。時間的・空間的特徴を抽出する処理においては、すべての動画ビデオに対して同一長さの人体動作周期を設定する。
しかしながら、動作や個体には差異があるため、時間的・空間的特徴により実現された人体動作の認識を高めることが必要とされる。このため、時間的・空間的特徴を抽出し、より正確な人体動作認識を実現させるように異なる動作や異なる個体に人体動作周期を特定可能とする技術の発展が望まれている。
本発明に関する幾つかの局面に対する基本的な理解を提供するために、以下に、本発明に関する簡単な概要が示される。この概要は、本発明についての網羅的な概要ではないことを理解すべきである。したがって、概要は、本発明のキーポイントまたは重要部分を特定することを意図せず、本発明の範囲を限定することも意図するものではない。この概要の記載の目的は、単に簡単化した形式で幾つかの概念を提供し、後述のより詳しい説明の導入を提供することにある。
実施例は、異なる動作や異なる個体に対応する人体動作周期及び人体動作を特定する方法、装置、及びプログラムを提供することを目的とする。
上記の目的を実現するために、本発明の一側面によれば、ビデオにおける人体動作周期を特定する方法を提供し、当該方法は、探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索し、探索範囲内において前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とし、あるいは、第1の時間長さを人体動作周期とすることを含む。
本発明の別の局面によれば、ビデオにおける人体動作を認識する方法を提供し、当該方法は、上記のビデオにおける人体動作周期を特定する方法に基づいてビデオにおける人体動作の周期を特定し、特定された周期に基づいて時間的・空間的特徴を抽出して、ビデオにおける人体動作を特定する処理を含む。
以下に、図面を参照しながら本発明の実施例を詳細に説明する。
本発明は、以下の図面を参照した説明によってより良い理解を得ることができる。なお、すべての図面において同一または類似の符号で同一または類似する要素を示す。図面は以下の詳細な説明とともに本明細書に含まれ、本明細書の一部が形成され、そして、本発明の好適な実施例をさらに例示することや本発明の原理とメリットとを解釈することに用いられる。
以下に、図面を参照しながら本発明の実施例を説明する。説明を明瞭にし、かつ簡単にするために、明細書においては、実際の実施形態のすべての特徴を説明するわけではない。しかしながら、実際の実施例の開発過程において、開発者の具体的な目標を達成できるよう、実施形態において特定される決定事項が数多く存在し得る。例えば、システム及び業務に関する制限条件が設定された場合、これらの制限条件は、実施形態によって変更される可能性があることを理解すべきである。また、開発作業は、通常非常に複雑且つ時間がかかるものであるが、本開示内容係る当業者にとっては、このような開発作業は、通常行われる業務の範囲であることをさらに理解すべきである。
ここで、さらに、不必要な細部の説明で本発明が不明瞭になってしまうことを防止するために、図面においては、本発明に係る実施例に密接に関係する装置構造及び/または処理ステップのみが示され、本発明にあまり関係しない他の細部が省略されている点に留意すべきである。
図1は、本発明の一実施例によるビデオにおける人体動作周期を特定する方法のフローチャートを示す。
図1に示すように、ステップS102において、人体姿勢が現在のフレームと類似するフレームを探索する。
人体動作が一般的に周期性を有し、動作の周期が終了すると、人体が動作開始時の姿勢に戻ることを考慮している。従って、人体姿勢が現在のフレームと類似するフレームを探索することによって、一つの完結した人体動作の周期を特定することができる。
次に、ステップS104において、探索結果に応じて探索範囲内に人体姿勢の現在のフレームと類似するフレームが存在するか否かを判断することができる。
前記人体姿勢が現在のフレームと類似するフレームを探索したことを探索結果が示す場合に、ステップS106において、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さを、ビデオにおける人体動作周期とする。
探索結果が探索範囲内で前記人体姿勢が現在のフレームと類似するフレームを探索できなかったことを示す場合には、ステップS108において、所定の第1の時間長さを人体動作周期とすることができる。
なお、前記第1の時間長さは、一つの完結した人体動作を十分に含ませる時間長さであり、経験値または異なる応用場面に応じて合理的に第1の時間長さを設定することができる。
前記第1の時間長さを合理的に設定することによって、捜索範囲内に、人体姿態が現在のフレームと類似するフレームが存在しない場合の探索の繰り返しを防止することができる。これにより、演算量を減少し、効率を向上することができる。
図1に示す実施例の方法は、人体動作の周期性に基づいて人体動作の周期を特定することができる。従って、ビデオにおける人体動作の周期を合理的に検出することができる。
上記のビデオにおける人体動作周期を特定する方法において、異なる応用場面または異なるニーズに応じて、異なる探索範囲を設定して人体姿勢が現在のフレームと類似するフレームを探索することができる。
本発明の一実施例において、前記探索範囲は、現在のフレームからの後の所定の第2の時間長さの時間帯であっても良い。なお、前記第2の時間長さは、一つの人体動作を十分に含ませる時間長さであっても良く、経験値または具体的な応用場面に応じて合理的に前記第2の時間長さを設定することができる。前記第2の時間長さは、上記第1の時間長さと同一であってもよく、前記第1の時間長さと異なってもよい。
以上に説明した探索範囲は、単に例示的なものであり、本発明はこれに限定されず、他の形態で探索範囲を設定してもよい。
本発明の他の実施例において、前記探索範囲は、現在のフレームからの前の所定の第3の時間長さの時間帯であってもよい。なお、前記第3の時間長さは、一つの人体動作を十分に含ませる時間長さであっても良く、経験値または具体的な応用場面に応じて合理的に前記第3の時間長さを設定することができる。また、第3の時間長さは第2の時間長さと同一であってもよく、第2の時間長さと異なっても良い。
いずれの上記実施例によるビデオにおける人体動作周期の特定方法においても、フレームにおける人体領域の面積と運動ヒストグラムに基づいて人体姿勢が現在のフレームと類似するフレームを探索することができる。
なお、前記運動ヒストグラムとは、フレームにおける人体の運動に関するヒストグラムであり、フレームにおける各位置での人体運動または人体姿勢を反映することができる。
例えば、前記運動ヒストグラムは、フレームにおける人体運動または人体姿勢の水平方向における分布を反映する運動ヒストグラムであってもよく、フレームにおける人体運動または人体姿勢の垂直方向における分布を反映する運動ヒストグラムであってもよい。
以下の説明において、水平方向の運動ヒストグラムを例にして説明を行うが、本発明はこれに限定されず、本発明の実施例は、垂直方向の運動ヒストグラム、または水平方向と垂直方向の運動ヒストグラムの組合せを応用することもできる。
明らかなように、二つのフレームにおける人体姿勢が類似する場合、二つのフレームにおける人体領域の面積の大きさも類似することになる。加えて、二つのフレームにおける人体の運動ヒストグラムも類似することになる。
従って、フレームにおける人体領域の面積と運動ヒストグラムに基づいて人体姿勢が現在のフレームと類似するフレームを探索することができる。
図2は、本発明の一実施例による人体姿勢が現在のフレームと類似するフレームを探索する処理のフローチャートを示している。
図2に示すように、ステップS202において、フレームにおける人体領域の面積を算出することができる。
様々な好適な方法を採用してフレームにおける人体領域の面積を算出することができる。
例えば、人体のエッジを利用してフレームにおける人体領域の面積を算出することができる。
また例えば、前景の人体領域における前景画素の数に基づいてフレームにおける人体領域の面積を特定することもできる。
図2に示すように、次に、ステップS204において、フレームの運動ヒストグラムを算出することができる。
様々な好適な方式でフレームの運動ヒストグラムを算出することができる。
例えば、フレームの前景またはフレームのフレーム差分画像に基づいて運動ヒストグラムを算出することができる。
フレームにおける人体領域の面積及びフレームの運動ヒストグラムを算出した後に、ステップS206において、運動ヒストグラムと人体領域の面積に基づいて探索範囲内で人体姿勢が現在のフレームと類似するフレームを探索することができる。
具体的には、探索範囲内においてフレームごとに、フレームごとのフレームの運動ヒストグラム及び人体領域の面積と、現在のフレームの運動ヒストグラム及び人体領域の面積との類似性に基づいて、人体姿勢が現在のフレームと類似するフレームを探索する。
これにより、探索範囲内での人体姿勢が現在のフレームと類似するフレームに対する探索を実現することができる。
上記のように、様々な好適な方法を採用してフレームにおける人体領域の面積を算出することができる。
図3に本発明の一実施例による探索範囲内の各フレームにおける人体領域の面積の処理のフローチャートを示す。
図3に示されるように、ステップS302において、まずフレームにおける人体領域のエッジを抽出することができる。
任意の公知の人体エッジの抽出方法を採用してフレームにおける人体領域のエッジを抽出することができる。
例えば、cannyアルゴリズムを利用してフレームにおける人体領域のエッジを抽出することができる。
なお、cannyアルゴリズムは、画像処理分野に慣用なエッジ抽出方法である。cannyアルゴリズムについての詳細は、Canny, Jにより発表された、「A Computational Approach To Edge Detection」という文書(IEEE Trans. Pattern Analysis and Machine Intelligence,8:679−714,1986を参照)を参照することができる。当該文書の内容のすべてがここで援用される。明細書を明瞭にするために説明を省略する。
次に、ステップS304において、抽出されたエッジに基づいてフレームにおける人体領域の面積を算出することができる。
具体的には、取得された人体領域のエッジに基づいて、当該エッジに囲まれた面積をフレームにおける人体領域の面積として算出することができる。
従って、図3に示される方法によりフレームにおける人体領域の面積を算出することができる。
フレームにおいて場面が複雑である場合(例えば、人以外に、他の運動物体が存在する場合)に、図3に示された方法は、フレームにおける人体領域の面積を正確に算出することができる。
図3に示す実施例は単に例示的なものであり、本発明はこれに限定されず、他の形態でフレームにおける人体領域の面積を算出することもできる。
例えば、図4に本発明のほかの実施例によるフレームにおける人体領域の面積を算出する処理のフローチャートを示す。
図4に示す実施例において、フレームにおける前景の大きさにより、人体領域の面積を直接に算出することができる。
図4に示すように、ステップS402において、フレームから前景を抽出することができる。
各種の公知の前景抽出方法でフレームから前景を抽出することができる。
一つの簡単な例として、フレームに対応する背景モデルに対して直接に減算を行って前景を抽出することができる。
次に、ステップS404において、抽出された前景に基づいて人体領域の面積を算出することができる。
具体的には、前景において1となる画素の数を集計することで、人体領域の面積を算出することができる。
これにより、図4に示す方法を採用してフレームにおける人体領域の面積を算出することができる。
フレームにおいて場面が簡単(例えば、フレームにおける前景は人のみを含む)である場合に、図4に示す方法は、正確で且つ効率よくフレームにおける人体領域の面積を算出することができる。
図3、図4に示す実施例のいずれも例示的なものであり、本発明はこれに限定されず、その他の方式でフレームにおける人体領域の面積を算出することができる。また、図3及び図4に示す方法の組合せでフレームにおける人体領域の面積を算出することができる。
上記のように、本発明によるビデオにおける人体動作周期の特定方法において、フレームの前景またはフレームのフレーム差分画像に基づいて運動ヒストグラムを算出することができる。
図5に、本発明の一実施例による運動ヒストグラムを算出する処理のフローチャートを示す。フレームにおける前景に基づいて運動ヒストグラムを算出する。
図5に示すように、ステップS502において、フレームから前景を抽出することができる。
各種の公知の前景抽出方式でフレームから前景を抽出することができる。
例えば、フレームに対応する背景モデルに対して直接に減算を行って、前景を抽出することができる。
次に、ステップS504において、フレームを複数の部分に区分することができる。
水平方向にフレームを平行に複数の矩形の小さい格子に均等に分けることが好ましい。
又は、垂直方向にフレームを平行に複数の矩形の小さい格子に均等に分けることもできる。
次に、ステップS506において、抽出されたフレームの前景に基づいて運動ヒストグラムを形成することができる。
具体的には、水平方向または垂直方向の各小さい格子における前景画素の数を集計することによって、運動ヒストグラムを形成することができる。
上記の方式で、人体姿勢の水平方向または垂直方向における分布を反映できる運動ヒストグラムを取得することができる。
図5に示す方法は単に例示的なものであり、本発明はこれに限定されない。例えば、フレーム差分画像を利用してフレームの運動ヒストグラムを算出してもよい。
図6に、本発明の他の実施例による運動ヒストグラムを算出する処理のフローチャートを示す。フレーム差分画像に基づいて運動ヒストグラムを算出する。
図6に示すように、ステップS602において、フレームのフレーム差分画像を算出することができる。
一つの例において、前記フレームと隣接するフレーム(例えば、前のフレームまたは次のフレーム)に対して減算を行って、フレーム差分画像を取得することができる。明らかなように、前記フレーム差分画像には人体の運動情報が含まれる。
次に、ステップS604において、フレームを複数の部分に区分することができる。
水平方向にフレームを平行に複数の矩形の小さい格子に均等に分けることが好ましい。又は、垂直方向にフレームを平行に複数の矩形の小さい格子に均等に分けることもできる。
次に、ステップS606において、フレーム差分画像に基づいて運動ヒストグラムを形成することができる。
例えば、フレーム差分画像の水平方向または垂直方向における各小さい格子における画素の階調値の和を算出することができる。これにより、運動ヒストグラムが形成される。
以上、階調値を例として説明したが、以上の説明は単に例示的なものであり、本発明はこれに限定されない。或いは、階調値以外の他の適切なパラメータにより運動ヒストグラムを形成してもよい。
上記の方式により、人体運動の水平方向または垂直方向における分布を反映できる運動ヒストグラムを算出することができる。
図7に、本発明の一実施例による運動ヒストグラムと人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索する処理のフローチャートを示す。
図7に示すように、ステップS702において、探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出する。
任意の公知の技術を採用して探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度を算出してもよい。
例えば、ヒストグラムのピークマッチング法で探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度を算出することができる。
ヒストグラムのピークマッチング法についての詳細な説明は、Das M. Riseman E.M及びDraper B.A等により発表された、「Searching for multi−colored objects in a diverse image database」という文章(IEEE Conference on Computer Vision and Pattern Recognition,1997,pp 756-761)を参照することができ、その内容のすべては、ここに援用される。
また例えば、ウィンドウ間の平均差異に基づいて、探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度を算出してもよい。
ウィンドウ間の平均差異に基づく類似度の算出についての詳細な説明は、2007年に開示された、「ウィンドウ間の平均差異に基づくヒストグラム類似性の測定方法」という中国特許出願(CN200710042916.3)を参照することができ、その内容のすべては、ここに援用される。
なお、任意の公知の方式を利用して探索範囲内の各フレームと現在のフレームとの間の人体領域の面積の類似度を算出することができる。
例えば、各フレームの人体領域の面積と現在のフレームの人体領域の面積との差及び平均値に基づいて探索範囲内の各フレームと現在のフレームとの間の人体領域の面積の類似度を算出することができる。
一つの具体的な例において、式(1)により演算を行うことができる。
式(1)において、rは、探索範囲内の各フレームと現在のフレームとの間の人体領域の面積の類似度の算出を示し、A2は探索範囲内の各フレームの人体領域の面積を示し、A1は現在のフレームにおける人体領域の面積を示し、は探索範囲内の各フレームの人体領域の面積と現在のフレームの人体領域の面積との平均値を示す。
運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出した後に、ステップS704において、人体領域の面積の類似度と運動ヒストグラムの類似度に対してそれぞれ影響因子を設定することができる。
具体的には、異なる応用場面または経験値に応じて合理的な影響因子を設定することができる。
一つの好適な例において、人体領域の面積の類似度及び運動ヒストグラムの類似度をそれぞれ0.5に設定することができる。
次に、ステップS706において、総類似度を算出することができる。
なお、前記の総類似度は、フレームにおける人体動作の類似の程度を示す物理量であってもよい。
本発明の一実施例において、人体領域の面積の類似度及び運動ヒストグラムの類似度に基づいて総類似度を算出することができる。
例えば、人体領域の面積の類似度と運動ヒストグラムの類似度とに基づいて、設定された影響因子に従って総類似度を算出することができる。
一つの具体的な例において、式(2)により演算を行うことができる。
式(2)において、Rは総類似度を示し、r1、r2はそれぞれ人体領域の面積の類似度及び運動ヒストグラムの類似度を示し、α、βはそれぞれ人体領域の面積の類似度及び運動ヒストグラムの類似度のための影響因子を示す。
このように、探索範囲内の各フレームに対して、現在のフレームとの総類似度を算出することができる。
次に、ステップS708において、最大の総類似度を所定の第1の閾値と比較することができる。
なお、前記第1の閾値は、任意な好適な値、例えば、0.85、0.9、0.95等であっても良い。
最大の総類似度が第1の閾値より大きい場合に、ステップS710において、最大の総類似度を有するフレームを現在のフレームにおける人体姿勢と同一であるフレームとして判定することができる。
最大の総類似度が第1の閾値よりも大きくない場合に、ステップS712において、探索範囲内において現在のフレームにおける人体姿勢と同一であるフレームを探索できなかったと判定できる。
上記のように、図7に示した方法により、探索範囲内で人体姿勢が現在のフレームと類似するフレームを探索する処理が実現された。しかしながら、図7に示された方法は単に例示的なものであり、本発明は、これに限定されず、その他の適切な変形例を採用することもできる。
例えば、本発明の他の実施例において、運動ヒストグラムのみに基づいて人体姿勢が現在のフレームと類似するフレームを探索してもよい。これにより、更に演算量を減少させ、効率化を図ることができる。
上記の実施例における、ビデオにおける人体動作周期を特定する方法に基づいて、本発明は、ビデオにおける人体動作の認識方法をさらに提供する。
図8に、本発明の一実施例による、ビデオにおける人体動作を特定する方法のフローチャートを示す。
図8に示すように、ステップS802において、ビデオにおける人体動作周期を特定することができる。
例えば、いずれかの上記実施例の方法に基づいて、ビデオにおける人体動作周期を特定することができる。
次に、ステップS804において、特定された人体動作周期に基づいて人体動作を認識することができる。
具体的には、特定された人体動作周期に基づいて時間的・空間的特徴を抽出し、時間的・空間的特徴に基づいて人体動作を認識することができる。
上記の人体動作認識の方法において、異なる動作や異なる個体に対応する人体動作周期を特定することによって、より正確に時間的・空間的特徴を抽出し、更により正確な人体動作認識を実現することができる。
上記方法に対応し、本発明の実施例は、方法に対応する装置を提供する。
図9に本発明の一実施例によるビデオにおける人体動作周期を特定する装置のブロック図を示す。
図9に示されるように、本発明の実施例によるビデオにおける人体動作周期を特定する装置900は、探索部902と、周期特定部904とを含むことができる。
なお、探索部902は、所定の探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索することができる。
周期特定部904は、探索部902により提供された探索結果に基づいて人体動作の周期を特定することができる。
具体的には、探索部902が探索範囲内において前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、周期特定部904は、現在のフレームと、前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期として特定することができる。
一方、探索の結果、探索範囲内において前記人体姿勢が現在のフレームと類似するフレームを探索できなかった場合に、周期特定部904は、第1の時間長さを人体動作周期とすることができる。
なお、前記第1の時間長さは、一つの完結した人体動作を十分に含ませる時間長さであり、経験値または異なる応用場面に応じて前記第1の時間長さを合理的に設定することができる。
図9に示された、ビデオにおける人体動作周期を特定する装置は、人体動作の周期性に基づいて人体動作周期を特定することができる。従って、ビデオにおける人体動作の周期を正確に検出することができる。
なお、上記の探索範囲は、異なる応用場面や異なる要求に応じて設定してもよい。
本発明の一実施例において、前記探索範囲は、現在のフレームからの後の所定の第2の時間長さの時間帯であっても良い。なお、前記第2の時間長さは、一つの人体動作を十分に含ませる時間長さであっても良く、経験値または具体的な場面に応じて合理的に前記第2の時間長さを設定することができる。
上記の記載した探索範囲は、単に例示的なものであり、本発明はこれに限定されず、その他の方式で探索範囲を設定することができる。
本発明の他の実施例において、前記探索範囲は、現在のフレームからの前の所定の第3の時間長さの時間帯であっても良い。なお、前記第3の時間長さは、一つの人体動作を十分に含ませる時間長さであってもよく、経験値または具体的な応用場面に応じて合理的に前記第3の時間長さを設定することができる。なお、第3の時間長さは、第2の時間長さと同一であってもよく、第2の時間長さと異なっても良い。
本発明の他の実施例において、前記探索範囲は、現在のフレームからの前の第2の時間長さの時間帯と、現在のフレームからの後の第3の時間長さの時間帯により構成されてもよい。
任意の上記実施例によるビデオにおける人体動作周期を特定する装置において、前記探索部は、フレームにおける人体領域の面積及び運動ヒストグラムに基づいて人体姿勢が現在のフレームと類似するフレームを探索することができる。
図10に、本発明の一実施例による探索部のブロック図を示す。
図10のように、探索部1000は、面積算出部1002と、運動ヒストグラム算出部1004と、フレーム探索部1006とを含むことができる。
なお、運動ヒストグラムの定義について、上述の方法の実施例において説明した内容を参照することができるため、明細書を明瞭にするためにここでは説明を省略する。
面積算出部1002は、様々な好適な方法で現在のフレームにおける人体領域の面積を算出することができる。
例えば、面積算出部1002は、人体のエッジでフレームにおける人体領域の面積を算出することができる。
また例えば、面積算出部1002は、前景中の人体領域における前景画素の数に基づいてフレームにおける人体領域の面積を特定することもできる。
運動ヒストグラム算出部1004は、様々な好適な方式でフレームの運動ヒストグラムを算出することができる。
例えば、運動ヒストグラム算出部1004は、フレームの前景またはフレームのフレーム差分画像に基づいて運動ヒストグラムを算出することができる。
フレームにおける人体領域の面積及びフレームの運動ヒストグラムを算出した後に、フレーム探索部1006は、運動ヒストグラム及び人体領域の面積に基づいて探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索することができる。
具体的に、フレーム探索部1006は、探索範囲内においてフレームごとに、フレームごとの運動ヒストグラム及び人体領域の面積と、現在のフレームの運動ヒストグラム及び人体領域の面積との類似性に基づいて、人体姿勢が現在のフレームと類似するフレームを探索することができる。
図11は、本発明の一実施例による面積算出部のブロック図を示す。
図11に示すように、前記面積算出部は、エッジ特定部1102と人体領域の面積算出部1104とを含むことができる。
なお、任意の公知のエッジ抽出方法でフレームにおける人体領域のエッジを抽出してもよい。
例えば、エッジ特定部1102は、cannyアルゴリズムを採用してフレームにおける人体領域のエッジを抽出することができる。
人体領域の面積算出部1104は、抽出されたエッジに基づいてフレームにおける人体領域の面積を算出することができる。
具体的には、人体領域の面積算出部1104は、取得された人体領域のエッジに基づいて、当該エッジに囲まれた面積をフレームにおける人体領域の面積として算出することができる。
フレームにおいて場面が複雑である場合(例えば、人間以外に、他の運動物体もある場合)、図11に示した面積算出部は、フレームにおける人体領域の面積を正確に算出することができる。
図11に示す実施例は単に例示的なものであり、本発明は、これに限定されない。図12は、本発明の他の実施例による面積算出部のブロック図を示す。
図12に示すように、面積算出部1200は、前景抽出部1202と人体領域の面積算出部1204とを含む。
前景抽出部1202は、各種の公知の前景抽出方法でフレームから前景を抽出することができる。
一つの簡単な例として、前景抽出部1202は、フレームに対応する前景モデルに対して直接に減算を行って前景を抽出することができる。
人体領域の面積算出部1204は、抽出された前景に基づいて人体領域の面積を算出することができる。
具体的には、人体領域の面積算出部1204は、前景において1となる画素の数を集計することによって、人体領域の面積を算出することができる。
これにより、図12に示す面積算出部により、フレームにおける人体領域の面積を算出することができる。
フレームにおいて場面が簡単(例えば、フレームにおける前景に人間のみが含まれる)である場合には、図12に示す面積算出部は、フレームにおける人体領域の面積を正確でかつ効率よく算出することができる。
図11、図12に示す実施例の何れも単に例示的なものであり、本発明は、これに限定されない。面積算出部は、他の適宜な方式で実現されてもよく、例えば、面積算出部は、図11及び図12に示す面積算出部の組合せで実現されてもよい。
図13に、本発明の一実施例による運動ヒストグラム算出部のブロック図を示す。
図13に示すように、運動ヒストグラム算出部1300は、前景抽出部1302と、フレーム区分部1304と、ヒストグラム生成部1306とを含むことができる。
前景抽出部1302は、各種の公知の前景抽出方法でフレームから前景を抽出することができる。
一つの簡単な例として、前景抽出部1302は、フレームに対応する背景モデルに対して直接に減算を行って前景を抽出することができる。
フレーム区分部1304は、フレームを複数の部分に区分することができる。
好ましくは、フレーム区分部1304は、水平方向において平行にフレームを複数の矩形の小さい格子に均等に区分することができる。
或いは、フレーム区分部1304は、垂直方向において平行にフレームを複数の矩形の小さい格子に均等に区分することもできる。
ヒストグラム生成部1306は、抽出されたフレームの前景に基づいて運動ヒストグラムを形成することができる。
具体的には、ヒストグラム生成部1306は、水平方向または垂直方向における各小さい格子における前景画素の数を集計することによって、運動ヒストグラムを形成することができる。
上記の方式で、人体姿勢の水平方向または垂直方向における分布を反映できる運動ヒストグラムを取得することができる。
図13に示すヒストグラム算出部は単に例示的なものであり、本発明は、これに限定されない。例えば、ヒストグラム算出部は、フレーム差分画像に基づいてフレームの運動ヒストグラムを算出することができる。
図14に本発明のほかの実施例による運動ヒストグラム算出部のブロック図を示す。
図14に示すように、運動ヒストグラム算出部1400は、フレーム差分画像算出部1402と、フレーム区分部1404とヒストグラム生成部1406とを含むことができる。
フレーム差分画像算出部1402は、フレームのフレーム差分画像を算出することができる。
一つの例において、フレーム差分画像算出部1402は、フレームと隣接するフレーム(例えば、前のフレームまたは次のフレーム)に対して減算を行うことによってフレーム差分画像を取得することができる。明らかなように、前記フレーム差分画像には人体の運動情報が含まれる。
フレーム区分部1404は、フレームを複数の部分に区分することができる。
好ましくは、フレーム区分部1404は、水平方向にフレームを平行に複数の矩形の小さい格子に均等に区分することができる。または、フレーム区分部1404は、垂直方向にフレームを平行に複数の矩形の小さい格子に均等に区分することもできる。
ヒストグラム生成部1406は、フレーム差分画像に基づいて運動ヒストグラムを形成することができる。
例えば、ヒストグラム生成部1406は、フレーム差分画像の水平方向または垂直方向における各小さい格子における画素の階調値の和を算出することができる。これにより、運動ヒストグラムが形成される。
以上のように階調値を例として説明したが、以上の説明は単に例示的なものであり、本発明はこれに限定されない。或いは、ヒストグラム生成部は、階調値以外のほかの適宜なパラメータに基づいて運動ヒストグラムを生成することもできる。
上記の方式により、運動ヒストグラム算出部1400は、人体運動の水平方向または垂直方向における分布を反映できる運動ヒストグラムを算出することができる。
図15に、本発明の一実施例による、運動ヒストグラム及び人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索可能なフレーム探索部のブロック図を示す。
図15に示すように、フレーム探索部1500は、算出部1502と、影響因子設定部1504と、総類似度算出部1506と、探索結果生成部1508とを含む。
算出部1502は、探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出することができる。
算出部1502は、任意の公知の技術で探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度を算出することができる。
例えば、算出部1502は、ヒストグラムのピークマッチング法で探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度を算出することができる。
また例えば、算出部1502は、ウィンドウ間の平均差異に基づいて探索範囲内の各フレームと現在のフレームとの間の運動ヒストグラムの類似度を算出することもできる。
また、算出部1502は、任意の公知の方法で探索範囲内の各フレームと現在のフレームとの間の人体領域の面積の類似度を算出することができる。
例えば、算出部1502は、各フレームの人体領域の面積と現在のフレームの人体領域の面積の差及び平均値に基づいて探索範囲内の各フレームと現在のフレームとの間の人体領域の面積の類似度を算出することができる。
影響因子設定部1504は、人体領域の面積の類似度及び運動ヒストグラムの類似度にそれぞれ影響因子を設定することができる。
具体的には、影響因子設定部1504は、異なる応用場面または経験値に応じて合理的な影響因子を設定することができる。
一つの好適な例において、影響因子設定部1504は、人体領域の面積の類似度及び運動ヒストグラムの類似度をそれぞれ0.5に設定することができる。
総類似度算出部1506は、総類似度を算出することができる。
なお、前記総類似度は、フレームにおける人体動作の類似の程度を示す物理量であってもよい。本発明の一実施例において、人体領域の面積の類似度及び運動ヒストグラムの類似度に基づいて前記総類似度を算出することができる。
例えば、人体領域の面積の類似度及び運動ヒストグラムの類似度に基づき、設定された影響因子に従って総類似度を算出することができる。
このように、総類似度算出部1506は、探索範囲におけるフレームごとに、現在のフレームとの総類似度を算出することができる。
探索結果生成部1508は、算出された総類似度に基づいて探索結果を取得することができる。
具体的には、探索結果生成部1508は、まず、最大の総類似度と所定の第1の閾値とを比較することができる。
最大の総類似度が第1の閾値よりも大きい場合に、探索結果生成部1508は、最大の総類似度を有するフレームを、現在のフレームにおける人体姿勢と同一であるフレームとすることができる。
最大の総類似度が第1の閾値より大きくない場合に、探索結果生成部1508は、探索範囲内において現在のフレームにおける人体姿勢と同一であるフレームを探索できなかったと判定することができる。
このように、フレーム探索部1500は、探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索する処理を実現することができる。
しかしながら、図15に示す方法は単に例示であり、本発明はこれに限定されない。フレーム探索部は、そのほかの有益な変形例を採用することができる。
例えば、本発明のほかの実施例において、フレーム探索部は、運動ヒストグラムのみに基づいて人体姿勢が現在のフレームと類似するフレームを探索することができる。これにより、更に演算量を減少させ、効率化を図ることができる。
上記実施例におけるビデオにおける人体動作周期を特定する装置に基づいて、本発明は、さらに、ビデオにおける人体動作の認識方法を提供する。
図16に本発明の一実施例によるビデオにおける人体動作を認識する装置のブロック図を示す。
図16に示されるように、本発明の実施例によるビデオにおける人体動作を認識する装置1600は、人体動作周期特定部1602と認識部1604とを含むことができる。
人体動作周期特定部1602は、ビデオにおける人体動作周期を特定することができる。
例えば、人体動作周期特定部1602は、任意の上記実施例による人体動作周期を特定する装置を備えることによって、ビデオにおける人体動作周期を特定することができる。
認識部1604は、特定した人体動作周期に基づいて人体動作を認識することができる。
具体的には、認識部1604は、特定した人体動作周期に基づいて時間的・空間的特徴を抽出し、時間的・空間的特徴に基づいて人体動作を認識することができる。
上記の人体動作を認識する装置は、異なる動作や異なる個体に対応する人体動作周期を特定することができる。これにより、時間的・空間的特徴をより正確に抽出することができ、さらにより正確な人体動作認識を実現することができる。
前記のビデオにおける人体動作周期を特定する装置、前記のビデオにおける人体動作を認識する装置及びこれに含まれる要素についてのより細かい技術的な詳細は、前述の方法を参照することができ、説明を参照することができるため、明細書を明瞭にするために、ここでは説明を省略する。
また、本願に記載の各種の例示及び実施例のいずれも例示的なものである。本発明はこれらに限定されないことを理解すべきである。本明細書において、「第1」、「第2」等の表現は、単に本発明を明確に説明するために、記載の特徴を文字上で区別するためのものである。従って、何らかの限定的な意味を持っていると見なされるべきではない。
上記装置における各構成モジュールやユニットはソフトウェア、ファームウェア、ハードウェアまたはこれらの組合せで配置することができる。配置に使用可能な具体的な手段または方式は、当業者に熟知されるものであるため、ここでは説明しない。ソフトウェア又はファームウェアにより実現される場合に、記憶媒体又はネットワークから専用のハードウェア構成を有するコンピュータ(例えば図17に示された汎用のコンピュータ1700)へ当該ソフトウェアを構成するプログラムをインストールする。当該コンピュータは、各種のプログラムがインストールされている場合に、各機能を実行することができる。
図17において、中央処理装置(CPU)1701は、読取専用メモリ(ROM)1702に記憶されたプログラム又は記憶部1708からランダムアクセスメモリ(RAM)1703にロードされたプログラムに基づいて各種の処理を実行する。RAM1703には、必要に応じてCPU1701が各種の処理等を実行するために必要なデータも記憶されている。CPU1701、ROM1702及びRAM1703はバス1704を介して互いに接続されている。入力/出力インタフェース1705もバス1704に接続されている。
入力部1706(キーボード、マウス等を含む)、出力部1707(ディスプレイ、例えばブラウン管(CRT)、液晶ディスプレイ(LCD)等とスピーカ等を含む)、記憶部1708(ハードディスク等を含む)、及び通信部1709(ネットワークインターフェースカード、例えばLANカード、モデム等を含む)は、入力/出力インタフェース1705に接続されている。通信部1709はネットワーク、例えばインターネットを経由して通信処理を実行する。必要に応じて、入力/出力インタフェース1705にはドライバ1710も接続されている。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等のような取り外し可能な媒体1711は、必要に応じてドライバ1710に装着される。これにより、読み出されたコンピュータプログラムは必要に応じて記憶部1708にインストールされる。
ソフトウェアで前記一連の処理を実現する場合に、ネットワーク、例えばインターネット、又は記憶媒体、例えば取外し可能な媒体1711からソフトウェアを構成するプログラムをインストールする。
このような記憶媒体は、図17に示される。その中にプログラムが記憶されており、プログラムは、デバイスから読み出され伝送されてもよいと当業者は理解すべきである。取り外し可能な媒体1711として、例えば、磁気ディスク(フロッピディスク(登録商標)含む)、光ディスク(コンパクトディスクリードオンリーメモリ(CD−ROM)やディジタルヴァーサタイルディスク(DVD)を含む)、光磁気ディスク(ミニディスク(MD)(登録商標)を含む)及び半導体メモリを含む。または、記憶媒体は、ROM1702であってもよい。或いは、記憶部1708に含まれるハードディスクであって、プログラムが記憶されており、且つこれらを含むデバイスと共にユーザに提供されるハードディスクなどであっても良い。
本発明は、機械で読み取り可能なコマンドコードが記されたプログラム、及びこのプログラム製品を更に提供する。前記コマンドコードは、機械で読取られて実行される際に、本発明の実施例による方法を実行することができる。
加えて、前記の機械で読み取り可能なコマンドコードが記憶されたプログラム製品を搭載する記憶媒体も本発明の開示に含まれる。前記記憶媒体は、フロッピディスク、光ディスク、光磁気ディスク、メモリカード、メモリスティック等を含むが、これらに限定されない。
最後に、さらに説明すべき点は、用語「含む」、「有する」、又は如何なる他の同義語も、非排他的意味で用いられ、一連の要素を含むプロセス、方法、物又は装置がこれらの要素を含むだけではなく、明確に列挙されていない他の要素、又はこのようなプロセス、方法、物又は装置の固有要素も含み得る。また、更なる限定のない場合に、用語「一つの…を含む」により限定された要素は、前記要素を含むプロセス、方法、物又は装置において更に別の同一の要素が存在することを排除しない。
以上、図面を参照しながら本発明の実施例を詳細に説明したが、上述の実施形態は、単に本発明を説明するためのものであり、本発明を制限するものではないと理解すべきである。当業者にとって、本発明の精神及び範囲を逸脱しない限り、上記実施形態に対して各種の修正や変更を行うことができる。従って、本発明の範囲は、特許請求の範囲及びその均等物によって限定される。
以上の実施例に関し、更に以下の付記を開示する。
(付記1)
探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索し、
前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とする、
処理を含むことを特徴とするビデオにおける人体動作周期を特定する方法。
(付記2)
前記探索範囲は、現在のフレームからの、後の第2の時間長さまたは前の第3の時間長さの時間帯におけるフレームであることを特徴とする付記1に記載のビデオにおける人体動作周期を特定する方法。
(付記3)
人体姿勢が現在のフレームと類似するフレームを探索する処理は、
前記探索範囲内の各フレームにおける人体領域の面積を算出し、
前記各フレームの運動ヒストグラムを算出し、
前記運動ヒストグラム及び前記人体領域の面積に基づいて前記人体姿勢が現在のフレームと類似するフレームを探索する、処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記4)
探索範囲内の各フレームにおける人体領域の面積を算出する処理は、
前記各フレームにおける人体領域のエッジを特定し、
人体領域のエッジに基づいて人体領域の面積を算出する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記5)
探索範囲内の各フレームにおける人体領域の面積を算出する処理は、
前記各フレームから前景を抽出し、
前記前景に基づいて人体領域の面積を算出する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記6)
各フレームの運動ヒストグラムを算出する処理は、
前記各フレームから前景を抽出し、
前記各フレームを水平方向または垂直方向において複数の小さい格子に区分し、
前景に基づいて、各小さい格子における前景画素の数を算出することにより、前記運動ヒストグラムを取得する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記7)
各フレームの運動ヒストグラムを算出する処理は、
前記各フレームと、隣接するフレームとのフレーム差分画像を算出し、
前記各フレームを、水平方向及び/または垂直方向において複数の小さい格子に区分し、
前記フレーム差分画像の各小さい格子における画素の階調値の和を算出することにより、前記運動ヒストグラムを取得する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記8)
前記運動ヒストグラム及び前記人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索する処理は、
現在のフレームと前記各フレームとの運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出し、
前記運動ヒストグラムの類似度及び前記人体領域の面積の類似度のそれぞれに影響因子を設定し、
前記影響因子に基づいて総類似度を算出し、
最大の総類似度が所定の閾値より小さい場合に、前記探索範囲内に人体姿勢が現在のフレームと類似するフレームが存在しないと判定し、
最大の総類似度が所定の閾値より大きい場合に、最大の総類似度を有するフレームを人体姿勢が現在のフレームと類似するフレームとする、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記9)
付記1ないし8のうちのいずれか1項に記載の方法に基づいてビデオにおける人体動作の周期を特定し、
特定された周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する、処理を含むことを特徴とするビデオにおける人体動作を認識する方法。
(付記10)
探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索する探索部と、
前記探索部が探索範囲内において前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とする周期特定部と、
を含むことを特徴とするビデオにおける人体動作周期を特定する装置。
(付記11)
前記探索範囲は、現在のフレームからの、後の第2の時間長さまたは前の第3の時間長さの時間帯におけるフレームであることを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記12)
前記探索部は、
前記探索範囲内の各フレームにおける人体領域の面積を算出する面積算出部と、
前記各フレームの運動ヒストグラムを算出する運動ヒストグラム算出部と、
前記運動ヒストグラム及び前記人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索するフレーム探索部と、を含むことを特徴とする付記11に記載のビデオにおける人体動作周期を特定する装置。
(付記13)
前記面積算出部は、
前記各フレームにおける人体領域のエッジを特定するエッジ特定部と、
人体領域のエッジに基づいて人体領域の面積を算出する人体領域の面積算出部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記14)
前記面積算出部は、
前記各フレームから前景を抽出する前景抽出部と、
前記前景に基づいて人体領域の面積を算出する人体領域の面積算出部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記15)
前記運動ヒストグラム算出部は、
前記各フレームから前景を抽出する前景抽出部と、
前記各フレームを、水平方向または垂直方向において複数の小さい格子に区分するフレーム区分部と、
前景に基づいて各小さい格子における前景画素の数を算出することにより、前記運動ヒストグラムを取得するヒストグラム生成部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記16)
前記運動ヒストグラム算出部は、
前記各フレームと隣接するフレームとのフレーム差分画像を算出するフレーム差分画像算出部と、
前記各フレームを、水平方向及び/または垂直方向において複数の小さい格子に区分するフレーム区分部と、
前記フレーム差分画像の各小さい格子における画素の階調値の和を算出することにより、前記運動ヒストグラムを取得するヒストグラム生成部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記17)
前記フレーム探索部は、
現在のフレームと前記各フレームとの運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出する算出部と、
前記運動ヒストグラムの類似度及び前記人体領域の面積の類似度のそれぞれに影響因子を設定する影響因子設定部と、
前記影響因子に基づいて総類似度を算出する総類似度算出部と、
最大の総類似度が所定の閾値より小さい場合に、前記探索範囲内に人体姿勢が現在のフレームと類似するフレームが存在しないと判定し、最大の総類似度が所定の閾値より大きい場合に、最大の総類似度を有するフレームを人体姿勢が現在のフレームと類似するフレームとする探索結果生成部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記18)
ビデオにおける人体動作の周期を特定する、付記10ないし17の何れかに1項に記載のビデオにおける人体動作周期を特定する装置を含む人体動作周期特定部と、
特定された周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する認識部と、を含むことを特徴とするビデオにおける人体動作を認識する装置。
(付記19)
付記1ないし9のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
(付記1)
探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索し、
前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とする、
処理を含むことを特徴とするビデオにおける人体動作周期を特定する方法。
(付記2)
前記探索範囲は、現在のフレームからの、後の第2の時間長さまたは前の第3の時間長さの時間帯におけるフレームであることを特徴とする付記1に記載のビデオにおける人体動作周期を特定する方法。
(付記3)
人体姿勢が現在のフレームと類似するフレームを探索する処理は、
前記探索範囲内の各フレームにおける人体領域の面積を算出し、
前記各フレームの運動ヒストグラムを算出し、
前記運動ヒストグラム及び前記人体領域の面積に基づいて前記人体姿勢が現在のフレームと類似するフレームを探索する、処理を含むことを特徴とする付記2に記載のビデオにおける人体動作周期を特定する方法。
(付記4)
探索範囲内の各フレームにおける人体領域の面積を算出する処理は、
前記各フレームにおける人体領域のエッジを特定し、
人体領域のエッジに基づいて人体領域の面積を算出する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記5)
探索範囲内の各フレームにおける人体領域の面積を算出する処理は、
前記各フレームから前景を抽出し、
前記前景に基づいて人体領域の面積を算出する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記6)
各フレームの運動ヒストグラムを算出する処理は、
前記各フレームから前景を抽出し、
前記各フレームを水平方向または垂直方向において複数の小さい格子に区分し、
前景に基づいて、各小さい格子における前景画素の数を算出することにより、前記運動ヒストグラムを取得する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記7)
各フレームの運動ヒストグラムを算出する処理は、
前記各フレームと、隣接するフレームとのフレーム差分画像を算出し、
前記各フレームを、水平方向及び/または垂直方向において複数の小さい格子に区分し、
前記フレーム差分画像の各小さい格子における画素の階調値の和を算出することにより、前記運動ヒストグラムを取得する、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記8)
前記運動ヒストグラム及び前記人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索する処理は、
現在のフレームと前記各フレームとの運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出し、
前記運動ヒストグラムの類似度及び前記人体領域の面積の類似度のそれぞれに影響因子を設定し、
前記影響因子に基づいて総類似度を算出し、
最大の総類似度が所定の閾値より小さい場合に、前記探索範囲内に人体姿勢が現在のフレームと類似するフレームが存在しないと判定し、
最大の総類似度が所定の閾値より大きい場合に、最大の総類似度を有するフレームを人体姿勢が現在のフレームと類似するフレームとする、処理を含むことを特徴とする付記3に記載のビデオにおける人体動作周期を特定する方法。
(付記9)
付記1ないし8のうちのいずれか1項に記載の方法に基づいてビデオにおける人体動作の周期を特定し、
特定された周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する、処理を含むことを特徴とするビデオにおける人体動作を認識する方法。
(付記10)
探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索する探索部と、
前記探索部が探索範囲内において前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とする周期特定部と、
を含むことを特徴とするビデオにおける人体動作周期を特定する装置。
(付記11)
前記探索範囲は、現在のフレームからの、後の第2の時間長さまたは前の第3の時間長さの時間帯におけるフレームであることを特徴とする付記10に記載のビデオにおける人体動作周期を特定する装置。
(付記12)
前記探索部は、
前記探索範囲内の各フレームにおける人体領域の面積を算出する面積算出部と、
前記各フレームの運動ヒストグラムを算出する運動ヒストグラム算出部と、
前記運動ヒストグラム及び前記人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索するフレーム探索部と、を含むことを特徴とする付記11に記載のビデオにおける人体動作周期を特定する装置。
(付記13)
前記面積算出部は、
前記各フレームにおける人体領域のエッジを特定するエッジ特定部と、
人体領域のエッジに基づいて人体領域の面積を算出する人体領域の面積算出部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記14)
前記面積算出部は、
前記各フレームから前景を抽出する前景抽出部と、
前記前景に基づいて人体領域の面積を算出する人体領域の面積算出部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記15)
前記運動ヒストグラム算出部は、
前記各フレームから前景を抽出する前景抽出部と、
前記各フレームを、水平方向または垂直方向において複数の小さい格子に区分するフレーム区分部と、
前景に基づいて各小さい格子における前景画素の数を算出することにより、前記運動ヒストグラムを取得するヒストグラム生成部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記16)
前記運動ヒストグラム算出部は、
前記各フレームと隣接するフレームとのフレーム差分画像を算出するフレーム差分画像算出部と、
前記各フレームを、水平方向及び/または垂直方向において複数の小さい格子に区分するフレーム区分部と、
前記フレーム差分画像の各小さい格子における画素の階調値の和を算出することにより、前記運動ヒストグラムを取得するヒストグラム生成部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記17)
前記フレーム探索部は、
現在のフレームと前記各フレームとの運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出する算出部と、
前記運動ヒストグラムの類似度及び前記人体領域の面積の類似度のそれぞれに影響因子を設定する影響因子設定部と、
前記影響因子に基づいて総類似度を算出する総類似度算出部と、
最大の総類似度が所定の閾値より小さい場合に、前記探索範囲内に人体姿勢が現在のフレームと類似するフレームが存在しないと判定し、最大の総類似度が所定の閾値より大きい場合に、最大の総類似度を有するフレームを人体姿勢が現在のフレームと類似するフレームとする探索結果生成部と、を含むことを特徴とする付記12に記載のビデオにおける人体動作周期を特定する装置。
(付記18)
ビデオにおける人体動作の周期を特定する、付記10ないし17の何れかに1項に記載のビデオにおける人体動作周期を特定する装置を含む人体動作周期特定部と、
特定された周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する認識部と、を含むことを特徴とするビデオにおける人体動作を認識する装置。
(付記19)
付記1ないし9のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
Claims (11)
- 探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索し、
前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とする、
処理を含むことを特徴とするビデオにおける人体動作周期を特定する方法。 - 前記探索範囲は、現在のフレームからの、後の第2の時間長さまたは前の第3の時間長さの時間帯におけるフレームであることを特徴とする請求項1に記載のビデオにおける人体動作周期を特定する方法。
- 探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索する処理は、
前記探索範囲内の各フレームにおける人体領域の面積を算出し、
前記各フレームの運動ヒストグラムを算出し、
前記運動ヒストグラム及び前記人体領域の面積に基づいて前記人体姿勢が現在のフレームと類似するフレームを探索する、処理を含むことを特徴とする請求項2に記載のビデオにおける人体動作周期を特定する方法。 - 前記探索範囲内の各フレームにおける人体領域の面積を算出する処理は、
前記各フレームにおける人体領域のエッジを特定し、
人体領域のエッジに基づいて人体領域の面積を算出する、処理を含むことを特徴とする請求項3に記載のビデオにおける人体動作周期を特定する方法。 - 各フレームの運動ヒストグラムを算出する処理は、
前記各フレームから前景を抽出し、
前記各フレームを水平方向または垂直方向において複数の小さい格子に区分し、
前景に基づいて、各小さい格子における前景画素の数を算出することにより、前記運動ヒストグラムを取得する、処理を含むことを特徴とする請求項3に記載のビデオにおける人体動作周期を特定する方法。 - 各フレームの運動ヒストグラムを算出する処理は、
前記各フレームと、隣接するフレームとのフレーム差分画像を算出し、
前記各フレームを、水平方向及び/または垂直方向において複数の小さい格子に区分し、
前記フレーム差分画像の各小さい格子における画素の階調値の和を算出することにより、前記運動ヒストグラムを取得する、処理を含むことを特徴とする請求項3に記載のビデオにおける人体動作周期を特定する方法。 - 前記運動ヒストグラム及び前記人体領域の面積に基づいて人体姿勢が現在のフレームと類似するフレームを探索する処理は、
現在のフレームと前記各フレームとの運動ヒストグラムの類似度及び人体領域の面積の類似度をそれぞれ算出し、
前記運動ヒストグラムの類似度及び前記人体領域の面積の類似度のそれぞれに影響因子を設定し、
前記影響因子に基づいて総類似度を算出し、
最大の総類似度が所定の閾値より小さい場合に、前記探索範囲内に人体姿勢が現在のフレームと類似するフレームが存在しないと判定し、
最大の総類似度が所定の閾値より大きい場合に、最大の総類似度を有するフレームを人体姿勢が現在のフレームと類似するフレームとする、処理を含むことを特徴とする請求項3に記載のビデオにおける人体動作周期を特定する方法。 - 請求項1ないし7のいずれか1項に記載の方法に基づいてビデオにおける人体動作の周期を特定し、
特定された周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する、処理を含むことを特徴とするビデオにおける人体動作を認識する方法。 - 探索範囲内において人体姿勢が現在のフレームと類似するフレームを探索する探索部と、
前記探索部が探索範囲内において前記人体姿勢が現在のフレームと類似するフレームを探索できた場合に、現在のフレームと前記人体姿勢が現在のフレームと類似するフレームとの間の時間長さをビデオにおける人体動作周期とする周期特定部と、を含むことを特徴とするビデオにおける人体動作周期を特定する装置。 - 請求項9に記載のビデオにおける人体動作周期を特定する装置を含む人体動作周期特定部と、
特定された周期に基づいて時間的・空間的特徴を抽出してビデオにおける人体動作を認識する認識部と、を含むことを特徴とするビデオにおける人体動作を認識する装置。 - 請求項1ないし8のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011101927444A CN102855462A (zh) | 2011-07-01 | 2011-07-01 | 确定人体动作周期及识别人体动作的方法和装置 |
CN201110192744.4 | 2011-07-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013016170A true JP2013016170A (ja) | 2013-01-24 |
Family
ID=47402041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012147130A Pending JP2013016170A (ja) | 2011-07-01 | 2012-06-29 | 人体動作の認識の方法、装置、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013016170A (ja) |
CN (1) | CN102855462A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017091249A (ja) * | 2015-11-11 | 2017-05-25 | 株式会社東芝 | 分析装置および分析方法 |
CN111339945A (zh) * | 2020-02-26 | 2020-06-26 | 贵州安防工程技术研究中心有限公司 | 基于视频的人群聚散检查方法与系统 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3321844B1 (en) | 2016-11-14 | 2021-04-14 | Axis AB | Action recognition in a video sequence |
EP3340104B1 (en) | 2016-12-21 | 2023-11-29 | Axis AB | A method for generating alerts in a video surveillance system |
CN109618183B (zh) * | 2018-11-29 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN113453067B (zh) * | 2020-03-27 | 2023-11-14 | 富士通株式会社 | 视频处理装置、视频处理方法和机器可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101609507B (zh) * | 2009-07-28 | 2016-03-09 | 中国科学技术大学 | 步态识别方法 |
CN101807245B (zh) * | 2010-03-02 | 2013-01-02 | 天津大学 | 基于人工神经网络的多源步态特征提取与身份识别方法 |
-
2011
- 2011-07-01 CN CN2011101927444A patent/CN102855462A/zh active Pending
-
2012
- 2012-06-29 JP JP2012147130A patent/JP2013016170A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017091249A (ja) * | 2015-11-11 | 2017-05-25 | 株式会社東芝 | 分析装置および分析方法 |
US10380730B2 (en) | 2015-11-11 | 2019-08-13 | Kabushiki Kaisha Toshiba | Analysis apparatus and analysis method |
US10713770B2 (en) | 2015-11-11 | 2020-07-14 | Kabushiki Kaisha Toshiba | Analysis apparatus and analysis method |
US11373289B2 (en) | 2015-11-11 | 2022-06-28 | Kabushiki Kaisha Toshiba | Analysis apparatus and analysis method |
CN111339945A (zh) * | 2020-02-26 | 2020-06-26 | 贵州安防工程技术研究中心有限公司 | 基于视频的人群聚散检查方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102855462A (zh) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10915741B2 (en) | Time domain action detecting methods and system, electronic devices, and computer storage medium | |
CN107358149B (zh) | 一种人体姿态检测方法和装置 | |
Wang et al. | Saliency-aware video object segmentation | |
Zhang et al. | Ranking saliency | |
Cong et al. | Abnormal event detection in crowded scenes using sparse representation | |
Peng et al. | RGBD salient object detection: A benchmark and algorithms | |
Fang et al. | Learning discriminative subspaces on random contrasts for image saliency analysis | |
CN110431560B (zh) | 目标人物的搜索方法和装置、设备和介质 | |
EP2704060A2 (en) | Crowd density estimation | |
Ji et al. | Graph model-based salient object detection using objectness and multiple saliency cues | |
CN110348362B (zh) | 标签生成、视频处理方法、装置、电子设备及存储介质 | |
Shokri et al. | Salient object detection in video using deep non-local neural networks | |
JP2013016170A (ja) | 人体動作の認識の方法、装置、及びプログラム | |
US10430966B2 (en) | Estimating multi-person poses using greedy part assignment | |
Vishwakarma et al. | Integrated approach for human action recognition using edge spatial distribution, direction pixel and-transform | |
Fang et al. | Deep3DSaliency: Deep stereoscopic video saliency detection model by 3D convolutional networks | |
Cao et al. | Efficient saliency detection using convolutional neural networks with feature selection | |
WO2022156317A1 (zh) | 视频帧处理方法及装置、电子设备和存储介质 | |
Zhang et al. | Study of visual saliency detection via nonlocal anisotropic diffusion equation | |
JP2013016171A (ja) | 人体動作周期の特定と人体動作の認識の方法、装置、及びプログラム | |
CN111507285A (zh) | 人脸属性识别方法、装置、计算机设备和存储介质 | |
US20170053172A1 (en) | Image processing apparatus, and image processing method | |
Singh et al. | A novel position prior using fusion of rule of thirds and image center for salient object detection | |
Zhang et al. | Hypergraph optimization for salient region detection based on foreground and background queries | |
Zhao et al. | Cluster-wise learning network for multi-person pose estimation |