JP6185879B2 - 多関節物体追跡装置、多関節物体追跡方法、及びプログラム - Google Patents

多関節物体追跡装置、多関節物体追跡方法、及びプログラム Download PDF

Info

Publication number
JP6185879B2
JP6185879B2 JP2014094700A JP2014094700A JP6185879B2 JP 6185879 B2 JP6185879 B2 JP 6185879B2 JP 2014094700 A JP2014094700 A JP 2014094700A JP 2014094700 A JP2014094700 A JP 2014094700A JP 6185879 B2 JP6185879 B2 JP 6185879B2
Authority
JP
Japan
Prior art keywords
hypothesis
posture
feature amount
postures
articulated object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014094700A
Other languages
English (en)
Other versions
JP2015212861A (ja
Inventor
鮎美 松本
鮎美 松本
弾 三上
弾 三上
春美 川村
春美 川村
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014094700A priority Critical patent/JP6185879B2/ja
Publication of JP2015212861A publication Critical patent/JP2015212861A/ja
Application granted granted Critical
Publication of JP6185879B2 publication Critical patent/JP6185879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、多関節物体追跡装置、多関節物体追跡方法、及びプログラムに関する。
人体のような多関節物体を、画像情報を利用して追跡しようとするには、大きく2つの人体モデルが用いられる。人体を円筒等の単純な剛体の連結として近似する手法(例えば、非特許文献1参照)とCG(コンピュータグラフィック)などで用いられるメッシュ構造を利用した詳細な形状モデルを利用する手法(例えば、非特許文献2参照)である。
島田伸敬、有田大作、玉木徹,「関節物体のモデルフィッティング」,社団法人 情報処理学会 研究報告,社団法人 情報処理学会,2006年,2006-CVIM-154(40),p.375−392 小川原光一、李暁路、池内克史,「関節構造を持つ柔軟変形モデルを用いた人体運動の推定」,2006年,画像の認識・理解シンポジウム(MIRUI)
上述した従来技術の2つの手法のうち前者の手法のモデルは、簡易モデルであるため計算コストが少ないことが利点となるが、実際の人体形状との差異が大きいため追跡精度が落ちるという欠点がある。一方、後者の手法のモデルは、人体形状の精密な表現が可能であるが、計算コストが大きいことが問題となる。
上記事情に鑑み、本発明は、計算コストを抑えながら安定して多関節物体の追跡を行う多関節物体追跡装置、多関節物体追跡方法、及びプログラムを提供することを目的としている。
本発明の一態様は、多関節物体の初期姿勢、及び動作種類の指定を受け、前記初期姿勢に対する複数の仮説姿勢を生成する初期設定部と、多関節物体を撮影した映像データを構成する時刻順の映像フレーム毎に、前記映像フレームから画像特徴量を取得する画像特徴量取得処理と、人体形状モデルを前記仮説姿勢に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する仮説特徴量算出処理と、前記仮説特徴量算出処理により算出された前記仮説姿勢の特徴量と前記画像特徴量取得処理により算出された前記画像特徴量とを比較して前記仮説姿勢それぞれの重みを算出する重み算出処理と、前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢から姿勢を推定する状態推定処理と、前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢のうち前記状態推定処理により推定された前記姿勢付近の複数の仮説姿勢を選択するリサンプリング処理と、前記リサンプリング処理により選択された複数の前記仮説姿勢から、前記動作種類に対応したダイナミクスを用いて次の時刻の仮説姿勢を生成するサンプリング処理とを繰り返す追跡処理部と、を備えることを特徴とする多関節物体追跡装置である。
また、本発明の一態様は、上述した多関節物体追跡装置であって、前記初期設定部は、衣類種類の指定をさらに受け、仮説特徴量算出処理は、人体形状モデルを前記仮説姿勢及び前記衣類種類に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する、ことを特徴とする。
また、本発明の一態様は、上述した多関節物体追跡装置であって、前記衣類種類は、衣類メッシュ構造、変形情報、テクスチャ、及び反射情報により示される、ことを特徴とする。
また、本発明の一態様は、多関節物体追跡装置が実行する多関節物体追跡方法であって、初期設定部が、多関節物体の初期姿勢、及び動作種類の指定を受け、前記初期姿勢に対する複数の仮説姿勢を生成する初期設定過程と、追跡処理部が、多関節物体を撮影した映像データを構成する時刻順の映像フレーム毎に、前記映像フレームから画像特徴量を取得する画像特徴量取得処理と、人体形状モデルを前記仮説姿勢に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する仮説特徴量算出処理と、前記仮説特徴量算出処理により算出された前記仮説姿勢の特徴量と前記画像特徴量取得処理により算出された前記画像特徴量とを比較して前記仮説姿勢それぞれの重みを算出する重み算出処理と、前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢から姿勢を推定する状態推定処理と、前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢のうち前記状態推定処理により推定された前記姿勢付近の複数の仮説姿勢を選択するリサンプリング処理と、前記リサンプリング処理により選択された複数の前記仮説姿勢から、前記動作種類に対応したダイナミクスを用いて次の時刻の仮説姿勢を生成するサンプリング処理とを繰り返す追跡処理過程と、を有することを特徴とする多関節物体追跡方法である。
また、本発明の一態様は、コンピュータを、上述した多関節物体追跡装置の各部として機能させるためのプログラムである。
本発明により、計算コストを抑えながら安定した多関節物体の追跡を実現することが可能となる。
本発明の一実施形態による多関節物体追跡装置の構成を示す概略ブロック図である。 図1に示す対象追跡部の対象追跡処理の一例を示すフローチャートである。 利用するダイナミクスによる必要仮説数の違いを説明するための図である。 パーティクルフィルタによる物体追跡の概念図である。 一般的な対象追跡処理の一例を示すフローチャートである。
以下、図面を参照して本発明の一実施の形態を説明する。
図1は、本発明の一実施形態による多関節物体追跡装置100の構成を示す概略ブロック図である。多関節物体追跡装置100は、例えば、コンピュータ装置により実現される。同図に示すように、多関節物体追跡装置100は、映像取得部101、画像入力部102、人体形状記憶部103、衣類情報記憶部104、動作情報記憶部105、対象追跡部106、推定情報記憶部107、及び追跡結果出力部108を備えて構成される。
映像取得部101は、追跡対象となる多関節物体を撮影した映像データを取得する。映像取得部101は、一例として、1台または数台のカメラや、映像データベースから構成される。映像データは複数の映像フレーム(以下、「フレーム」とも記載する。)からなる。
画像入力部102は、映像取得部101により撮影あるいは蓄積された映像データを、推定処理を行う形式の映像データへ変換する。この変換は例えば、色相変換やフレーム補間等である。
人体形状記憶部103は、事前に作成された人体形状のデータからなる人体形状データベースを保持する。人体形状データベースは主に、人体メッシュ構造、変形情報、テクスチャ、反射撤のデータから成る。ここでいう変形情報とは、人物の動きに対する人体形状の変形のモデルである。この変形情報は、例えば非特許文献2のようなメッシュ構造形状モデルを利用した追跡手法に用いられるものと同様である。
衣類情報記憶部104は、事前に作成された衣類のデータからなる衣類データベースを保持する。この衣類データベースは主に、衣類メッシュ構造、変形情報、テクスチャ、反射情報のデータから成る。ここでいう変形情報とは、着用対象の人物の動きに対する変形のモデルである。この情報を用いることで、対象のテクスチャ情報の計算ができるため、照明等の変動にロバストな追跡が可能となる。
動作情報記憶部105は、事前に作成された動作のデータからなる動作データベースを保持する。この動作データベースは主に、動作の種類と、ダイナミクス情報とを対応付けた情報から成る。この情報を用いることで、対象の特性に合致したダイナミクス情報を利用できるため、少ない計算コストで安定した追跡が可能となる。
対象追跡部106は、画像入力部102により形式変換された映像データに関して人体の関節位置の情報を、画像特徴量などを用いて解析対象の全フレームに対して追跡する。一般的には、各フレームの画像情報と人体メッシュ情報を比較することで追跡を行う。本実施形態では、これらに加えて、動作情報記憶部105の動作情報と衣類情報記憶部104の衣類情報を利用する。
推定情報記憶部107は、対象追跡部106において推定された多関節物体の位置の情報を保持する。
追跡結果出力部108は、対象追跡部106において推定された追跡結果を表示する。例えば、追跡結果出力部108は、映像データに基づく映像に追跡位置を重畳して表示する。
ここでまず、従来技術のパーティクルフィルタを用いて対象位置を追跡する場合の処理の流れを説明する。
図4は、パーティクルフィルタによる物体追跡の概念図である。一般に、パーティクルフィルタを用いる場合、追跡対象の位置候補を仮説として多数(N個)生成する。
まず、時刻tにおけるSTEP0として、仮説の位置を初期化する。各時刻において、STEP1として、各仮説の位置の特徴量を追跡対象のテンプレート特徴量と比較し、その比較により得られた類似度を重みとして算出する。STEP2として、N個の仮説の中から最も重みの大きいものをもっともらしい仮説として選択し、その時刻の推定位置(状態)とする。あるいは、仮説の重みつき平均値をその時刻の推定位置(状態)としてもよい。STEP3において、次の時刻の準備として、推定値に近い仮説が多く残るように重みの大きい仮説を複製し、小さい仮説を消滅させるリサンプリングを行う。次の時刻(時刻t+1)において、STEP4では、追跡対象の状態遷移モデルに従って仮説を移動させるサンプリングを行う。状態遷移モデルは、対象物の運動モデルに基づいて定義することが望ましいが、運動モデルの定式化が難しい場合は、等速直線運動やランダムウォークを想定する。そして、STEP1に戻る。
図5は、一般的手法を用いた場合の対象追跡部106による対象追跡処理の流れを示すフロー図である。図5に示す対象追跡処理の前に、画像入力部102は、推定処理を行う形式へ変換した映像データを対象追跡部106に出力している。映像データを構成するフレーム数をTとする。
ステップS901において、対象追跡部106は、時刻t=0とする。
ステップS902において、対象追跡部106は、追跡対象とする物体の初期姿勢Y(0)を指定する。初期姿勢Y(0)は例えば、関節の3次元位置や3次元回転角からなる行列として表現可能である。追跡対象の位置を状態Φ(t)=Y(t)とすると、対象追跡部106は、N個の仮説姿勢Φ(t)=Y(t)(i=1,2,…,N)を生成し、指定した初期姿勢Y(0)を中心としてこれら仮説姿勢Φ(t)が分布するように初期化する。このとき、分布には例えば平均Y(0)の正規分布等を用いることが可能である。
ステップS903において、対象追跡部106は、時刻tが解析フレーム数T以下であると判断した場合、下記のステップS904〜ステップS910の処理を繰り返す。
ステップS904において、対象追跡部106は、時刻tのフレームの映像データについて、追跡対象の画像特徴量であるテンプレート画像特徴量Iimage(t)を取得する。このテンプレート画像特徴量Iimage(t)は、例えば、エッジ等で人体領域を切り出し、その上で色ヒストグラムやHOG(Histograms of Oriented Gradients)特徴量等、任意のものを用いて取得することが可能である。
ステップS905において、対象追跡部は、時刻tのフレーム映像に対する仮説姿勢Φ(t)(i=1,2,…,N)の特徴量I(t)を算出する。仮説姿勢の特徴量I(t)を算出するには、人体形状記憶部103に記憶されている人体形状モデルMdを仮説姿勢Φ(t)=Y(t)(i=1,2,…,N)に基づき変形して仮説形状Md*Y(t)を計算することで取得可能である。人体形状モデルMdは、人体形状記憶部103に記憶されている人体メッシュ構造、変形情報、テクスチャ、反射撤のデータであり、例えば、人体メッシュの頂点座標とそれぞれの変形重みを加味した行列で表現される。
ステップS906において、対象追跡部106は、特徴量I(t)とテンプレート画像特徴量Iimage(t)を比較して仮説姿勢Φ(t)の重みw(t)を算出する。重みには例えば、特徴量I(t)とテンプレート画像特徴量Iimage(t)の距離を用いることが可能である。
ステップS907において、対象追跡部106は、ステップS906において算出した重みw(t)により、時刻tにおける状態Φ(t)を推定する。この推定は、仮説姿勢Φ(t)〜Φ(t)のうち最も大きな重みをもつ仮説姿勢を選んだり、仮説姿勢の重みつき平均をとる等の方法により行うことが可能である。対象追跡部106は、推定した状態Φ(t)を推定情報記憶部107に保存する。
ステップS908において、対象追跡部106は、重みw(t)の大きさに応じて重みの大きい仮説姿勢を複製し、重みの小さい仮説姿勢は削除することで、推定した状態付近に仮説姿勢が集まるようにリサンプリングを行う。リサンプリングは、重みと面積を比例させたルーレット方式や重みの上位10%程度を用いた複製等、様々な方式が可能である。
ステップS909において、対象追跡部106は、次の時刻の準備として、追跡対象の状態遷移モデルに基づいて、仮説姿勢のサンプリングを行う。仮説姿勢のサンプリングによって次の時刻のN個の仮説姿勢Φ(t+1)=Y(t+1)(i=1,2,…,N)を生成する。このサンプリングは一般に、等速直線やランダムウォークのモデルによって行う。
ステップS909において、対象追跡部106は、時刻t=t+1として、ステップS905からの処理を同様に繰り返す。そして、ステップS903において、対象追跡部106は、時刻tが解析フレーム数Tより大きいと判断した場合、処理を終了する。
追跡結果出力部108は、対象追跡部106において推定された追跡結果を表示する。
図2は、本実施形態の手法を用いた場合の対象追跡部106による対象追跡処理の流れを示すフロー図である。同図において、図5のフロー図と同様の処理については、詳細な説明を割愛する。この対象追跡処理の前に、画像入力部102は、推定処理を行う形式へ変換した映像データを対象追跡部106に出力している。映像データを構成するフレーム数をTとする。
ステップS301において、対象追跡部106は、ステップS901と同様に、時刻t=0とする。
ステップS302において、対象追跡部106は、追跡対象とする物体の初期姿勢Y(0)、動作種類M、衣類種類Cを指定する。初期姿勢Y(0)は例えば、関節の3次元位置や3次元回転角からなる行列として表現可能である。対象追跡部106は、追跡対象の位置を状態Φ(t)=Y(t)とすると、N個の仮説姿勢Φ(t)=Y(t)(i=1,2,…,N)を生成し、指定した初期姿勢Y(0)を中心としてこれら仮説姿勢が分布するように初期化する。このとき、分布には例えば平均Y(0)の正規分布等を用いることが可能である。
ステップS303において、対象追跡部106は、時刻tが解析フレーム数T以下であると判断した場合、下記のステップS304〜ステップS310の処理を繰り返す。
ステップS304の処理は、図2のステップS904の処理と同様であり、対象追跡部106は、時刻tのフレームの映像データについて、追跡対象のテンプレート画像特徴量Iimage(t)を取得する。
ステップS305において、対象追跡部106は、時刻tのフレーム映像に対する仮説姿勢Φ(t)(i=1,2,…,N)の特徴量I(t)を算出する。仮説姿勢の特徴量を算出するには、人体形状記憶部103に記憶されている人体形状モデルMdを、仮説姿勢Φ(t)=Y(t)(i=1,2,…,N)と、ステップS302において指定された衣類種類Cとに基づき変形し、衣類を考慮した仮説形状C*Md*Y(t)を計算することで取得可能である。衣類種類Cは、衣類情報記憶部104に記憶されている衣類メッシュ構造、変形情報、テクスチャ、反射情報で示される衣類のデータであり、例えば、衣類メッシュの頂点座標とそれぞれの変形重みを加味した行列で表現される。
ステップS306〜ステップS308の処理は、図2のステップS907〜ステップS908の処理と同様である。すなわち、ステップS306において、対象追跡部106は、各仮説姿勢の特徴量I(t)とテンプレート画像特徴量Iimage(t)を比較して仮説姿勢Φ(t)の重みw(t)を算出する。ステップS307において、対象追跡部106は、重みw(t)により、時刻tにおける状態Φ(t)を推定し、推定情報記憶部107に保存する。ステップS308において、対象追跡部106は、推定した状態付近に仮説姿勢が集まるようにリサンプリングを行う。
ステップS309において、対象追跡部106は、次の時刻の準備として、動作情報記憶部105に記憶している追跡対象のダイナミクスに基づいて、仮説姿勢のサンプリングを行う。このダイナミクスは、動作情報記憶部105に記憶されている動作種類の中からステップS302で指定された動作種類Mにより選択される。ここで、サンプリングは例えば、Φ(t+1)=f(Φ(t))として次の時刻のN個の仮説姿勢Φ(t+1)(i=1,2,…,N)を生成する。ここでfは、動作種類Mによって決定される関数であり、任意のものを利用可能である。一般に、パーティクルフィルタを利用した物体追跡の計算コストは仮説数Nに比例する。対象の特性に合致したダイナミクス情報を利用することで、一般的なランダムウォークを利用する場合と比較して、少ない仮説数で安定した追跡が可能となる。
図3は、利用するダイナミクスによる必要仮説数の違いを説明するための図である。図5(a)のように対象のダイナミクスが既知である場合、仮説が対象の動きにマッチしているため、少ない仮説数で対象を追跡することができる。一方、図5(b)のように対象のダイナミクスが未知の場合、仮説が対象の動きを捉える確率が少なくなるため、対象を追跡するためには多くの仮説が必要である。このように、本実施形態では仮説数を少なくすることができるため、計算コストを抑えることができる。
ステップS309において、対象追跡部106は、時刻t=t+1として、ステップS305からの処理を同様に繰り返す。そして、ステップS303において、対象追跡部106は、時刻tが解析フレーム数Tより大きいと判断した場合、処理を終了する。
追跡結果出力部108は、対象追跡部106において推定された追跡結果を表示する。
なお、対象追跡部106は、ステップS305の処理に代えて、ステップS905の処理を行ってもよい。動作種類Mを用いることにより対象の動きにマッチした仮説が得られるため、追跡対象の服装がモデルと同じ場合や、モデルと服装が異なっており、テクスチャ以外の情報(エッジやシルエットなど)を用いる場合には、衣類種類を用いずとも、従来手法と比較してコストを抑えつつ、追跡の精度を保つことが可能となる。
また、動作種類Mを用いず、衣類種類Cのみを用いる場合でも、推定対象の服装の自由度が増すという効果がある。
以上説明したように、本実施形態の多関節物体追跡装置100は、動き情報の利用により、モデルの計算コストを低下させて安定した追跡を実現する。また、本実施形態の多関節物体追跡装置100は、衣類情報の利用により、従来技術では考慮していなかった、追跡対象の服装を考慮した追跡を実現する。これにより、メッシュ構造形状モデルに対象の動き情報と衣類変形情報を付加した人体モデルを利用して多関節物体の追跡を行う。
上述した実施形態における多関節物体追跡装置100の機能をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
映像データから、映像に映っている多関節物体を追跡する技術に適用できる。
100…多関節物体追跡装置, 101…映像取得部, 102…画像入力部, 103…人体形状記憶部, 104…衣類情報記憶部, 105…動作情報記憶部, 106…対象追跡部(初期設定部、追跡処理部), 107…推定情報記憶部, 108…追跡結果出力部

Claims (5)

  1. 多関節物体の初期姿勢、及び動作種類の指定を受け、前記初期姿勢に対する複数の仮説姿勢を生成する初期設定部と、
    多関節物体を撮影した映像データを構成する時刻順の映像フレーム毎に、
    前記映像フレームから画像特徴量を取得する画像特徴量取得処理と、
    人体形状モデルを前記仮説姿勢に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する仮説特徴量算出処理と、
    前記仮説特徴量算出処理により算出された前記仮説姿勢の特徴量と前記画像特徴量取得処理により算出された前記画像特徴量とを比較して前記仮説姿勢それぞれの重みを算出する重み算出処理と、
    前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢から姿勢を推定する状態推定処理と、
    前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢のうち前記状態推定処理により推定された前記姿勢付近の複数の仮説姿勢を選択するリサンプリング処理と、
    前記リサンプリング処理により選択された複数の前記仮説姿勢から、前記動作種類に対応したダイナミクスを用いて次の時刻の仮説姿勢を生成するサンプリング処理とを繰り返す追跡処理部と、
    を備えることを特徴とする多関節物体追跡装置。
  2. 前記初期設定部は、衣類種類の指定をさらに受け、
    前記追跡処理部は、前記仮説特徴量算出処理において、人体形状モデルを前記仮説姿勢及び前記衣類種類に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する、
    ことを特徴とする請求項1に記載の多関節物体追跡装置。
  3. 前記衣類種類は、衣類メッシュ構造、変形情報、テクスチャ、及び反射情報により示される、
    ことを特徴とする請求項2に記載の多関節物体追跡装置。
  4. 多関節物体追跡装置が実行する多関節物体追跡方法であって、
    初期設定部が、多関節物体の初期姿勢、及び動作種類の指定を受け、前記初期姿勢に対する複数の仮説姿勢を生成する初期設定過程と、
    追跡処理部が、多関節物体を撮影した映像データを構成する時刻順の映像フレーム毎に、
    前記映像フレームから画像特徴量を取得する画像特徴量取得処理と、
    人体形状モデルを前記仮説姿勢に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する仮説特徴量算出処理と、
    前記仮説特徴量算出処理により算出された前記仮説姿勢の特徴量と前記画像特徴量取得処理により算出された前記画像特徴量とを比較して前記仮説姿勢それぞれの重みを算出する重み算出処理と、
    前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢から姿勢を推定する状態推定処理と、
    前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢のうち前記状態推定処理により推定された前記姿勢付近の複数の仮説姿勢を選択するリサンプリング処理と、
    前記リサンプリング処理により選択された複数の前記仮説姿勢から、前記動作種類に対応したダイナミクスを用いて次の時刻の仮説姿勢を生成するサンプリング処理とを繰り返す追跡処理過程と、
    を有することを特徴とする多関節物体追跡方法。
  5. コンピュータを、
    請求項1から請求項3のいずれか1項に記載の多関節物体追跡装置の各部として機能させるプログラム。
JP2014094700A 2014-05-01 2014-05-01 多関節物体追跡装置、多関節物体追跡方法、及びプログラム Active JP6185879B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014094700A JP6185879B2 (ja) 2014-05-01 2014-05-01 多関節物体追跡装置、多関節物体追跡方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014094700A JP6185879B2 (ja) 2014-05-01 2014-05-01 多関節物体追跡装置、多関節物体追跡方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015212861A JP2015212861A (ja) 2015-11-26
JP6185879B2 true JP6185879B2 (ja) 2017-08-23

Family

ID=54697096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014094700A Active JP6185879B2 (ja) 2014-05-01 2014-05-01 多関節物体追跡装置、多関節物体追跡方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6185879B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6923789B2 (ja) * 2017-07-05 2021-08-25 富士通株式会社 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム
US10839531B2 (en) * 2018-11-15 2020-11-17 Sony Corporation Object tracking based on a user-specified initialization point
JP7355588B2 (ja) * 2019-10-04 2023-10-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 学習装置、学習方法、学習プログラム
KR102129771B1 (ko) * 2020-04-27 2020-07-03 (주)투비소프트 Cctv 카메라를 통해 촬영된 영상으로부터 영상 내 촬영 대상자의 행위 인식을 수행하는 cctv 관리 시스템 장치 및 그 동작 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4836065B2 (ja) * 2005-03-31 2011-12-14 株式会社国際電気通信基礎技術研究所 エッジトラッキング方法及びそのコンピュータプログラム
JP4709723B2 (ja) * 2006-10-27 2011-06-22 株式会社東芝 姿勢推定装置及びその方法
JP5340228B2 (ja) * 2010-06-21 2013-11-13 日本電信電話株式会社 状態推定装置、状態推定方法、およびプログラム
JP5767078B2 (ja) * 2011-10-25 2015-08-19 日本電信電話株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム

Also Published As

Publication number Publication date
JP2015212861A (ja) 2015-11-26

Similar Documents

Publication Publication Date Title
JP6424293B1 (ja) ボディの画像化
JP4950787B2 (ja) 画像処理装置及びその方法
US20180197322A1 (en) Image Regularization and Retargeting System
Stoll et al. Fast articulated motion tracking using a sums of gaussians body model
JP5525407B2 (ja) 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
JP5555207B2 (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2022503647A (ja) クロスドメイン画像変換
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
KR102270949B1 (ko) 3차원 인간 모델 복원 장치 및 방법
JP6185879B2 (ja) 多関節物体追跡装置、多関節物体追跡方法、及びプログラム
CN113449570A (zh) 图像处理方法和装置
JP2021111114A (ja) 学習データ生成プログラム、学習データ生成方法及び推定装置
JP2018129007A (ja) 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
US9870637B2 (en) Frame removal and replacement for stop-action animation
Kowalski et al. Holoface: Augmenting human-to-human interactions on hololens
JP2016152586A (ja) プロジェクションマッピング装置、映像投影制御装置、映像投影制御方法および映像投影制御プログラム
JP2010211732A (ja) 物体認識装置および方法
JP2019016164A (ja) 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
JP5767078B2 (ja) 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム
JP7499346B2 (ja) 逆運動学に基づいた関節の回転の推測
US20230079478A1 (en) Face mesh deformation with detailed wrinkles
KR102338491B1 (ko) 영상 기반 사람의 3차원 자세 및 형상 모델 복원 장치 및 방법
JP4942197B2 (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170728

R150 Certificate of patent or registration of utility model

Ref document number: 6185879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150