JP6185879B2 - 多関節物体追跡装置、多関節物体追跡方法、及びプログラム - Google Patents
多関節物体追跡装置、多関節物体追跡方法、及びプログラム Download PDFInfo
- Publication number
- JP6185879B2 JP6185879B2 JP2014094700A JP2014094700A JP6185879B2 JP 6185879 B2 JP6185879 B2 JP 6185879B2 JP 2014094700 A JP2014094700 A JP 2014094700A JP 2014094700 A JP2014094700 A JP 2014094700A JP 6185879 B2 JP6185879 B2 JP 6185879B2
- Authority
- JP
- Japan
- Prior art keywords
- hypothesis
- posture
- feature amount
- postures
- articulated object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
図1は、本発明の一実施形態による多関節物体追跡装置100の構成を示す概略ブロック図である。多関節物体追跡装置100は、例えば、コンピュータ装置により実現される。同図に示すように、多関節物体追跡装置100は、映像取得部101、画像入力部102、人体形状記憶部103、衣類情報記憶部104、動作情報記憶部105、対象追跡部106、推定情報記憶部107、及び追跡結果出力部108を備えて構成される。
追跡結果出力部108は、対象追跡部106において推定された追跡結果を表示する。例えば、追跡結果出力部108は、映像データに基づく映像に追跡位置を重畳して表示する。
図4は、パーティクルフィルタによる物体追跡の概念図である。一般に、パーティクルフィルタを用いる場合、追跡対象の位置候補を仮説として多数(N個)生成する。
まず、時刻tにおけるSTEP0として、仮説の位置を初期化する。各時刻において、STEP1として、各仮説の位置の特徴量を追跡対象のテンプレート特徴量と比較し、その比較により得られた類似度を重みとして算出する。STEP2として、N個の仮説の中から最も重みの大きいものをもっともらしい仮説として選択し、その時刻の推定位置(状態)とする。あるいは、仮説の重みつき平均値をその時刻の推定位置(状態)としてもよい。STEP3において、次の時刻の準備として、推定値に近い仮説が多く残るように重みの大きい仮説を複製し、小さい仮説を消滅させるリサンプリングを行う。次の時刻(時刻t+1)において、STEP4では、追跡対象の状態遷移モデルに従って仮説を移動させるサンプリングを行う。状態遷移モデルは、対象物の運動モデルに基づいて定義することが望ましいが、運動モデルの定式化が難しい場合は、等速直線運動やランダムウォークを想定する。そして、STEP1に戻る。
ステップS902において、対象追跡部106は、追跡対象とする物体の初期姿勢Y(0)を指定する。初期姿勢Y(0)は例えば、関節の3次元位置や3次元回転角からなる行列として表現可能である。追跡対象の位置を状態Φ(t)=Y(t)とすると、対象追跡部106は、N個の仮説姿勢Φi(t)=Yi(t)(i=1,2,…,N)を生成し、指定した初期姿勢Y(0)を中心としてこれら仮説姿勢Φi(t)が分布するように初期化する。このとき、分布には例えば平均Y(0)の正規分布等を用いることが可能である。
追跡結果出力部108は、対象追跡部106において推定された追跡結果を表示する。
ステップS302において、対象追跡部106は、追跡対象とする物体の初期姿勢Y(0)、動作種類M、衣類種類Cを指定する。初期姿勢Y(0)は例えば、関節の3次元位置や3次元回転角からなる行列として表現可能である。対象追跡部106は、追跡対象の位置を状態Φ(t)=Y(t)とすると、N個の仮説姿勢Φi(t)=Yi(t)(i=1,2,…,N)を生成し、指定した初期姿勢Y(0)を中心としてこれら仮説姿勢が分布するように初期化する。このとき、分布には例えば平均Y(0)の正規分布等を用いることが可能である。
ステップS304の処理は、図2のステップS904の処理と同様であり、対象追跡部106は、時刻tのフレームの映像データについて、追跡対象のテンプレート画像特徴量Iimage(t)を取得する。
追跡結果出力部108は、対象追跡部106において推定された追跡結果を表示する。
また、動作種類Mを用いず、衣類種類Cのみを用いる場合でも、推定対象の服装の自由度が増すという効果がある。
Claims (5)
- 多関節物体の初期姿勢、及び動作種類の指定を受け、前記初期姿勢に対する複数の仮説姿勢を生成する初期設定部と、
多関節物体を撮影した映像データを構成する時刻順の映像フレーム毎に、
前記映像フレームから画像特徴量を取得する画像特徴量取得処理と、
人体形状モデルを前記仮説姿勢に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する仮説特徴量算出処理と、
前記仮説特徴量算出処理により算出された前記仮説姿勢の特徴量と前記画像特徴量取得処理により算出された前記画像特徴量とを比較して前記仮説姿勢それぞれの重みを算出する重み算出処理と、
前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢から姿勢を推定する状態推定処理と、
前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢のうち前記状態推定処理により推定された前記姿勢付近の複数の仮説姿勢を選択するリサンプリング処理と、
前記リサンプリング処理により選択された複数の前記仮説姿勢から、前記動作種類に対応したダイナミクスを用いて次の時刻の仮説姿勢を生成するサンプリング処理とを繰り返す追跡処理部と、
を備えることを特徴とする多関節物体追跡装置。 - 前記初期設定部は、衣類種類の指定をさらに受け、
前記追跡処理部は、前記仮説特徴量算出処理において、人体形状モデルを前記仮説姿勢及び前記衣類種類に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する、
ことを特徴とする請求項1に記載の多関節物体追跡装置。 - 前記衣類種類は、衣類メッシュ構造、変形情報、テクスチャ、及び反射情報により示される、
ことを特徴とする請求項2に記載の多関節物体追跡装置。 - 多関節物体追跡装置が実行する多関節物体追跡方法であって、
初期設定部が、多関節物体の初期姿勢、及び動作種類の指定を受け、前記初期姿勢に対する複数の仮説姿勢を生成する初期設定過程と、
追跡処理部が、多関節物体を撮影した映像データを構成する時刻順の映像フレーム毎に、
前記映像フレームから画像特徴量を取得する画像特徴量取得処理と、
人体形状モデルを前記仮説姿勢に基づき変形した仮説形状により前記仮説姿勢それぞれの特徴量を算出する仮説特徴量算出処理と、
前記仮説特徴量算出処理により算出された前記仮説姿勢の特徴量と前記画像特徴量取得処理により算出された前記画像特徴量とを比較して前記仮説姿勢それぞれの重みを算出する重み算出処理と、
前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢から姿勢を推定する状態推定処理と、
前記重み算出処理により算出された前記仮説姿勢それぞれの重みに基づいて複数の前記仮説姿勢のうち前記状態推定処理により推定された前記姿勢付近の複数の仮説姿勢を選択するリサンプリング処理と、
前記リサンプリング処理により選択された複数の前記仮説姿勢から、前記動作種類に対応したダイナミクスを用いて次の時刻の仮説姿勢を生成するサンプリング処理とを繰り返す追跡処理過程と、
を有することを特徴とする多関節物体追跡方法。 - コンピュータを、
請求項1から請求項3のいずれか1項に記載の多関節物体追跡装置の各部として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014094700A JP6185879B2 (ja) | 2014-05-01 | 2014-05-01 | 多関節物体追跡装置、多関節物体追跡方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014094700A JP6185879B2 (ja) | 2014-05-01 | 2014-05-01 | 多関節物体追跡装置、多関節物体追跡方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015212861A JP2015212861A (ja) | 2015-11-26 |
JP6185879B2 true JP6185879B2 (ja) | 2017-08-23 |
Family
ID=54697096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014094700A Active JP6185879B2 (ja) | 2014-05-01 | 2014-05-01 | 多関節物体追跡装置、多関節物体追跡方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6185879B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6923789B2 (ja) * | 2017-07-05 | 2021-08-25 | 富士通株式会社 | 情報処理プログラム、情報処理装置、情報処理方法、及び情報処理システム |
US10839531B2 (en) * | 2018-11-15 | 2020-11-17 | Sony Corporation | Object tracking based on a user-specified initialization point |
JP7355588B2 (ja) * | 2019-10-04 | 2023-10-03 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 学習装置、学習方法、学習プログラム |
KR102129771B1 (ko) * | 2020-04-27 | 2020-07-03 | (주)투비소프트 | Cctv 카메라를 통해 촬영된 영상으로부터 영상 내 촬영 대상자의 행위 인식을 수행하는 cctv 관리 시스템 장치 및 그 동작 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4836065B2 (ja) * | 2005-03-31 | 2011-12-14 | 株式会社国際電気通信基礎技術研究所 | エッジトラッキング方法及びそのコンピュータプログラム |
JP4709723B2 (ja) * | 2006-10-27 | 2011-06-22 | 株式会社東芝 | 姿勢推定装置及びその方法 |
JP5340228B2 (ja) * | 2010-06-21 | 2013-11-13 | 日本電信電話株式会社 | 状態推定装置、状態推定方法、およびプログラム |
JP5767078B2 (ja) * | 2011-10-25 | 2015-08-19 | 日本電信電話株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム |
-
2014
- 2014-05-01 JP JP2014094700A patent/JP6185879B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015212861A (ja) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6424293B1 (ja) | ボディの画像化 | |
JP4950787B2 (ja) | 画像処理装置及びその方法 | |
US20180197322A1 (en) | Image Regularization and Retargeting System | |
Stoll et al. | Fast articulated motion tracking using a sums of gaussians body model | |
JP5525407B2 (ja) | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム | |
JP5555207B2 (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP2022503647A (ja) | クロスドメイン画像変換 | |
JP4951498B2 (ja) | 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体 | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
KR102270949B1 (ko) | 3차원 인간 모델 복원 장치 및 방법 | |
JP6185879B2 (ja) | 多関節物体追跡装置、多関節物体追跡方法、及びプログラム | |
CN113449570A (zh) | 图像处理方法和装置 | |
JP2021111114A (ja) | 学習データ生成プログラム、学習データ生成方法及び推定装置 | |
JP2018129007A (ja) | 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
US9870637B2 (en) | Frame removal and replacement for stop-action animation | |
Kowalski et al. | Holoface: Augmenting human-to-human interactions on hololens | |
JP2016152586A (ja) | プロジェクションマッピング装置、映像投影制御装置、映像投影制御方法および映像投影制御プログラム | |
JP2010211732A (ja) | 物体認識装置および方法 | |
JP2019016164A (ja) | 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム | |
JP5767078B2 (ja) | 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム | |
JP7499346B2 (ja) | 逆運動学に基づいた関節の回転の推測 | |
US20230079478A1 (en) | Face mesh deformation with detailed wrinkles | |
KR102338491B1 (ko) | 영상 기반 사람의 3차원 자세 및 형상 모델 복원 장치 및 방법 | |
JP4942197B2 (ja) | テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6185879 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |