JP7498404B2 - 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム - Google Patents
被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム Download PDFInfo
- Publication number
- JP7498404B2 JP7498404B2 JP2022538517A JP2022538517A JP7498404B2 JP 7498404 B2 JP7498404 B2 JP 7498404B2 JP 2022538517 A JP2022538517 A JP 2022538517A JP 2022538517 A JP2022538517 A JP 2022538517A JP 7498404 B2 JP7498404 B2 JP 7498404B2
- Authority
- JP
- Japan
- Prior art keywords
- group
- dimensional
- subject
- coordinates
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 24
- 239000013598 vector Substances 0.000 claims description 37
- 210000000988 bone and bone Anatomy 0.000 claims description 14
- 230000036544 posture Effects 0.000 description 154
- 238000010586 diagram Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
被写体の特徴点は図19のようなツリー状の階層構造で記述される。図19は、人体における特徴点の例を示す図である。各特徴点の接続関係を記述するベクトル場には階層構造における子の特徴点から親の特徴点方向へのベクトルを生成するように学習がなされる。特徴点110は、鼻の位置を表す特徴点である。特徴点111は、左目の位置を表す特徴点である。特徴点112は、右目の位置を表す特徴点である。図19に示す例においては、左目の特徴点111及び右目の特徴点112は、鼻の特徴点110を親に持つ。特徴点113-126は、被写体に定められた他の部位の位置をそれぞれ表す特徴点である。
非特許文献2では、ハフ投票(Hough voting)と呼ばれる手法により特徴点を抽出する方法が開示されている。具体的には非特許文献2では体の各特徴点を予測するヒートマップと特徴点同士の接続関係を予測するMid-range offsetに加え、short-range offsetと呼ぶ近傍の特徴点を指し示すベクトルからなるベクトル場を使用することで、複数人から特徴点と特徴点の接続関係を検出している。
非特許文献3では、単一の被写体に対して各特徴点のヒートマップを生成し(被写体が複数名存在する場合はその数だけ実施)、他者による遮蔽の影響を考慮して補正したヒートマップを用いて2次元平面における特徴点の2次元座標を導出し、三角測量で取得した特徴点の3次元座標が人体の骨格モデル(各骨格長、最大3軸の関節回転角、及びroot関節の3軸座標で定義されるモデル)にフィットするように関節回転角及び3軸座標を調整することで3次元姿勢を推定する手法が提案されている。
推定誤りによる影響力を軽減する別手法として、任意の3次元座標をスクリーン座標に再投影し、全ての撮影装置におけるヒートマップの信号合計値を対象特徴点の存在確率とし、高い値を示す方向に例えば勾配法を用いて骨格モデルをフィッティングする手法も考えられる。非特許文献1や非特許文献2のように、複数人に対応した2次元姿勢推定技術を用いて得られるヒートマップにより、画像内の被写体数に依存することなく前述の手法と比較して演算量を削減することができる。しかし、複数人に対応した2次元姿勢推定技術におけるヒートマップ解像度は3次元座標を推定する用途には十分ではなく、遠方の被写体などではヒートマップの1画素のズレによって大きな誤差を生じることがあり、精度が著しく低下する恐れがある。
本発明の目的は、複数人に対応した2次元姿勢推定技術を使用しつつ、3次元空間における被写体の3次元姿勢をより高い精度で推定する3次元姿勢推定装置を提供することにある。
《学習済みモデルを用いたマーカーレスモーションキャプチャについて》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、モーションキャプチャシステム2の構成を示す概略図である。
マーカーレスモーションキャプチャを実現するモーションキャプチャシステム2について説明する。モーションキャプチャシステム2は、複数の撮影装置201と、3次元姿勢推定装置1を備える。複数の撮影装置201は、それぞれ異なる方向から被写体A1及びA2を撮影するように設置される。複数の撮影装置201は、互いに内部時計の時刻が同期されている。
図2は、第1の実施形態に係る3次元姿勢推定装置1の構成を示す図である。3次元姿勢推定装置1は、画像取得部10、2次元姿勢推定部11、2次元姿勢推定モデル記憶部12、カメラパラメータ取得部13、被写体追跡部14、骨格長推定部15、骨格モデルフィッティング部16を備える。
図4はヒートマップの一例である。ヒートマップH1には、画像に写る被写体A1及びA2が写っており、被写体A1及びA2の対象特徴点の近傍には、特徴点の存在確率を表す確率場が格納されている。確率場は対象特徴点近傍ほど高い値を示し、距離が離れるに従って減衰する特徴を持つ。図4に示す例においては、確率場の色が白に近いほど特徴点の存在確率が高いことを示す。2次元姿勢推定部11は、2次元姿勢の集合を2次元姿勢群として、ヒートマップの集合をヒートマップ群として、ベクトル場の集合をベクトル場群として出力する。
2次元姿勢群に含まれる2次元姿勢の数は入力画像の数と同じであり、ヒートマップ群に含まれるヒートマップ及びベクトル場群に含まれるベクトル場の数は、入力画像の数と被写体の数と特徴点の数の積と同じである。
図8は、第1の実施形態に係る骨格モデルフィッティング部16の構成を示す図である。第1の実施形態に係る骨格モデルフィッティング部16は、ピーク座標出力部1610、ハフ投票点群出力部1611、被写体抽出部1612、フレーム抽出部1613、3次元姿勢推定部1614、対象フレーム3次元姿勢推定部1615、3次元姿勢記憶部1616、被写体出力部1617を備える。
ピーク座標出力部1610は、ヒートマップ群を入力として各ヒートマップにおけるピークを示す座標値周辺の座標をピーク値周辺座標群として出力する。このとき、ピーク座標は、例えば図9Aに示すように周辺信号値との勾配が凸になる部分を探索することで検出し、ピーク座標のヒートマップ信号値と近しい値をとるピーク座標周辺の座標を例えば所定の数量もしくはピーク座標のヒートマップ信号値との差が一定値以内の座標をサンプリングし、ピーク値周辺座標群を生成する。
つまりハフ投票点群出力部1611は、ベクトル場により被写体の特徴点の3次元座標群を補正する。
次に、第1の実施形態に係る骨格モデルフィッティング部16の動作について説明する。
図11は、第1の実施形態に係る骨格モデルフィッティング部16の動作を示すフローチャートである。
初めに、ピーク座標出力部1610は、ヒートマップ群の各ヒートマップに対してピーク値周辺の座標群をサンプリングする(ステップS100)。次に、ハフ投票点群出力部1611は、ピーク値周辺の各座標に対して対応するフレーム及び特徴点のベクトル場を用いて座標値を修正する(ステップS101)。被写体抽出部1612は、被写体別骨格長から被写体の人数を取得し、対象とする被写体を1つずつ選択し、骨格モデルフィッティング部16は被写体毎にステップS103からステップS111を繰り返す(ステップS102)。続いて、フレーム抽出部1613は、ハフ投票点群から総フレーム数を取得し、対象とするフレーム(対象フレーム)を1つずつ選択し、骨格モデルフィッティング部16は、フレーム毎にステップS104からステップS111を繰り返す(ステップS103)。3次元姿勢推定部1614は、被写体骨格長、フレーム被写体特徴点3次元座標群、及び過去被写体3次元姿勢群から対象フレームにおける推定3次元姿勢を生成する(ステップS104)。
次に、対象フレーム3次元姿勢推定部1615はステップS107で計算した各回転軸の存在確率の勾配から、子関節(子特徴点)の存在確率が高くなる方向に対象関節の回転角を修正する(ステップS108)。対象フレーム3次元姿勢推定部1615は、修正した対象関節の回転角を用いて子関節(子特徴点)の存在確率を式(1)にて算出する(ステップS109)。対象フレーム3次元姿勢推定部1615は、全ての特徴点についての算出される存在確率の総和の変化量に基づいて、3次元姿勢を確定するか否かを判定する(ステップS110)。存在確率の総和が所定の量を超える場合(ステップS110-YES)、対象フレーム3次元姿勢推定部1615は直近に定められた3次元姿勢を対象フレームの3次元姿勢として決定し、3次元姿勢記憶部1616に被写体骨格長及びフレーム被写体3次元姿勢を保存する(ステップS111)。存在確率の和が所定の値以下である場合(ステップS110-NO)、対象フレーム3次元姿勢推定部1615は、ステップS106に処理を戻し、存在確率の総和が増加するように、骨格モデルの関節の角度を調整しながら、関節の回転角を補正する。
このように、第1の実施形態によれば、3次元姿勢推定装置1はヒートマップ及びベクトル場からハフ投票点を生成し、骨格モデルの関節(特徴点)毎に関節の3次元座標をスクリーン座標に投影して、対象関節(特徴点)におけるハフ投票点との距離から算出される存在確率を最大化するよう被写体3次元姿勢を決定する。3次元姿勢推定装置1はハフ投票点群を用いた確率場を使用していることから、ヒートマップにおける1点を決定するよりも誤差の影響を取り除くことができ、より正確に被写体の3次元姿勢を推定することができる。
第1の実施形態に係る3次元姿勢推定装置1は、ヒートマップ及びベクトル場からハフ投票点を生成し、骨格モデルの関節(特徴点)毎に関節の3次元座標をスクリーン座標に投影して、対象関節(特徴点)におけるハフ投票点との距離から算出される存在確率を最大化するように被写体3次元姿勢を決定する。これに対し、第2の実施形態に係る3次元姿勢推定装置1は、ヒートマップのピーク値周辺画素に対してラベリングを行うことで、計算量を低減しつつ、被写体の3次元姿勢を決定する。
初めに、ラベル付きピーク座標出力部1620は、ヒートマップ群の各ヒートマップに対してピーク値周辺の座標群をサンプリングし(ステップS200)、サンプリングした座標にラベルを付与する(ステップS201)。次に、ラベル付きハフ投票点群出力部1621は、ピーク値周辺の各座標に対して対応するフレーム及び特徴点のベクトル場を用いて座標値を修正する(ステップS202)。被写体抽出部1612は、被写体別骨格長から被写体の人数を取得し、対象とする被写体を1つずつ選択し、骨格モデルフィッティング部16は被写体毎にステップS204からステップS212を繰り返す(ステップS203)。続いて、フレーム抽出部1613は、ラベル付きハフ投票点群から総フレーム数を取得し、対象とするフレームを1つずつ選択し、骨格モデルフィッティング部16はフレーム毎にステップS205からステップS212を繰り返す(ステップS204)。次に3次元姿勢推定部1614は、被写体骨格長、フレーム被写体特徴点3次元座標群、及び過去被写体3次元姿勢群から対象フレームにおける推定3次元姿勢を生成する(ステップS205)。
このように、第2の実施形態によれば、3次元姿勢推定装置1はヒートマップのピーク値周辺画素に対してラベリングを行うことで、スクリーン座標が属するラベル以外のハフ投票点群は計算対象から除外することができる。これにより、3次元姿勢推定装置1はより速く被写体の3次元姿勢を推定することができる。
第2の実施形態に係る3次元姿勢推定装置1は、ヒートマップのピーク値周辺画素に対してラベリングを行うことで、スクリーン座標が属するラベル以外のハフ投票点群は計算対象から除外することで存在確率を求める。これに対し、第3の実施形態に係る3次元姿勢推定装置1は、ヒートマップ信号値を用いて存在確率の推定精度向上を行う。
図16は、第3の実施形態に係る骨格モデルフィッティング部16の構成を示す図である。第3の実施形態に係る骨格モデルフィッティング部16は、第1の実施形態の構成におけるピーク座標出力部1610、ハフ投票点群出力部1611、及び対象フレーム3次元姿勢推定部1615の代わりに、それぞれ信号値付きピーク座標出力部1630、信号値付きハフ投票点群出力部1631、及び対象フレーム3次元姿勢高精度推定部1632を備える。
初めに、信号値付きピーク座標出力部1630は、ヒートマップ群の各ヒートマップに対してピーク値周辺の座標群をサンプリングし(ステップS300)、サンプリングした座標にヒートマップ信号値を付与する(ステップS301)。次に、信号値付きハフ投票点群出力部1631は、ピーク値周辺の各座標に対して対応するフレーム及び特徴点のベクトル場を用いて座標値を修正する(ステップS302)。被写体抽出部1612は、被写体別骨格長から被写体の人数を取得し、対象とする被写体を1つずつ選択し、骨格モデルフィッティング部16は被写体毎にステップS304からステップS312を繰り返す(ステップS303)。続いて、フレーム抽出部1613は、ハフ投票点群から総フレーム数を取得し、対象とするフレームを1つずつ選択し、骨格モデルフィッティング部16はフレーム毎にステップS305からステップS312を繰り返す(ステップS304)。次に3次元姿勢推定部1614は、被写体骨格長、フレーム被写体特徴点3次元座標群、及び過去被写体3次元姿勢群から対象フレームにおける推定3次元姿勢を生成する(ステップS305)。
このように、第3の実施形態によれば、3次元姿勢推定装置1はヒートマップ信号値に応じた加重和を用いて存在確率を算出することで、確からしさが低いハフ投票点群の影響を軽減することができる。これにより、3次元姿勢推定装置1はより高い精度で被写体の3次元姿勢を推定することができる。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
2 モーションキャプチャシステム
10 画像取得部
11 2次元姿勢推定部
12 2次元姿勢推定モデル記憶部
13 カメラパラメータ取得部
14 被写体追跡部
15 骨格長推定部
16 骨格モデルフィッティング部
1610 ピーク座標出力部
1611 ハフ投票点群出力部
1612 被写体抽出部
1613 フレーム抽出部
1614 3次元姿勢推定部
1615 対象フレーム3次元姿勢推定部
1616 3次元姿勢記憶部
1617 被写体出力部
1620 ラベル付きピーク座標出力部
1621 ラベル付きハフ投票点群出力部
1622 対象フレーム3次元姿勢高速推定部
1630 信号値付きピーク座標出力部
1631 信号値付きハフ投票点群出力部
1632 対象フレーム3次元姿勢高精度推定部
Claims (8)
- 異なる地点に位置する複数の撮影装置により同一の被写体が撮影された画像群を入力とし、前記被写体に対し予め学習された2次元姿勢推定モデルを用いて、被写体別に、複数の特徴点の2次元位置を示す2次元座標群と、特徴点毎の存在確率を表すヒートマップ群と、ヒートマップのピーク値周辺の座標を対象特徴点方向に補正するベクトル場群とを生成する2次元姿勢推定部と、
前記撮影装置のカメラパラメータと前記2次元座標群とを用いて前記被写体別に、前記複数の特徴点の3次元位置を示す特徴点3次元座標群を生成する被写体追跡部と、
前記被写体別の特徴点3次元座標群を用いて被写体別の骨格長を推定する骨格長推定部と、
前記ヒートマップ群、前記ベクトル場群、前記撮影装置のカメラパラメータ、前記特徴点3次元座標群、及び前記骨格長を用いて被写体別の3次元姿勢を推定する骨格モデルフィッティング部と
を備え、
前記骨格モデルフィッティング部は、
特徴点毎に生成した前記ヒートマップの信号値がピーク値を示す座標群に対してラベルを付与し、子関節の3次元座標をスクリーン上に投影したスクリーン座標が属するラベルと同一のラベルが付与された座標群を用いて前記子関節の3次元姿勢を推定する
3次元姿勢推定装置。 - 異なる地点に位置する複数の撮影装置により同一の被写体が撮影された画像群を入力とし、前記被写体に対し予め学習された2次元姿勢推定モデルを用いて、被写体別に、複数の特徴点の2次元位置を示す2次元座標群と、特徴点毎の存在確率を表すヒートマップ群と、ヒートマップのピーク値周辺の座標を対象特徴点方向に補正するベクトル場群とを生成する2次元姿勢推定部と、
前記撮影装置のカメラパラメータと前記2次元座標群とを用いて前記被写体別に、前記複数の特徴点の3次元位置を示す特徴点3次元座標群を生成する被写体追跡部と、
前記被写体別の特徴点3次元座標群を用いて被写体別の骨格長を推定する骨格長推定部と、
前記ヒートマップ群、前記ベクトル場群、前記撮影装置のカメラパラメータ、前記特徴点3次元座標群、及び前記骨格長を用いて被写体別の3次元姿勢を推定する骨格モデルフィッティング部と
を備え、
前記骨格モデルフィッティング部は、
特徴点毎に生成した前記ヒートマップの信号値がピーク値を示す座標群に対して前記ヒートマップの信号値を付与し、
前記ヒートマップの信号値を乗じた前記特徴点の存在確率を用いて前記3次元姿勢を推定する
3次元姿勢推定装置。 - 前記骨格モデルフィッティング部は、前記ヒートマップ群及び前記ベクトル場群に基づくハフ投票により前記特徴点3次元座標群を補正する
請求項1又は請求項2に記載の3次元姿勢推定装置。 - 前記骨格モデルフィッティング部は、前記被写体を関節と骨の組み合わせで表す骨格モデルの前記関節の回転角を推定することで、前記被写体別の3次元姿勢を推定する
請求項1から請求項3の何れか1項に記載の3次元姿勢推定装置。 - 前記骨格モデルフィッティング部は、
前記特徴点毎に生成した前記ヒートマップの信号値がピーク値を示す座標群を前記ベクトル場群によって補正したハフ投票点群を生成し、
前記被写体を関節と骨の組み合わせで表す骨格モデルの各関節を各撮影装置の画像上に投影したスクリーン座標と、各撮影装置の対象関節と対応する特徴点を指す前記ハフ投票点群とスクリーン座標との距離に応じて特徴点の存在確率を計算し、
全ての特徴点における存在確率が最も高くなるように、前記骨格モデルの各関節における関節回転角を推定することで、被写体の3次元姿勢を推定することを特徴とする
請求項1から請求項4の何れか1項に記載の3次元姿勢推定装置。 - 異なる地点に位置する複数の撮影装置により同一の被写体が撮影された画像群を入力とし、前記被写体に対し予め学習された2次元姿勢推定モデルを用いて、被写体別に、複数の特徴点の2次元位置を示す2次元座標群と、特徴点毎の存在確率を表すヒートマップ群と、ヒートマップのピーク値周辺の座標を対象特徴点方向に補正するベクトル場群とを生成する2次元姿勢推定ステップと、
前記撮影装置のカメラパラメータと前記2次元座標群とを用いて前記被写体別に、前記複数の特徴点の3次元位置を示す特徴点3次元座標群を生成する被写体追跡ステップと、
前記被写体別の特徴点3次元座標群を用いて被写体別の骨格長を推定する骨格長推定ステップと、
前記ヒートマップ群、前記ベクトル場群、前記撮影装置のカメラパラメータ、前記特徴点3次元座標群、及び前記骨格長を用いて被写体別の3次元姿勢を推定する骨格モデルフィッティングステップと
を有し、
前記骨格モデルフィッティングステップにおいて、
特徴点毎に生成した前記ヒートマップの信号値がピーク値を示す座標群に対してラベルを付与し、子関節の3次元座標をスクリーン上に投影したスクリーン座標が属するラベルと同一のラベルが付与された座標群を用いて前記子関節の3次元姿勢を推定する
3次元姿勢推定方法。 - 異なる地点に位置する複数の撮影装置により同一の被写体が撮影された画像群を入力とし、前記被写体に対し予め学習された2次元姿勢推定モデルを用いて、被写体別に、複数の特徴点の2次元位置を示す2次元座標群と、特徴点毎の存在確率を表すヒートマップ群と、ヒートマップのピーク値周辺の座標を対象特徴点方向に補正するベクトル場群とを生成する2次元姿勢推定ステップと、
前記撮影装置のカメラパラメータと前記2次元座標群とを用いて前記被写体別に、前記複数の特徴点の3次元位置を示す特徴点3次元座標群を生成する被写体追跡ステップと、
前記被写体別の特徴点3次元座標群を用いて被写体別の骨格長を推定する骨格長推定ステップと、
前記ヒートマップ群、前記ベクトル場群、前記撮影装置のカメラパラメータ、前記特徴点3次元座標群、及び前記骨格長を用いて被写体別の3次元姿勢を推定する骨格モデルフィッティングステップと
を有し、
前記骨格モデルフィッティングステップにおいて、
特徴点毎に生成した前記ヒートマップの信号値がピーク値を示す座標群に対して前記ヒートマップの信号値を付与し、
前記ヒートマップの信号値を乗じた前記特徴点の存在確率を用いて前記3次元姿勢を推定する
3次元姿勢推定方法。 - コンピュータを、請求項1から請求項5の何れか1項に記載の3次元姿勢推定装置として機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/028163 WO2022018811A1 (ja) | 2020-07-20 | 2020-07-20 | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022018811A1 JPWO2022018811A1 (ja) | 2022-01-27 |
JP7498404B2 true JP7498404B2 (ja) | 2024-06-12 |
Family
ID=79729123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022538517A Active JP7498404B2 (ja) | 2020-07-20 | 2020-07-20 | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7498404B2 (ja) |
WO (1) | WO2022018811A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601505B (zh) * | 2022-11-07 | 2023-03-14 | 广州趣丸网络科技有限公司 | 一种人体三维姿态还原方法、装置、电子设备及存储介质 |
CN117618168B (zh) * | 2024-01-25 | 2024-05-28 | 北京壹点灵动科技有限公司 | 髋臼杯假体植入角度的确定方法和装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019030794A1 (ja) | 2017-08-07 | 2019-02-14 | 富士通株式会社 | 情報処理装置、モデルデータ作成プログラム、モデルデータ作成方法 |
JP2019079487A (ja) | 2017-10-25 | 2019-05-23 | 日本電信電話株式会社 | パラメータ最適化装置、パラメータ最適化方法、プログラム |
EP3656302A1 (en) | 2018-11-26 | 2020-05-27 | Lindera GmbH | System and method for human gait analysis |
-
2020
- 2020-07-20 WO PCT/JP2020/028163 patent/WO2022018811A1/ja active Application Filing
- 2020-07-20 JP JP2022538517A patent/JP7498404B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019030794A1 (ja) | 2017-08-07 | 2019-02-14 | 富士通株式会社 | 情報処理装置、モデルデータ作成プログラム、モデルデータ作成方法 |
JP2019079487A (ja) | 2017-10-25 | 2019-05-23 | 日本電信電話株式会社 | パラメータ最適化装置、パラメータ最適化方法、プログラム |
EP3656302A1 (en) | 2018-11-26 | 2020-05-27 | Lindera GmbH | System and method for human gait analysis |
Non-Patent Citations (1)
Title |
---|
George Papandreou, et al.,PersonLab: Person Pose Estimation and Instance Segmentation with a Bottom-Up, Part-Based, Geometric Embedding Model,European Conference on Computer Vision (ECCV) 2018,2018年09月08日,https://openaccess.thecvf.com/content_ECCV_2018/papers/George_Papandreou_PersonLab_Person_Pose_ECCV_2018_paper.pdf |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022018811A1 (ja) | 2022-01-27 |
WO2022018811A1 (ja) | 2022-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zheng et al. | Hybridfusion: Real-time performance capture using a single depth sensor and sparse imus | |
US10334168B2 (en) | Threshold determination in a RANSAC algorithm | |
US9189855B2 (en) | Three dimensional close interactions | |
US9330307B2 (en) | Learning based estimation of hand and finger pose | |
JP4148281B2 (ja) | モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム | |
JP6816058B2 (ja) | パラメータ最適化装置、パラメータ最適化方法、プログラム | |
AU2016266968A1 (en) | Modelling a three-dimensional space | |
JP2011198349A (ja) | 情報処理方法及びその装置 | |
JP2007004767A (ja) | 画像認識装置、方法およびプログラム | |
JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2007310707A (ja) | 姿勢推定装置及びその方法 | |
JP2003346157A (ja) | 物体追跡装置及び方法 | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
KR102386444B1 (ko) | 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체 | |
US20210334569A1 (en) | Image depth determining method and living body identification method, circuit, device, and medium | |
JP7498404B2 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP2017123087A (ja) | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 | |
CN114627491A (zh) | 一种基于极线汇聚的单人三维姿态估计方法 | |
JP2018120283A (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20200113743A (ko) | 인체 자세 추정 및 보정을 하는 방법 및 장치 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
Rogez et al. | Monocular 3-D gait tracking in surveillance scenes | |
JP2015232771A (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP3401512B2 (ja) | 移動物体追跡装置 | |
JP2009048305A (ja) | 形状解析プログラム及び形状解析装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7498404 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |