JP4709723B2 - 姿勢推定装置及びその方法 - Google Patents

姿勢推定装置及びその方法 Download PDF

Info

Publication number
JP4709723B2
JP4709723B2 JP2006293138A JP2006293138A JP4709723B2 JP 4709723 B2 JP4709723 B2 JP 4709723B2 JP 2006293138 A JP2006293138 A JP 2006293138A JP 2006293138 A JP2006293138 A JP 2006293138A JP 4709723 B2 JP4709723 B2 JP 4709723B2
Authority
JP
Japan
Prior art keywords
posture
learning
node
information
image feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006293138A
Other languages
English (en)
Other versions
JP2008112211A (ja
Inventor
隆三 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006293138A priority Critical patent/JP4709723B2/ja
Priority to US11/924,194 priority patent/US7940960B2/en
Publication of JP2008112211A publication Critical patent/JP2008112211A/ja
Application granted granted Critical
Publication of JP4709723B2 publication Critical patent/JP4709723B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラから得られる画像による非接触、かつ、マーカー等を必要としない人体などの関節物体の姿勢推定装置及びその方法に関する。
特許文献1、2では、関節物体のシルエットを抽出し、観測されたシルエットと3次元モデルから得られる様々なシルエットを、遺伝的アルゴリズムを用いてマッチングすることにより、姿勢を推定している。このような、シルエットの直接マッチング法は、認識対象の間接物体と、装置内に予め持っている関節物体の形状モデルの表面形状や関節をつなぐリンクの長さや太さの違いにより、姿勢推定が安定に行えない場合がある。例えば、人体の姿勢推定の場合、着衣の違いや、身長や体重等の体型の違いによって、シルエットが変化するため、認識対象の人物と、装置内に予め持っている人体の3次元形状モデルが同じ姿勢をとっていても、それらのシルエットは異なり、正しく姿勢の認識を行うことができない。
非特許文献1は手の姿勢推定手法であり、画像から得られる特徴(エッジ)と、様々な姿勢の手の3次元モデルから得られる画像特徴(輪郭)とをマッチングして姿勢推定を行う際、予め作成しておいた木構造を用いて探索を行っている。しかし、ここで用いられている輪郭情報もシルエット情報と同様にリンクの長さや太さなどの違いに影響されやすい。
特開2001−56861公報 特許第2627483号公報 B. Stenger, A. Thayananthan, P. H. S. Torr, and R. Cipolla, 「Filtering Using a Tree-Based Estimator,」 In Proc. 9th IEEE International Conference on Computer Vision, Vol. II, pages 1063-1070, 2003.
そこで本発明は、上記問題点を解決するためになされたものであって、認識対象の関節物体の表面形状や関節をつなぐリンクの長さや太さといった違いに影響されずに、効率的、かつ、安定な姿勢推定を可能とする姿勢推定装置及びその方法を提供することを目的とする。
本発明は、1つまたは複数の撮像装置で関節を有する関節物体を撮影した画像から前記関節物体の現在の姿勢情報を推定する姿勢推定装置において、(1)予め取得しておいた前記関節物体の様々な姿勢に関する学習姿勢情報、(2)複数のノードの各々に複数の前記学習姿勢情報が属し、かつ、下位のノードに属する前記学習姿勢情報同士の類似度が上位のノードに属する前記学習姿勢情報同士の類似度よりも高くなるように前記複数のノード間が接続されている姿勢の木構造、(3)前記学習姿勢情報と、前記各学習姿勢情報を持つ様々なサイズ、表面形状の前記関節物体を仮想的に撮影して得られる学習画像特徴情報とから、前記学習姿勢情報が前記木構造の最下位層より上の上位階層の各ノードに属するか否かを識別するための2クラス識別関数、及び、(4)前記最下位層の各ノードに属する前記学習姿勢情報と前記学習画像特徴情報の対応関係を表す写像関数を格納している姿勢辞書と、前記画像から前記関節物体の観測画像特徴情報を抽出する画像特徴抽出手段と、前記関節物体の過去の姿勢推定情報を記憶する過去情報記憶手段と、前記過去の姿勢推定情報と予め定められた運動モデルに基づいて現在の姿勢を予測する姿勢予測手段と、前記予測した姿勢を用いて、前記現在の姿勢に対応する正解の姿勢を前記木構造の各階層の各ノードが含むかどうかの事前確率を計算するノード予測手段と、前記上位階層において、前記各ノードの前記2クラス識別関数を用いて、前記観測画像特徴情報が前記各ノードに属する尤度を計算する2クラス識別手段と、前記各ノードにおける予測確率と前記尤度から、前記上位階層の各ノードに前記正解の姿勢が含まれる確率を計算するノード確率計算手段と、前記最下位層において、前記観測画像特徴情報を前記姿勢辞書に格納されている各ノードに関する前記写像関数に代入して関節角度情報を算出する姿勢推定手段と、を備える姿勢推定装置である。
本発明によれば、関節物体のリンクの長さや太さ、表面形状といった姿勢とは無関係の要素に影響を受けにくい。
以下、本発明の一実施形態の人体などの関節物体の姿勢推定装置について図1から図9に基づいて説明する。
(1)姿勢推定装置の構成
図1は、本実施形態に係わる姿勢推定装置を表すブロック図である。
姿勢推定装置は、姿勢推定を行う前に予め作成しておいた様々な姿勢に関する情報格納した姿勢辞書Aを記憶している。姿勢辞書Aには、姿勢の類似度に基づいて構成される姿勢木構造と、姿勢木構造の上位階層の各ノードについて2クラス識別を行うための識別関数である2クラス識別面と、姿勢木構造の下位階層については、関節物体が映った画像から抽出されるシルエットやエッジといった画像特徴をベクトルで記述した画像特徴ベクトルから姿勢情報への写像関数が格納されている。
また、姿勢推定装置は、画像を撮影する撮像部1と、撮像部1で取得した画像からシルエットやエッジといった画像特徴を抽出してベクトルで記述する特徴ベクトル抽出部2と、前のフレームの推定結果及び姿勢辞書Aの情報を用いて、現在のフレームでとりうる姿勢を予測する運動予測部3と、予測姿勢の情報及び画像特徴抽出部2で抽出された画像特徴を用いて、姿勢辞書Aに格納されている姿勢木構造の上位階層の2クラス識別面を利用して、画像特徴から推定される姿勢が各ノードに属している確率を計算する上位階層2クラス識別部4と、上位階層の結果と抽出された画像特徴を用いて、姿勢辞書Aに格納されている姿勢木構造の下位階層の写像関数によって姿勢を推定する下位階層回帰識別部5と、下位階層回帰識別部5の結果から姿勢情報を生成して出力する認識結果出力部6を備えている。
なお、下位階層とは、木構造の最下位の階層(最下位層)を意味し、上位階層とは最下位層より上の各階層を意味する。
(2)辞書生成部7
図2は、姿勢辞書Aの生成を行う辞書生成部7の構成を表すブロック図である。辞書生成部7における姿勢辞書Aの作成方法について述べる。
(2−1)学習データ7A
(2−1−1)姿勢情報7AA
姿勢情報7AAは、関節物体の姿勢を一意に定めることができる関節物体の全ての関節の角度または3次元位置に関する情報である。関節物体の全てのリンクを親子関係で記述する。
例えば、関節物体が人体の場合、3次元シーンを親とし、その子供を腰のリンクとし、腰の子供を腹部リンクと左右の太股リンク、さらに腹部リンクの子供を胸部リンクというように記述する。
各リンクに関する姿勢は、その親リンクとの角度の差で表すことができる。つまり、あるリンクに固定された座標系とその親リンクに固定された座標系の間の変換は、3つの回転角rx,ry,rz(オイラー角)と平行移動で表現でき、通常リンクの長さは固定なので平行移動は一定なので、3つの回転角度だけであるリンクの親リンクに対する姿勢を決定することができる。
そこで、関節物体の関節がNb個あるとすると、姿勢aの姿勢情報は、Xa={rx1,ry1,rz1,rx2,・・・,rz(Nb)}のように3×Nb次元のベクトルで表すことができる。オイラー角を用いる方法は、角度が360度を回り込んだ場合に同じ姿勢が360度の整数倍異なる無限個の値で記述できる問題がある。この場合にはよく知られているように4元数(quaternion)で関節角度を表せばよい。また、関節位置の3次元位置で姿勢を表すこともできる。このような姿勢を記述するベクトルを以下では「姿勢ベクトル」と呼ぶ。
姿勢情報7AAとは、様々な姿勢の姿勢ベクトルの集合であり、様々な姿勢を取得する方法としては、汎用のモーションキャプチャシステムを用いて実際に関節物体を動かして取得する方法や、関節物体の関節の稼動範囲や、他の部位との衝突を考慮して自動的に生成する方法などがある。さらに、関節物体の関節の回転方向が制限されていたり、リンク間の運動に強い相関がある場合には、全ての姿勢ベクトルを主成分分析により次元圧縮し、この次元圧縮された姿勢ベクトルを用いることもできる。
(2−1−2)画像情報7AB
画像情報7ABは、姿勢情報7AAの各姿勢ベクトルで表される姿勢をもつ、様々な形状(リンクの長さ、太さ、表面形状など)の関節物体の画像である。
すなわち、同じ姿勢ベクトルに対して、異なる複数の画像が存在する場合もある。様々な表面形状や関節間のリンクの太さ、長さをもつ関節物体の3次元モデルを、姿勢ベクトルを用いて仮想空間内で様々な姿勢に変形させ、実空間内のカメラと同じカメラパラメータを持つ仮想空間内に配置されたカメラで、変形させた3次元モデルを仮想的に撮影することにより画像を生成することができる。
例えば、人体の場合には、様々な体型や様々な衣服の3次元人体モデルを、様々な姿勢に変形して仮想的に配置されたカメラで撮影、すなわち、画像平面に仮想的に投影する。投影された画像上の関節物体の大きさは全ての画像で等しくなるような投影を行うか、もしくは投影した画像を正規化しておく。このような関節物体の変形や画像への投影は、汎用のコンピュータグラフィック用ソフトウェアによって行うことができる。
また、別の方法として、汎用のモーションキャプチャシステム等を用いて実際に関節物体を動かして姿勢を取得する場合には、姿勢取得と同期させて画像を取得し、これらの画像を画像情報7ABとして用いることもできる。
(2−2)画像特徴計算部71
画像特徴計算部71では、全ての画像情報7ABについて、画像中の関節物体に関する特徴を記述する特徴ベクトルを計算する。
特徴ベクトルとしては、様々なものを用いることができるが、画像を小領域に分割し、その小領域のエッジ方向ヒストグラムを1次元に並べて正規化したベクトル(Navneet Dalal and Bill Triggs, ''Histograms of Oriented Gradients for Human Detection,'' Proc. of Computer Vision and Pattern Recognition, Vol. 2, pp.886-893, 2005)や、シルエット輪郭の極座標ヒストグラム(Shape Context)(Ankur Agarwal and Bill Triggs, ''Recovering 3D Human Pose from Monocular Images,'' IEEE Transactions on Pattern Analysis & Machine Intelligence, No. 1, Vol. 28, 2006)などを用いる。
(2−3)木構造生成部72
木構造生成部72では、木構造の下層ほどノードに属する姿勢間の差が小さくなるように姿勢の木構造を生成する。
姿勢ベクトルがオイラー角で表されている場合には、例えば2つの姿勢ベクトルXaとXbの各要素の絶対値差分の最大値、すなわち関節角の各回転角度の絶対値差分の最大値と定義することができる。
姿勢ベクトルが、4元数で表されている場合には、4元数Xa−1Xbの回転成分の絶対値を用いることができる。
姿勢ベクトルが、3次元位置で表されている場合には、2つの姿勢ベクトルXaとXbのユークリッド距離を姿勢の差として用いることができる。
次に木構造を生成する手順について述べる。
(2−3−1)最上位層生成ステップ
木構造の根にあたる最上位階層を現在の層とし、1つのノードを生成する。このノードには全ての姿勢ベクトルを登録する。
(2−3−2)下層移動ステップ
現在の層を一つ下の階層に移す。
(2−3−3)終了ステップ
現在の層が規定の最大階層数を超えていれば、木構造の生成を終了する。現在の層の上位層の全てのノード(親ノードと呼ぶ)について、以下を繰り返す。
(2−3−4)クラスタリングステップ
ある親ノードに登録されている姿勢(親姿勢と呼ぶ)を、k-meansアルゴリズム等のクラスタリング手法によりk個のクラスタに分類する。クラスタリングアルゴリズムには様々な手法を用いることができるが、最下位層のノードに関しては回帰分析により画像特徴ベクトルと姿勢ベクトル間の関係を写像関数によって近似するので、近似精度が十分高くなるようなクラスタリングを行う必要がある。これについては項目(2−5)の回帰分析部74で詳細を述べる。
(2−3−5)クラスタ属性計算ステップ
クラスタに属する姿勢ベクトルの代表姿勢ベクトルと、属する姿勢の範囲を計算する。代表ベクトルとしてはクラスタに属する姿勢ベクトルの平均、姿勢の範囲として分散を用いることができる。姿勢ベクトルがオイラー角や4元数で表されている場合には、項目(2−3)で定義したような姿勢の差を用いて、他の姿勢ベクトルとの差の平均値が最も小さくなる姿勢ベクトルを代表姿勢ベクトルとする。範囲についても、項目(2−3)で定義したような姿勢の差を用いて差の2乗平均を分散の代わりに用いることができる。
(2−3−6)ノード生成ステップ
前記各クラスタについてノードを生成し、クラスタに属する姿勢をこのノードに登録する。また、生成したノードを親ノードに接続する。
(2−3−7)終了制御ステップ
全ての親ノードについて処理が終わっていなければ、次の親ノードを選択して、クラスタリングステップに戻る。終わっていれば、下層移動ステップに戻る。
(2−4)識別面学習部73
最下位層より上位層のあるノードにおいて、任意の画像特徴ベクトルがそのノードに属するか否かを判断するための識別関数である識別面を、以下のように学習する。
そのノードに属する姿勢ベクトルから得られる特徴ベクトルに正解のラベルを与え、同じ階層に属するそれ以外のノードに属する姿勢ベクトルから得られる学習サンプルに不正解のラベルを与える。
これらの特徴ベクトルと正解、不正解のラベルの組を識別面を学習するための学習サンプルとする。得られた学習サンプルに、既存の2クラス識別手法を適用して識別面を学習する。識別手法としては、サポートベクターマシン、Relevance Vector Machie(Tipping, M. E. ''Sparse Bayesian learning and the relevance vector machine,'' Journal of Machine Learning Research 1, 211_244, 2001)、直交部分空間法等様々な手法を用いることができる。
(2−5)回帰分析部74
最下位層のノードに関しては、回帰分析によりそのノードに属する姿勢ベクトルと画像特徴ベクトル間の関係を写像関数によって近似する。つまり、回帰分析では、従属変数(目的変数)である姿勢ベクトルと独立変数(説明変数)である画像特徴ベクトルを組とする学習サンプルを用いる。回帰分析の手法としては、既存の手法を用いることができる。姿勢ベクトルと画像特徴ベクトルの関係は複雑でその関係は未知であるが、サポートベクトル回帰や、Relevance Vector回帰(Tipping, M. E. ''Sparse Bayesian learning and the relevance vector machine,'' Journal of Machine Learning Research 1, 211_244, 2001)を用いて写像関数を求めることができる。
木構造生成部72において、最下位層のクラスタリングを行うとき、求めた写像関数による近似精度が十分高くなるようなクラスタリングを行う必要がある。そのためには近似精度が十分高くなるまで細かく分割を行う。また、クラスタ内に画像特徴ベクトルがほぼ同じで、姿勢ベクトルが大きく異なるような学習サンプルが存在すると、写像関数の出力値である姿勢ベクトルは学習サンプルの姿勢ベクトルの中間的な値を出力し、正しい推定が行えない。そこで、そのような学習サンプルが同一クラスタに存在しなくなるまで細かく分割を行う。
さらに、分割を行った後には、周辺の複数のクラスタを併合しても十分高い精度で近似が行えるか検査し、近似精度が高ければ併合することにより効率的な分割となる。ただし併合したクラスタ内に画像特徴ベクトルがほぼ同じで、姿勢ベクトルが大きく異なるような学習サンプルが存在しないように併合を行う。認識時の計算の負荷を考慮して、写像関数を線形関数とすることもできる。この場合も、近似精度が十分高くなるまで分割、併合を行う。
(3)姿勢辞書Aのデータ構造
木構造の各ノードにはアドレスが割り振られており、各ノードには、そのノードの代表姿勢ベクトルと姿勢範囲、上位階層、下位階層の接続されているノード(それぞれ親ノード、子ノードと呼ぶ)のアドレス、最下位層以外の上位階層のノードには識別面、最下位層のノードには写像関数が格納される。姿勢辞書Aは、全てのノードに関するこれらのデータの集合である。
(4)姿勢推定方法
姿勢辞書Aを用いて、カメラから得られた関節物体の画像から姿勢推定を行う方法について述べる。
(4−1)撮像部1
図1の撮像部1は、1台のカメラから構成され、関節物体の映像を撮影して、画像特徴抽出部2に送信する。
(4−2)画像特徴抽出部2
画像特徴抽出部2は、画像特徴計算部71と同様に、撮像部1から得られた画像について、画像特徴ベクトルを計算する。
(4−3)運動予測部3
運動予測部3は、1フレーム前の姿勢推定結果から運動モデルを用いて現在のフレームの姿勢を予測する。
姿勢予測は、確率密度分布の形で表すことができ、1フレーム前の姿勢(関節角度)Xt−1が、現在のフレームで姿勢Xtとなる状態遷移確率密度はp(Xt|Xt−1)と書くことができる。運動モデルを決めることはこの確率密度分布を決定することに相当する。最も単純な運動モデルは、前のフレームの姿勢を平均値と予め定めておいた一定の分散協分散行列をもつ正規分布である。
Figure 0004709723
ここで、N()は正規分布を表す。すなわち、運動モデルは予測する姿勢の代表値を決定するパラメータと、前記予測する姿勢としてとりうる範囲を決定することに関係するパラメータを有している。数1の場合、代表値を決定するパラメータは、Xt−1の係数である定数1である。前記予測する姿勢としてとりうる範囲を決定することに関係するパラメータは、共分散行列分散Σである。
他にも、平均値を前のフレームの速度を一定として線形予測する方法や、加速度一定として予測する方法が考えられる。
(4−4)上位階層2クラス識別部4
上位階層2クラス識別部4は、運動予測部3による姿勢の予測結果と、画像特徴抽出部2によって抽出された画像特徴ベクトルを用いて、姿勢辞書Aに格納されている木構造の最下位層以外の階層に属するノードについて木構造を参照しながら現在の姿勢を推定する。
図4は、上位階層2クラス識別部4の構成を示している。
(4−4−1)計算ノード削減部41
計算ノード削減部41では、まず運動予測部3の姿勢予測と前のフレームの推定結果を用いて、各ノードの代表姿勢ベクトルが現在のフレームの姿勢ベクトルとなる事前確率を求める。この事前確率が十分小さければ、以下の計算を行わないよう設定する。さらに、一つ上の階層において現在フレームの姿勢推定結果の確率(姿勢推定部43において計算される)が得られている場合には、この確率が十分小さいノードに接続されている現在の階層のノードに関して、以下の計算を行わないよう設定する。
(4−4−2)識別部42
識別部42では、計算ノード削減部41で計算を行うと決定されたノードについて、画像特徴抽出部2で計算された画像特徴ベクトルを用いて、姿勢辞書Aに格納されている2クラス識別面を用いて2クラス識別を行う。識別面学習部73で用いた学習手法に対応する識別手法を用いる。
認識対象人物の3次元空間内の平行移動を認識するため、前のフレームの画像上の推定位置及びスケール近傍の様々な位置及びスケールに対して識別を行う。画像上の位置の移動は、画像平面に平行な方向の3次元空間内の移動、スケールの変化は、光軸方向の平行移動に対応している。
Relevance Vector Machineのように、観測された画像特徴ベクトルがノードに属する確率を計算できる手法では、この確率を尤度(現在の姿勢があるノードに属すると仮定した場合のカメラから得られる観測の最もらしさ)として用いる。そうでない手法では、識別面からの距離に対して予め尤度関数を設定し、観測された画像特徴ベクトルの2クラス識別面からの距離をこの尤度関数に代入して尤度を求める。
(4−4−3)姿勢推定部43
姿勢推定部43では、まず各ノードの事前確率と尤度からベイズ推定によって、現在の画像特徴が各ノードの代表画像特徴である確率が求められる。この確率の分布が現在の階層の推定結果となる。
(4−4−4)階層更新部44
最後に、階層更新部44では、現在の階層が最下位層に達していなければ一つ下の階層に処理を移し、最下位層に達していれば姿勢推定を終了する。
(4−5)下位階層回帰認識部5
下位階層回帰認識部5は、姿勢辞書Aに格納されている木構造の最下位層に属するノードについて、画像特徴抽出部2によって抽出された画像特徴ベクトルとノードに格納されている写像関数を用いて、現在の姿勢を推定する。運動予測部3による姿勢の予測結果も用いて、時間的な姿勢の連続性も考慮する。
図5は、下位階層回帰識別部5の構成を示している
(4−5−1)ノード削減部51
ノード削減部51は、上位階層2クラス識別部4のノード削減部41と同様である。
(4−5−2)写像関数計算部52
写像関数計算部52では、計算ノード削減部51で計算を行うと決定されたノードについて、画像特徴抽出部2で計算された画像特徴ベクトルを用いて、姿勢辞書Aに格納されている写像関数を用いて姿勢を計算する。回帰分析部74で用いた回帰分析手法に対応する認識手法を用いる。
Relevance Vector Machineのように、観測された画像特徴ベクトルから写像関数によって計算した推定姿勢が現在の姿勢である確率が計算できる場合には、この確率を尤度として用いる。
(4−5−3)姿勢推定部53
姿勢推定部53では、まずノードの事前確率と尤度からベイズ推定によって、現在の画像特徴から計算された姿勢が現在の姿勢である確率が求められる。この確率の分布が現在の階層の推定結果となる。
(4−6)推定結果出力部6
最下位層の推定結果である確率が最も高い関節角度に関する姿勢ベクトルを現在の推定値として出力する。
以上のように本実施形態の姿勢推定装置を構成することにより、人体の姿勢推定を効率的かつ安定に行うことが可能となる。
(5)変更例
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
カメラの台数は、1台に限られるものではなく、複数台のカメラを用いてもよい。
この場合、撮像部1は複数のカメラで構成される。それにともなって、画像特徴抽出部2は、各カメラ画像に対して処理を行う。画像情報7ABも複数のカメラに対する画像から構成される。画像特徴ベクトルは、それぞれのカメラで計算した画像特徴ベクトルをつなげたベクトルとする。
(6)効果
本実施形態によれば、まず、姿勢の木構造の上位階層を構成する各ノードにおいて、いろいろな大きさ、長さ、表面形状についての学習データを用いてそのノードに属するか否かを判別する2クラス識別面を学習する。この2クラス識別面を用いて観測された画像特徴を識別することにより、関節物体の形状の変化に影響を受けにくい認識を行うことができる。また、過去の姿勢推定結果と運動モデルを用いて現在の姿勢を予測し、予測と大きく異なるノードについては識別を行わないことで、計算の削減と推定の時間的安定化を行うことができる。
木構造の下位階層において、細かい姿勢を認識するためには、姿勢を細かく分割して、多数のノードで2クラス識別を行わなければならず、計算量が大きくなる。そこで、本実施形態では下位階層の各ノードに属する姿勢が十分局所的となるようにノードを構成し、各ノードに属する姿勢とその画像特徴を用いて、画像特徴情報から姿勢情報への写像関数を学習する。この写像関数に撮像部から得られた観測画像特徴を代入することにより、直接姿勢推定を行うことにより、効率的な姿勢推定を行うことができる。この写像関数の学習においても、各ノードにおいて、いろいろな大きさ、長さ、表面形状についての学習データを用いることにより、これらの変化に影響を受けにくい写像関数を学習する。
写像関数の学習を、姿勢の空間全体について行うことは、ほとんど同じ画像特徴に対して複数の姿勢が対応するといった問題もあり困難であるが、本実施形態では、木構造の下位階層の1つのノードに属する姿勢は、姿勢が異なるのに画像特徴が類似していることがないよう、十分細かく分割するため、精度の高い写像関数を得ることができる。
写像関数を用いて姿勢推定を行う下位階層においても、上位階層と同様に過去の姿勢推定結果と運動モデルを用いて現在の姿勢を予測し、予測と大きく異なるノードについては識別を行わないことで、計算の削減と推定の時間的安定化を行う。
このような構成により、関節物体のリンクの長さや太さ、表面形状といった姿勢とは無関係の要素に影響を受けにくい、人体の姿勢推定装置を実現することが可能となる。
本発明の一実施形態に係わる画像による人体の姿勢推定装置の構成を示すブロック図である。 辞書生成部の構成を表すブロック図である。 姿勢辞書Aに登録されるデータの格納方法に関する説明図である。 上位階層2クラス識別部の構成を示すブロック図である。 下位階層回帰認識部の構成を示すブロック図である。
符号の説明
1 撮像部
2 画像特徴抽出部
3 姿勢予測部
4 上位階層2クラス識別部
5 下位階層回帰認識部
6 姿勢辞書生成部
A 姿勢辞書

Claims (10)

  1. 1つまたは複数の撮像装置で関節を有する関節物体を撮影した画像から前記関節物体の現在の姿勢情報を推定する姿勢推定装置において、
    (1)予め取得しておいた前記関節物体の様々な姿勢に関する学習姿勢情報、(2)複数のノードの各々に複数の前記学習姿勢情報が属し、かつ、下位のノードに属する前記学習姿勢情報同士の類似度が上位のノードに属する前記学習姿勢情報同士の類似度よりも高くなるように前記複数のノード間が接続されている姿勢の木構造、(3)前記学習姿勢情報と、前記各学習姿勢情報を持つ様々なサイズ、表面形状の前記関節物体を仮想的に撮影して得られる学習画像特徴情報とから、前記学習姿勢情報が前記木構造の最下位層より上の上位階層の各ノードに属するか否かを識別するための2クラス識別関数、及び、(4)前記最下位層の各ノードに属する前記学習姿勢情報と前記学習画像特徴情報の対応関係を表す写像関数を格納している姿勢辞書と、
    前記画像から前記関節物体の観測画像特徴情報を抽出する画像特徴抽出手段と、
    前記関節物体の過去の姿勢推定情報を記憶する過去情報記憶手段と、
    前記過去の姿勢推定情報と予め定められた運動モデルに基づいて現在の姿勢を予測する姿勢予測手段と、
    前記予測した姿勢を用いて、前記現在の姿勢に対応する正解の姿勢を前記木構造の各階層の各ノードが含むかどうかの事前確率を計算するノード予測手段と、
    前記上位階層において、前記各ノードの前記2クラス識別関数を用いて、前記観測画像特徴情報が前記各ノードに属する尤度を計算する2クラス識別手段と、
    前記各ノードにおける予測確率と前記尤度から、前記上位階層の各ノードに前記正解の姿勢が含まれる確率を計算するノード確率計算手段と、
    前記最下位層において、前記観測画像特徴情報を前記姿勢辞書に格納されている各ノードに関する前記写像関数に代入して関節角度情報を算出する姿勢推定手段と、
    を備える姿勢推定装置。
  2. 前記2クラス識別関数を学習するための2クラス識別関数学習手段を有し、
    前記2クラス識別関数学習手段は、あるノードに含まれる学習姿勢情報について生成した様々なサイズ、表面形状の前記関節物体を仮想的に撮影することによって得られる学習画像特徴情報を正解とし、それ以外のノードに含まれる学習姿勢情報から生成した学習画像特徴情報を不正解とする正解データ組を用いて前記2クラス識別関数を学習する、
    請求項1記載の姿勢推定装置。
  3. 前記写像関数を学習するための写像関数学習手段を有し、
    前記写像関数学習手段は、あるノードに含まれる学習姿勢情報と、前記各学習姿勢情報について生成した様々なサイズ、表面形状の関節物体を仮想的に撮影することによって得られる学習画像特徴情報を正解データ組として回帰分析により前記写像関数を学習する、
    請求項1記載の姿勢推定装置。
  4. 前記最下位層の各ノードに属する前記学習姿勢情報と前記学習画像特徴情報の複数の組は、前記写像関数を学習するために用いる正解データ組として用いられ、
    前記正解データ組の中に前記学習画像特徴情報が類似しており、かつ、前記学習姿勢情報が大きく異なる組を含まないように、前記各ノードの前記学習姿勢情報及び前記学習画像特徴情報を構成する、
    請求項3記載の画像処理装置。
  5. 前記最下位層の各ノードに属する前記学習姿勢情報と前記学習画像特徴情報の複数の組は、前記写像関数を学習するために用いる正解データ組として用いられ、
    前記正解データ組の前記学習姿勢情報と前記学習画像特徴情報の関係が線形関数近似できるように、前記各ノードの前記学習姿勢情報及び前記学習画像特徴情報を構成する、
    請求項3記載の画像処理装置。
  6. 前記各ノードにおける予測確率と、前記上位階層において前記各ノードに前記正解の姿勢が含まれる確率に基づいて、前記2クラス識別手段及び前記姿勢推定手段による計算を行うノードを決定する計算ノード削減手段を有する、
    請求項1記載の姿勢推定装置。
  7. 前記上位階層は、一つの階層、または、複数の階層から構成されている、
    請求項1記載の姿勢推定装置。
  8. 前記木構造は、
    前記関節物体の姿勢同士の類似度が閾値よりも大きい姿勢の集合からなるノードによって構成され、
    前記閾値は下の階層に行くほど値が大きく、同じ階層内では一定の値を持ち、
    前記各階層の各ノードは前記上位階層のそれぞれノードのうち最も類似度が大きいノードに連結する、
    請求項1記載の姿勢推定装置。
  9. 前記姿勢情報が前記関節物体の各部位の関節角度である、
    請求項1記載の姿勢推定装置。
  10. 1つまたは複数の撮像装置で関節を有する関節物体を撮影した画像から前記関節物体の現在の姿勢情報を推定する姿勢推定方法において、
    (1)予め取得しておいた前記関節物体の様々な姿勢に関する学習姿勢情報、(2)複数のノードの各々に複数の前記学習姿勢情報が属し、かつ、下位のノードに属する前記学習姿勢情報同士の類似度が上位のノードに属する前記学習姿勢情報同士の類似度よりも高くなるように前記複数のノード間が接続されている姿勢の木構造、(3)前記学習姿勢情報と、前記各学習姿勢情報を持つ様々なサイズ、表面形状の前記関節物体を仮想的に撮影して得られる学習画像特徴情報とから、前記学習姿勢情報が前記木構造の最下位層より上の上位階層の各ノードに属するか否かを識別するための2クラス識別関数、及び、(4)前記最下位層の各ノードに属する前記学習姿勢情報と前記学習画像特徴情報の対応関係を表す写像関数を格納している姿勢辞書を有し、
    前記画像から前記関節物体の観測画像特徴情報を抽出する画像特徴抽出ステップと、
    前記関節物体の過去の姿勢推定情報を記憶する過去情報記憶ステップと、
    前記過去の姿勢推定情報と予め定められた運動モデルに基づいて現在の姿勢を予測する姿勢予測ステップと、
    前記予測した姿勢を用いて、前記現在の姿勢に対応する正解の姿勢を前記木構造の各階層の各ノードが含むかどうかの事前確率を計算するノード予測ステップと、
    前記上位階層において、前記各ノードの前記2クラス識別関数を用いて、前記観測画像特徴情報が前記各ノードに属する尤度を計算する2クラス識別ステップと、
    前記各ノードにおける予測確率と前記尤度から、前記上位階層の各ノードに前記正解の姿勢が含まれる確率を計算するノード確率計算ステップと、
    前記最下位層において、前記観測画像特徴情報を前記姿勢辞書に格納されている各ノードに関する前記写像関数に代入して関節角度情報を算出する姿勢推定ステップと、
    を有する姿勢推定方法。
JP2006293138A 2006-10-27 2006-10-27 姿勢推定装置及びその方法 Active JP4709723B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006293138A JP4709723B2 (ja) 2006-10-27 2006-10-27 姿勢推定装置及びその方法
US11/924,194 US7940960B2 (en) 2006-10-27 2007-10-25 Pose estimating device and pose estimating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006293138A JP4709723B2 (ja) 2006-10-27 2006-10-27 姿勢推定装置及びその方法

Publications (2)

Publication Number Publication Date
JP2008112211A JP2008112211A (ja) 2008-05-15
JP4709723B2 true JP4709723B2 (ja) 2011-06-22

Family

ID=39444714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006293138A Active JP4709723B2 (ja) 2006-10-27 2006-10-27 姿勢推定装置及びその方法

Country Status (2)

Country Link
US (1) US7940960B2 (ja)
JP (1) JP4709723B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220596A (zh) * 2017-05-11 2017-09-29 西安电子科技大学 基于级联纠错机制的人体姿态估计方法

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8135209B2 (en) * 2005-07-19 2012-03-13 Nec Corporation Articulated object position and posture estimation device, method and program
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
JP4709723B2 (ja) * 2006-10-27 2011-06-22 株式会社東芝 姿勢推定装置及びその方法
US8311954B2 (en) * 2007-11-29 2012-11-13 Nec Laboratories America, Inc. Recovery of 3D human pose by jointly learning metrics and mixtures of experts
US8126858B1 (en) 2008-01-23 2012-02-28 A9.Com, Inc. System and method for delivering content to a communication device in a content delivery system
JP5316158B2 (ja) * 2008-05-28 2013-10-16 株式会社リコー 情報処理装置、全文検索方法、全文検索プログラム、及び記録媒体
US8126899B2 (en) * 2008-08-27 2012-02-28 Cambridgesoft Corporation Information management system
TWI363614B (en) * 2008-09-17 2012-05-11 Ind Tech Res Inst Method and system for contour fitting and posture identification, and method for contour model adaptation
US20100091094A1 (en) * 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
JP5259456B2 (ja) * 2009-03-02 2013-08-07 株式会社東芝 学習装置及び物体検出装置
US9894093B2 (en) 2009-04-21 2018-02-13 Bandura, Llc Structuring data and pre-compiled exception list engines and internet protocol threat prevention
US8468220B2 (en) 2009-04-21 2013-06-18 Techguard Security Llc Methods of structuring data, pre-compiled exception list engines, and network appliances
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8520946B2 (en) * 2009-06-26 2013-08-27 Intel Corporation Human pose estimation in visual computing
US8472698B2 (en) * 2009-11-24 2013-06-25 Mitsubishi Electric Research Laboratories, Inc. System and method for determining poses of objects
US8306314B2 (en) * 2009-12-28 2012-11-06 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of objects
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8463036B1 (en) * 2010-09-30 2013-06-11 A9.Com, Inc. Shape-based search of a collection of content
US8422782B1 (en) 2010-09-30 2013-04-16 A9.Com, Inc. Contour detection and image classification
US8990199B1 (en) 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
US9036920B2 (en) * 2010-10-08 2015-05-19 Industrial Technology Research Institute Method of detecting feature points of an object in a system for motion detection
US8615136B2 (en) * 2010-10-08 2013-12-24 Industrial Technology Research Institute Computing device and method for motion detection
US8768006B2 (en) * 2010-10-19 2014-07-01 Hewlett-Packard Development Company, L.P. Hand gesture recognition
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
AU2011203028B1 (en) 2011-06-22 2012-03-08 Microsoft Technology Licensing, Llc Fully automatic dynamic articulated model calibration
US9344707B2 (en) 2011-06-29 2016-05-17 Microsoft Technology Licensing, Llc Probabilistic and constraint based articulated model fitting
US9071740B1 (en) 2011-10-28 2015-06-30 Google Inc. Modular camera system
CN103177269B (zh) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 用于估计对象姿态的设备和方法
US9197686B1 (en) 2012-01-06 2015-11-24 Google Inc. Backfill of video stream
KR101844291B1 (ko) * 2012-01-16 2018-04-03 삼성전자주식회사 신체 자세군 생성 장치 및 방법
CN103324938A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 训练姿态分类器及物体分类器、物体检测的方法及装置
CN102708377B (zh) * 2012-04-25 2014-06-25 中国科学院计算技术研究所 虚拟人组合任务规划方法
US20140140573A1 (en) * 2012-11-21 2014-05-22 Gravity Jack, Inc. Pose Tracking through Analysis of an Image Pyramid
US9418467B2 (en) * 2012-12-21 2016-08-16 Honda Motor Co., Ltd. 3D human models applied to pedestrian pose classification
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US20140204013A1 (en) * 2013-01-18 2014-07-24 Microsoft Corporation Part and state detection for gesture recognition
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US20150071541A1 (en) * 2013-08-14 2015-03-12 Rice University Automated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images
CN103793054B (zh) * 2014-01-17 2016-08-17 中南民族大学 一种模拟陈述性记忆过程的动作识别方法
JP6185879B2 (ja) * 2014-05-01 2017-08-23 日本電信電話株式会社 多関節物体追跡装置、多関節物体追跡方法、及びプログラム
EP3183689A4 (en) * 2014-08-22 2017-08-23 Microsoft Technology Licensing, LLC Face alignment with shape regression
US9552070B2 (en) * 2014-09-23 2017-01-24 Microsoft Technology Licensing, Llc Tracking hand/body pose
US9827496B1 (en) 2015-03-27 2017-11-28 Electronics Arts, Inc. System for example-based motion synthesis
US10022628B1 (en) * 2015-03-31 2018-07-17 Electronic Arts Inc. System for feature-based motion adaptation
US9544485B2 (en) 2015-05-27 2017-01-10 Google Inc. Multi-mode LED illumination system
US9454820B1 (en) 2015-06-12 2016-09-27 Google Inc. Using a scene illuminating infrared emitter array in a video monitoring camera for depth determination
US9554063B2 (en) 2015-06-12 2017-01-24 Google Inc. Using infrared images of a monitored scene to identify windows
US9235899B1 (en) 2015-06-12 2016-01-12 Google Inc. Simulating an infrared emitter array in a video monitoring camera to construct a lookup table for depth determination
US9886620B2 (en) * 2015-06-12 2018-02-06 Google Llc Using a scene illuminating infrared emitter array in a video monitoring camera to estimate the position of the camera
US9386230B1 (en) 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
EP3136293A1 (en) 2015-08-28 2017-03-01 Thomson Licensing Method and device for processing an image of pixels, corresponding computer program product and computer readable medium
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
CN106803056B (zh) * 2015-11-26 2020-11-06 华为技术有限公司 一种肢体关系的估计方法及装置
US10403018B1 (en) 2016-07-12 2019-09-03 Electronic Arts Inc. Swarm crowd rendering system
US10726611B1 (en) 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
JP2018092273A (ja) 2016-11-30 2018-06-14 富士通株式会社 姿勢推定方法、姿勢推定プログラム及び姿勢推定装置
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
CN110546644B (zh) 2017-04-10 2022-10-21 富士通株式会社 识别装置、识别方法以及记录介质
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
US11663184B2 (en) * 2017-07-07 2023-05-30 Nec Corporation Information processing method of grouping data, information processing system for grouping data, and non-transitory computer readable storage medium
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10535174B1 (en) * 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
US10535155B2 (en) 2017-10-24 2020-01-14 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for articulated pose estimation
US10860838B1 (en) 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
US10810415B1 (en) * 2018-01-22 2020-10-20 Apple Inc. Low bandwidth transmission of event data
US10964056B1 (en) * 2018-05-18 2021-03-30 Apple Inc. Dense-based object tracking using multiple reference images
JP2020077388A (ja) * 2018-09-28 2020-05-21 医療法人社団皓有会 運動解析装置
GB2578769B (en) 2018-11-07 2022-07-20 Advanced Risc Mach Ltd Data processing systems
CN111161348B (zh) * 2018-11-08 2023-12-05 深圳市优必选科技有限公司 一种基于单目相机的物体位姿估计方法、装置及设备
KR102233157B1 (ko) * 2018-12-31 2021-03-26 중앙대학교 산학협력단 딥러닝 기반의 재실자 포즈 분류를 이용한 재실자 활동량 산출 방법 및 시스템
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
CN110096616B (zh) * 2019-04-25 2023-05-26 南京邮电大学 一种基于二维姿态估计的运动训练姿态分析方法
CN112046793A (zh) * 2019-06-05 2020-12-08 上海交通大学 复杂扰动下的空间相对状态快速确定方法
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
CN112800806B (zh) * 2019-11-13 2023-10-13 深圳市优必选科技股份有限公司 物体位姿检测追踪方法、装置、电子设备及存储介质
US11182644B2 (en) * 2019-12-23 2021-11-23 Beijing Institute Of Technology Method and apparatus for pose planar constraining on the basis of planar feature extraction
US11972353B2 (en) 2020-01-22 2024-04-30 Electronic Arts Inc. Character controllers using motion variational autoencoders (MVAEs)
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
CN113196289B (zh) * 2020-07-02 2023-05-26 浙江大学 人体动作识别方法、人体动作识别系统及设备
CN111898519B (zh) * 2020-07-28 2023-06-09 武汉大学 便携式的特定区域内运动训练辅助视觉伺服机器人系统及姿态评估方法
KR102255483B1 (ko) * 2020-10-16 2021-05-24 한수연 관절질환 진단 방법 및 이를 이용하는 장치
US11423571B2 (en) 2020-11-13 2022-08-23 Ford Global Technologies, Llc Systems and methods for image-based component detection
US11830121B1 (en) 2021-01-26 2023-11-28 Electronic Arts Inc. Neural animation layering for synthesizing martial arts movements
CN113205134A (zh) * 2021-04-30 2021-08-03 中国烟草总公司郑州烟草研究院 一种网络安全态势预测方法及系统
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US11670030B2 (en) 2021-07-01 2023-06-06 Electronic Arts Inc. Enhanced animation generation based on video with local phase
US11562523B1 (en) 2021-08-02 2023-01-24 Electronic Arts Inc. Enhanced animation generation based on motion matching using local bone phases
KR102707696B1 (ko) * 2021-11-24 2024-09-20 주식회사 무버스 경량화된 자세 추정 모델 제공 장치 및 방법
CN117351306B (zh) * 2023-12-04 2024-03-22 齐鲁空天信息研究院 三维点云投影位姿求解器训练方法、确定方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573687A (ja) * 1991-09-11 1993-03-26 Hitachi Ltd 自動分類方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2627483B2 (ja) * 1994-05-09 1997-07-09 株式会社エイ・ティ・アール通信システム研究所 姿勢検出装置および方法
US6018728A (en) * 1996-02-09 2000-01-25 Sarnoff Corporation Method and apparatus for training a neural network to learn hierarchical representations of objects and to detect and classify objects with uncertain training data
US6144755A (en) * 1996-10-11 2000-11-07 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Method and apparatus for determining poses
US6324532B1 (en) * 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6959109B2 (en) * 2002-06-20 2005-10-25 Identix Incorporated System and method for pose-angle estimation
US7233931B2 (en) * 2003-12-26 2007-06-19 Lee Shih-Jong J Feature regulation for hierarchical decision learning
JP4473754B2 (ja) * 2005-03-11 2010-06-02 株式会社東芝 仮想試着装置
JP2007028555A (ja) * 2005-07-21 2007-02-01 Sony Corp カメラシステム,情報処理装置,情報処理方法,およびコンピュータプログラム
CN100472556C (zh) * 2005-10-09 2009-03-25 欧姆龙株式会社 特定被摄体检测装置及方法
US7725484B2 (en) * 2005-11-18 2010-05-25 University Of Kentucky Research Foundation (Ukrf) Scalable object recognition using hierarchical quantization with a vocabulary tree
US7680748B2 (en) * 2006-02-02 2010-03-16 Honda Motor Co., Ltd. Creating a model tree using group tokens for identifying objects in an image
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
JP4709723B2 (ja) * 2006-10-27 2011-06-22 株式会社東芝 姿勢推定装置及びその方法
US20100195867A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking using model fitting and exemplar
US8503720B2 (en) * 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573687A (ja) * 1991-09-11 1993-03-26 Hitachi Ltd 自動分類方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220596A (zh) * 2017-05-11 2017-09-29 西安电子科技大学 基于级联纠错机制的人体姿态估计方法
CN107220596B (zh) * 2017-05-11 2020-04-21 西安电子科技大学 基于级联纠错机制的人体姿态估计方法

Also Published As

Publication number Publication date
US7940960B2 (en) 2011-05-10
US20080152218A1 (en) 2008-06-26
JP2008112211A (ja) 2008-05-15

Similar Documents

Publication Publication Date Title
JP4709723B2 (ja) 姿勢推定装置及びその方法
JP6433149B2 (ja) 姿勢推定装置、姿勢推定方法およびプログラム
CN110782483B (zh) 基于分布式相机网络的多视图多目标跟踪方法及系统
Liang et al. Model-based hand pose estimation via spatial-temporal hand parsing and 3D fingertip localization
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
CN112395977B (zh) 基于身体轮廓和腿部关节骨架的哺乳动物姿态识别方法
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
Chen et al. Silhouette-based object phenotype recognition using 3D shape priors
CN110543817A (zh) 基于姿势指导特征学习的行人再识别方法
JP6482130B2 (ja) 幾何検証装置、プログラム及び方法
CN115063526A (zh) 二维图像的三维重建方法、系统、终端设备及存储介质
Martínez-González et al. Residual pose: A decoupled approach for depth-based 3D human pose estimation
WO2018173848A1 (ja) オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体
Huang et al. Tracking-by-detection of 3d human shapes: from surfaces to volumes
Ong et al. Tracking hybrid 2D-3D human models from multiple views
Kanaujia et al. Part segmentation of visual hull for 3d human pose estimation
Lee et al. Adaptive Bayesian recognition and pose estimation of 3D industrial objects with optimal feature selection
Hoai et al. Action recognition from weak alignment of body parts
Chan et al. A 3D-point-cloud feature for human-pose estimation
Lee et al. Qualitative pose estimation by discriminative deformable part models
Fäulhammer et al. A multi-modal rgb-d object recognizer
JP5539102B2 (ja) 物体検出装置および物体検出方法
JP7251692B2 (ja) オブジェクト検出方法、オブジェクト検出装置及びプログラム
CN118096890B (zh) 一种面向出舱航天员的6d位姿实时估计方法及装置
Bhanu et al. Model-based human recognition—2D and 3D gait

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110318

R151 Written notification of patent or utility model registration

Ref document number: 4709723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350