JP4295799B2 - データ駆動確率伝播を伴う人間の姿勢推定 - Google Patents
データ駆動確率伝播を伴う人間の姿勢推定 Download PDFInfo
- Publication number
- JP4295799B2 JP4295799B2 JP2007540117A JP2007540117A JP4295799B2 JP 4295799 B2 JP4295799 B2 JP 4295799B2 JP 2007540117 A JP2007540117 A JP 2007540117A JP 2007540117 A JP2007540117 A JP 2007540117A JP 4295799 B2 JP4295799 B2 JP 4295799B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- target
- body part
- shape model
- digital image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
[関連出願の相互参照]
本願は、発明の名称を「データ駆動確率伝播による人間の姿勢推定(Human Pose Estimation by Data Driven Belief Propagation)」といい、2004年11月5日に出願された米国仮特許出願第60/625,437号、および、発明の名称を「データ駆動確率伝播を伴う人間の姿勢推定(Human Pose Estimation with Data Driven Belief Propagation)」といい、2005年11月3日に出願された米国特許出願第(未知)号に対する合衆国法律集第35編第119条(e)に基づく利益を主張するものであり、これらはその全体において参照により本明細書中に組み込まれているものとする。
本発明は、一般に、コンピュータビジョンの分野に係り、より具体的には、単一の画像から二次元的な人間の姿勢を推定することに関する。
人間の姿勢を単一の画像から推論することは、動きの分析や視覚の追跡のような応用分野の一側面であって、コンピュータビジョンにおける最も難しい問題の一つであるといってよいだろう。最近のアプローチにいくつか好ましい成果をあげたものがある。このことに関する記載は、効率的な画像構造のマッチング(Efficient Matching of Pictorial Structures)、P. FelzenszwalbおよびD. Huttenlocher共著、コンピュータビジョンおよびパターン認識に関するIEEEコンファレンス(IEEE Conf. on Computer Vision and Pattern Recognition)、第2巻、2066〜2073頁、2000年や、静止画像における人体姿勢推定のための提案Maps駆動MCMC(Proposal Maps Driven MCMC for Estimating Human Body Pose in Static Images)、M. W. LeeおよびI. Cohen共著、コンピュータビジョンおよびパターン認識に関するIEEEコンファレンス会議録(Proc. IEEE Conf. on Computer Vision and Pattern Recognition)、第2巻、334〜341頁、2004年や、人体構成の回復:セグメント化と認識の結合(Recovering Human Body Configurations: Combining Segmentation and Recognition)、G. Mori, X. Ren, A. Efros, and J. Malik共著、コンピュータビジョンおよびパターン認識に関するIEEEコンファレンス会議録(Proc. IEEE Conf. on Computer Vision and Pattern Recognition)、第2巻、326〜333頁、2004年、に見出すことができる。これらは、すべて、その全体において参照により本明細書中に組み込まれているものとする。
2D人間姿勢推定の方法は、厳密な統計学的枠組みの中で確率論的枠組みおよび推論アルゴリズムを用いる。人体姿勢は、マルコフネットワークによってモデリングされるが、そのノードは人体部位を示し、そのエッジはノード間の拘束をコード化する。各身体部位は、その形状および位置を記述する状態変数によって、マルコフネットワーク内に表現される。効率的なデータ駆動確率伝播モンテカルロアルゴリズムによって、単一の対象画像内の2D人間姿勢が推論される。このアルゴリズムは、重点サンプリング関数を含み、低レベルの視覚的手がかりから構築される。
以下、本発明の複数の実施形態について詳細に説明するが、その実施例が添付図面に示されている。実際上可能な場合には、図面中で類似ないし同様の符号を用いて、類似または同様の機能を示すことがあることに留意されたい。図面は、本発明の実施形態を例示のみを目的として描写するものである。本明細書中に例示の構造や方法の代替的な実施形態が、本明細書中に記載の本発明の趣旨を逸脱することなく利用可能であることは、当業者であれば、以下の説明から容易に理解されよう。
図1に、本発明の一実施形態によるシステム100を示す。コンピュータシステム110は、入力モジュール112、メモリ装置114、記憶装置118、プロセッサ122、および出力モジュール124を備える。代替的実施形態において、画像プロセッサ120を、好ましい画像フォーマットでキャプチャしたデジタル画像として場面を知覚するために、メインプロセッサ122の一部として、あるいは、専用デバイスとして設けることができる。同様に、メモリ装置114は、スタンドアローン型メモリ装置(たとえば、ランダムアクセスメモリ(RAM)チップ、フラッシュメモリ、など)であってもよいが、プロセッサ122に備わるメモリオンチップ(たとえば、キャッシュメモリ)であってもよい。記憶装置118としては、ハードディスクやDVD−R/RWやRAM等任意の大容量記憶装置が利用できる。同様に、コンピュータシステム110としては、サーバ、パーソナルコンピュータ等のようなスタンドアローン型システムを用いることができる。代替的に、コンピュータシステム110として、より大規模なシステム、たとえばビジョンシステムを備えるロボット、の一部を利用することもできる。
一実施形態によれば、人体構成を、図2に示すようなマルコフネットワークにより表現する。各確率変数xiは、身体部位iの姿勢パラメータ(すなわち、隠れた状態)を表す。たとえば、xhは頭部の姿勢を表し、xtは胴部の姿勢を表し、xrulは右脚上腿部の姿勢を表す。各無向リンクは、ポテンシャル関数Ψij(xi,xj)によって、隣接する身体部位間の拘束をモデリングする。各有向リンクは、測定尤度関数φi(zi|xi)で、身体部位iの画像測定結果ziを表す。姿勢パラメータ集合X={xi,i∈S}および測定結果集合Z={zi,i∈S}(ここで、Sは全添え字の集合とする)がそれぞれ成り立つ。このマルコフネットワークの関節後端部分布は、
であって、Eは、すべての無向リンクの集合であり、νはすべての有向リンクの集合である。この点に関する説明は、上述のJordanおよびWeiss共著論文に記載を見出すことができる。結果的に、姿勢推定問題は、周縁後端部分布P(xi|Z)を推定するベイズ推論問題として定式化されることとなる。
次に図3を参照すると、本発明の一実施形態による人間姿勢推定のための方法300が図示されている。人間被写体の一つ以上の訓練画像を入力し、その身体部位をラベリングする(308)。画像は、たとえば、入力装置112によりカメラシステム130またはデータベース140から入力することができる。訓練画像は手作業でラベリングしても自動手段を介してラベリングしてもよい。利用可能な複数の訓練画像は、相互に無関係なものであってもよく、異なる被写体を描写したものであってもかまわない。各身体部位は、上述のFelzenszwalbおよびHuttenlocher共著ならびにMori et al.共著が採用している方法で四角形のシェイプでラベリングされている。しかし、入力された画像において身体部位の輪郭は通常平行線をなすわけではないので、本実施形態によれば、身体部位は必ずしも長方形や台形でモデリングされるわけではない。手作業によりラベリングされた画像のいくつかの例を図4に図示する。
xi={psi,sx,sy,θ,tx,ty} (2)
によって表すことができる。ここで、psiを、内部姿勢パラメータと呼び、他のパラメータを外部姿勢パラメータと呼ぶ。低次元シェイプ表現を学習することによって、もとの13次元状態空間は、8次元に次元を減らすので、効率的なサンプリングが容易になる。低次元の正規化されたシェイプも、記憶装置118またはデータベース150cに記憶することができる(312)。図6に、右腕上膊部に対する元々のラベリングされたシェイプの例、対応する正規化されたシェイプ、および確率論的PCAから再構成された対応するシェイプを示す。再構成されたシェイプが、元のラベリングされたシェイプとよく一致することが明らかである。
次に、姿勢推定のために対象画像を取得する(313)。そして、ポテンシャル関数Ψijによって、隣接する身体部位間の姿勢拘束をモデリングする(314)。姿勢推定のためには、隣接する身体部位に課される自然拘束は、ゆるやかに連結された性質を有するものとすべきである。この点についての説明は、上述のSigal et al.共著論文に記載を見出すことができる。したがって、ガウス分布によって、隣接する身体部位のリンクポイント間ユークリッド距離を、たとえば次のようにモデリングする。
図7に、身体部位のすべてのリンクポイントを示す。ここで、円形のポイントの対はそれぞれリンクポイント対を表している。本実施形態によれば、リンクポイントは、シェイプの下線または上線の角部のポイントまたは中点のポイントである。たとえば、左腕上膊部の胴部に連結するリンクポイントは、左腕上膊部シェイプの左線と下線との角部ポイントとして定義され、胴部の左腕上膊部に連結するリンクポイントも、胴部シェイプの左下角部の角部ポイントとして定義される。左腕上膊部の左腕下膊部に連結するリンクポイントは、左腕上膊部シェイプの上線の中点のポイントにより表され、左腕下膊部の左腕上膊部に連結するリンクポイントは、左腕下膊部シェイプの下線の中点のポイントとして定義される。
ここで、εxおよびεyは、XおよびY方向における動作したエッジ応答であり、εmは、動作したエッジ応答の最大値である。Sidenbladh論文の記載とは異なり、この動作したエッジ応答は、異なる尺度(scales)に従って計算されるわけではない。なぜなら、異なる尺度間で動作したエッジ応答の平均によって動作したエッジ応答が識別しにくくなってしまうことが考えられるからである。そうではなく、動作したエッジ応答は、たとえば、赤−緑−青(RGB)の色成分チャンネルのそれぞれにおいて計算される。したがって、仮定された身体部位xiのそれぞれに対する赤と緑と青のチャンネルにおけるエッジ応答は、
頭部と胴部に対しては、シェイプ姿勢仮説の4本の線分すべてを用いて動作したエッジ応答の平均が計算されるが、他の身体部位に対しては、左右の線分のみに基づいて動作したエッジ応答の平均が計算される。すべての動作したエッジ応答は、0と1の間で正規化されているので、尤度関数は、たとえば、次式の、最大の動作したエッジ応答に基づいて導出される(315)。
本実施形態では、経験的な研究の結果に基づく、異なる色チャンネルから最大の動作したエッジ応答が用いられる。それらの研究から、平均エッジ応答よりも最大エッジ応答を用いて、より効果的な識別が実現可能となることが明らかとなっている。Gibbsの提案になる尤度モデルが試みられたが、パフォーマンスはそれほど満足のいくものではなかった。可能な説明としては、尤度推定のためのGibbsモデルを学習する前に身体の輪郭をうまく抽出できるように、背景の消去が利用されていることが考えられる。この点についての説明は、ベイズ追跡のためのGibbs尤度(Gibbs Likelihoods for Bayesian Tracking)、S. Roth、L. SigalおよびM. Black共著、コンピュータビジョンおよびパターン認識に関するIEEEコンファレンス(IEEE Conf. on Computer Vision and Pattern Recognition)の会議録、第1巻、886〜893頁、2004年の記載に見出すことができる。やはり、人間姿勢が単一の画像から推定されるべきである以上、背景の消去は本実施形態では適用できない。
この点についての説明は、グラフィカルモデル:確率論的推論、M. JordanおよびY. Weiss共著、脳理論とニューラルネットワークのハンドブック、243〜266頁、MITプレス(MIT Press)、第2版、2002年、および、低レベルビジョンの学習、W. T. FreemanおよびE. C. Pasztor共著、コンピュータビジョンに関するIEEE国際コンファレンス会議録(Proc. IEEE International Conference on Computer Vision)、1182〜1189頁、1999年の記載に見出すことができる。両論文は、その全体において参照により本明細書中に組み込まれているものとする。
ポテンシャル関数Ψij(xi,xj)および測定尤度φi(zi|xi)がともにガウス分布であるとき、数式(6)は解析的に求めることができるので、数式(7)が解析的に計算可能である。もっとも、測定尤度関数φi(zi|xi)が非ガウス分布でのみモデリングすることができるような状況が生ずる。その場合、メッセージmij(xi)も非ガウス的となり、それにより計算が困難となる。
これらの数式において、sおよびπは、それぞれ描かれたサンプルおよび付随する加重値を示す。すなわち、これらのサンプルは、分布P(xi|Z)を近似するのに用いられる。確率伝播のための繰り返し計算を、図8に概要を示した加重サンプル集合に基づいて実行することができる。
人間の画像の中で顔を効率的に検出するのに、AdaBoostに基づく顔検出器が好結果をもたらすことがわかっている。この点についての説明は、上述のViolaおよびJones共著論文に記載を見出すことができる。もっとも、このビューに基づく検出器は、正立正面からのビューにおいて顔を検出する際最高のパフォーマンスを発揮するものであるが、この制約はマルチビューエクステンションを利用することにより緩和できる。図9(a)にAdaBoost検出器により検出された顔の例を示す。
ここで、Ixhはxhの単位行列であり、Σhは対角共分散行列である。
サッカー選手は、しばしば半袖シャツと短パンを着用するので、皮膚の色が腕の下膊部および脚の上腿部の領域を特定するための目立った手がかりとなる。一実施形態によれば、次に、前記のように取得された皮膚の色のクラスターのピクセルから皮膚の色のモデルを構築する(320)。皮膚の色のクラスターの正規化したRGBピクセル値から2D色ヒストグラムを計算する。すべてのバリエーション(たとえば、照明や人種の要因からもたらされる差異)を説明する一般的な皮膚色モデルを開発することは困難で多くの時間を要するが、姿勢の推定のために考慮された人間被写体に固有の皮膚色モデルを構築することは比較的容易で効果的なので、皮膚色領域を閾値で効果的に抽出することができる。図9(b)に学習された皮膚色ヒストグラムを用いたいくつかのセグメンテーション結果を、図9(c)に小さな「ブロブ(blobs)」を除去した後に得られた最もフィットする四角形を示す。皮膚調ブロブの数は身体部位の数と必ずしも一致しないことに留意されたい。
ここで、Σiは対角共分散行列である。少数の(その数が小さすぎると悪影響があるかもしれないが)K個の適切な仮説によって効率的なサンプリングと推論のプロセスが容易になることが特記される。Kの最適な値が何かは用途によって変わってくる。一実施形態によれば、Kの値として8を用いる。
胴部は他のほとんどの身体部位と連結する部位なので、胴部領域を特定することは、人間姿勢推定における最も重要なタスクであるといえるかもしれない。しかし、胴部は通常衣類をまとっていることから外観上のばらつきが大きいため、その検出は困難である。また、胴部は、通常、検出プロセスを容易にしてくれるような目立った画像上の手がかり、たとえば、色やテクスチャがない。一実施形態によれば、確率論的ハフ変換から線分を抽出し(328)、胴部に対する適切なシェイプの仮説を組み立てるために利用する。この点に関する説明は、上述のKiryatiおよびEldar共著論文に記載を見出すことができる。
1.適切な胴部仮説の正規化されたシェイプは、誤差を最小とする胴部の学習されたPCA部分空間によって再構築されなければならない、
2.適切な仮説を立てた胴部はできるだけ検出した顔に近いものでなければならない、
3.2本の垂直線lv1,lv2は、組み立てられたシェイプの中で、できるだけ対称でなければならない。
ここで、Σtは、対角共分散行列である。図10(a)に図9(a)のサッカー選手を再掲する。図10(b)には、確率論的ハフ変換に基づく、検出された実質的に水平な線分および実質的に垂直な線分の一例が示されており、図10(c)には、対応する胴部の仮説が示されている。水平線および垂直線を用いる組合せの数は大きいが、前記最適化問題を解くことで大幅に胴部仮説の数を減らす(たとえば、M<10)ことになるので、効率的かつ効果的な推論が容易になる。
本発明の方法をサッカー選手の画像における姿勢推定に適用した。この方法が他の画像領域における人間姿勢の推定にも拡張可能であることは、当業者であれば理解されるだろう。上述の尤度関数の有効性を示すために、多くの左脚下腿部の仮説を、図11(a)に示すように、正しくラベリングした身体部位を水平方向に平行移動させることによって、生成した。対応する尤度を図11(b)に示す。ここで、正しいラベリング位置、すなわち、水平方向平行移動がゼロの位置で、最大尤度となることが示されている。次に小さい二つのピークは、シェイプ姿勢の左右の線のうちの一方が、画像中の左脚下腿部の境界線に揃っている場合に対応する。他の身体部位に対する尤度の分布は、胴部に対する尤度モデルが正しいラベリング位置でピークとはならず(ノイズを有するエッジ応答のために)より局所的なピークを有するものとなることがあることを除けば、図11(b)と同様である。これは、ただエッジのみを手がかりに用いて胴部の尤度モデルを構築することが困難なためである。
Claims (21)
- デジタル画像内の人間被写体の姿勢を推定するための方法であって、
それぞれが少なくとも一つの訓練身体部位を有する複数の人間被写体を表す一つ以上の訓練デジタル画像を入力し、
前記訓練身体部位をそれぞれ四角形でラベリングし、
前記四角形に基づき、前記訓練身体部位のそれぞれについて、二次元(2D)シェイプモデルを、各シェイプモデルに関連づけされる少なくとも1つのリンクポイントが、隣接するシェイプモデルに関連づけされるリンクポイントと対になって、連結点を特定するように、自動生成し、
少なくとも一つの対象身体部位を備える対象人間被写体を表す対象デジタル画像を入力し、
前記二次元(2D)シェイプモデルに基づくマルコフネットワークに従って前記対象デジタル画像の身体姿勢を表現し、
前記対象デジタル画像内の少なくとも1つの対象身体部位に対してデータ駆動重点サンプリング機能を実行する確率伝播モンテカルロアルゴリズムを適用し、前記マルコフネットワークにより表現される前記身体姿勢の姿勢パラメータを推定する
ことを特徴とする方法。 - 次元数を減らすために、前記2Dシェイプモデルに主成分分析を適用することをさらに特徴とする請求項1の方法。
- 前記2Dシェイプモデルを記憶することをさらに特徴とする請求項1の方法。
- デジタル画像内の人間被写体の姿勢を推定するための方法であって、
前記方法は、
それぞれが少なくとも一つの訓練身体部位を有する複数の人間被写体を表す一つ以上の訓練デジタル画像を入力し、
前記訓練身体部位をそれぞれ四角形でラベリングし、
前記四角形に基づき、前記訓練身体部位のそれぞれについて、二次元(2D)シェイプモデルを、各シェイプモデルに関連づけされる少なくとも1つのリンクポイントが、隣接するシェイプモデルに関連づけされるリンクポイントと対になって、連結点を特定するように、自動生成し、
少なくとも一つの対象身体部位を備える対象人間被写体を表す対象デジタル画像を入力し、
前記二次元(2D)シェイプモデルに基づくマルコフネットワークに従って前記対象デジタル画像の身体姿勢を表現し、
前記対象デジタル画像内の少なくとも1つの対象身体部位に対してデータ駆動重点サンプリング機能を実行する確率伝播モンテカルロアルゴリズムを適用し、前記マルコフネットワークにより表現される前記身体姿勢の姿勢パラメータを推定する
ことを含み、
前記マルコフネットワークは、
各ノードが対象身体部位集合に属する一つの身体部位の姿勢パラメータを表す、ノードの第1集合と、
各ノードが前記対象身体部位集合に属する一つの身体部位の測定結果を表す、ノードの第2集合と、
それぞれのリンクが、ノードの前記第1集合に属する二つのノードを接続し、第1の関数に従って前記対象身体部位集合に属する隣接する二つの身体部位間の拘束をモデリングする、無向リンクの集合と、
それぞれのリンクがノードの前記第1集合に属する一つのノードからノードの前記第2集合に属する一つのノードに向かい、第2の関数に従って対応する測定結果の尤度を表す、有向リンクの集合と
を備え、
前記第2の関数は、前記第1の関数とは異なる
ことを特徴とする方法。 - 前記確率伝播モンテカルロアルゴリズムは、反復的に実行されるものであり、重点サンプルに基づくメッセージパッシングを含むことを特徴とする請求項4の方法。
- 前記対象人間被写体の顔部領域を検出し、
前記検出された顔領域から皮膚色モデルを構築し、
前記対象人間被写体の胴領域のエッジマップを構築し、
前記エッジマップから略水平な線分および略垂直な線分の集合を抽出する
ことをさらに特徴とする請求項6の方法。 - 前記重点サンプルは、頭部姿勢、腕部姿勢、脚部姿勢、および胴部姿勢に対応する重要度関数から描画され、
前記頭部姿勢は、前記顔領域を用いて導出され、
前記腕部姿勢および前記脚部姿勢は、前記皮膚色モデルを用いて導出され、
前記胴部姿勢は、前記線分を用いて導出される
ことを特徴とする請求項7の方法。 - デジタル画像内の人間被写体の姿勢を推定するための装置であって、
それぞれが少なくとも一つの訓練身体部位を有する複数の人間被写体を表す一つ以上の訓練デジタル画像を入力するとともに、
少なくとも一つの対象身体部位を備える対象人間被写体を表す対象デジタル画像を入力する
よう構成された入力モジュールと、
前記訓練身体部位をそれぞれ四角形でラベリングし、
前記四角形に基づき、前記訓練身体部位のそれぞれについて、二次元(2D)シェイプモデルを、各シェイプモデルに関連づけされる少なくとも1つのリンクポイントが、隣接するシェイプモデルに関連づけされるリンクポイントと対になって、連結点を特定するように、自動生成して、
前記二次元(2D)シェイプモデルに基づくマルコフネットワークに従って前記対象デジタル画像の身体姿勢を表現し、
前記対象デジタル画像内の少なくとも1つの対象身体部位に対してデータ駆動重点サンプリング機能を実行する確率伝播モンテカルロアルゴリズムを適用し、前記マルコフネットワークにより表現される前記身体姿勢の姿勢パラメータを推定する
よう構成されたプロセッサモジュールと
を備えることを特徴とする装置。 - デジタル画像内の人間被写体の姿勢を推定するための装置であって、
それぞれが少なくとも一つの訓練身体部位を有する複数の人間被写体を表す一つ以上の訓練デジタル画像を入力する手段と、
前記訓練身体部位をそれぞれ四角形でラベリングする手段と、
前記四角形に基づき、前記訓練身体部位のそれぞれについて、二次元(2D)シェイプモデルを、各シェイプモデルに関連づけされる少なくとも1つのリンクポイントが、隣接するシェイプモデルに関連づけされるリンクポイントと対になって、連結点を特定するように、自動生成する手段と、
少なくとも一つの対象身体部位を備える対象人間被写体を表す対象デジタル画像を入力する手段と、
前記二次元(2D)シェイプモデルに基づくマルコフネットワークに従って前記対象デジタル画像の身体姿勢を表現し、
前記対象デジタル画像内の少なくとも1つの対象身体部位に対してデータ駆動重点サンプリング機能を実行する確率伝播モンテカルロアルゴリズムを適用し、前記マルコフネットワークにより表現される前記身体姿勢の姿勢パラメータを推定する手段と
を備えることを特徴とする装置。 - デジタル画像内の人間被写体の姿勢を推定するための方法をコンピュータに実現させるプログラムであって、
前記プログラムは、
前記コンピュータに対して、
それぞれが少なくとも一つの訓練身体部位を有する複数の人間被写体を表す一つ以上の訓練デジタル画像を入力し、
前記訓練身体部位をそれぞれ四角形でラベリングし、
前記四角形に基づき、前記訓練身体部位のそれぞれについて、二次元(2D)シェイプモデルを、各シェイプモデルに関連づけされる少なくとも1つのリンクポイントが、隣接するシェイプモデルに関連づけされるリンクポイントと対になって、連結点を特定するように、自動生成し、
少なくとも一つの対象身体部位を備える対象人間被写体を表す対象デジタル画像を入力し、
前記二次元(2D)シェイプモデルに基づくマルコフネットワークに従って前記対象デジタル画像の身体姿勢を表現し、
前記対象デジタル画像内の少なくとも1つの対象身体部位に対してデータ駆動重点サンプリング機能を実行する確率伝播モンテカルロアルゴリズムを適用し、前記マルコフネットワークにより表現される前記身体姿勢の姿勢パラメータを推定する処理を行わせる
ことを特徴とするプログラム。 - 前記確率伝播モンテカルロアルゴリズムは、
反復され、重点サンプルに基づくメッセージパッシングを含む
ことを特徴とする請求項1の方法。 - 前記確率伝播モンテカルロアルゴリズムは、
データ駆動重点サンプリングに基づき局部推論を並列的に行う
ことを特徴とする請求項1の方法。 - 前記確率伝播モンテカルロアルゴリズムは、
データ駆動重点サンプリングに基づき局部推論を並列的に行う
ことを特徴とする請求項4の方法。 - 前記確率伝播モンテカルロアルゴリズムは、
反復され、重点サンプルに基づくメッセージパッシングを含む
ことを特徴とする請求項10の装置。 - 前記確率伝播モンテカルロアルゴリズムは、
データ駆動重点サンプリングに基づき局部推論を並列的に行う
ことを特徴とする請求項10の装置。 - 前記確率伝播モンテカルロアルゴリズムは、
反復され、重点サンプルに基づくメッセージパッシングを含む
ことを特徴とする請求項11の装置。 - 前記確率伝播モンテカルロアルゴリズムは、
データ駆動重点サンプリングに基づき局部推論を並列的に行う
ことを特徴とする請求項11の装置。 - 前記確率伝播モンテカルロアルゴリズムは、
反復され、重点サンプルに基づくメッセージパッシングを含む
ことを特徴とする請求項12のプログラム。 - 前記確率伝播モンテカルロアルゴリズムは、
データ駆動重点サンプリングに基づき局部推論を並列的に行う
ことを特徴とする請求項12のプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US62543704P | 2004-11-05 | 2004-11-05 | |
US11/266,830 US7212665B2 (en) | 2004-11-05 | 2005-11-03 | Human pose estimation with data driven belief propagation |
PCT/US2005/040225 WO2006052853A2 (en) | 2004-11-05 | 2005-11-04 | Human pose estimation with data driven belief propagation |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008519357A JP2008519357A (ja) | 2008-06-05 |
JP2008519357A5 JP2008519357A5 (ja) | 2008-12-18 |
JP4295799B2 true JP4295799B2 (ja) | 2009-07-15 |
Family
ID=36316386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007540117A Expired - Fee Related JP4295799B2 (ja) | 2004-11-05 | 2005-11-04 | データ駆動確率伝播を伴う人間の姿勢推定 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7212665B2 (ja) |
JP (1) | JP4295799B2 (ja) |
WO (1) | WO2006052853A2 (ja) |
Families Citing this family (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9311540B2 (en) | 2003-12-12 | 2016-04-12 | Careview Communications, Inc. | System and method for predicting patient falls |
US8675059B2 (en) | 2010-07-29 | 2014-03-18 | Careview Communications, Inc. | System and method for using a video monitoring system to prevent and manage decubitus ulcers in patients |
US7349573B2 (en) * | 2004-03-26 | 2008-03-25 | Mitsubishi Electric Research Laboratories, Inc. | Image segmentation by base point selection and wavefront propagation |
JP4759447B2 (ja) * | 2006-06-07 | 2011-08-31 | 日本電信電話株式会社 | 動体追跡装置,動体追跡方法およびその方法を記述したプログラムを格納した記録媒体 |
JP5161435B2 (ja) * | 2006-06-26 | 2013-03-13 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理システム、コンピュータの制御方法及びプログラム |
US8340387B2 (en) * | 2007-04-13 | 2012-12-25 | Three Palm Software | Fast preprocessing algorithms for digital mammography CAD and workstation |
US7925081B2 (en) * | 2007-12-12 | 2011-04-12 | Fuji Xerox Co., Ltd. | Systems and methods for human body pose estimation |
US20090154782A1 (en) * | 2007-12-17 | 2009-06-18 | Three Palm Software | Dual-magnify-glass visualization for soft-copy mammography viewing |
US20090164192A1 (en) * | 2007-12-21 | 2009-06-25 | General Instrument Corporation | Efficient message representations for belief propagation algorithms |
US9866797B2 (en) | 2012-09-28 | 2018-01-09 | Careview Communications, Inc. | System and method for monitoring a fall state of a patient while minimizing false alarms |
US10645346B2 (en) | 2013-01-18 | 2020-05-05 | Careview Communications, Inc. | Patient video monitoring systems and methods having detection algorithm recovery from changes in illumination |
US9579047B2 (en) | 2013-03-15 | 2017-02-28 | Careview Communications, Inc. | Systems and methods for dynamically identifying a patient support surface and patient monitoring |
US9794523B2 (en) | 2011-12-19 | 2017-10-17 | Careview Communications, Inc. | Electronic patient sitter management system and method for implementing |
US9959471B2 (en) | 2008-05-06 | 2018-05-01 | Careview Communications, Inc. | Patient video monitoring systems and methods for thermal detection of liquids |
EP2327061A4 (en) * | 2008-08-15 | 2016-11-16 | Univ Brown | METHOD AND DEVICE FOR ESTIMATING BODY SHAPES |
US8471899B2 (en) | 2008-12-02 | 2013-06-25 | Careview Communications, Inc. | System and method for documenting patient procedures |
US8773355B2 (en) * | 2009-03-16 | 2014-07-08 | Microsoft Corporation | Adaptive cursor sizing |
US8638985B2 (en) * | 2009-05-01 | 2014-01-28 | Microsoft Corporation | Human body pose estimation |
US8660303B2 (en) | 2009-05-01 | 2014-02-25 | Microsoft Corporation | Detection of body and props |
US8942428B2 (en) | 2009-05-01 | 2015-01-27 | Microsoft Corporation | Isolate extraneous motions |
US8744121B2 (en) * | 2009-05-29 | 2014-06-03 | Microsoft Corporation | Device for identifying and tracking multiple humans over time |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
US20110025830A1 (en) * | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US8379919B2 (en) | 2010-04-29 | 2013-02-19 | Microsoft Corporation | Multiple centroid condensation of probability distribution clouds |
EP2580708A4 (en) | 2010-06-10 | 2016-11-16 | Univ Brown | PARAMETRIZED 2D HUMAN MODEL WITH RACES |
JP5660436B2 (ja) * | 2010-09-01 | 2015-01-28 | 独立行政法人情報通信研究機構 | 周期的情報抽出方法 |
WO2012030872A1 (en) * | 2010-09-02 | 2012-03-08 | Edge3 Technologies Inc. | Method and apparatus for confusion learning |
US9036920B2 (en) * | 2010-10-08 | 2015-05-19 | Industrial Technology Research Institute | Method of detecting feature points of an object in a system for motion detection |
JP5873442B2 (ja) * | 2010-12-09 | 2016-03-01 | パナソニック株式会社 | 物体検出装置および物体検出方法 |
US8724168B2 (en) * | 2010-12-16 | 2014-05-13 | Xerox Corporation | Updating a smoothness constrained cluster model for color control in a color management system |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
JP5771413B2 (ja) * | 2011-03-02 | 2015-08-26 | パナソニック株式会社 | 姿勢推定装置、姿勢推定システム、および姿勢推定方法 |
US8620113B2 (en) | 2011-04-25 | 2013-12-31 | Microsoft Corporation | Laser diode modes |
US8472718B2 (en) * | 2011-04-27 | 2013-06-25 | Sony Corporation | Superpixel segmentation methods and systems |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US20130054377A1 (en) * | 2011-08-30 | 2013-02-28 | Nils Oliver Krahnstoever | Person tracking and interactive advertising |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US9135696B2 (en) * | 2012-01-10 | 2015-09-15 | Siemens Aktiengesellschaft | Implant pose determination in medical imaging |
KR101500711B1 (ko) * | 2012-01-19 | 2015-03-10 | 한국전자통신연구원 | 컬러 히스토그램을 이용한 사람 추적 방법 |
US8898687B2 (en) | 2012-04-04 | 2014-11-25 | Microsoft Corporation | Controlling a media program based on a media reaction |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US9349207B2 (en) | 2012-05-31 | 2016-05-24 | Samsung Electronics Co., Ltd. | Apparatus and method for parsing human body image |
KR101307984B1 (ko) | 2012-09-04 | 2013-09-26 | 전남대학교산학협력단 | 자세인식을 위해 방향성 기술자와 기계학습을 이용하는 주요 신체부위 추정 방법 |
EP2804128A3 (en) * | 2013-03-22 | 2015-04-08 | MegaChips Corporation | Human detection device |
US9531967B2 (en) | 2013-12-31 | 2016-12-27 | Faro Technologies, Inc. | Dynamic range of a line scanner having a photosensitive array that provides variable exposure |
US9658061B2 (en) | 2013-12-31 | 2017-05-23 | Faro Technologies, Inc. | Line scanner that uses a color image sensor to improve dynamic range |
US20170154441A1 (en) * | 2014-08-06 | 2017-06-01 | Panasonic Corporation | Orientation estimation method, and orientation estimation device |
CN104268598B (zh) * | 2014-09-26 | 2017-05-03 | 东南大学 | 一种基于二维扫描激光的人腿检测方法 |
JP6486084B2 (ja) * | 2014-11-28 | 2019-03-20 | キヤノン株式会社 | 画像処理方法、画像処理装置、及びプログラム |
ES2765277T3 (es) | 2014-12-22 | 2020-06-08 | Reactive Reality Gmbh | Método y sistema para generar datos de modelo de prenda |
CN105069413B (zh) * | 2015-07-27 | 2018-04-06 | 电子科技大学 | 一种基于深度卷积神经网络的人体姿势识别方法 |
CN105354539B (zh) * | 2015-10-19 | 2016-09-07 | 许昌学院 | 一种智能显示系统和一种显示方法 |
US9846822B2 (en) * | 2015-12-31 | 2017-12-19 | Dropbox, Inc. | Generating and utilizing normalized scores for classifying digital objects |
US9996771B2 (en) | 2016-02-15 | 2018-06-12 | Nvidia Corporation | System and method for procedurally synthesizing datasets of objects of interest for training machine-learning models |
US10026003B2 (en) | 2016-03-08 | 2018-07-17 | Accuware, Inc. | Method and arrangement for receiving data about site traffic derived from imaging processing |
US10824878B2 (en) | 2016-03-08 | 2020-11-03 | Accuware, Inc. | Method and arrangement for receiving data about site traffic derived from imaging processing |
CN108885683B (zh) * | 2016-03-28 | 2020-05-22 | 北京市商汤科技开发有限公司 | 用于位姿估计的方法和系统 |
CN106127120B (zh) * | 2016-06-16 | 2018-03-13 | 北京市商汤科技开发有限公司 | 姿势估计方法和装置、计算机系统 |
CN107644201B (zh) * | 2017-08-31 | 2021-02-26 | 成都通甲优博科技有限责任公司 | 一种基于随机森林的骨架线提取方法及其装置 |
JP7147848B2 (ja) | 2018-07-31 | 2022-10-05 | 株式会社ニコン | 処理装置、姿勢解析システム、処理方法、及び処理プログラム |
CN109068273A (zh) * | 2018-09-29 | 2018-12-21 | 湘潭大学 | 一种基于改进mcl的无线传感器网络移动节点定位方法 |
EP3731185A1 (en) * | 2019-04-26 | 2020-10-28 | Tata Consultancy Services Limited | Weakly supervised learning of 3d human poses from 2d poses |
US10769807B1 (en) * | 2019-11-25 | 2020-09-08 | Pet3D Corp | System, method, and apparatus for clothing a pet |
DE102020200572A1 (de) * | 2019-12-18 | 2021-06-24 | Conti Temic Microelectronic Gmbh | Verfahren zur verbesserten Erkennung von Landmarken und Fußgängern |
US11417011B2 (en) * | 2020-02-11 | 2022-08-16 | Nvidia Corporation | 3D human body pose estimation using a model trained from unlabeled multi-view data |
CN111611874B (zh) * | 2020-04-29 | 2023-11-03 | 杭州电子科技大学 | 基于ResNet和Canny的人脸口罩佩戴检测方法 |
US20220319041A1 (en) * | 2021-03-31 | 2022-10-06 | Facebook Technologies, Llc | Egocentric pose estimation from human vision span |
WO2023245157A1 (en) * | 2022-06-16 | 2023-12-21 | Poze Ai Inc. | Pose training and evaluation system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130446B2 (en) | 2001-12-03 | 2006-10-31 | Microsoft Corporation | Automatic detection and tracking of multiple individuals using multiple cues |
US7366645B2 (en) | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
US7542592B2 (en) | 2004-03-29 | 2009-06-02 | Siemesn Corporate Research, Inc. | Systems and methods for face detection and recognition using infrared imaging |
-
2005
- 2005-11-03 US US11/266,830 patent/US7212665B2/en active Active
- 2005-11-04 JP JP2007540117A patent/JP4295799B2/ja not_active Expired - Fee Related
- 2005-11-04 WO PCT/US2005/040225 patent/WO2006052853A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2006052853A3 (en) | 2006-12-14 |
US20060098865A1 (en) | 2006-05-11 |
US7212665B2 (en) | 2007-05-01 |
WO2006052853A2 (en) | 2006-05-18 |
JP2008519357A (ja) | 2008-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4295799B2 (ja) | データ駆動確率伝播を伴う人間の姿勢推定 | |
Hua et al. | Learning to estimate human pose with data driven belief propagation | |
Sarafianos et al. | 3d human pose estimation: A review of the literature and analysis of covariates | |
Sigal et al. | Combined discriminative and generative articulated pose and non-rigid shape estimation | |
Balan et al. | An adaptive appearance model approach for model-based articulated object tracking | |
Porikli et al. | Object detection and tracking | |
US20140043329A1 (en) | Method of augmented makeover with 3d face modeling and landmark alignment | |
Zhang et al. | Graph-embedding-based learning for robust object tracking | |
Lin et al. | Learning a scene background model via classification | |
Rosales et al. | Estimating 3D body pose using uncalibrated cameras | |
Salih et al. | Comparison of stochastic filtering methods for 3D tracking | |
Raskin et al. | Dimensionality reduction using a Gaussian process annealed particle filter for tracking and classification of articulated body motions | |
Huang et al. | Tracking-by-detection of 3d human shapes: from surfaces to volumes | |
Chen et al. | Single and sparse view 3d reconstruction by learning shape priors | |
Lee et al. | Background subtraction using the factored 3-way restricted Boltzmann machines | |
Kanaujia et al. | Part segmentation of visual hull for 3d human pose estimation | |
Guo et al. | Hand gesture recognition and interaction with 3D stereo camera | |
Ji et al. | 3d reconstruction of dynamic textures in crowd sourced data | |
Jaeggli et al. | Multi-activity tracking in lle body pose space | |
Li | Hand shape estimation for south african sign language | |
Jiang et al. | Real-time multiple people hand localization in 4d point clouds | |
Ghedia et al. | A novel approach for monocular 3d object tracking in cluttered environment | |
Saini et al. | Human pose tracking in low-dimensional subspace using manifold learning by charting | |
Wu et al. | Human pose estimation in vision networks via distributed local processing and nonparametric belief propagation | |
Wu | 3D Face Reconstruction from RGB Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081031 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20081031 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20081125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090331 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090410 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |