JP5647155B2 - 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 - Google Patents

内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 Download PDF

Info

Publication number
JP5647155B2
JP5647155B2 JP2011552074A JP2011552074A JP5647155B2 JP 5647155 B2 JP5647155 B2 JP 5647155B2 JP 2011552074 A JP2011552074 A JP 2011552074A JP 2011552074 A JP2011552074 A JP 2011552074A JP 5647155 B2 JP5647155 B2 JP 5647155B2
Authority
JP
Japan
Prior art keywords
image
feature
points
human
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011552074A
Other languages
English (en)
Other versions
JP2012518857A (ja
Inventor
ダリウッシュ,ベーザド
ゴパラン,ラグフラマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2012518857A publication Critical patent/JP2012518857A/ja
Application granted granted Critical
Publication of JP5647155B2 publication Critical patent/JP5647155B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、システムのモーションを追跡する分野に関する。より具体的には、視覚入力から特徴を検出し姿勢を推定することに関する。
視覚的観測から人間姿勢を回復することは、コンピュータ画像の分野では困難な問題である。なぜならば、観測値を姿勢に関連付けるモデルが複雑であるからである。映像コーディング、視覚監視、人間ジェスチャー認識、生体力学、映像インデクス作成及び映像検索、キャラクターアニメーション、人間機械相互作用のような領域において、この問題に対する効果的な解は、多くの適用例を有している。D. Gavrila,“The visual analysis of human movement: a survey”,Computer Vision and Image Understanding,73(1):82-98(1999)、L. Wang, W. Hu, and T. Tan, “Recent development in human motion analysis”Pattern Recog.,36(3):585-601(2003)及びT.B. Moeslund, A. Hilton and V. Kruger, “A survey of advances in vision-based human motion capture and analysis”, Computer Vision and Image Understanding, 104(2,3):90-126(2006)を参照されたい。
視覚入力から姿勢を推定する際の主な困難の1つは、動きの多数の自由度を回復することにある。この動きは、2つの身体セグメント間の関節限界回避及び自己衝突回避のような運動学的制約に左右されることが多い。画像平面上に人間モーションを投影する際に、時間的又は空間的解像度が不充分、不明確であったり、ある設定の結果自己オクルージョンが発生したりすることが、このような困難と同時に現れる。照明が変化することにより結果的に外観が変化するという効果、又は、被写体の衣装、所望のカメラ設定、及び、アプリケーションによってはリアルタイム追随能力に起因して外観自体が変化する、と言う効果が他の困難としてある。
姿勢推定問題を解決するアプローチには、従来より、2つのカテゴリが存在する。すなわち、モデルベースアプローチ及び学習ベースアプローチである。モデルベースアプローチは、既知であることが明確なパラメトリック人間モデルに頼っており、各身体セグメント上の既知の画像特徴点からの運動学を反転すること、又は、高次元配置空間を検索すること、のいずれかによって姿勢を回復する。モデルベースアプローチは、決定論的に非線形最適化問題として、又は、確率論的に最大尤度問題として公式化されている。運動学を反転することについては、C. Barron and I.A. Kakadiaris, “Estimating anthropometry and pose from a single image”,Computer Vision and Pattern Recognition,1:669-676(2000)及びC.J. Taylor, “Reconstruction of articulated objects from point correspondence in a single uncalibrated image”, Computer Vision and Image Understanding,80(3):349-363(2000)を参照されたい。非線形最適化問題については、J.M. Rehg and T. Kanade, “Model-based tracking of selfoccluding articulated objects”,ICCV, pages 612-617(1995)を参照されたい。最大尤度問題については、H. Sidenbladh, M.J. Black and D.J. Fleet,“Stochastic tracking of 3D human figures using 2D image motion”, ECCV, pages 702-718(2000)を参照されたい。モデルベースアプローチは、典型的には、良好な初期化及び高次元特徴点を要求し、計算集約的である。さらに、モデルベースアプローチは、一般的に、関節限界及び自己衝突回避のような身体制約を大きくすることはなく、誤差のある推定結果を生成することが多い。
対照的に、学習ベースアプローチは、観測可能な画像データ量から身体姿勢を直接推定する。A. Agarwal and B. Triggs, “Recovering 3d human pose from monocular images”, IEEE Trans. on Pattern Analysis and Machine Intelligence, 28(1):44-58(2006)
及びG. Mori and J. Malik, “Recovering 3d human body configurations using shape contexts”, IEEE Trans. on Pattern Analysis and Machine Intelligence, 28(7):1052-1062(2006)を参照されたい。標本ベースの学習においては、姿勢を推定することは、k個の最近傍の隣接例検索問題として公式化されるのが一般的である。当該問題においては、入力データは、三次元姿勢が既知である訓練標本のデータベースに一致する。高次元空間内で非常に大きなデータ集合に対して同様の検索を実行する計算の複雑さが、これらのアプローチの適用を制限している。より高速な近似値検索アルゴリズムが局地的高反応度ハッシュに基づいて開発されてきてはいるものの、学習ベースアプローチにとっては、計算速度が依然として課題である。G. Shakhnarovich, P. Viola and T. Darrell, “Fast pose estimation with parameter sensitive hashing”, ICCV, 2:750-757(2003)を参照されたい。モデルベースアプローチと同様に、学習ベースアプローチもまた計算集約的になりがちである。さらに、学習ベースアプローチを使用して、ある姿勢が正しく認識されるためには、システムは、姿勢を、前以って処理(“学習”)しなければならない。よって、一般的には、事前プログラミングされた人間姿勢の小さな集合のみが、学習ベースアプローチを使用して認識され得る。
そこで、効率的かつ正確に身体特徴を検出し、リアルタイムで人間姿勢を推定するシステム及び方法がとりわけ必要となる。
(要約)
本発明の実施形態は、人間主体の特徴検出及び姿勢推定のための方法(及び対応するシステム及びコンピュータプログラム製品)を提供する。ある側面によれば、人間主体の深度画像内で特徴点が検出される。深度画像から、人間形状シルエットが区画される。人間形状シルエットに沿って、輪郭点がサンプリングされる。サンプル輪郭点の内側距離形状関係(IDSC)記述子が決定され、IDSC見本集合内の既知の特徴点のIDSC記述子と比較される。サンプル輪郭点のIDSC記述子と、IDSC見本集合内の特徴点のIDSC記述子との類似度に基づいて、特徴点が、サンプル輪郭点のうちから識別される。
他の側面によれば、当該方法は、サンプル輪郭点のIDSC記述子と、IDSC見本集合内の特徴点のIDSC記述子との間の差異を、閾値と比較する。すべてのサンプル輪郭点のIDSC記述子と、特定の特徴点のIDSC記述子との差異が、閾値を超えている場合は、当該特徴点は、深度画像のなかで欠けているものと看做される。反対に、閾値が、複数のサンプル輪郭点のIDSC記述子と、特定の特徴点のIDSC記述子との差異を超えている場合は、複数のサンプル輪郭点のそれぞれは、深度画像のなかの当該特定の特徴点の候補として識別される。
さらに他の側面によれば、当該方法は、欠けている特徴点を付加し、事前に生成された対応する予測された特徴点に基づいて、候補のなかから特徴点を選択する。当該方法は、検出された特徴点、付加された特徴点及び人間モデルの運動学的制約に基づいて、人間モデルの姿勢を推定する。
本明細書に記述されている特徴及び利点は、限定的なものではなく、図面、明細書及び特許請求の範囲を見れば、当業者には、追加的な特徴及び利点が明らかになる。さらに、本明細書中で使用される用語は、主として意味の取りやすさ及び教示目的から選択されており、本発明の主旨を限定するために選択されているものではないことは当然である。
本発明のある実施形態に係る、ソースシステムにおけるモーション生成体の姿勢を推定する姿勢推定システムを示すブロック図である。 本発明のある実施形態に係る、図1の姿勢推定システムの機器構成を示すブロック図である。 本発明のある実施形態に係る、姿勢推定処理を示すフロー図である。 本発明のある実施形態に係る、特徴点検出処理を示すフロー図である。 本発明のある実施形態に係る、人間モデルを示す図である。 本発明のある実施形態に係る、内側距離形状関係(IDSC)記述子の特徴を示す図である。 本発明のある実施形態に係る、相互に衝突することを回避するために向きを変えられた、2つの接続されていない剛性身体を示す図である。 本発明のある実施形態に係る、ラベル付けされた特徴点を有する人間身体のスナップショットを示す図である。 本発明のある実施形態に係る、ラベル付けされた特徴点を有する人間身体のスナップショットを示す図である。
本発明は、特徴を検出し、モーション生成体の姿勢をリアルタイムで推定するシステム(並びに、対応する方法及びコンピュータプロダクト製品)を提供する。当該システムは、生成体の視覚的入力内のキー特徴を検出し、検出された特徴に基づいて、生成体の姿勢をモデル上に再構築する。当該システムは、特徴点の予測値を作成し、予測値を使用して複数の特徴候補が検出された場合の不明瞭部分を解像し、欠けている又は隠れている特徴を間欠的に推定する。
説明の目的で、一般性を失うことなく、本明細書は、モーション生成体は人間主体であること、そしてモデルは人間モデルを表していること、を前提としている。人間モデルは、人間主体の構造に基づいて人間主体の身体姿勢に類似するように作られている。例えば、動物のような他のモーション生成体の姿勢を推定するために、ここに記述される技術が使用され得るということを、当業者であれば認識するであろう。
図及び明細書の後記箇所は、例示の目的のみによって、本発明の実施形態に関係する。以降、いくつかの実施形態を詳細に参照するが、実施形態の例は、添付の図に例示されている。同一の又は同様の参照番号が複数の図に跨って使用されている場合は、同一の又は同様の機能を示している。図は、例示の目的のみで、開示されたシステム(又は方法)の実施形態を記述している。ここに例示される構造及び方法の代替的な実施形態がここに記述される原理を逸脱することなく使用され得ることを、当業者であれば、以降の明細書の箇所から認識することができるであろう。
図1は、ソースシステム102内の人間主体の特徴を検出し、姿勢を推定する姿勢推定システム100を示すブロック図である。ソースシステム102は、人間主体の一連の画像を生成し、これらの画像を姿勢推定システム100に、画像ストリーム108として送信する。ある実施形態においては、ソースシステム102は、飛行時間カメラ(TOFカメラ、飛行時間範囲画像センサとも呼ぶ)のようなカメラを使用し、人間主体の姿勢を連続的に取得し、姿勢推定システム100に深度画像ストリーム108を送信する。姿勢推定システム100は、受け取られた画像ストリーム108のなかからキー特徴を検出し、人間主体の姿勢を人間モデル内に再構築する。
人間姿勢推定を提供することに加えて又は代替して、姿勢推定システム100は、モーションの再目標化、追跡及び推定、並びに、生体力学における関節トルク推定のような他の目的のために使用されてもよい。モーション再目標化においては、姿勢推定システム100は、再構築された姿勢に基づきソースシステム102のモーション記述子を生成し、モーション再目的化システムにモーション記述子を送信する。モーション再目的化システムは、目的化システムのモーションを制御する関節変数を生成し、ソースシステム102内のモーションをシミュレートする。モーション再目的化のさらなる情報は、“Control Of Robots From Human Motion Descriptor”と題する2007年4月12日出願の米国出願11/734,758に記載されている。
(システム構造)
図2は、ある実施形態に係る、身体特徴を検出し人間姿勢を推定する姿勢推定システム100の機器構成を示すブロック図である。姿勢推定システム100は、深度画像ストリーム108内で検出された複数の特徴から、人間主体の身体姿勢を再構築する。特徴(又は、特徴点、解剖学的特徴、キー点)は、人間身体上の目立つ解剖学上のランドマークの三次元位置に対応する。一般性を失うことなく、姿勢推定システム100は、図5に示されるような、14個(k=14)の身体特徴を追跡する。示されているように、14個の特徴は、頭頂、左肩、右肩、左肘、右肘、左手首、右手首、左腰、右腰、股、左膝、右膝、左足首及び右足首である。再構築された(すなわち、推定された)人間姿勢qは、人間主体の姿勢を追跡する人間モデル内に記述される。ある実施形態においては、人間モデルは、人間主体の身体に酷似した人間解剖学モデルである。
図2に示されるように、姿勢推定システム100は、特徴検出モジュール202(キーポイント検出モジュールとも呼ぶ)、補間モジュール204、欠落特徴付加モジュール206、姿勢再構築モジュール208(制約された閉ループ逆運動学モジュールとも呼ぶ)及び不明瞭部分解像モジュール210を有する。
特徴検出モジュール202は、深度画像ストリーム108を受け取り、深度画像ストリーム108内の特徴を検出し、検出結果を出力する。検出結果中に、オクルージョンが発生する、信頼できない観測値が存在する、又は信頼度が低い観測値が存在することに起因して、ある特定の画像フレームについて実際に観測される特徴の数は、kよりも小さくてもよい。実際に観測される特徴の数を、m(m=0・・・k)とする。検出された特徴は、位置ベクトルpdet(220)によって表される。位置ベクトルpdetは、検出された個々の特徴に対応する三次元位置ベクトルを連結することによって形成される。図4に関連して詳細を後記するように、特徴検出モジュール202は、まず、深度画像ストリーム108内のフレームから区画された人間シルエット上の輪郭点をサンプリングし、次に、特徴点のIDSC記述子と、既知の特徴点のIDSC記述子とを類似度について比較することによってサンプル輪郭点のうちから特徴点を検出する。
補間モジュール204は、特徴検出モジュール202から受け取られたベクトルpdet
ある実施形態においては、姿勢推定システム100に送信される深度画像は、TOFカメラを使用して毎秒約15フレームの速度で取得される。後続モジュールのうちの姿勢再構築モジュール208において実行される数値積分を安定させるために、補間モジュール204は、検出された特徴を、より高い速度(例えば、100HZ)で再サンプリングする。
この所望の特徴ベクトルをp(224)とする。前記したように、オクルージョン又は信頼できない観測値に起因して、それぞれのフレームで検出された特徴の数は、14より小さくなるかもしれない(すなわち、m<k=14)。欠落特徴付加モジュール206は、姿勢再構築モジュール208から、フィードバック経路240を経て、予測された特徴p(228)を受け取り、p(228)を使用して、欠けている特徴を付加する。付加された特徴p(224)は、k=14個の所望の特徴を表しており、姿勢再構築モジュール208に入力されるために使用される。
姿勢再構築モジュール208は、p(224)、正確な人間モデル及びこのモデルの制約に基づいて、推定された姿勢q(230)及び予測された特徴p(228)を生成する。姿勢再構築モジュール208は、欠落特徴付加モジュール206及び不明瞭部分解像モジュール210に、p(228)を送信し、事後的に不明瞭部分を解像し、欠けている又は隠れている特徴を間欠的に推定する。推定された(すなわち、再構築された、回復された)姿勢は、ベクトルq(230)によってパラメータ化されており、予測されたモーションを記述し、人間モデル内で、任意のn自由度の、予測されたモーション及び姿勢を記述する。予測された特徴p(228)は、欠落特徴付加モジュール206にフィードバックされて、欠けている又は隠れている特徴を間欠的に付加し、不明瞭部分解像モジュール210にフィードバックされて、複数の特徴候補が検出されている場合の不明瞭部分を解像する。
不明瞭部分解像モジュール210は、特徴検出モジュール202が複数の特徴候補を検出したとき、不明瞭部分を解像する。不明瞭部分解像モジュール210は、姿勢再構築モジュール208から、フィードバック経路250を経て、予測された特徴p(228)を受け取り、p(228)を使用して不明瞭部分を解像する。例えば、予測された特徴p(228)は、ある特徴(すなわち、特徴検出モジュール202からの特徴)の1つの候補の仮定位置が、本来の位置である可能性はほとんどないことを示し、不明瞭部分解像モジュール210に、その特徴の以外の候補を予測された特徴として選択させてもよい。他の例として、不明瞭部分解像モジュール210は、対応する予測された特徴に最も近い特徴候補を選択して検出された特徴としてもよい。代替的に又は追加的に、不明瞭部分解像モジュール210は、予測された特徴を検出された特徴として使用してもよい。
姿勢推定システム100又は前記したその任意の構成要素は、ソフトウエア(例えば、プロッセサによって実行可能な命令を含むモジュール)として実現されても、ハードウエア(例えば、特定用途集積回路)として実現されても、これらの組み合わせとして実現されてもよい。ソフトウエア及び/又はソフトウエアは、プロッセサ、メモリ、コンピュータ読取可能記憶媒体(例えば、ハードドライブ)、ネットワークインタフェース、オペレーティングシステム及び他の機能ソフトウエア(例えば、ネットワークドライバ、通信プロトコル)を含むコンピュータシステム内で動作し得る。他の実施形態は、図2に示された他にも別の及び/又は追加的なモジュールを有し得ることを、当業者であれば認識するであろう。同様に、ここに記述されたものとは別の方法で、各機能が複数のモジュール間に配分され得る。さらに、これらの機能のうちには、姿勢推定システム100以外の構成から提供されるものが存在し得る。
(システム操作)
図3は、本実施形態に係る、人間身体姿勢を推定する姿勢推定システム100の処理手順の例を示すフローチャートである。
姿勢推定システム100(すなわち、特徴検出モジュール202)は、深度画像ストリーム108内の、人間主体の身体特徴を検出する(ステップ310)。ある実施形態においては、姿勢推定システム100は、まず、画像フレームから人間シルエットを区画し、次に、人間シルエット上の輪郭点をサンプリングすることによって、画像フレーム内の特徴を検出する(ステップ310)。姿勢推定システム100は、サンプル輪郭点内の特徴点のIDSC記述子を既知の特徴点のIDSC記述子と類似度について比較することによってサンプル輪郭点内の特徴点を識別する。特徴を検出する処理(ステップ310)は、図4との関係で、さらに詳しく後記する。複数の特徴候補が検出されるとき、姿勢推定システム100は、事前に生成されている予測された特徴pを使用して、不明瞭部分を解像する。
姿勢推定システム100(すなわち、補間モジュール204)は、検出された特徴pdetを補間して、データをより高い速度(例えば、100HZ)で再サンプリングする(ステップ320)。ある実施形態においては、姿勢推定システム100は、局地的三次元スプライン補間ルーチンを使用して検出された特徴を補間する(ステップ320)。当該補間は、姿勢再構築モジュール208において実行される数値積分を安定させるために実行される。ある実施形態においては、姿勢推定システム100は、検出された特徴pdetにローパスフィルタをかけた後に、フィルタをかけた特徴を補間する。
姿勢推定システム100(すなわち、欠落特徴付加モジュール206)は、検出されな
生成する(ステップ330)。前記したように、姿勢推定システム100は、オクルージョン又は信頼できない観測値に起因して、それぞれのフレーム内で、14個に満たない身体特徴しか検出できないかもしれない。姿勢推定システム100は、これらの検出されなかった特徴を、事前に生成されている予測された特徴pを使用して推定する。m<kである場合、検出された特徴は、再構築された姿勢を順行運動学的に計算して入手された(k−m)個の予測された特徴pによって付加される。
姿勢推定システム100(すなわち、姿勢再構築モジュール208)は、人間モデル上に人間主体の観測された身体姿勢qを再構築し、後続の特徴p(又は特徴点位置)を予測する(ステップ340)。それぞれの特徴の予測された位置は、ベクトルpによって記述され、その原点は、腰関節座標系に対応する基準フレームの原点である。ある実施形態においては、姿勢推定システム100は、複数の観測された特徴を追跡し、その特徴の重要性又は信頼水準に応じて特徴に優先順位を付けることによって人間姿勢を再構築する(ステップ340)。姿勢推定システム100は、関節限界及び自己衝突回避のような、人間モデルの運動学的制約を大きくすることによって、後続の特徴を予測する。
姿勢推定システム100は、観測された特徴及び予測された特徴を、デカルト空間内に表現する。これらの特徴は、人間モデルのモーションを完全に記述するために必要な自由度を定義するとは限らない。n自由度の人間モデルについて、ベクトルq=[q,・・・,q]によってここに記述される配置空間、すなわち関節空間は、人間モデルのモーションの特徴を完全に表現する。配置空間速度とデカルト空間速度との間でのマッピングは、これらの2つの空間に関する微分運動学を考慮することによって入手される。

速度である。J.J. Craig,“Introduction to robotics, mechanics and control”, Addition-Wesley, 2ndedition(1989)を参照されたい。
方法300の1又は複数の処理は、ハードウエア及び/又はソフトウエア又はこれらの組合せによって実施されてもよい。例えば、方法300は、ここに記述される動作を実行する命令を通じて実施されてもよく、このような命令は有形かつコンピュータ読取可能な媒体(例えば、フラッシュメモリ、RAM、不揮発性磁気記憶デバイス)に記憶され、コンピュータプロセッサによって実行され得る。さらに、他の実施形態は、異なる順序で方法300のステップを実行し得ることを、当業者であれば認識するであろう。さらに、他の実施形態は、ここに記述されたステップ以外にも、別の及び/又は追加的なステップを含み得る。姿勢推定システム100は、方法300のステップの複数のインスタンスを同時に実行させること、及び/又は、ステップを並列的に実行させることが可能である。
(特徴検出及び特徴追跡)
図4は、本発明のある実施形態に係る、深度画像ストリーム内の身体特徴を検出する姿勢推定システム100(すなわち、特徴検出モジュール202)の処理手順400を記述するフローチャートである。示されているように、姿勢推定システム100は、背景から人間形状(以降、人間シルエットと呼ぶ)を区画し(ステップ410)、深度画像内の人間シルエット上の輪郭点をサンプリングする(ステップ420)。姿勢推定システム100は、サンプル輪郭点の内側距離形状関係(IDSC)記述子を計算し(ステップ430)、計算されたIDSC記述子を、IDSC見本集合内の既知の特徴点のIDSC記述子と比較する(ステップ440)。姿勢推定システム100は、それぞれの特徴点ごとに、当該特徴点のIDSC記述子に最も類似するIDSC記述子を有するサンプル輪郭点を、現在の画像フレーム内の対応特徴点として、ラベル付けする。
処理手順400のステップは、さらに詳しく後記される。記述されている処理手順400は、深度画像ストリーム内の身体特徴を検出する。しかしながら、当該処理手順の代替的な実施形態が、ここに記述される原理を逸脱することなく、通常の二次元画像ストリームのような他のタイプの画像ストリーム内の身体特徴を検出してもよいことを、当業者であれば、明細書の後記する箇所から容易に認識するであろう。
(人間シルエット区画)
姿勢推定システム100は、人間シルエット区画処理(ステップ410)を経て、人間形状の画像領域(人間シルエット、前景とも呼ぶ)を、背景の画像領域から区画する。前景から区画されるべき背景不要物の例としては、深度計測空間の向こう側にある、床及び他の被写体がある。
ある実施形態によれば、前景は、[0,Zmax]に設定されている対象深度量(depth volume of interest、すなわち、深度計測空間)内にあるものと仮定されている。姿勢推定システム100は、当該関心体積の外側に位置する深度値を有する画像座標(すなわち、(Zmax,∞])を背景として識別する。姿勢推定システム100は、当該処理の間に、形態学的操作を実行し、白黒ノイズを削除し得る。
ある実施形態によれば、床は、深度画像法線ベクトルが概ね垂直な方向を指している画像領域内にあると仮定されている。姿勢推定システム100は、まず、深度画像内のそれぞれの画素における法線ベクトルを推定し、次に、垂直な法線ベクトルを有する画像座標を区画することによって、床を前景から区画する(ステップ410)。姿勢推定システム100は、この処理の間、ノイズに起因する誤差のマージンを考慮し得る。
姿勢推定システム100は、前記のように識別された背景の画像を深度画像ストリームから削除することによって、前景の画像を入手する。
(輪郭点サンプリング及びIDSC記述子計算)
形状関係は、複数の形状間の類似度を計測し、複数の形状間の点の対応関係を示すために使用される記述子である。S. Belongie, J. Malik and J. Puzicha,“Shape Matching and Object Recognition Using Shape Contexts”, IEEE Trans. Pattern Analysis and Machine Intel. (PAMI),509-522(2002)を参照されたい。ある被写体の形状関係は、被写体の輪郭に沿ったそれぞれの点を、輪郭上の他のすべての点との関係において記述する。ある形状の輪郭上にn個の点があると仮定する。点pの形状関係は、次の式(2)で定義されるような、残りの(n−1)個の点の相対座標hの粗いヒストグラムである。
式(2)において、kは、ヒストグラムのビン(棒グラフ、bin)の見出しを表し、#{.}という表記は、括弧内に定義される点の数を表す。当該ヒストグラムは、輪郭上のある点から輪郭上の他のすべての点までの距離、及び、輪郭上のある点が輪郭上の他のすべての点となす角度の双方に基づいて、輪郭上のそれぞれの点ごとに計算される。通常、棒は、対数極座標空間において、同じ形状で記載される。
内側距離形状関係(IDSC)は、元の形状関係の拡張である。H. Ling and D.W. Jacobs, “Shape Classification Using the Inner-Distance”, IEEE Trans. Pattern Analysis and Machine Intel. (PAMI), 286-299(2007)を参照されたい。形状関係と同様に、IDSCは、対数極座標空間における輪郭点のヒストグラムである。当該ヒストグラムは、それぞれの点が、他のすべての輪郭点と、距離及び角度の観点から、どのように関係しているかを記述する。輪郭点間の距離及び角度が計算されるという点で、IDSCは、形状関係とはそもそも異なる。形状関係記述子は、通常のユークリッド距離測定を使用する。一方、IDSC記述子は、被写体の輪郭内を巡回する最短経路に沿った複数の点の間の内側距離を計算する。IDSC内の角度関係も、被写体の輪郭の内側で計測された。これを内側角度と呼ぶ。内側角度は、出発点における輪郭接線と、出発点を起点とする内側距離の方向とがなす角度として定義される。内部距離及び内部角度を式(2)に適用することによって、IDSC記述子が計算される。
姿勢推定システム100は、区画された人間シルエットの輪郭に沿って、N個の点をサンプリングし(ステップ420)、式(2)を適用することによって、内側距離及び内側角度について、それぞれのサンプル輪郭点と他のすべてのサンプル輪郭点とのIDSC記述子を計算(すなわち、決定)する(ステップ430)。サンプリングされた輪郭点をxで表し、対応するIDSC記述子をIDSC(x)で表す。ここで、i=1,...,Nである。ある実施形態においては、輪郭点は、人間形状の輪郭に沿って等間隔で(すなわち、均一に)サンプリングされる(ステップ420)。
(特徴点識別)
異なる関節下に同じ被写体の2つの画像がある場合、当該被写体の同じ部分に属する輪郭点のIDSC記述子は(図6の2つの画像内の親指上の記号Δが付された点が示すように)類似している。一方、当該被写体の異なる部分に対応する点は、(図6において、記号Δ及び記号+が示すように)類似していない。
前記の観測から動機を得て、サンプル輪郭点のIDSC記述子を既知の特徴点のIDSC記述子と類似度について比較する(ステップ440)ことによって、特徴点は、人間シルエットの輪郭に沿って検出され得る。既知の特徴点のIDSC記述子(例えば、異なる画像内にラベル付けされている)が、他のサンプル輪郭点と比べて、特定のサンプル輪郭点のIDSC記述子により類似している場合、当該特定のサンプル輪郭点は、人間シルエット内の当該特定の特徴点として識別され、その結果、ラベル付けされ得る(ステップ450)。
このアプローチを使用する特徴検出を容易にするために、姿勢推定装置100は、訓練画像内の特徴点(例えば、図5に示される14個の特徴点)の位置を決定し(すなわち、ラベル付けし)、訓練画像内のこれらの特徴点ごとにIDSC記述子を計算することによって、既知の特徴点のIDSC記述子の見本集合を作成する。具体的には、見本集合(以降、IDSC見本集合と呼ぶ)は、IDSC_Gallery(j,l)と表記される。ここで、j=1,...,kであり、l=1,...,Mである。kは、既知の特徴点の数を表し、Mは、IDSC見本集合に含まれる訓練画像の数を表す。IDSC見本集合は、次の式(3)において示される見本集合行列として表記され得る。
特徴点D(j=1,...,k)として識別されるサンプル輪郭点x(i=1,...,N)は、式(4)によって識別される。
式(4)は、2つのヒストグラム間の、ビンごとの差異を計測し、すべてのビンの差異を合計し、合計の差異が最小となるヒストグラムのペアを、最良一致結果として識別する。このようにして、それぞれの特徴点ごとに、姿勢推定システム100は、1つのサンプル輪郭点を、人間シルエット内の特徴点として識別する。当該識別されたサンプル輪郭点のIDSC記述子は、他のすべてのサンプル輪郭点のIDSC記述子よりも、IDSC見本集合内の特徴点のIDSC記述子のうちの1つに類似している。
ある実施形態においては、姿勢推定システム100は、サンプル輪郭点のIDSC記述子と既知の特徴点のIDSC記述子との間の差異を、設定可能な閾値と比較する。当該差異が閾値を超える場合は、たとえ当該輪郭点が、式(4)を適用すれば既知の特徴点として識別されたとしても、姿勢推定システム100は、当該サンプル輪郭点が既知の参照点とは別のものとして区別可能であると決定する。IDSC見本集合内のある特定の特徴点のIDSC記述子と、すべてのサンプル輪郭点のIDSC記述子との間の差異が、閾値を超える場合は、姿勢推定システム100は、基本画像フレーム内の当該特定の特徴点を識別せず、当該特定の特徴点は欠けていると看做す。一方、複数のサンプル輪郭点のIDSC記述子と既知の特徴点のIDSC記述子との間の差異がすべて閾値を下回る場合は、姿勢推定システム100は、このようなすべてのサンプル輪郭点を、基本画像フレーム内の当該特定の特徴点についての特徴候補として識別してもよい。
ある実施形態においては、1つの身体特徴を表すために、複数の特徴点が使用され得る。たとえば、人間形状内の頭部を識別するために、頭頂の特徴点に加えて、左耳及び右耳が使用され得る。姿勢推定システム100は、これらの特徴点のIDSC記述子をグループにまとめて、累積IDSC記述子の形式にし、IDSC見本集合に含めることができる。人間シルエット内の特徴を検出するとき、姿勢推定システム100は、サンプル輪郭点のIDSC記述子の異なる組合せを、累積IDSC記述子と類似度について比較し、累積IDSC記述子に最も類似するIDSC記述子を有するグループを、当該特徴に関連付けられた特徴点として識別する。
姿勢推定システム100は、IDSC見本集合内の一致する特徴点に基づいて、識別された特徴点にラベル付けする(ステップ405)。例えば、サンプル輪郭点のIDSC記述子が、見本集合画像のうちの1つの左肩のIDSC記述子に最も近いと決定された場合、当該特定のサンプル輪郭点は、現在の画像フレーム内の左肩として、ラベル付けされる(ステップ450)。
人間シルエットの輪郭上の特徴点を検出するのに加えて、処理手順400は、内側の(すなわち、人間シルエットの内側の)特徴点を検出し得る。たとえば、姿勢推定システム100は、まず、輪郭上の左腰特徴点及び右腰特徴点を識別し、次に、左腰特徴点及び右腰特徴点の位置に基づいて腰中心の位置を導出することによって、人間形状の腰中心の位置(例えば、両者の中点)を識別し得る。同様に、姿勢推定システム100は、人間シルエットの輪郭上の2つの耳の位置に基づいて、頭中心を識別し得る。
オクルージョンのような理由に起因して、いくつかの特徴点が、人間シルエットの内側に来ることがある。例えば、深度画像において、右腕が胴体の前面にある場合、右肘及び右手首は、人間シルエットの内側に入り込んでしまい、輪郭上に現れない。ある実施形態においては、人間シルエットの輪郭に沿って特徴点を検出することに加えて、姿勢推定システム100は、骨格分析及び深度スライス分析のような追加的な技術を適用し、人間シルエットの内側に入り込む特徴点を検出する。人間形状内の特徴を検出するための追加的な技術についての更なる情報は、“Controlled Human Pose Estimation From Depth Image Streams”と題する2009年5月29日出願の米国特許出願12/445,257及び“Controlled Human Pose Estimation From Depth Image Streams”と題する2008年12月19日出願の米国特許出願12/317,369に記載されている。別のアプローチを使用して検出された特徴点であっても、特徴候補として扱われ、不明瞭部分解像モジュール210に対して入力され得る。さらに、姿勢推定システム100は、再構築された姿勢を順行運動学的に計算して入手された予測された特徴pによって、検出された特徴を付加してもよい。
一旦人間形状内の身体特徴が検出されると、姿勢推定システム100は、人間姿勢を推定する、身体領域を区画する、手の形のような身体セグメントの姿勢を認識するというような目的に、検出された特徴を即座に使用できる。手領域を区画し、手の姿勢を認識するための更なる情報は、“Capturing and Recognizing Hand Posture Using Inner Distance Shape Contexts”と題する、本願と同時に出願された米国特許出願##/###,###に記載されている。
(姿勢推定及び特徴予測)
姿勢推定システム100(すなわち、姿勢再構築モジュール208)は、人間主体の観測された身体姿勢qを再構築し、後続の特徴位置pを予測する(ステップ340)。ある実施形態においては、姿勢推定システム100は、特徴の重要度(又は信頼度)に応じて特徴に優先順位を付け、観測された姿勢を追跡する(デカルト追跡制御)ことによって身体姿勢qを再構築する(ステップ340)。さらに、姿勢推定システム100は、関節限界及び自己衝突回避のような人間モデルの運動学的制約を大きくすることによって、後続の特徴位置を予測する。運動学的制約は、(身体関節セグメントについては)関節限界回避及び(接続されていない身体セグメントについては)自己衝突回避として分類されてもよい。これらの操作は、詳細に後記される。
(デカルト追跡制御)
ある実施形態においては、姿勢推定システム100は、制御方針(デカルト追跡制御と呼ぶ)を適用する。当該制御方針は、推定された特徴と所望の(観測値からの)特徴との間のデカルト誤差が最小化されるように、関節変数(q)を生成する。追跡能力は、特徴追跡要件の実行と同様に、人間モデル運動学的制約に左右される。特徴追跡要件は複数存在し、相互に競合することも多い。ある実施形態においては、姿勢推定システム100は、閉ループ逆運動学(CLIK)として知られるデカルト空間運動学的制御方法に基づき、追跡制御アプローチを使用する。CLIKアルゴリズムの解を求める原理は、式(1)によって記述されるようなデカルト変数及び関節変数に関する微分運動学の反転処理である。単純化のために、i番目の特徴を参照する場合の上付文字iは、当該セクションにおいては一時的に省略される。
所望の変数値を、下付文字dで表す。関節速度は、式(1)を反転させて、フィードバック誤差項を加え、数値ドリフトを補正することによって、計算されてもよい。
式(5)において、J*は、正定値行列Wによって重み付けされたJの正規化された右疑似逆を表す。
パラメータλ>0は減衰項であり、Iは、恒等行列である。ベクトルp(・)は、所望の特徴速度に対応する。行列Kは、3×3の対角正定値利得行列であり、eは、観測された特徴と計算された特徴との間の位置誤差を表すベクトルである。位置誤差は、e=p−pとして単純に定義される。ここで、p及びpは、それぞれ、観測された特徴位置及び計算された特徴位置に対応する。
(複数特徴管理)
ある実施形態においては、姿勢推定システム100(すなわち、姿勢再構築モジュール208)は、観測値における特徴の重要度又は信頼水準に応じて特徴に優先順位を付ける。例えば、肘位置が検出し難い場合は、他の位置が主特徴として指定されるのに対して、肘位置は副特徴として指定されてもよい。
前記の公式化は、1つの特徴から人間姿勢を推定することを前提としている。複数特徴は、2つの方法で処理され得る。すなわち、付加及び優先付けである。これらの方法は、ロボットモーション制御文献に詳細に記述されている。B. Siciliano and J. Slotine, “A general framework for managing multiple tasks in highly redundant robotic systems”, International Conference on Advanced Robotics, volume 2, pages 1211-1216, Pisa, Italy(1991)を参照されたい。ある実施形態においては、姿勢推定システム100は、個々の空間速度の連結と、関連付けられたヤコビアン行列及びフィードバック利得行列とを参照する特徴付加を使用する。
付加されたシステムにおける追跡制御アルゴリズムの解法は、図5によって先述された方法と同じ方法に従う。特徴のそれぞれの成分ごとの追跡誤差率は、付加された空間における3k×3k対角行列を表す付加されたフィードバック利得行列Kによって制御できる。軌跡追跡誤差収束率は、式(5)のフィードバック利得行列の固有値に左右される。固有値が大きくなるほど、収束はより速くなる。ある実施形態においては、その関数は、連続時間システムの離散時間近似として実施される。したがって、固有値についての上限が存在し、その上限はサンプリング時間に左右される、と予測するのが合理的である。特定の特徴又はその個々の構成要素は、追跡方向に関連付けられたKの固有値を増加させることによってより正確に追跡され得る。Kの成分を調節することによって、姿勢推定システム100は、観測された信頼度の相対水準を効率的にコード化し得る。フィードバック利得値が高いほど、計測の信頼度は高くなる。
(制約された閉ループ逆運動学)
姿勢推定システム100は、人間モデル内で検出された人間姿勢を追跡する際、人間モデル運動学的制約を考慮する。運動学的制約の例として、関節限界及び自己衝突制約が挙げられる。このような運動学的制約をCLIK公式に統合する、制約された閉ループ逆運動学(CCLIK)アルゴリズムが、詳細に後記される。
(関節限界回避制約)
ある実施形態においては、関節制限回避は、姿勢推定システム100が式(6)の重み付け行列Wを正しく選択することによって達成される。重み付け行列の一例は、重み付けされた最小ノルム(WLN)解によって定義される。WLN解を初めて提案したのは、T.F. Chan and R.V. Dubey, “A weighted least-norm solution based scheme for avoiding joint limits for redundant joint manipulations”, IEEE Transaction on Robotics and Automation,11(2),(1995)である。WLN解は、減衰最小二乗ヤコビアン逆数の関係中で公式化される。WLN解は、関節限界付近で関節を減衰させる関節限界関数の勾配に基づいて、適当な重み付け行列を生成するために使用される。この解については後記する。
関節が限界に近づくほどより高い値を有し、関節限界において無限大になる候補関節限界関数は、H(q)で表される。H. Zghalらによって提案されたこのような候補関数の1つが、式(9)によって与えられる。
式(9)において、qは、i番目の自由度の一般化された座標を示し、qi,min及びqi,maxは、それぞれ、関節下限及び関節上限である。H. Zghal and R.V. Dubey, “Efficient gradient projection optimization for manipulators with multiple degrees of redundancy”, Int. Conf. Robotics and Automation, volume 2, pages 1006-1011(1990)を参照されたい。関節上限及び関節下限は、衝突回避に使用される、物理関節限界及び仮想関節限界のうち、より保守的な限界を表す。H(q)は、正規化されて、モーションの範囲内での変動を説明することに留意されたい。Hの勾配は、∇Hと表記され、関節限界勾配関数、すなわち、そのエントリが、Hの増加速度が最も速い方向を指すn×1ベクトルを表す。
関節iに関連付けられた成分は、式(11)によって与えられる。
勾配∂H(q)/∂qは、関節が関節範囲の中点にある場合ゼロに等しく、何れかの間接限界で無限大に概ね到達する。関節限界勾配重み付け行列は、WJLと表記され、対角成分wJLi(i=1…n)を有する、式(12)のn×n対角行列によって定義される。

式(6)の重み付け行列Wは、WJLによって作成される(例えば、W=WJL)。対角成分wJLiは、式(13)によって定義される。
項Δ|∂H/∂q|は、関節限界勾配関数の大きさの変化を表す。正値は、関節が関節限界に向かって動いていることを示し、一方、負値は、関節が関節限界から遠ざかって動いていることを示す。関節が関節限界に向かって動くとき、式(13)の1行目の条件によって記述された、関連付けられた重み因子は、非常に大きくなりモーションを減速させる。関節が関節限界に概ね到達すると、重み付け因子は無限大に漸近するが、このことは、関節が仮想的に停止することに対応する。関節が関節限界から遠ざかって動いている場合、モーションを制約する又は不利にする必要はない。このシナリオでは、式(13)の2行目の条件は、関節が自由に動くことを可能にする。したがって、WJLは、関節限界回避に使用され得る。
(自己衝突回避)
自己衝突回避は、1)接続された2つのセグメント間の衝突、2)接続されていない2つのセグメント間の衝突の2つのタイプのうちの1つとして分類され得る。セグメントが2つずつ接続されてペアになるということは、2つのセグメントは共通の関節において接続されていることを前提とし、その関節が回転することを保証する。
2つのセグメントが共通の回転関節で接続されている場合、すなわち、接続されたセグメントである場合、関節限界回避制約に関して詳しく前記したように、自己衝突は、関節範囲を限定することによって処理され得る。自己衝突回避のための関節制限は、解剖学上の関節限界に対応している必要はない。むしろ、自己衝突回避のための関節制限は、衝突が起こらない範囲を手動で確認することによって入手される値を有する、より保守的な仮想関節限界であってもよい。したがって、1つの回転関節で接続された2つのセグメントごとに、関節限界回避及び自己衝突回避が、前記と同じ技術を使用することによって実行され得る。
接続されていない2つの身体間、すなわち、関節を共有しない身体間の自己衝突の場合を考える。図7は、ある実施形態に係る、接続されていない2つの剛性身体710、720(すなわち、関節を共有しない身体)を示す。これらは、相互に衝突するのを回避するために方向を変更されている。一般的に、身体710(身体Aとも呼ぶ)及び身体720(身体Bとも呼ぶ)は、両者とも動いていてもよい。
2つの身体間の最短距離d(d≧0)は、p(712)及びp(722)の座標によって表され、その座標は、関節空間の基準フレーム内にある。2つの点p及びpを衝突点とも呼ぶ。
身体Aの実際の表面と身体Aの仮想表面730との間の領域を、危険地帯740と呼ぶ。身体Bが静止している場合、pにおけるモーションは、その方向が変更されて、危険地域740内に入り込むことを防止する。d<dであるとき、このように方向が変更される。
ある実施形態によれば、姿勢推定システム100は、所望のタスク特徴pの軌跡を修正することによってpのモーションを制御する(方向を変更する)。
他の実施形態においては、図7に示されるように、衝突点pにおける身体表面の接線の方向に沿って衝突点pがスライドするように、衝突点pの向きが変更される。
前記のベクトルの方向変更を使用して、pの衝突点モーションは、仮想表面の境界に沿ってガイドされ、その目標に向かう、より自然なモーションとなる。
式(16)において、J=∂p/∂qは、衝突点pにおけるヤコビアンであり、
* は、重み付けされた減衰最小二乗逆数である。行列S=diag(s・・・s)は、対角選択行列である。Jのi番目の列の成分がすべてゼロである場合、s=1
式(16)の物理的解釈は以下の通りである。
の任意のゼロ列(すべての成分がゼロ)は、関連付けられた自由度が、衝突点pのモーションに貢献しないことを暗示している。式(16)の第2項は、第1項の直交補間項であり、衝突点pのモーションに影響を与えないこれらの関節速度を計算する。
式(16)から計算された無衝突関節速度コマンドに基づいて、式(17)のように、再設計された位置タスク記述子軌跡が計算されてもよい。
パラメータが修正された閉ループ逆運動学方程式が、式(18)によって与えられる。
式(18)において、e´=p´−p´であり、K´は、適応的に変化する対角フィードバック利得行列である。距離dが減少するにつれて、その行列の値が減少する。現在時刻tにおけるp´は、一次の数値積分によって計算されてもよい。
式(17)に対する、ブレンドされた解が、式(20)によって与えられる。
式(20)において、bは、式(21)のS字状関数のような、適切なブレンディング関数である。
式(21)において、α及びδは、スカラパラメータであり、それぞれ、ブレンディング率及びブレンディング関数のシフトを調節するために使用される。ブレンディング関数の更なる情報は、“Real-Time Self Collision and Obstacle Avoidance”と題する2008年10月24日出願の米国特許出願12/257,664に記載されている。
身体Aが静止しており、身体Bが動いている場合も、前記した問題と同様である。身体A及び身体Bの両者が動いているとき、方向変更ベクトルは、危険点p及びpにおいて特定され、両者の危険点を制御するためにタスク付加が使用される。危険点における付加された速度ベクトル及びヤコビアンを、式(22)によって記述する。
式(16)と同じ手順にしたがって、方向が変更された関節速度の解を求めることができる。
方向が変更されたタスク記述子及び逆運動学的解法は、身体Aのモーションのみが考慮されるときに記述されたのと同じ手順に従う。前記アルゴリズムを使用して、接続されていない身体間の衝突を防ぐ処理の更なる情報は、“Real-Time Self Collision and Obstacle Avoidance”と題する2008年10月24日出願の米国特許出願12/257,664に記載されている。
[実施例]
開示される人間姿勢推定システムのある実施形態を、1つのTOFカメラを使用してテストする。2つの人間身体モーションシーケンスをTOFカメラによって取得し、人間姿勢推定システムに対して入力する。第1のシーケンスのスナップショットが、図8Aに示されており、第2のシーケンスのスナップショットが、図8Bに示されている。図8Aに示されているように、次の7つのキー特徴点が、第1のシーケンスのスナップショット内に、手動でラベル付けされている。すなわち、頭頂、左肩、右肩、左肘、右肘、左手及び右手である。これらのキー特徴点のIDSC記述子が、IDSC見本集合を作成するために計算される。人間姿勢推定システムは、次に、輪郭点をサンプリングし、輪郭点のIDSC記述子を、IDSC見本集合と比較することによって、第2のシーケンス内のキー特徴点を検出する。現物が8近傍画素の範囲内にあればよいとする比較によれば、人間姿勢推定システムの検出率は、85%であった。検出されたキー特徴点の位置が、現物によって特定された実際の位置を中心とする4×4の領域内にある場合、キー点検出は、正しいものとして受け入れられる。検出結果の例が、図8Bに示されている。
見本集合が、テスト画像の姿勢とは相当程度に異なる姿勢を有していた場合は、前記テスト結果は、非常に有望である。テストの更なる詳細については、2009年2月25日出願の米国特許仮出願61/155,439を参照されたい。
(追加的な実施形態)
前記の実施形態は、リアルタイムで特徴を検出し人間主体の身体姿勢を推定する姿勢推定システムを記述する。姿勢推定システムは動物のような他のモーション発生体の特徴検出及び姿勢推定にも使用され得ることが、当業者であれば理解できる。さらに、姿勢推定システムは、モーション再目標化、ロボットモーション生成及び制御、並びに、生体力学における関節トルク推定のような追加的な機能を提供し得る。例えば、姿勢推定システムの出力は、人間モーションを人間形ロボットにリアルタイムで移転するために効果的に使用され得る。
ある実施形態においては、二次元人間シルエット上の輪郭点の二次元IDSC記述子に基づいて特徴点を検出する代わりに、又はそれに加えて、姿勢推定システムは、(例えば、深度画像内の)三次元人間形状上の表面点の三次元内側距離形状関係(球面形状関係、3DIDSCとも呼ぶ)を計算する。姿勢推定システムは、形状の表面に沿って表面点をサンプリングし、サンプリングされた表面点ごとに3DIDSC記述子を計算し、3DIDSC記述子を既知の特徴点の3DIDSC見本集合と比較することによって、三次元人間形状の表面上の特徴点を検出し得る。
開示されている発明の実施形態は、計算速度が速い、モデルベースの、制御理論アプローチを提供し、身体特徴を検出し、検出された身体特徴から人間姿勢を推定する。開示されている姿勢推定システムは、多くの従前のアプローチであれば困難であった異なるモーションシーケンスの姿勢の再構築に成功している。さらに、姿勢推定システムは、特徴の小さな集合から人間姿勢を確実に回復し得る。
明細書の前記箇所のいくつかは、例えば、図3及び図4に記述されるような処理及び操作のような、アルゴリズム処理又はアルゴリズム操作の観点から実施形態を記述している。
複数の図に跨って同様の参照番号が記される場合、それらは同一の又は機能的に類似した構成要素を意味する。同様に、複数の図に跨って、それぞれの参照番号の最も左の数字は、当該参照番号が最初に使用された図に対応している。
本明細書において、“一実施形態”又は“ある実施形態”と言う場合は、本発明の少なくとも1つの実施形態に、その実施形態に関連して記述される1つの特徴又は構造が含まれていることを意味する。本明細書のあちこちに“ある実施形態では”という語が出現しても、必ずしも同一の実施形態を指しているわけではない。
後記する詳細説明のいくつかの部分は、アルゴリズム用語や、コンピュータメモリ内のデータビット作業を示す象徴的な表現による。これらのアルゴリズム的な説明や表現は、情報処理分野の当業者が、自らの業績の要旨を、同分野の他の当業者に最も効率的に伝えるために用いる手段である。アルゴリズムとは、ここでは、そして一般的にも、ある所望の結果に至る複数のステップ(命令)の首尾一貫したシーケンスのことを言う。ステップとは、物理量に対する物理的操作を要求するステップのことである。通常、必ずしも必要条件ではないが、それらの数値は、記憶され、送信され、合成され、比較されかつ操作され得る、電子的、磁気的又は光学的信号の形を取る。これらの信号のことを、ビット、値、要素、シンボル、文字、語又は番号等と呼ぶことが主として用語の共通化の理由から便宜である。さらに、物理量に対する物理的操作を要求するステップの配列のうちいくつかのものは、一般性を失うことなく、モジュール又はコードデバイスと呼ぶことが便宜である。
しかしながら、このような用語の全ては適当な物理量と関連付けられており、これらの物理量に付された単なる便宜的なラベルに過ぎない。後記において特段の説明がない限り、明細書本文全体を通じて、“処理”、“計算”、“算出”、“決定”又は“表示”等の用語を用いた説明は、(電子的な)物理量としてのデータを、コンピュータシステムのメモリ、レジスタ又は他の情報ストレージのなかで操作しかつ変形するコンピュータシステムや同様の電子的コンピューティングデバイスの動作や処理のことを言う。
本発明のいくつかの側面は、アルゴリズムの形になったプロセスステップや命令を含む。本発明のプロセスステップや命令は、ソフトウエア、ファームウエア又はハードウエアによって実装され、ソフトウエアで実施される場合は、ダウンロードされることが可能であり、多様なオペレーティングシステムが用いる別のプラットフォームから操作されることも可能である。
本発明は、操作を実行する装置にも関する。この装置は、所与の目的を達成する専用装置であってもよいし、コンピュータに記憶されたコンピュータプログラムによって動作する汎用コンピュータであってもよい。このようなコンピュータプログラムは、コンピュータが読取り可能な媒体に記憶され得る。その媒体とは、コンピュータシステムバスに接続可能な、フロッピーディスク(登録商標)、光ディスク、CD−ROM、電磁光学的ディスク、ROM、RAM、EPROM、EEPROM、電磁的又は光学的カード、ASIC又は電子的命令を記憶し得るあらゆる媒体を含むが、これらに限定されない。さらに、本明細書で言うコンピュータは、単体のプロセッサを含んでもよいし、コンピュータ能力を増加させるために複数のプロセッサを用いた装置であってもよい。
ここでいうアルゴリズムやディスプレイは、もともと特定のコンピュータや他の装置に関係している訳ではない。ここで教示される内容に従って、プログラムとともに多様な一般目的システムが使用され得る。又は、必要とされる方法ステップを実行するためにさらに特化した装置を作成することも便宜である。これらのシステムのそれぞれについてどのような構成が必要となるかは、後記する明細書本文から明らかになる。さらには、本発明は特定のプログラム言語を参照して記載されるものではない。本発明の教示を実施するために、多様なプログラム言語が使用され得る。後記において特定の言語に言及した場合、それは本発明の実施可能性及びベストモードを開示するためである。
さらに、本明細書で使用される言語は、主として意味の取りやすさ及び教示目的から選択されているのであって、本発明の主旨を限定するために選択されているのではない。従って、本発明の開示は、特許請求の範囲にて記述されている本発明の範囲を例示するものであるが限定するものではない。
100 姿勢推定システム
102 ソースシステム
108 深度画像ストリーム
202 特徴検出モジュール
204 補間モジュール
206 欠落特徴付加モジュール
208 姿勢再構築モジュール
210 不明瞭部分解像モジュール
220 検出された特徴
222 補間された特徴
224 所望の特徴
228 予測された特徴
230 推定された姿勢
240、250 フィードバック経路
710、720 身体
730 仮想表面
740 危険地域

Claims (17)

  1. 被写体の画像内における前記被写体の特徴点を検出するコンピュータに実行させる方法であって、
    前記コンピュータは、
    前記画像及び時間的に前記画像以前に取得された先行画像を含む複数の連続画像を受け取り、
    前記先行画像の特徴点の集合を検出し、
    前記画像の背景の画像領域から前記被写体の画像領域を区画し、
    前記被写体の前記区画された画像領域の輪郭に沿って複数の点をサンプリングし、
    前記複数の点ごとに、内側距離形状関係(IDSC)記述子を決定し、
    前記複数の点ごとに、当該点のIDSC記述子と前記先行画像の特徴点の特徴点IDSC記述子との間の差異を、閾値と比較し、
    前記複数の点のうち2つ以上の点について前記差異が前記閾値を超えない場合、時間的に前記画像以前に取得された前記先行画像について先行して検出された前記特徴点のうちの1つに基づいて、前記2つ以上の点のうちの1つを前記画像内における前記被写体の特徴点として選択すること
    を特徴とする方法。
  2. 前記特徴点IDSC記述子は、
    前記被写体の特徴点ごとに、IDSC記述子を含むIDSC見本集合から検索されること、
    を特徴とする請求項に記載の方法。
  3. 前記複数の特徴点は、
    前記被写体の前記区画された画像領域の前記輪郭に沿って一様にサンプリングされること、
    を特徴とする請求項1に記載の方法。
  4. 前記画像は、
    深度画像を含み、
    前記被写体は、
    人間主体を含むこと、
    を特徴とする請求項1に記載の方法。
  5. 前記被写体の前記画像領域を区画することは、
    予め決定された深度計測空間を超える深度値を有する、前記深度画像内の画像領域を、背景として識別し、
    垂直深度画像法線ベクトルを有する画像領域を、背景として識別すること、
    を特徴とする請求項に記載の方法。
  6. 前記特徴点は、
    頭頂、左肩、右肩、左肘、右肘、左手首、右手首、左腰、右腰、股、左膝、右膝、左足首及び右足首のうちの1つを含むこと、
    を特徴とする請求項に記載の方法。
  7. 前記コンピュータは、
    前記先行画像の前記先行して検出された特徴点のうちの1つに基づいて、欠けている特徴点を付加し、
    前記付加された特徴点及び人間モデルの運動学的制約に基づいて、前記人間モデルにおける、前記人間主体の姿勢を推定すること、
    を特徴とする請求項に記載の方法。
  8. 前記人間モデルにおける、前記人間主体の姿勢を推定することは、
    前記人間主体の観測された姿勢を有する、前記人間モデルの前記推定された姿勢を追跡すること、
    を特徴とする請求項に記載の方法。
  9. 前記コンピュータは、
    前記付加された特徴点及び前記人間モデルの前記運動学的制約に基づいて、予測された特徴点を生成すること、
    を特徴とする請求項に記載の方法。
  10. 前記人間モデルの前記運動学的制約は、
    関節限界及び自己衝突回避を含むこと、
    を特徴とする請求項に記載の方法。
  11. 前記コンピュータは、
    前記人間モデルの身体セグメントの実際の表面を包囲する仮想表面を作成し、
    前記身体セグメントと、接続されていない構造との間の距離を監視し、
    前記接続されていない構造が前記仮想表面を突き抜けるのを検出し、
    前記接続されていない構造が前記身体セグメントと衝突するのを防ぐ関節モーションの方向を決定し、
    前記方向が決定された関節モーションに基づき、前記身体セグメントの方向を変更し、前記接続されていない構造と衝突することを防ぐこと、
    を特徴とする請求項10に記載の方法。
  12. 前記コンピュータは、
    前記人間主体の前記画像領域上で骨格分析を実行し、前記人間主体の骨格画像を生成し、
    前記骨格画像を距離変換し、前記人間主体の、距離変換された骨格画像を生成し、
    前記距離変換された骨格画像内で前記人間主体の前記特徴点を検出すること、
    を特徴とする請求項に記載の方法。
  13. 前記距離変換された骨格画像内で前記人間主体の前記特徴点を検出することは、
    前記距離変換された骨格画像に基づいて、前記深度画像内に自己オクルージョンが存在するか否かを決定し、
    前記深度画像内に自己オクルージョンが存在すると決定された場合は、前記深度画像の追加的分析を実行し、前記人間主体の前記特徴点を検出すること、
    を特徴とする請求項12に記載の方法。
  14. 前記深度画像は、
    1つの飛行時間カメラによって取得されること、
    を特徴とする請求項に記載の方法。
  15. 前記コンピュータは、
    前記画像内の前記検出された特徴点にラベル付けをすること、
    を特徴とする請求項1に記載の方法。
  16. 被写体の画像内における前記被写体の特徴点を検出するシステムであって、
    前記システムは、
    実行可能なプログラムコードを実行するコンピュータプロセッサと、
    実行可能なコンピュータプログラムコードを格納するコンピュータ読取可能記憶媒体と、
    を有し、
    前記コンピュータプログラムコードは、
    前記コンピュータプロセッサに対して、
    前記画像及び時間的に前記画像以前に取得された先行画像を含む複数の連続画像を受け取り、
    前記先行画像の特徴点の集合を検出し、
    前記画像の背景の画像領域から前記被写体の画像領域を区画し、
    前記被写体の前記区画された画像領域の輪郭に沿って複数の点をサンプリングし、
    前記複数の点ごとに、内側距離形状関係(IDSC)記述子を決定し、
    前記複数の点ごとに、当該点のIDSC記述子と前記先行画像の特徴点の特徴点IDSC記述子との間の差異を、閾値と比較し、
    前記複数の点のうち2つ以上の点について前記差異が前記閾値を超えない場合、時間的に前記画像以前に取得された前記先行画像について先行して検出された前記特徴点のうちの1つに基づいて、前記2つ以上の点のうちの1つを前記画像内における前記被写体の特徴点として選択する処理を実行させること、
    を特徴とするシステム。
  17. 前記先行画像の特徴点の集合は、
    時間的に先行して取得された前記先行画像における前記被写体の再構成後の姿勢を閉ループ逆運動学によって算出することよって検出されること、
    を特徴とする請求項1に記載の方法。
JP2011552074A 2009-02-25 2010-02-19 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 Active JP5647155B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15543909P 2009-02-25 2009-02-25
US61/155,439 2009-02-25
PCT/US2010/024697 WO2010099035A1 (en) 2009-02-25 2010-02-19 Body feature detection and human pose estimation using inner distance shape contexts

Publications (2)

Publication Number Publication Date
JP2012518857A JP2012518857A (ja) 2012-08-16
JP5647155B2 true JP5647155B2 (ja) 2014-12-24

Family

ID=42631005

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011552073A Expired - Fee Related JP5253588B2 (ja) 2009-02-25 2010-02-19 内部距離形状関連法を用いた手姿勢の取り込み及び認識
JP2011552074A Active JP5647155B2 (ja) 2009-02-25 2010-02-19 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011552073A Expired - Fee Related JP5253588B2 (ja) 2009-02-25 2010-02-19 内部距離形状関連法を用いた手姿勢の取り込み及び認識

Country Status (3)

Country Link
US (2) US8428311B2 (ja)
JP (2) JP5253588B2 (ja)
WO (2) WO2010099035A1 (ja)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
US8126858B1 (en) 2008-01-23 2012-02-28 A9.Com, Inc. System and method for delivering content to a communication device in a content delivery system
WO2010099035A1 (en) 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Body feature detection and human pose estimation using inner distance shape contexts
US8686992B1 (en) * 2009-03-30 2014-04-01 Google Inc. Methods and systems for 3D shape matching and retrieval
US20110054870A1 (en) * 2009-09-02 2011-03-03 Honda Motor Co., Ltd. Vision Based Human Activity Recognition and Monitoring System for Guided Virtual Rehabilitation
JP5290915B2 (ja) * 2009-09-03 2013-09-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US8600166B2 (en) 2009-11-06 2013-12-03 Sony Corporation Real time hand tracking, pose classification and interface control
US8514188B2 (en) * 2009-12-30 2013-08-20 Microsoft Corporation Hand posture mode constraints on touch input
JP6321905B2 (ja) * 2010-02-25 2018-05-09 本田技研工業株式会社 関節システムの制御方法、記憶媒体、制御システム
US8639020B1 (en) * 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US8994792B2 (en) * 2010-08-27 2015-03-31 Broadcom Corporation Method and system for creating a 3D video from a monoscopic 2D video and corresponding depth information
US9213890B2 (en) * 2010-09-17 2015-12-15 Sony Corporation Gesture recognition system for TV control
US8990199B1 (en) 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
US8422782B1 (en) * 2010-09-30 2013-04-16 A9.Com, Inc. Contour detection and image classification
US8463036B1 (en) 2010-09-30 2013-06-11 A9.Com, Inc. Shape-based search of a collection of content
US8532391B2 (en) * 2010-09-30 2013-09-10 Intuit Inc. Recognizing a feature of an image independently of the orientation or scale of the image
US9036920B2 (en) * 2010-10-08 2015-05-19 Industrial Technology Research Institute Method of detecting feature points of an object in a system for motion detection
US8615136B2 (en) * 2010-10-08 2013-12-24 Industrial Technology Research Institute Computing device and method for motion detection
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8781221B2 (en) * 2011-04-11 2014-07-15 Intel Corporation Hand gesture recognition system
KR101804848B1 (ko) * 2011-04-22 2017-12-06 삼성전자주식회사 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
CA2872841C (en) 2011-05-09 2019-08-06 Catherine Grace Mcvey Image analysis for determining characteristics of animals and humans
US9552637B2 (en) 2011-05-09 2017-01-24 Catherine G. McVey Image analysis for determining characteristics of groups of individuals
US9098898B2 (en) * 2011-05-09 2015-08-04 Catherine Grace McVey Image analysis for determining characteristics of individuals
US9355329B2 (en) * 2011-05-09 2016-05-31 Catherine G. McVey Image analysis for determining characteristics of pairs of individuals
US8929612B2 (en) * 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
JP6049327B2 (ja) * 2011-08-11 2016-12-21 キヤノン株式会社 画像処理装置およびその制御方法
TWI484450B (zh) * 2011-08-23 2015-05-11 Hon Hai Prec Ind Co Ltd 手語翻譯系統、手語翻譯裝置及手語翻譯方法
CN102956132B (zh) * 2011-08-25 2015-02-25 赛恩倍吉科技顾问(深圳)有限公司 手语翻译系统、手语翻译装置及手语翻译方法
US9002099B2 (en) * 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
TWI437467B (zh) 2011-10-11 2014-05-11 Ind Tech Res Inst 顯示控制裝置及顯示控制方法
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9443137B2 (en) 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
CN103426156A (zh) * 2012-05-15 2013-12-04 中国科学院声学研究所 一种基于svm分类器的sas图像分割方法及系统
TWI496090B (zh) 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
TWI479430B (zh) * 2012-10-08 2015-04-01 Pixart Imaging Inc 以自然影像進行的手勢辨識方法
CN103854278A (zh) * 2012-12-06 2014-06-11 五邑大学 基于连通区域质心形状上下文的印刷电路板图像配准方法
US10572774B2 (en) 2012-12-06 2020-02-25 Toyota Motor Engineering & Manufacturing North America. Inc. Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters
US8805017B2 (en) * 2012-12-13 2014-08-12 Intel Corporation Gesture pre-processing of video stream to reduce platform power
US8761448B1 (en) 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
CN103020971A (zh) * 2012-12-28 2013-04-03 青岛爱维互动信息技术有限公司 从图像中自动分割目标对象的方法
US9104240B2 (en) 2013-01-09 2015-08-11 Intel Corporation Gesture pre-processing of video stream with hold-off period to reduce platform power
US9292103B2 (en) 2013-03-13 2016-03-22 Intel Corporation Gesture pre-processing of video stream using skintone detection
JP6160148B2 (ja) * 2013-03-19 2017-07-12 富士通株式会社 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
CN103246884B (zh) * 2013-05-22 2016-08-10 清华大学 基于深度图像序列的实时人体动作识别方法及装置
CN103489000A (zh) * 2013-09-18 2014-01-01 柳州市博源环科科技有限公司 一种人体动作识别训练系统的实现方法
CN103473562B (zh) * 2013-09-18 2017-01-11 王碧春 特定人体动作的自动训练和识别系统
US9558563B1 (en) * 2013-09-25 2017-01-31 Amazon Technologies, Inc. Determining time-of-fight measurement parameters
US9811916B1 (en) * 2013-09-25 2017-11-07 Amazon Technologies, Inc. Approaches for head tracking
PL406971A1 (pl) * 2014-01-28 2015-08-03 Politechnika Poznańska Sposób analizy zachowania osób w inteligentnym systemie monitorowania oraz inteligentny system monitorowania
TWI499985B (zh) * 2014-04-30 2015-09-11 Univ Nat Taiwan Science Tech 影像特徵點自動點選方法和對應系統
CN104008399B (zh) * 2014-06-12 2017-03-01 哈尔滨工业大学 一种仪表检测中基于支持向量机的仪表指针抖动的识别方法
US10146318B2 (en) 2014-06-13 2018-12-04 Thomas Malzbender Techniques for using gesture recognition to effectuate character selection
US9740924B1 (en) * 2014-09-26 2017-08-22 Amazon Technologies, Inc. Feature-based pose detection
US10043101B2 (en) * 2014-11-07 2018-08-07 Adobe Systems Incorporated Local feature representation for image recognition
JP6500500B2 (ja) * 2015-02-27 2019-04-17 富士通株式会社 画像判定装置、画像判定方法、及びプログラム
GB2536493B (en) * 2015-03-20 2020-11-18 Toshiba Europe Ltd Object pose recognition
US9878447B2 (en) * 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
US9569661B2 (en) * 2015-05-21 2017-02-14 Futurewei Technologies, Inc. Apparatus and method for neck and shoulder landmark detection
CN105354528A (zh) * 2015-07-15 2016-02-24 中国科学院深圳先进技术研究院 基于深度图像序列的人体动作识别的方法及系统
US9669543B1 (en) 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
US10186081B2 (en) 2015-12-29 2019-01-22 Microsoft Technology Licensing, Llc Tracking rigged smooth-surface models of articulated objects
US10565791B2 (en) 2015-12-29 2020-02-18 Microsoft Technology Licensing, Llc Tracking rigged polygon-mesh models of articulated objects
US10037624B2 (en) 2015-12-29 2018-07-31 Microsoft Technology Licensing, Llc Calibrating object shape
KR20170116437A (ko) * 2016-04-11 2017-10-19 전자부품연구원 스키 시뮬레이터에서 사용자 자세 인식 장치 및 그 방법
JP6688990B2 (ja) * 2016-04-28 2020-04-28 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび記録媒体
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
CN106407519B (zh) * 2016-08-31 2019-04-16 浙江大学 一种人群移动规律的建模方法
US10614591B2 (en) * 2017-05-31 2020-04-07 Google Llc Hand tracking based on articulated distance field
JP7197171B2 (ja) * 2017-06-21 2022-12-27 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US10540778B2 (en) * 2017-06-30 2020-01-21 Intel Corporation System for determining anatomical feature orientation
US10899017B1 (en) * 2017-08-03 2021-01-26 Hrl Laboratories, Llc System for co-adaptation of robot control to human biomechanics
WO2019050916A1 (en) * 2017-09-11 2019-03-14 Track160, Ltd. TECHNIQUES FOR RENDERING THREE-DIMENSIONAL ANIMATED GRAPHICS FROM A VIDEO
CN109800774A (zh) * 2017-11-17 2019-05-24 中国电信股份有限公司 形状匹配方法、装置及计算机可读存储介质
CN108830248B (zh) * 2018-06-25 2022-05-17 中南大学 一种行人局部特征大数据混合提取方法
CN109325412B (zh) * 2018-08-17 2023-11-24 平安科技(深圳)有限公司 行人识别方法、装置、计算机设备及存储介质
GB2583687B (en) 2018-09-12 2022-07-20 Sony Interactive Entertainment Inc Method and system for generating a 3D reconstruction of a human
CN110941977A (zh) * 2018-09-25 2020-03-31 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
US10902638B2 (en) 2018-09-28 2021-01-26 Wipro Limited Method and system for detecting pose of a subject in real-time
CN110097639B (zh) * 2019-03-18 2023-04-18 北京工业大学 一种三维人体姿态估计方法
CN110059661B (zh) * 2019-04-26 2022-11-22 腾讯科技(深圳)有限公司 动作识别方法、人机交互方法、装置及存储介质
CN110705448B (zh) * 2019-09-27 2023-01-20 北京市商汤科技开发有限公司 一种人体检测方法及装置
CN110705465B (zh) * 2019-09-30 2021-05-18 哈尔滨理工大学 一种基于图像处理的手型分类方法
JP7350602B2 (ja) * 2019-10-07 2023-09-26 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP7312079B2 (ja) * 2019-10-07 2023-07-20 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
CN112668359A (zh) * 2019-10-15 2021-04-16 富士通株式会社 动作识别方法、动作识别装置和电子设备
US11288841B2 (en) * 2019-10-17 2022-03-29 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for patient positioning
CN110840652A (zh) * 2019-11-11 2020-02-28 北京海益同展信息科技有限公司 可穿戴设备、信息处理方法和装置
CN111178208B (zh) * 2019-12-20 2023-08-15 华瑞新智科技(北京)有限公司 基于深度学习的行人检测方法、装置及介质
CN113043267A (zh) * 2019-12-26 2021-06-29 深圳市优必选科技股份有限公司 机器人控制方法、装置、机器人及计算机可读存储介质
CN111275763B (zh) * 2020-01-20 2023-10-13 深圳市普渡科技有限公司 闭环检测系统、多传感器融合slam系统及机器人
US11386713B2 (en) 2020-05-06 2022-07-12 Motorola Solutions, Inc. Anomalous pose detection method and system
DE102020116296A1 (de) 2020-06-19 2021-12-23 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur ermittlung räumlicher positionen einer hand und der finger der hand in einem raumbereich
CN111753721A (zh) * 2020-06-24 2020-10-09 上海依图网络科技有限公司 一种人体姿态的识别方法及装置
GB2606753A (en) 2021-05-20 2022-11-23 Continental Automotive Gmbh In-cabin monitoring method and related pose pattern categorization method

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3161921B2 (ja) 1994-10-27 2001-04-25 ファナック株式会社 製品品質影響要因解析方法と装置及び成形条件調整方法、製品良否判別項目選択方法
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6853964B1 (en) 2000-06-30 2005-02-08 Alyn Rockwood System for encoding and manipulating models of objects
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
JP4304337B2 (ja) * 2001-09-17 2009-07-29 独立行政法人産業技術総合研究所 インタフェース装置
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
GB0308943D0 (en) 2003-04-17 2003-05-28 Univ Dundee A system for determining the body pose of a person from images
WO2004107266A1 (en) 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
FR2861858B1 (fr) * 2003-10-29 2014-09-05 Snecma Moteurs Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions entre l'objet articule et l'environnement
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
WO2007006114A1 (en) 2005-07-07 2007-01-18 Vx Technologies Inc. Methods for silhouette extraction
US7715623B2 (en) * 2005-11-14 2010-05-11 Siemens Medical Solutions Usa, Inc. Diffusion distance for histogram comparison
US8280169B2 (en) 2005-12-21 2012-10-02 Michael Linderman Recordation of handwriting and hand movement using electromyography
US8924021B2 (en) 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
EP2015665B1 (en) * 2006-05-04 2009-08-19 Provost, Fellows and Scholars of the College of the Holy and Undivided Trinity of Queen Elizabeth near Dublin A hand washing monitoring system
CN101454803A (zh) 2006-05-25 2009-06-10 日本电气株式会社 视频的特殊效果检测装置、特殊效果检测方法、特殊效果检测程序及视频再生装置
KR100776801B1 (ko) * 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
EP2049983A2 (en) * 2006-08-07 2009-04-22 Yeda Research And Development Co. Ltd. Data similarity and importance using local and global evidence scores
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
FR2911983B1 (fr) * 2007-01-25 2009-05-29 St Microelectronics Sa Procede de suivi automatique des mouvements de la mains dans une sequence d'images.
US8103109B2 (en) 2007-06-19 2012-01-24 Microsoft Corporation Recognizing hand poses and/or object classes
US8170287B2 (en) 2007-10-26 2012-05-01 Honda Motor Co., Ltd. Real-time self collision and obstacle avoidance
WO2009086088A1 (en) * 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US9165199B2 (en) * 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
WO2010099035A1 (en) 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Body feature detection and human pose estimation using inner distance shape contexts

Also Published As

Publication number Publication date
US20100215271A1 (en) 2010-08-26
WO2010099035A1 (en) 2010-09-02
WO2010099034A1 (en) 2010-09-02
JP2012518856A (ja) 2012-08-16
US20100215257A1 (en) 2010-08-26
JP2012518857A (ja) 2012-08-16
JP5253588B2 (ja) 2013-07-31
US8428311B2 (en) 2013-04-23
US9904845B2 (en) 2018-02-27

Similar Documents

Publication Publication Date Title
JP5647155B2 (ja) 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定
US9098766B2 (en) Controlled human pose estimation from depth image streams
JP5211069B2 (ja) ラベル付けを用いた人体姿勢の推定および追跡
Zhu et al. Controlled human pose estimation from depth image streams
Siddiqui et al. Human pose estimation from a single view point, real-time range sensor
US9165199B2 (en) Controlled human pose estimation from depth image streams
Lee et al. Human pose tracking in monocular sequence using multilevel structured models
Schwarz et al. Estimating human 3d pose from time-of-flight images based on geodesic distances and optical flow
JP4985516B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US9098740B2 (en) Apparatus, method, and medium detecting object pose
Saeedi et al. Vision-based 3-D trajectory tracking for unknown environments
Zhu et al. Kinematic self retargeting: A framework for human pose estimation
JP2011186576A (ja) 動作認識装置
EP2899706B9 (en) Method and system for analyzing human behavior in an intelligent surveillance system
Lee et al. Human body tracking with auxiliary measurements
Ge et al. Vipose: Real-time visual-inertial 6d object pose tracking
Zhu et al. Fusing panoptic segmentation and geometry information for robust visual slam in dynamic environments
Che et al. Detection-guided 3D hand tracking for mobile AR applications
Pavllo et al. Real-time marker-based finger tracking with neural networks
KR20200057572A (ko) 딥러닝 기반 손 인식 증강현실 상호 작용 장치 및 방법
Wang et al. A Visual SLAM Algorithm Based on Image Semantic Segmentation in Dynamic Environment
Taguchi et al. Unsupervised Simultaneous Learning for Camera Re-Localization and Depth Estimation from Video
Jaume-i-Capó et al. Adding image constraints to inverse kinematics for human motion capture
Wang et al. 3D-2D spatiotemporal registration for sports motion analysis
Herdtweck et al. Monocular heading estimation in non-stationary urban environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141106

R150 Certificate of patent or registration of utility model

Ref document number: 5647155

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250