JP2014522058A - 三次元オブジェクトのモデリング、フィッティング、およびトラッキング - Google Patents

三次元オブジェクトのモデリング、フィッティング、およびトラッキング Download PDF

Info

Publication number
JP2014522058A
JP2014522058A JP2014524423A JP2014524423A JP2014522058A JP 2014522058 A JP2014522058 A JP 2014522058A JP 2014524423 A JP2014524423 A JP 2014524423A JP 2014524423 A JP2014524423 A JP 2014524423A JP 2014522058 A JP2014522058 A JP 2014522058A
Authority
JP
Japan
Prior art keywords
point cloud
skeleton
tracked
representation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014524423A
Other languages
English (en)
Other versions
JP5855751B2 (ja
Inventor
ギーグ、ローラン
レンニュイ、アントワーヌ
ロイ、ジェレミー
Original Assignee
ソフトキネティック ソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティック ソフトウェア filed Critical ソフトキネティック ソフトウェア
Publication of JP2014522058A publication Critical patent/JP2014522058A/ja
Application granted granted Critical
Publication of JP5855751B2 publication Critical patent/JP5855751B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

三次元点群の中のオブジェクトの骨格表現の、マーカーのない三次元モデリング、フィッティング、およびトラッキングの方法とシステムをここに説明する。特に、それは、時間に対する人間のユーザの骨格表現のトラッキングに関する。本方法は、距離画像から導き出される三次元点群を入力するステップ(210)と、ユーザの骨格を表現する制御点の集合を事前に決めるステップと、スタートアップの骨格のポーズを決めるステップと、あらかじめ既定される静的な大きさで3D点群をサンプリングすることによってグリッド上に投影される、ユーザの3D点群の正投影表現を得るステップ(220)と、ユーザの主要部分の中心軸を近似する曲率中心の点の集合を決めるステップと、トルソ平面を決めるステップと、体の主方向を改良するおよび/または規定するステップとを含む。そして、本方法は、時間に沿って骨格姿勢をトラッキングするために、制御点の集合に、ユーザの3D点群と曲率中心の点のような関係するデータへの、くりかえしの局所的な、および全体的なフィッティングを、形態学的および幾何学的制約を使用して実行するステップ(230)を含む。そして、骨格のポーズを安定化させるステップ(240)と、曖昧さを解決するステップ(250)と、適切な出力を提供するステップ(260)とは、本発明の好ましい実施形態の最後のステップである。

Description

本発明は三次元オブジェクトのモデリングに関し、特に、オブジェクトのモデリング、フィッティング、およびトラッキングの方法に関するもので、とりわけ、これに限る訳ではないが、三次元画像システムによって捕捉された距離画像の時系列におけるユーザの骨格表現を決定すること、フィッティングおよびトラッキングすることに関する。
立体視カメラ、飛行時間型(TOF)カメラ、および立体照明カメラなどの三次元(3D)画像システムは、1つのシーンにおける画像化された点それぞれについてX、Y、Z座標を少なくとも提供する2D画像である、距離画像の時系列を作成する。X、Y座標は、カメラセンサのマトリックスアレイにおけるその画素の水平、垂直位置を示し、Z座標は、そのシーンの中の画像化された点の、画像装置への距離を示し得る。あるいは、あるシーンにおける画像化された点のそれぞれは、3D空間における位置に対応するX、Y、Z座標、例えば、原点に基準点を有する3D座標系に対して表現される座標からなる。カメラの位置は、カメラの座標系を規定するために、基準点として選択され得る。しかしながら、あるシーンにおける画像化された点は、基準点がカメラ位置に設定されるのではなく、そのシーンにおける画像化された点のそれぞれのX、Y、Z座標が、いわゆるワールド座標系における現実の位置を表すように画像化される現実世界のシーンにおけるある点の位置に存在するように決定される、他の3D座標系でも表現され得る。特定の制限を含め、現実世界とカメラの座標系の間の変換は、特定の3D座標の幾何学的投影法を実行するために、例えば較正行列を用いる、数学的変換を適用することによって簡単に実施することができる。
どのような座標系を使っても、作成された距離画像は、特許文献1に述べられているような特定の2Dまたは3D分析方法を用いて、そのシーンにおける、関節で連結された人間の体や動物の体など、すなわちユーザを含むオブジェクトを検出し、ローカライズし、トラッキングし、分割し、分析するために処理することが可能である。そのような方法の1つの結果は、特に、一組の3Dポイントを、現実世界におけるそれぞれの人体またはオブジェクトを仮想世界において表現する点として画定するのに役立ち得る。
オブジェクトまたは少なくともユーザの体を表現するそのような3D点群を時間経過とともに処理することにより、モデルあるいはオブジェクトもしくは体のその他の種類の表現のマッピング、フィッティング、およびトラッキングが可能になる。例えば、現実世界におけるオブジェクトまたはユーザの動きについて、対応する、仮想世界におけるオブジェクトまたは体の仮想表現をモニターしまたは制御するために、人間の体、もしくはオブジェクトの骨格表現を、マッピングし、フィッティングし、およびトラッキングすることが可能である。これはモーションキャプチャと呼ばれる。
従来技術の画像処理技術においては、あるシーンでの骨格をトラッキングするための通常の方法は、骨格がトラッキングされるユーザに関連したマーカーの使用が必要であり、ユーザ自身よりもむしろそのマーカーがトラッキングされる。場合によっては、これらのマーカーは、スーツやユーザが身に着けている他のアイテムに取り付けられる。
より最近は、距離画像化装置の出力デ−タ、つまり、距離画像が、マーカーのない骨格のトラッキングのために使用され始めた。そのような画像装置を使うことによって、パターンマッチング技術を使用した身体部位認識と併せて、トラッキングは2Dまたは3Dの運動の検出と、一体化されたいくつかの推定技術に依存している。加えて、姿勢の認識と推定も、主として、モデルを利用したマッチング技術を使用する。
特許文献2には、距離画像から人間型の形態をモデリングするためのコンピュータにより実施される方法が開示されている。より具体的には、その方法は、人間型対象物の体を含むシーンの距離画像を受け取ることを含む。距離画像は画素の行列を含み、各画素はそのシーンのそれぞれの位置に対応し、基準位置からそれぞれの位置までの距離を示すそれぞれの画素値を有している。距離画像は、体の輪郭を発見するために分割され、引き続いて、考慮されている対象のトルソと1つ以上の肢部を識別するために処理される。距離画像における識別された肢部の少なくとも1つの配置を分析することによって、コンピュータ上で動くアプリケーションプログラムを制御するために、入力信号が生成される。
特許文献3には、骨格を距離画像から抽出する方法が記載されている。この方法は、頭部を有する人間型形態を含むシーンの距離画像の時系列を受け取ることを含む。距離画像は、それぞれの画素の奥行き値を有する画素の行列を含む。デジタルプロセッサは、距離画像の少なくとも1つを処理して、頭部の位置を発見し、その位置に基づいて、較正のポーズまたは姿勢で立っている人間型形態の寸法を推定する。プロセッサは、推定された寸法、身体部位の識別、および動きの推定方法を使用して、時系列にわたる人間型形態の動きを追跡する。
特許文献4では、人間の入力を処理するために、シーンの奥行き情報を捕捉するシステムと方法が使われる。シーンの奥行きの画像が、画像装置によって捕捉される。画像の捕捉は、シーンに対するカメラの方向に依存している。そして、奥行きの画像は、その奥行きの画像が人間と人間でないターゲットを含んでいるかどうかを判断するために分析される。例えば、奥行きの画像は、一人の人間のターゲットといくつかの人間でないターゲットを含む1つ以上のターゲットを含むことが可能である。1つの実施形態によれば、各ターゲットは塗りつぶされ、そのターゲットが人間のターゲットであるか否かを判断するためにパターンと比較される。もし奥行きの画像における1つ以上のターゲットが、人間のターゲットからなる場合、その人間のターゲットがスキャンされ、人間のターゲットの骨格モデルが、身体部位が識別される元となる人間のターゲットの2値マスクのスキャンに基づいて生成される。
特許文献5には、三次元(3D)環境における対象の動きをマーカーなしでトラッキングするための、画像処理に基づいた方法が開示されており、奥行き情報を含む入力画像が含まれている。この方法は、運動検出の原理を使用して、二次元(2D)の下部および上部の身体部位の検出ユニットを使用する。これらの検出ユニットは、空間において、3Dの身体部位の各々のための個々の候補の位置を特定するために下部および上部の身体部位モデルを使用する、いくつかの身体部位検出ユニットと関連している。いくつかの予想される体の姿勢にしたがって完全なモデルを描きだすために、モデルレンダリングユニットが使われる。
特許文献6には、アプリケーションインターフェースとともに奥行きセンサを使用する方法が開示されている。この方法は、人間型対象の体を含むシーンの距離画像にデータ処理を行うことを含む。上述の特許文献2で使用されるのと同様の方法において、距離画像は、画素の行列を含み、各画素は、シーンのそれぞれの位置に対応しており、かつ基準平面からそれぞれの位置までの距離を示すそれぞれの画素の奥行き値を有している。そして、距離画像は、人間型対象の体の少なくとも一部の骨格を抽出するようデジタルプロセッサで処理されが、その骨格はそれぞれの座標を有する多数の関節を含み、基準平面に対して少なくとも10°回転させた体の前頭面を規定するために使われる、異なる各自の奥行き値を有する少なくとも2つの肩関節を含んでいる。アプリケーションプログラムインターフェース(API)は、少なくとも、関節の座標を示す。
特許文献7には、カラー画像と深さ処理の組合せによって身体部位を追跡するための方法が開示されている。この方法は、画像処理技術に基づいており、人間の対象を含むシーンの奥行き画像を受け取ることと、人間の対象を含むそのシーンのカラー画像を受け取ることとを含む。対象の体の一部が、少なくとも1つの画像において識別される。深さ画像とカラー画像の両方の質が評価され、その質に応じて、1つの画像が、それらの画像中の体の一部の処理において支配的になるように選択される。識別された部分は、もう一方の画像からのサポートデータを使いながら、その支配的画像において位置決定される。
いくつかの既存の方法が、いくつかの特定の実施形態における骨格のマッピングを開示しているにもかかわらず、正しく対処されていない1つの重要な問題は、いつ、一つのシーンの画像化された点のそれぞれを表現する距離画像または対応する3D点群を使用して本来の距離画像の解像度とは独立に処理時間を有する頑強で効果的な方法を提供するか、とりわけ、いつ、頑強で効果的なフィッティングされた骨格に生の距離画像の完全処理を、低価格仕様のハードウエアのプラットフォームでリアルタイムに実行するかということである。
加えて、セグメントのかみ合わせを扱うことができ、関節の制限、速度の制約、衝突の制約を同時に考慮に入れることができる、いかなるオブジェクトのフィッティングおよびトラッキング方法も開示がない。さらに、いかなる既存の方法も、トラッキングすべきユーザまたはオブジェクトについて、形態学的に知ることなしに、姿勢のエラーから回復することができない。さらに、いかなる既存の方法も、骨格表現のフィッティングおよびトラッキングを改善するためにオブジェクトの部分の中心軸の推定を利用することはないし、また、多基準の繰り返しのエネルギーの最小化をフィッティング処理のために利用するということもない。
国際公開第2011/080282号 米国特許出願公開第2010/0034457号明細書 米国特許出願公開第2011/0052006号明細書 米国特許出願公開第2010/0194872号明細書 米国特許出願公開第2011/0249865号明細書 米国特許出願公開第2011/0292036号明細書 米国特許出願公開第2011/0211754号明細書 国際公開第2008/128568号 国際公開第2011/080281号
したがって、本発明の目的は、対象物に取り付けるマーカーを必要とせずに、その対象物の骨格表現を作成し、フィッティングし、かつトラッキングするための方法を提供することである。
本発明の他の目的は、骨格表現のフィッティングおよびトラッキングを最適化するために、フィッティングおよびトラッキングすべきオブジェクトに対応する3D点群の正投影空間における投影を使用することである。
本発明の他の目的は、距離画像を使用して、オブジェクトの骨格表現を決定し、フィッティングし、トラッキングするための方法であって、そのオブジェクトの部位の中心軸の推定を、フィッティングを行うための種情報として使用する方法を提供することである。
本発明のさらなる目的は、距離画像を使用して、オブジェクトの骨格表現を決定し、フィッティングし、トラッキングするための頑強で効率的な方法であって、形態学的に知ることなしに、セグメントのかみ合わせ、関節の制限、速度の制約、衝突の制約、およびエラーの回復を扱うことのできる方法を提供することである。
本発明のさらなる他の目的は、局所的な、および全体的なレベルで、多基準のエネルギー最小化の方法を繰り返し使用して、オブジェクトの骨格表現の効果的なフィッティングおよびトラッキングを提供することである。
本発明の第一の態様によれば、三次元点群によって表現される三次元シーンの中のオブジェクトの骨格表現をフィッティングおよびトラッキングする方法であって、骨格表現は、複数の制御点の配置を含んでおり、a)シーンの中でフィッティングおよびトラッキングすべきオブジェクトに関係する入力情報を決めるために、そのシーンの三次元点群を使用するステップと、b)シーンの中でフィッティングおよびトラッキングすべきオブジェクトの決められた三次元点群を、正投影表現に変換するステップと、c)フィッティングおよびトラッキングすべきオブジェクトの少なくとも一部の中心軸の位置を推定するために、曲率中心の点を決めるステップと、d)三次元シーンの中でフィッティングおよびトラッキングすべきオブジェクトを表現する複数の制御点の位置を決めるステップと、e)時間に対するオブジェクトの骨格表現の位置を改良するために、三次元シーンの中の複数の制御点をフィッティングおよびトラッキングするステップと、を含む方法が提供される。
ここで使われる「オブジェクト」という用語は、無生物の物体、あるいは生命体を指し、人間、動物、またはロボットであり得る。
ここで使われる「骨格表現」という用語は、オブジェクトを表現し、その空間中での配置が、フィッティングおよびトラッキングすべきオブジェクトの姿勢を規定する、一組の制御点を指す。
本発明の方法は、フィッティングおよびトラッキングすべきオブジェクト、例えば人間ユーザの、三次元シーンの中の特定の骨格表現を、そのオブジェクトにマーカーを取り付けることなしに使用し、そのシーンの中の骨格表現を、時間を追ってトラッキングすることができるという利点を有している。
「トラッキング」という用語が、三次元シーンを捕捉する、カメラのような三次元画像装置に対するオブジェクトの相対的な動きを指すことは容易に理解されよう。これは、静止したオブジェクトであっても、もし、画像装置がそのようなオブジェクトに対して動いていれば、または、動きがなくとも、オブジェクトがある期間に少なくとも一度検知されれば、シーンの中でトラッキングすることができることを意味している。
本発明において考慮される骨格表現は、一組の制御点を用いる。画像装置によって捕捉される各フレームで処理される必要のある制御点の数は、この方法を実施するシステムの処理能力にしたがって、または表現すべき体のセグメントにおける正確性にしたがってと同じように、フィッティングおよびトラッキングすべきオブジェクトにしたがって事前に具体的に定義することができる。例えば、人間のユーザに関しては、13個の制御点が、人間の骨格表現の適切な例示として考えられる。このように、制御点の数は、フィッティングおよびトラッキングすべきオブジェクトが、時がたっても常に同じタイプであると考える場合、例えば、システムが常に人間の骨格表現のフィッティングおよびトラッキングに使われる場合には、事前に決めておくことができる。しかし、シーンの中の検知されたオブジェクトを自動的に識別し、そして、制御点の数と配置の設定を含む最適な骨格表現を、フィッティングおよびトラッキングの対象として考慮されるべき識別されたものにしたがって設定するために、認識方法を使用することもできる。例えば、あるシステムが、時間経過とともに、一つのシーンの中の人間とロボットの骨格表現をフィッティングおよびトラッキングする必要があるかもしれない。そのシステムは、ロボットに対応するオブジェクトから、人間に対応するオブジェクトを検知し、認識し、区別し、それによって、それぞれの単一のオブジェクトのために正しい骨格表現を設定する。
好ましくは、ステップc)、d)、e)のそれぞれが正投影表現を使用することを含むということが理解されるだろう。
一つの実施形態では、三次元点群は、三次元シーンの距離画像から導き出すことができる。他の実施形態では、入力情報は、三次元点群におけるそれぞれの点のために決定される法線マップを、付加的に含んでいる。さらなる実施形態では、入力情報は、距離画像と法線マップの組合せを含むことができる。さらに他の実施形態では、入力情報は、フィッティングおよびトラッキングすべき既知のオブジェクトに対応する決定された骨格表現を含むことができる。
さらに、ステップa)は、三次元点群から少なくとも1つの着目すべきオブジェクトを決定することを含むこともできる。これは、さらに、フィッティングおよびトラッキングすべきオブジェクトの主方向を決めることを含むことができる。他の実施形態では、これは、付加的に、フィッティングおよびトラッキングすべきオブジェクトを自動的に認識することと、もし、いくつかの種類のオブジェクトをそのシーンにおいてフィッティングおよびトラッキングしなければならない場合には、それに応じて、このオブジェクトの骨格表現を決めることとを含むことができる。
一つの好ましい実施形態では、ステップa)は、以前にいかなるオブジェクトもフィッティングおよびトラッキングされていない場合に、フィッティングおよびトラッキングすべきオブジェクトの骨格のポーズの表現を規定する制御点の位置の初期配置を空間内で決めることを含むことができる。
好ましくは、ステップb)は、フィッティングおよびトラッキングすべきオブジェクトの三次元点群を、そのそれぞれが既定の大きさを有する複数のグリッドビンを含むグリッドに投射することを含み、その投射は、空間における既定の静的な大きさによってオブジェクトの三次元点群をサンプリングする。
加えて、ステップb)は、三次元点群の中のそれぞれの点に関する情報を、それに関連するグリッドビンに、蓄積し、重み付けをすることを含む。一つの実施形態では、この方法は、グリッドビンが空の場合に、近隣の空でないグリッドビンから補間された情報で、それを埋めることを、さらに含む。
好ましくは、ステップc)は、その位置が、正投影表現のグリッドビンによって好ましくは提供される法線データを使うことによって推定される、オブジェクトの部分の曲率中心の点を決めることを含む。
ステップc)は、フィッティングおよびトラッキングすべきオブジェクトのそれぞれの部分の中心軸の体積を近似するために、それぞれの曲率中心の点を接触する球に関連付けることをさらに含むことができる。
好ましくは、ステップc)は、それぞれの曲率中心の点とその関連する接触する球とを、それらと関連付けられたフィッティングおよびトラッキングすべきオブジェクトのそれぞれの部分の表面の凸性を示すタグに関連付けることを含む。表面の凸性は、平坦な表面、凹表面、および凸表面のうちの1つに分類することができる。特に、平坦な表面は、人間のユーザのトルソに対応することができ、凸表面は、人間のユーザの肢部の一部に対応することができる。凹表面は、効率的な人間の骨格のフィッティングおよびトラッキングを考える時は特に、常に適切と考えなくてもよいかもしれない。
好ましくは、ステップd)は、もし、オブジェクトが以前にフィッティングおよびトラッキングされている場合は、以前のフレームに設定された骨格表現を使って、あるいは、もし、以前にいかなるオブジェクトもフィッティングおよびトラッキングされていない場合には、ステップa)で決定された初期の骨格表現を使って、制御点の位置を決定することを含む。
好都合には、ステップd)は、d1)隣接する制御点のそれぞれの対の間の、少なくとも1つのセグメントをフィッティングするステップをさらに含む。
加えて、ステップd)は、d2)オブジェクトの中の平面を識別するステップをさらに含む。
その上、ステップd2)は、d3)凸性タグを使用してフィッティングおよびトラッキングすべきオブジェクトの三次元点群の平面を識別するステップをさらに含んでもよい。
なおその上に、ステップd)は、d4)オブジェクトの主方向を識別するステップと、d5)オブジェクトの少なくとも1つの部分の位置を識別するステップと、d6)オブジェクトのそれぞれの部分の位置と、主方向とを、お互いに対して改良するステップと、をさらに含んでもよい。
オブジェクトが、例えば、人間のユーザといった、生物である1つの実施形態では、ステップd2)は、平面をトルソとして識別することを含むことができ、ステップd5)は、頭部に対応する身体部位を識別することを含むことができる。
一つの実施形態では、ステップe)は、トラッキングすべき骨格表現の位置をフィッティングするために、識別された制御点の特性を利用することを含む。利用される特性は、時間に対して決められる、位置、速度、加速度、および確率係数のうちの少なくとも1つを含むことができる。
加えて、ステップe)は、時間に対してオブジェクトの骨格表現のポーズを繰り返しフィッティングするための局所的な、および全体的なエネルギーの最小化の戦略の組み合わせを利用することを含むことができる。エネルギーの最小化の戦略は、物体までの距離、以前の骨格までの距離、およびシルエットまでの距離のうちの少なくとも1つの基準を含むことができる。好ましくは、エネルギーの最小化の戦略は、物体までの距離、以前の骨格までの距離、およびシルエットまでの距離の基準のすべてを使う。
ステップe)は、フィッティングおよびトラッキングの結果を最適化するために時間について決められた確率係数にしたがって複数の可能性のある制御点の位置を評価することをさらに含むことができる。一つの好ましい実施形態では、ステップe)は、少なくとも1つの既定の基準にしたがって、局所的な、および全体的なエネルギーの最小化の両方を繰り返し実行することを含む。
加えて、エネルギーの最小化の戦略は、傾斜降下型のアルゴリスムを使って実行されることができる。
さらに、ひとたび骨格がトラッキングされると、各制御点の位置は、好ましくは、骨格の動きのぎくしゃくした不自然な表現を避けるために、さらなるステップにおいて安定化させることができる。
さらなるステップにおいて、トラッキングが成功しなかった骨格の制御点の適切な位置を生成するために、仕上げ技術を用いることができる。そのような技術は、例えば、曖昧な既知のオブジェクトの姿勢が原因のトラッキングエラーを補うためにおよび/または、エネルギー最小化の後に骨格の欠如した部分に三次元点群を植えつけて三次元シーンを捕捉する画像装置には見えない骨格の部分を補うために、使うことが可能である。
本発明をより良く理解するために、ほんの一例として、以下の添付された図面を参考にする。
本発明によるトラッキングに使用される人体の骨格表現を図示する。 本発明による全体的な人体の骨格トラッキング処理のフローチャートを示す。 水平および垂直の勾配から法線マップを導き出すことなどの画像処理を施すために距離画像に適用される3×3の核を図示する。 図3のグリッドアレイの2つの隣接するグリッド要素に対して、Z軸とX軸のそれぞれに沿った、奥行きのΔZxとΔZyの勾配を示す距離画像の上面図を示す。 ユーザの点群の正投影表現への投影の一部としての、仕分け(bin filling)の原則を示す。 ユーザの身体部位の中心軸の体積を表現するために使われる接触する球の2Dの図であり、その接触する球の中心は、法線マップから近似された曲率中心の点に対応している。 本発明による正投影ユーザグリッド(ORUS)を図示する。 本発明による曲率中心の点とそれに関連する接触する球を図示する。 図7aの正投影ユーザグリッドと、図7bの曲率中心の点とそれに関連する接触する球の組合せを図示する。 本発明によるフィッティング処理の結果として、接触する球の輪郭が、骨格によって置換された、図7aの正投影ユーザグリッドを図示する。 ユーザに対応する3D点群を図示し、ここでは、本発明によるフィッティングされた骨格モデルと一緒に、曲率中心の点が一組の接触する球によって表現されている。 ユーザの3D点群の重心位置を原点として用いたユーザ中心放射距離の計算原理を図示する。 図8aに示すように測定された放射距離から決定されたプロフィールを図示する。 本発明による骨格表現のフィッティングおよびトラッキング処理において用いられる、繰り返しの局所的および全体的のエネルギー最小化の原理を図示する。
本発明は、特定の実施形態にについて、特定の図面を参照して記述されるが、本発明はそれらに限定される訳ではない。説明される図面は単なる概略図であって、限定的ではない。図面においては、要素のいくつかのサイズは誇張されている可能性があり、図示目的で縮尺通りに描かれている訳ではない。
ここで使われる「垂直」「水平」の用語は、図面の特定の方向を言及するものであって、ここで説明される特定の実施形態を限定するものではないことは、理解されるだろう。
また、骨格のフィッティングおよびトラッキングの方法を人間の体の骨格を参照して説明しているが、これに限る訳ではなく、それが生物であるか否か、および/または関節で接合されているか否かに関係なく、その他の種類のオブジェクトとともに用いることができることも理解されるだろう。
図1は、仮想環境にある人間をフィッティングおよびトラッキングするために使われる骨格表現100を示している。骨格表現100は、いくつかの制約と既定数の自由度を有する制御点または関節の集合の間の、関節で接合された剛体の集合からなる。より具体的には、骨格表現100は、図示されるように、パッチ(patch)140を画定する13個の制御点110、112、114、116、118、120、122、124、126、128、130、132、134と、9個のセグメント150、152、154、156、158、160、162、164、166とを備えることができる。パッチ140とセグメント150、152、154、156、158、160、162、164、166は、骨格表現100の中の、10個の固体部分または剛体と考えることができる。
これらの固体部分と剛体は、例えば、それらの表現が不自然な姿勢やポーズにしたがって互いに交差しないことを保証する衝突制限を含むことが可能である。制御点110、112、114、116、118、120、122、124、126、128、130、132、134の各々は、例えば仮想環境の中での3Dの位置決めの自由度と関連することが可能な、3つの自由度のみを備えることができる。
人間の骨格がフィッティングおよびトラッキングされる一つの特定の実施形態においては、人間の骨格表現を、それぞれが3自由度、すなわち、各々の3D位置を有する13個の制御点だけに限定することにより、人間の骨格の行動のリアルな表現を維持しながら、3以上の自由度を有するより多くの制御点を使う場合よりも、より効果的なフィッティングおよびトラッキング処理を行うことが可能となる。制御点の数が多いほどおよび/または自由度の数が多いほど、これらの制御点の最もリアルなポーズを、ユーザを表現する3D点群にフィッティングするために必要な複雑さは高まり、それと共に、最良のフィッティングされたポーズの解に数学的収束する速度が遅くなる。しかしながら、13個の制御点の使用は、人間の骨格表現のために好ましい実施形態に対応するが、トラッキングすべき、関節で接合されたオブジェクトにしたがって、例えば、関節の数と表現すべきセグメントの数にしたがって、またはプラットフォームの性能にしたがって、その他の適切な制御点の数および/または自由度を選択することができる。例えば、他の実施形態において、肢部先端部のより優れたレンダリングを提供するように、すなわち、手または足に対応する各々の以前の制御点が、それぞれ、足首と足の先端部および手首と手の先端部に対応する2個の制御点で取って代わられるように、人間の骨格表現は17個の制御点を備えてもよい。
13個の制御点を使う人間の骨格のフィッティングおよびトラッキングの特定の実施形態においては、各制御点110、112、114、116、118、120、122、124、126、128、130、132、134、各セグメント150、152、154、156、158、160、162、164、166、およびパッチ140は、上述のように、好適な3D画像装置により決定される3D点群において、ユーザに対応する点にマッピングされる。
制御点110、112、114、116、118、120、122、124、126、128、130、132、134は、骨格の部位または関節に効果的に対応し、点110は頭部に対応し、点112、114は手または手首に対応し、点116、118は肘に対応し、点120、122は肩に対応し、点124、126は足または足首に対応し、点128、130は膝に対応し、点132、134は臀部に対応している。
パッチ140は、トルソを画定するためにあわせて結合された4つの制御点120、122、132、134、すなわち、肩120、122および骨盤132、134を含んでいる。
セグメント150、152、154、156、158、160、162、164、166は、頭部(点110)をトルソ(パッチ140)に結合して、首を近似するセグメント150の例外はあるが、互いに結合されている制御点の対の間の組立てに対応し、セグメント152、154は、手または手首と肘(それぞれ、点112、116、および114、118)の間の前腕におよそ対応し、セグメント156、158は、肘と肩(それぞれ、点116、120、および118、122)の間の上腕におよそ対応し、セグメント160、162は、足または足首と膝(それぞれ、点124、128、および126、130)の間の下腿におよそ対応し、セグメント164、166は、膝と臀部(それぞれ、点128、132、および130、134)の間の太ももにおよそ対応している。
図2を参照すると、3Dシーン内で時間経過とともに自由に動くユーザの骨格表現を提供する処理におけるステップを図示するフローチャート200が示されている。骨格のフィッティングおよびトラッキングは、3D画像システムによって提供される3D点群を使って実行され、骨格表現は、それが時間経過にわたるユーザの現実の動きと一致するように計算される。最初のステップ、ステップ210は、シーンの中のユーザを画像化する距離画像、ユーザマスクと対応するユーザの3D点群、可能性あるユーザ頭部の位置と可能性あるユーザの主方向の位置などの入力データが提供され、改良される初期化ステップである。特に、ステップ210は、フィッティングおよびトラッキングされるべきオブジェクトにしたがって、制御点の数に関するおよびそれらの制御点の空間における配置に関する、骨格表現の決定を含む。フィッティングおよびトラッキングされるべきオブジェクトが既知であり、時間経過とともに決して種類を変えない場合、例えば、シーンの中で人間をトラッキングして、それらを表現する3D点群上にそれらの骨格表現をフィッティングするときは、その決定は手動で事前に指定することができる。決定はまた、着目したオブジェクトが、複数の既知のオブジェクトのうちの1つの対象として、検出され、認識され、識別されるときには、ランタイムで、自動的に規定することができる。例えば、それに限る訳ではないが、2Dや3Dのマッチング技術を含む最先端の認識方法を、シーンの中の異なる生物のまたは無生物のオブジェクトを識別するために用いてもよい。着目したものと考えられるべきオブジェクトにしたがって、識別から、フィッティングおよびトラッキングのための各々の骨格表現を決定してもよい。
ステップ210は、フィッティングおよびトラッキング処理を始めるために、決定された骨格表現の基本的な初期ポーズのシステマティックでない決定をも含む。「システマティックでない」という用語は、骨格表現のそのような生のまたは基本的な初期ポーズの決定が、オブジェクトが検出され、かつ以前の骨格表現が利用できないときに行われるという意味である。例えば、人間のユーザがトラッキングされているとき、頭部の検出と位置決めは、人間ユーザの初期の主方向を提供するのに役立つ可能性がある。主方向は、頭部と、ユーザの3D表現の重心を通る方向であると考えることができる。
人間ユーザの主方向の決定は、各々が三次元空間における少なくとも一組の座標を有する複数の点を表現する3D画像データが、3D画像システムを使って捕捉される特許文献8に記述されているように、着目すべきオブジェクトをクラスターの集合に細分化することを用いて達成することができる。点は、クラスターの組を形成するようグループ分けされ、そのクラスターの組から、着目すべきオブジェクトが、既定のパラメータにしたがって、例えば、位置、大きさ、および形状にしたがって選択される。着目すべきオブジェクトに関係するクラスターは、さらなるパラメータの組、例えば、3D空間における位置および/または色彩にしたがって、サブクラスターの集合にグループ分けされる。それぞれのサブクラスターは、3D空間における図心を有しており、体積とこれらのサブクラスターの図心のそれぞれを関連付けることによって、着目すべきオブジェクトの表現を得ることができる。そのような表現と、サブクラスターの位置から、主方向と、トラッキングすべきオブジェクト、この場合は、人間ユーザの骨格表現のための初期ポーズも推定することが可能である。例えば、生の初期ポーズにより、体の先端部、すなわち、決定された主方向のためにその位置が明確である、単一の他のクラスターと結合され、頭部、手、および足と対応しているクラスターの位置決めを考えることができる。
初期化ステップ210は、別のプリセットステップ220と同様に、実際のフィッティングおよびトラッキングステップ230の前に行われる。特に、プリセットステップ220は、処理においてそれに続くフィッティングおよびトラッキングステップの最適化のために必要である特定の特性を生成する目的があり、すなわち、ステップ230における、時間経過にわたるユーザの骨格表現のより良いフィッティングおよびトラッキングを可能にする特定かつ必須な入力を提供するために、距離画像に埋め込まれている3D点データの正投影を実行する目的がある。
フローチャートに戻って、次のステップ230は、骨格の表現のフィッティングおよびトラッキングステップに対応している。そして、次のステップ、すなわち、安定化ステップ240は、骨格表現におけるぎくしゃくした不連続の動きを無効にするために行われる。そして、さらなる仕上げステップ250は、トラッキングを阻害するかもしれない、可能性ある曖昧な姿勢の集合のために、制御点を、特定の位置に再び向けるために行われ、出力改良ステップ260は、最後に、既定の仕様の集合にしたがって、例えば、骨格表現に関係するデータを、特定アプリケーションに適したメートル系に変換して、処理済みデータ出力を生成するために実行される。上記のように、シーンの画像化された点のそれぞれは、3D空間におけるその位置に対応するX、Y、Z座標であって、原点、つまり、基準点を有する3D座標系に対して表現される座標を備える。カメラの位置は、カメラ座標系を規定するために、基準点として選択されてもよい。データを変換する1つの例は、カメラ座標系と現実世界またはデカルト座標系との間であるかもしれない。
初期化ステップ210に戻ると、入力データは、距離画像、ユーザマスク、および/またはユーザ3D点群、距離画像から抽出された法線マップ、ユーザ3D点群の主方向、他の独立した方法から抽出された頭部位置、着目すべき点の集合、例えば、特許文献8に記されるようなクラスター化方法で規定される図心(ここでは、「キー点」とも呼ばれる)や、3D点群の重心を含むことができる。
上述のように、距離画像は、他の情報のうちの距離データを提供する。距離データは、通常、奥行感知(または3D画像化)カメラ装置によって捕捉されたシーンを表現する3D点群において3D点の各点のZ座標に埋め込まれている。距離データは、シーンにおける画像化された点のそれぞれと、例えば、カメラ装置の位置またはシーンの中のあらかじめ定義された他の基準位置であり得る、他の基準位置との間の測定距離に対応している。そして、ユーザマスクまたは対応するユーザ3D点群は、どの画素が、ユーザに、またはその骨格がフィッティングおよびトラッキングされるべき関節で接合されたオブジェクトにそれぞれ属しているか正確に規定するように決められる。そのような決定は、特許文献1に詳細に述べられているような専用の方法を使用して実行することができる。特許文献1には、3D点群の中の画素が共通の図心を有する複数の領域にグループ分けされ、そして、それらの領域が相互に結合された領域のクラスターにグループ分けされる、オブジェクトのトラッキング方法が述べられている。それらの相互結合の空間的・時間的特性から、クラスターは、同じオブジェクトに属しているかどうか、およびそのオブジェクトは、2D投影において他のクラスターによって部分的にかみ合わされているかどうかを決定するために評価される。
初期化ステップ210は、さらに、法線マップをサポートしている場合は、入力センサから直接得られる、またはそうでない場合には、距離画像から計算される法線マップを決定すること、あるいは改良することを含む。後者の場合は、決定された法線マップは、図3、4を参照にして以下に述べるように、固定された大きさの核に対して、距離画像における水平と垂直の勾配を使用することにより、距離画像から抽出することができる。例えば、局所的にフィッティングされた平面または画素の集合または畳み込みのマスクに属する各中心画素の法線を規定することを含むことが可能である、法線マップを決定するための他の方法が知られている。
特に、図3に図示された一実施形態に関しては、それぞれの画素ために、X軸とY軸のそれぞれに沿って、ΔZxとΔZyの奥行き勾配の決定を行うために、9個のグリッド要素、あるいは画素310、320、330、340、350、360、370、380、390を含む3×3のグリッドアレイ300、すなわち、核を、畳み込みのマスクとして距離画像に適用することができる。そして、これらの勾配から、いくつかの他の演算のうち、各画素のための局所的な表面の方向と対応する法線とが近似される。
図4は、表面430を有するオブジェクトであって、距離画像において画像化されているオブジェクトを有する3Dシーンの上面図400を示す。図3の畳み込みのマスク300をその距離画像に適用することによって、各画素の奥行き勾配を決定することができる。例えば、単一の次元においてX軸だけを考えると、オブジェクト点410は、画素350によって核において画像化され、距離画像において画像化された点420は、画素360によって核において画像化されている。すると、点410におけるΔXを表現する、点410と420との間の奥行きの勾配ΔZxを決めることができる。点410でのΔZyを決めるために、同様な操作をY軸と核の点320に関して行うことができる。そして、点410におけるΔZxとΔZyは、それぞれの画素のための局所的な平面の方向を近似するために、入力として使われ、法線を抽出することができる。
初期化ステップ210はさらに、3D点群の重心の位置を決定しあるいは改良することを含む。重心は、当業者にとっては明らかであろう多くの方法で決定することができる。
初期化ステップ210はさらに、例えば、3D点群の主成分分析(PCA)を使って得られる、ユーザの主方向を決め、あるいは改良することを含む。
初期化ステップ210はさらに、当業者には既知である好適な方法を使うことによって、頭部の位置を決め、あるいは改良することを含む。
入力データを改良し決定することとは別に、初期化ステップ210はまた、以前に骨格表現がなされなかった場合には、続くフィッティングおよびトラッキングステップのための正しい開始位置を提供するために、ユーザの3D点群にしたがって骨格表現の現実的な初期位置を設定することを目的とする。初期化は、トラッキングすべきユーザ/オブジェクトが特定のポーズで立っていることは要求しないが、ユーザ/オブジェクトの部位間に曖昧でない相対位置、例えば、これに限定する訳ではないが、腕を交差しない、脚を交差しない、すべての肢部はできるだけかみ合わせの少ない状態で可視であることを必要とする。ユーザ/オブジェクトのポーズが簡単にあればあるほど、ポーズの初期化はより早く、正しい骨格表現のポーズに収束する。このポーズの初期化ステップは、次のサブステップを含む。
1)入力を準備する、
2)最良の頭部の候補を決める、
3)トルソを外挿して推定する、
4)初期の骨格のポーズを決定する。
入力を準備することに関係して、ユーザ3D点群に均一に散らばった着目すべき点、すなわちキー点の集合に関する統計が、例えば、位置、画素の数、第一次と第二次の運動データ、図心の接続性、領域が隣接していること、隣接した図心、隣接した図心間の距離などの情報を決定するクラスター化アルゴリスムによって生成された図心を使って収集される。角度は、それぞれのキー点とそれが隣接するものとの対の組合せのそれぞれの間で決めることもでき、キー点および/または図心は、ポーズ識別処理で使われるように、以下に詳細に述べる3つのカテゴリーのうちの一つに分類され、例えば、重心位置と結びつけた頭部位置決め技術を使って、あるいはラインフィッティング技術を使って、あるいはPCAまたは同様の平面/形状フィッティングアルゴリスムを使用して、あるいはトルソに属すると分類されるキー点を使用して、ユーザの体の主方向が決められる。
三つのカテゴリーは、「先端部」、すなわち可能性のある頭部、手、または足、「肢部」、すなわち可能性のある肘または膝、脚、腕、「トルソ」のうちの1つとして規定される。「先端部」のカテゴリーは、非常に鋭角度を有する、および/または、たった1つの隣接物を有するかおよび/または隣接物を全く有さない、キー点および/または図心を含む。「肢部」のカテゴリーは、先端部ではなく、かつ、二つの隣接物の間に位置する図心である、キー点を含む。「トルソ」のカテゴリーは、先端部または肢部として分類されないキー点および/または図心を含む。
頭部の候補は、適切な頭部検出アルゴリスムを使用して決められる。頭部候補の決定は次の条件が満たされることを要求し、すなわち、候補は「先端部」でなければならず、その候補は現実世界の座標系に対して最も高い点のうちの1つでなければならず(較正があると仮定して)、その候補は「トルソ」のカテゴリーに分類されるいくつかの点に結合されていなくてはならず、その候補はユーザの主要な体方向と緩く一致していなくてはならない。
可能性のある頭部の候補のそれぞれについて、骨盤の位置、左右の肩および左右の臀部からなる、外挿されたユーザのトルソが決められる。トルソの外挿は、ユーザは立っていると仮定し、最も高い頭部候補の点からユーザの身長を得て、ユーザの身長にしたがってトルソのプロポーションとスケールを規定することによってなされる。これらの初期のプロポーションは初期化ステップによって使われるのみであり、ユーザの現実の寸法が次第に改良されうる骨格フィッティング最適化ループによって、後に変更することができる。
以前に分類した個々のキー点または図心のそれぞれを使って、骨格表現の初期ポーズが、分類されたキー点および/または図心に最もフィットする制御点の特定の配置として考慮される。そして、骨格表現、すなわち、制御点は、識別されたキー点および/または図心のそれぞれの位置にしたがって、フィットおよび/またはマッチさせられなければならない。
初期ポーズの検出を決める方法は、以前に計算した情報を完全に使用しながら、ポーズの評価の回数を最小限にすることを目的とする。一実施形態によれば、ポーズの検出は、探査/活用戦略(exploration-exploitation strategy)または完全後戻り探査(full backtracking exploration)であってもよい。
ポーズを決めるために、キー点および/または図心のそれぞれは、頭部、トルソ、左右の腕、左右の脚の身体部位と関連させられている。これらの関連は、必ずしもそれに限る訳ではないが、上記の(入力を準備する)ポーズ推定ステップ210でなされた最初のキー点の分類を使って生成される。一つの関連付けがなされると、それがいくつかの標準的な人間の関節と形態学的制約を満足する場合のみ、特定の腕または脚の配列の評価が保持される。処理中にできるだけ早く、これらの評価ステップを実行することによって、探査すべきサーチ空間は劇的に小さくされる。保持される完全なポーズは、最も満足するキー点および/または図心の身体部位との関連を提供するポーズである。
例えば、一実施形態では、トップダウン後戻り探査が、識別された頭部の候補と、対応するトルソのキー点の候補とから始まってもよい。そして、可能性のある互換性ある全身のポーズは、様々な戦略または様々な戦略の組合せを使って、他のキー点、基本的には肢部を探索することによって決められる。
(i)第一の戦略では、「肢部」として分類されるキー点のそれぞれが、可能性のある足および/または手であるとして探索され得る。そして、キー点の結合に関する情報からなる領域隣接関係グラフ(region adjacencies graph、RAG)が、手や足に対応する可能性のある候補の間や、それらがリンクした最も近いトルソのキー点の候補の間の肘や膝を探索するのに使われ得る。
(ii)別の戦略では、「肢部」のカテゴリーに属するキー点も、可能性のある肘または膝であるとして探索されることができ、さらに、RAGが、可能性のある肘と膝の候補から、可能性のある手および足の候補を探索するために、または検証に役立てるために使われ得る。
さらに1つの実施形態では、特定の探索戦略の変更は、単独で、または他の戦略との組合せで、条件付きで実行してもよい。例えば、ユーザが体に沿って腕をまっすぐにして立っている可能性が高い場合には、1つの特定の戦略が、最良のキー点の候補の配置を探索するために用いられ得る。
さらに別の実施形態では、付加的な制約を、キー点の位置に関して、制御点の配置に適用される特定の制約を使用することによって、間違ったポーズの候補を排除するために、使うことができる。例えば、関節の限界、および大まかな肢部の長さの制約は、ポーズの候補を認めるかまたは拒否するために考慮することができる。
図2に戻ると、プリセットステップ(ステップ220)は、フィッティングおよびトラッキングステップ230の前に、既定量の画素またはビン(bin)を有するグリッドでの距離画像の正投影を生成することを含む。これらのビンの各々は、フィッティングしトラッキングすべきオブジェクトに対応する、3D点に関係する情報を収集する。この情報は、奥行きの測定値、IR照度値、法線ベクトル、および/またはこれらの測定値、数値、および/またはベクトル等の統計上のモードであってもよい。
情報をビンに収集することは、オブジェクトの3D点に対応するデータをビンに収納することによってなされる。各ビンは、その空間におけるこれらの点の、画像センサやカメラのような画像装置からの距離によって、そのオブジェクトのいくつかの3D点から情報を収集することができる。これは、3D点群が、解像度が固定されている2D画像センサによってサンプリングされ、結果として、画像センサまたはカメラに近い距離と比較すると、画像センサまたはカメラからより離れている距離では、3D空間は同じ正確さではサンプリングされないからである。例えば、画像センサまたはカメラから1mにおいては、取得される点は、現実世界における1.5cmの表面と対応するのに対し、画像センサまたはカメラから5mにおいては、取得される点は、現実世界の7cmの表面に対応し得る。ところで、データをビンに投影するために固定寸法の、例えば、5cmのサンプリングステップを事前に規定することによって、それらが関連付けられる、投影される3D点の画像センサまたはカメラからの距離にしたがって、異なる量のデータがビンに集められることにもなる。
これは、例えば、画像センサから5mの距離にある単一の点は、正投影のグリッドの単一のビンに投影することができ、1mの距離にある、少なくとも、3個の点は、正投影におけるグリッドの単一のビンに投影することができることを意味する。また、これは、点が画像センサに近いほど、より多くの点が、グリッドのそれぞれのビンに入るので、正投影のグリッドはより正確になることを意味している。
グリッドにおける正投影であることにより、処理される画像は、カメラからのオブジェクトの距離に関係なく一定の大きさである。これは、カメラからのオブジェクトの距離とは独立することになる便利な固定のグリッドサイズを決めることにより、一定の処理時間を達成することができることを意味する。ほとんどの場合、処理性能、すなわち、処理時間と処理の質を最適にする妥協点が存在する。
本発明の好ましい実施形態によれば、正投影は、距離画像全体に対しては行われないが、好ましくは、ユーザマスクの画像を用いて規定される制限されたエリア、ユーザの重心に中心が置かれる直交再投影グリッドに関して行われる。このプロセスの結果は正投影ユーザまたはORUSと呼ぶことができる。再投影を実施するとき、初期の3D点群のいくつかの画素は、正投影グリッドの中で同じ単一のセル要素、つまり、ビンを指し、ORUSグリッドの中の他のセル要素またはビンは空であってもよい。
ORUSによって提供されるデータは、画像を含むが、その画像のためのそれぞれの画素またはセルまたはビンは、ORUSセルに関連する初期の3D点群の点に対応する法線の推定と、最小のZ座標値、すなわち、ORUSグリッドの単一のビンに投影される距離画像の画素の最小の奥行き値となり得る統計モードと、グリッド画素に投影される3D点群の点のX、Y、Z座標の平均値とを含む。
図5に、ORUS再投影法の原理を図示する例を示す。カメラ500が、トラッキングすべきオブジェクト510を含むシーンを捕捉する。この場合には、オブジェクト510は図示のように曲線で示される。オブジェクト510は奥行き感知捕捉処理によってサンプリングされ、サンプルされた点511のそれぞれは、オブジェクト510から、カメラ500のセンサマトリックス配列への投影512に対応する。いくつかのサンプリングされた点があり、その数は奥行き感知システムの解像度によって規定されるが、一つだけが、明確にするために図5においてラベル付けされていることが理解されるだろう。投影512は、奥行き感知システムの解像度だけでなく、その視野も含めて、使われている画像装置またはカメラの種類によって決まる。ORUS処理は、投影513に示すように、曲線またはオブジェクト510のサンプリングされた点のそれぞれを、複数のビン530、532、534、536、538、540、542、544、546、548、550を含む一定のステップサイズの投影グリッド520に、直交して投影する。垂直平面の断面図表現と対応しているので、グリッド520のたった一つの線が図5に示されている。グリッド520のビン530、532、534、536、538、540、542、544、546、548、550のそれぞれは、観察されたオブジェクト510からサンプリングされた点を蓄積し、曲線の奥行き値を示す少なくとも1つの値を含む。ビン530、532、534、536、538、540、542、544、546、548、550のそれぞれは、図3、4を参照して上述したように、対応する法線の値を含むことができる。例として、ビン530、532、534、536、538、540、544、546、548、550は奥行き値を含むが、ビン542は空で、それゆえに、オブジェクト510の再投影によって生成されたホール、またはかみ合わせに対応する。同様に、ビン548、544は、シーンからカメラシステムによってサンプリングされた2つの点から抽出されたデータを含んでいる。
1つの好ましい実施形態では、ORUSグリッドの空のビンは、統計モードを使用する補間技術、例えば、隣接するビンのサンプリングされた点のそれぞれのデータの平均を使用して植えなおすことができる。この場合には、ビン542は、ビン540、544の中の値に対応する補間値を植えなおすことができる。補間されたデータ値は、少なくとも奥行きの値と、法線の値を含む。他の実施形態では、距離画像の三角測量を行うことができ、三角形をORUSグリッドに投影することができ、なんらかの三角形ラスター化法(triangle rasterisation method)、例えば、3Dコンピュータグラフィックスにおける、スキャンラインのレンダリング、すなわち、多角形ごとあるいは画素ごとではなく、むしろ行ごとに動作する可視表面決定のアルゴリスムを使って満たすことができる。
ORUS投影を使って、ユーザに対応する3D点群を、図8aと8bに示すユーザの体の主方向を決定し、あるいは改良するために、処理することができる。図8aには、輪郭810を有するユーザの形状800が示されている。ユーザの形状800は、重心820を有している。重心820からの半径830が、輪郭810に示す、ユーザの形状800の境界に延びている。ただ1つの半径830が、明確にするために、図8aでラベル付けされている。半径のそれぞれは、適切な角度αだけ、隣接する半径から間隔をあけて配置されている。角度αは、重心820から輪郭810までで決定される距離の測定の数に応じて適切な角度、例えば、2°、5°、または10°である。そして、距離測定値は、図8bに示す図に、角度に対してプロットされている。
図8bには、基準点、例えば、ユーザの重心820から、輪郭810までの、距離の測定値または半径の長さの、角度に対するプロットに対応するプロファイル840が示されている。プロファイル840は、この場合は、ユーザの伸ばした腕、彼/彼女の2本の脚、および彼/彼女の頭部のそれぞれに対応する多くのピーク850、860、870、880を有している。
図8bの図示に関して、頭部は、ピーク880、すなわち、例えば、ユーザの体の主方向によって決められる0°の位置に最も近いピークであると決定される。脚は、180°の位置のそれぞれの側に位置する、すなわち、実質的に頭部の位置とは反対の、ピーク860、870であると決められる。伸ばした腕は、0°と90°との間のピーク850であると決められる。頭部の位置に対応するピークは、肩(図示せず)に対応する2つのピークの間に存在するとも決められる。
この場合のもう一方の腕は、ユーザの形状800のトルソ部分によって効果的にかみ合わされているので、半径830の長さから決定することはできない。しかしながら、もしユーザが、例えば、両腕を伸ばして、異なる位置に立っていれば、もう一方の腕の位置は、270°と0°との間のピークとして決めることができたであろうことは理解されよう。
1つの好ましい実施形態によれば、図面の形態に基づく統計的分析が、検出されたすべての態様に対して、ユーザの3D点群の中の頭部の位置を決定するか改良するために実行される。加えて、形態の分布のいくつかの曖昧でない構成を識別することは、頭部の位置または全体的なポーズと関連するトラッキングエラーから回復するために有用である。例えば、可能性のある肩の形態に対する頭部の形態の対称性が考慮されるべきである。同様に、肢部の形態の詳細が考慮されるべきである。他の例では、同様の高さの大きさを有し、上下方向において30°未満で隣接している2つの別々の形態は、その他の形態が潜在的に頭部や腕により良く対応し、頭部の形態が、好ましくは、腕を表現する2つの形態の間に局在した状態で、ユーザの脚により良く対応するかもしれない。特定の実施形態によれば、他の処理によって提供される頭部の位置は、形態の統計的分析によって規定されたユーザの3D点群に取り付けられた着目した点または図心に対応するより適切な位置になるように、リセットされるか改良されてもよい。
このユーザの頭部の位置の決定または改良から、主方向を、図8aにしたがって、頭部中心から重心820まで、かつ足の間の位置に至るまでを直線で通過するものであるとして、決定する、あるいは改良することが可能である。
図2に戻って、曲率中心の点を決めるために、その後、ステップ220で、ORUSデータが次のステップで使われる。特に、曲率中心の点の位置の推定は、局所的なレベルで法線の交点を決めるために、オブジェクトの部位の区切りの中央の点に対応する点である曲率中心の点を推定するように、法線ベクトル、すなわち、ORUSグリッドの法線データを用いて行われる。曲率中心の点の位置に関するデータは、ORUSグリッドに蓄積され、そして、これらの曲率中心の点の蓄積の最大密度を有する位置が、オブジェクトの部位の中心軸(すなわち、人間をフィッティングおよびトラッキングする場合は、肢部の骨)の最良の近似を規定するものとして設定される。特に、最大密度の位置のそれぞれは、接触する球のパラメータをその両方で規定する、中心と半径を有する。さらに、接触する球のそれぞれは、例えば、そこからそれが抽出される曲線Cの点の収束に対して、正の、負の、またはゼロの曲率の点として分類される。好ましい実施形態においては、そのように規定された接触する球とそのパラメータが、ユーザの体の骨の中心軸、ユーザの体の骨の体積、トルソ平面を近似するため、および体の主方向の質を高め、および/または再定義するために使われる。
図6には、接触する球の例が2次元で図示されている。点Pにて曲線Cと接触しており、その中心が点Pにて曲線に対する法線面内にある球体610は、接触する球として規定されている。この場合、曲線Cによって規定される表面に対して、接触する球610を、ORUSグリッドに投影される曲線Cの法線の交点の密度の最大に対応するその中心620が、矢印630で示される点Pにおける表面Cの法線上に存在するように描くことができる。接触する球の中心620は、中心軸または可能性のある体の骨のラインの位置を表示している。体に取り付けられる接触する球すべての中心を一緒に関連付けることによって、骨格表現の構成の推定を獲得または改良することができる。
上述のように、接触する球とそれらが関連する曲率中心の点には、それらが関連する表面の収束に応じて3つのタイプがあることに注目すべきであって、すなわち、現在の実施形態では捨てられている凹表面に対応する正の半径を有するものと、少なくとも部分的にはトルソであり得る平らな表面を示すゼロに近い小さい半径の値を有するものと、現在の実施形態で特に考慮されている、例えば、ユーザの肢部である、管状構造に対応する負の半径を有するものである。もし接触する球の半径が最初から、曲率中心の点と点Pとの間の距離によって決められている場合は、それは事前に定義することもできると理解すべきである。
ステップ220で決定したデータから、続いて、形態学的および幾何学的制約を利用して、特定のトラッキング技術によって、反復的であり、局所的でも全体的でもあるフィッティングが実施される(ステップ230)。局所的なフィッティングは、3D点群で決められた予想位置を基準にして、以前の位置から骨格表現の制御点のそれぞれを再ポジショニングすること、例えば、頭部の制御点を、3D点群から、または好ましくは、ORUSグリッドの分析から、決定される頭部の位置にフィッティングさせることを目的とする。「以前の位置」とは、もしオブジェクトの骨格表現が以前にフィッティングされトラッキングされていれば、骨格表現の制御点の位置および以前のフレームのうちの1つでの、好ましくは直前のフレームを使っての、それらの空間における配置の制御点を意味する。もしオブジェクトの骨格表現が以前にフィッティングおよびトラッキングされていなかったときは、以前の位置は、フィッティングおよびトラッキングされるべきオブジェクトの骨格表現の初期のポーズを使って決められる。現在の骨格のポーズの表現のための入力として使われる、以前のフレームにおける骨格表現は、モーション推定技術、例えば、一次、二次、および三次の運動モーメントパラメータのうちの少なくとも1つ、すなわち、以前のフレームにおける制御点の位置、速度、および加速度を使ったものを使って質を高められてもよいということは理解されよう。全体的なフィッティングは、骨格表現のすべての制御点を、互いに、および決定された全体的なポーズに対して、全体的に再ポジショニングすることを目的とする。
形態学的制約に関する考察は、決定された相互関係を有する結合された点の集合、例えば、図1に示した、4つの結合された点の集合であるユーザのトルソを表現するパッチ140を考慮することを含む。加えて、前腕と上腕、太ももと下腿は、二つの結合された点の組であると考えられる。特に、トルソに対するユーザの頭部の位置を考えるとき、首に対応する結合された点の集合は、頭部を、二つの肩の間のセグメントの中心にリンクさせる三つの制御点の三角形構造として考慮される。
幾何学的制約の考察は、二つの結合された制御点の間の最小および/または最大距離を含み、例えば、首の長さとともに、上部と下部の肢部の長さが制約される。結合されていない二つの制御点の間の制約も、例えば、頭部と臀部との距離も考慮することができる。特に、幾何学的制約は、形態学的制約によって利用可能になったポーズの推定の解空間を効果的に制限するためと、以下で詳細に述べる、フィッティングを簡単にするために使われ、例えば、頭部と肩について考察するとき、直交性の制約を遵守することができる。
1つの好ましい実施形態では、骨格表現の制御点の幾何学的制約の間の距離は、その処理が信頼性のある測定値を収集するにつれて、時間の経過とともに、強化される。強化は、例えば、ガウス混合または時間平均法によって実行することができる。信頼性のある測定値は、骨格表現のポーズが曖昧さを含まないとき、例えば、ユーザが、肢部が全く交差せず、体のどの部位もかみ合わされていないところで、その先端部のすべてが完全に検出され識別されることができるように、シーンの中に立っているとき、検出することができる。
形態学的および幾何学的制約に加えて、速度および衝突の制約も、骨格表現の制御点、関係するセグメント、および/または決して効果的にオーバラップしたり結合したりしないパッチの正しい位置のよりよい推定を得るために、考慮することができる。特に、速度の制約は、制御点の動きの速度に関係している。それらは、既定の、許容される速度の範囲の中に含まれていなければならない。許容される速度は、骨格表現の各単一制御点について規定され得る。既定の範囲に対してより低い速度は、動きがないことを示していると考えられる。許容されるのより早い速度も、動きがないことを示すと考えられる。したがって、既定の範囲の外の速度は、動きがないと考えられ、結果として、考慮される制御点は、以前のフレームにおいて有していたのと同じ位置を保持することになる。
衝突の制約は、オーバラップ、溶け込み、そしてある程度は、制御点、セグメント、および/またはパッチの他のものからの距離に関係し、それらの間のオーバラップは許可されない。「許可されない」という用語により、フィッティング処理は、例えば、セグメント位置を、直近の許可された位置で固定するか、または、姿勢が、関連するすべての制約について、エネルギー最小化の原理を満たすようにセグメント位置を、別の位置に調節すると理解されるべきである。全体的なトラッキングのステップの効率はフィッティングの正確さに依存しているので、それはまた、形態学的および幾何学的制約にも、時をわたって依存している。スタートアップ時に、または以前にトラッキングがされていなかったときに、少なくとも一度提案される、ステップ210の骨格表現の初期のポーズの推定により、それにより骨格表現の制御点の曖昧でない配置がもたらされるので、トラッキング処理の効率の改善を助けるステップが提供される。
トラッキングのステップ自体に戻ると、異なる基準の組合せであり得る、エネルギーを最小にする方法に基づくが、この基準とは、例えば、
●物までの距離、すなわち、骨格から接触する球の中心までの距離、
●現在の骨格のポーズから、以前の骨格のポーズまでの距離、
●画像装置によって観察されるユーザ表面までの距離、すなわち、骨格表現は、奥行きによれば、ユーザマスクの背後にあり、ユーザのシルエットの内部に含まれなければならない(これは、「シルエットまでの距離」と表現される)という事実、
である。
エネルギーの最小化の最適化は2つのレベル、すなわち、局所的なレベルと全体的なレベルで行われる。その処理は、基本的に、骨格表現の制御点のそれぞれについて、それが、上述の制約と基準とに関してその一部である骨格表現の全体的なエネルギーを最小にする場所である局所的なレベルの位置を発見すること、すなわち、それが制約に関して関係しているその他の制御点のいくつかの位置の可能性ある変化に影響する、新しい位置における制御点の位置をフィッティングすることを目的とする。例えば、手に対応する制御点の位置の変化は、もし肘に対応する制御点の位置が変わるならば、二つの制御点の間の距離が前腕のセグメントの大きさによって制約されているので、少し変わるかもしれない。最適化は、例えば、勾配降下と呼ばれるアルゴリスムを用いたり、あるいは、レーベンバーグ・マーカート(Levenberg-Marquardt)のような方法を用いて、繰り返して行われる。収束基準が、繰り返しの最適化において一度満足されると、すなわち、例えば、局所的な最適化が局所的な最小値に近くなると、すると、その決定された局所的な最小値から抜け出して、エネルギーが、局所的な最適化のステップで先に決められたのよりも低い他の構成を見つけ出すことを試みることが可能となるように、付加的な導かれた構成の変更が使われる。そのとき、導かれた構成の変更は、局所的な最適化プロセスの上に全体的な最適化を実行することを目的としている。連続しているか否かに関わらず、局所的と全体的の最適化のいくつかのループを実行することができ、これにより、最小の全体的なエネルギーに達すること、最小の局所的なエネルギーに達すること、エネルギー最小化プロセスにおいてあらかじめ決められた繰り返し回数に達すること、および/または収束に許された、あらかじめ決められた時間に達することのうち、少なくとも一つあるいはその組合せを満足する、適切な骨格のポーズの解に収束する。
導かれた構成の変更の好ましい一実施形態では、例えば、システムの状態においていくつかの既知のパターン、すなわち、限られた数の既知のユーザのポーズを検出し、既定の関連するレスポンス、すなわち、既定の骨格のポーズや既定の骨格の制御点の配置を適用する、システム全体のエネルギーのよりよい最小化を目的とする、特化した処理技術を使う。
より好ましい実施形態においては、全体的なフィッティングとトラッキングの性能を向上させるために、それぞれの特化されたプロセスは、確率要素、例えば、発生率、成功率、およびそれらの最小化効率の比のうちの少なくとも1つによって重み付けられる。最小化効率の比は、以前に実行された最小化プロセスにおけるそれぞれの速度性能に対応している。より高い重みを有する特化されたプロセスは、より低い重み係数を有するその他のいかなる特化されたプロセスに対しても、優先的にかつそれより前に選択される。
図9において、骨格表現のグローバルエネルギー、すなわち、骨格表現と関連する身体(すなわち、セグメントとパッチ)の制御点の、決められた曲率中心に対する、それらの以前の位置に対する、およびユーザマスクに対する距離に対応するグローバルエネルギーは、太い破線910で表現される。線910の形状は、図説の目的だけに描かれており、ユーザのポーズによって、および、骨格表現によって、大きく変わるかもしれないことを理解すべきである。それぞれのフレームについて、エネルギー最小化の処理(図2のステップ230)に入るとき、骨格のグローバルエネルギーが、点921で示されるように決められる。矢印920によって示される局所的な反復するエネルギー最小化プロセスは、最小エネルギーが、その骨格表現について点923によって示されるよう発見されるまで、点922、923によって示されるように、その骨格表現について適切な、可能性のある制御点の構成を次々に解析することによって、実施される。反復の回数はユーザのポーズによって変わることがあり、無限ループを避けるため、あるいは収束時間プロセスを制限するために、許される反復数に閾値を設定することができることが理解されるだろう。
ひとたび、点923で示される局所最小値が発見されると、矢印950で示されるように、点923にて決められた局所的な最小ローカルから脱して、その相対的な形態のエネルギーが局所的に発見されたもの(点923)よりも低い骨格表現の別の制御点を発見することができるように、導かれた構成の変更プロセスが使われる。図9においては、導かれた構成の変更のプロセス(矢印950)は、全体的な最適化を実行するのを助け、その結果、点923におけるのよりも低いエネルギーを有する、点951によって表現される骨格表現の構成となる。図9ではたった一つの全体的な最小値のサーチが図示されているが、この全体的なエネルギーの最小化は、許される処理時間に対して収束の正確さを最適化するパラメータを使うことを含む局所的な最適化と同様に繰り返されるということが理解されるだろう。
点951で、最良の全体的な最小値が発見されると、矢印980で示すように、他の局所的な最小値最適化プロセスを実行することができ、骨格表現の適切な局所的な構成が、最小の局所的エネルギーを発見するまで、点982、983によって表現されるように、繰り返しを使って発見される。
局所的な、および全体的なエネルギー最小化最適化を繰り返し実行した後、点983に示すように、骨格表現の最適な構成が発見される。骨格表現のこの構成は、次に、最適なフィッティングに対応するもの、すなわち、現実のユーザのポーズを最も良く表現する骨格表現の最適な制御点の配置であると考えられる。
次のステップは、堅固な安定化フィルタリングを骨格表現の制御点の位置に適用する、ステップ240を含む。好ましくは制御点のすべてを考察するが、もし、動きがないならば、そのいくつかの点は考察する必要がないであろうことが理解されよう。フレーム毎の安定化を実行する方法は、特許文献9に説明されているが、これによれば、カメラやその他のセンサによって捕捉された物理的変数の一連の測定値は、安定した画像を提供するために処理される。この処理は、第一と第二の測定値の間の差を既定の閾値と比較することを含み、もしその差が既定の閾値より小さい場合には、第二の測定値は、第一フィルタリング値を使ってその差が減少させられた訂正された第二の測定値と交換される。第二と第三の測定値についても同様に、もしその差が既定の閾値より小さい場合、第三の測定値は、第一フィルタリング値よりも小さい第二のフィルタリング値を使って減少させて訂正された第三の測定値と交換される。これは、骨格の動きの表現を滑らかにするように考えられるすべての骨格の制御点について繰り返される。
次のステップであるステップ250において、いくつかの制御点にとって情報が得られない場合、例えば、骨格表現の対応する制御点を隠す三次元点群上でのかみ合わせがある場合、骨格表現のこれらの特定の制御点の少なくともいくつかについて、位置についての推定を提供する仕上げ処理がなされる。一つの特定の例は、ユーザの手が、奥行き感知システム、すなわち、画像センサやカメラの光学軸に対して、肩と一直線になって、少なくとも肘が隠れ、ユーザに対応する3D点群が肘に対応する点を持たないようになっているときである。その特定の例では、仕上げには、以前のステップ230、240に基づいて肘の位置を推定することが含まれ、そこでは、例えば、考慮されている骨格表現の制御点の最新の既知の位置によって、トラッキングおよび安定化の結果が改良される。本発明の好ましい一実施形態では、欠けている情報を仕上げることは、カルマンベースの位置の外挿、逆運動学(inverse kinematic)ベースの位置の改良、関節の制限、および重力シミュレーションのうちの少なくとも1つを用いる。
特に、カルマンベースの位置の外挿を使った場合、エネルギー最小化プロセスを最適化するための情報が全く入手できない骨格表現の制御点は、以前の位置、速度、および加速度によって設定される位置を有している。運動学ベースの位置の改良を、単独で、またはカルマンベースの仕上げと組み合わせて使った場合、骨格表現の制御点は、例えば、隣接する制御点への距離についてリセットされる。関節の制限による位置の改良を、単独で、またはその他の仕上げプロセスの一つと組み合わせて使った場合、骨格表現の制御点の位置は、例えば、考察されるユーザ(またはオブジェクト)の生理学的特質にしたがって、それらのそれぞれとそれらの隣接するもののそれぞれとの間で許される角度の制限について、改良される。重力シミュレーションベースの位置の改良を、単独で、またはその他の先の仕上げプロセスのうちの1つとの組み合わせで使った場合、骨格表現における考慮している制御点の位置は、例えば、重力に関して、すなわち、それぞれの位置は、経過時間と、考慮されている制御点に割当てられた既定の重みの推定値にしたがって、以前推定された位置よりも低く調整される。特に、それぞれの制御点の重みの事前決定は、時間経過と共に改良されるユーザの大きさおよび寸法との関係で実行されてもよい。
最終ステップであるステップ260は、図1を参照して上述したように、カメラの視野の中のユーザの骨格表現に対応する制御点の集合と、ユーザの骨格表現を提供する、セグメント、三角形、パッチなどの3D基本要素の集合とのうちの一方を含む出力を提供することを目的とする。制御点または3D基本要素の集合は、3D座標データと、3D方向データと、(異なるレベルの)運動に関連するデータと、関節(図1を参照して上述した制御点)または3D基本要素の識別と、関節(上述した制御点)または3D基本要素とを含むことができる。
図2を参照して説明した方法は、人間のユーザとそのようなユーザの骨格表現の形成について言及しているが、その方法は、画像センサやカメラの視野内のその他のいかなるオブジェクトをも表す骨格表現を決め、そのオブジェクトの骨格表現をフィッティングし、トラッキングするためにも使うことができることが理解されるだろう。
加えて、もし、カメラまたはその他の画像装置が、捕捉中のシーンに対して動いている場合には、静止しているオブジェクトをトラッキングすることができる。特に、その基準点または原点がシーンの中の別の点であるのと同じようにカメラの位置である座標系を基準として、その基準点が、例えば床上の点のように静止しているか、あるいは、例えばトラッキングされるオブジェクト上の点のように動いているかによらず、どんな3D情報でも提供され得る。
本発明の方法は、次の利点を有している。
(1)一定のステップのグリッドが、正投影のために使われる。そのようなグリッドは処理時間を画像解像度から効果的に分離する、すなわち、処理時間は画像解像度とは実質的に独立している。
(2)この方法を最適化する場合、質と性能を天秤にかけることができる。これは、例えば、ORUSグリッドの大きさと時間間隔ごとに稼働している特化された処理の数を選ぶことによって行われる。
(3)セグメントの中のそれぞれの骨の中心軸の近似は、点群からの局所的な法線ベクトルが交差する、空間における位置の推定によって規定される曲率中心の点の集合を使って決定される。
(4)骨格表現のためのフィッティングおよびトラッキングのエネルギーの測定基準が規定され、それには満足すべき判定基準が含まれる。
(5)骨格表現のポーズのエネルギーの局所最小値に対応するポーズの推定値を決定し、それによって、最小の全体的なポーズのエネルギーを決定することができる特化した処理に関連した局所的な、および全体的なエネルギーの最小化を含む、特有のトラッキングの戦略が使われる。
(6)動きの振る舞いを時間に対して滑らかにするために、決定される骨格表現の制御点の位置のそれぞれの上に、安定化が適用される。
(7)仕上げが、曖昧な既知のポーズを解決するために、終わりに使われる。
図7aは、正投影のユーザグリッド(ORUS)を図示している。ユーザが奇妙な形に見えるが、これは、ユーザに対応する3D点群を捕捉するために使われるカメラまたは画像装置の解像度のためである。
図7bは、曲率中心の点の位置と、それらが関連する接触する球を図示している。図示されるように、接触する球は、骨格のような高いレベルの情報の代わりになるものではないが、すでに骨格のように見えるものを、効果的に、提示している。
図7cは、図7aの正投影ユーザグリッドと、図7bの曲率中心の点とそれらに関連する接触する球との組合せを図示している。図示されるように、接触する球の輪郭は、骨格モデルと同様な方法で、ORUSグリッドの中にフィットしている。
図7dは、接触する球の輪郭が、フィッティング処理の結果、骨格によって取って代わられている、図7aの正投影ユーザグリッドを図示している。図示されるように、制御点は見えるが、図1に示すようなトルソに対応するパッチ140は示されていない。
図7eは、ユーザに対応する3D点群を図示し、そこでは、接触する球の中心の位置を決める曲率中心の点の輪郭が、骨格モデルとともに、ユーザの骨の管状構造の近似を表現するために、描かれている。ここでは、ユーザのポーズは、図7bに示されたものと同じである。骨格は、本発明にしたがって、上述したように、接触する球にフィッティングされるので、接触する球の輪郭と骨格モデルは非常に似ていることは注目すべきである。

Claims (23)

  1. 三次元点群によって表現される三次元シーンの中のオブジェクトの骨格表現(100)をフィッティングおよびトラッキングする方法であって、前記骨格表現(100)は、複数の制御点(110、112、114、116、118、120、122、124、126、128、130、132、134)の配置を含んでおり、
    a)前記シーンの中でフィッティングおよびトラッキングすべき前記オブジェクトに関係する入力情報を決めるために、前記シーンの前記三次元点群を使用するステップと、
    b)前記フィッティングおよびトラッキングすべきオブジェクトの前記決められた三次元点群を、正投影表現(220)に変換するステップと、
    c)前記フィッティングおよびトラッキングすべきオブジェクトの少なくとも一部の中心軸の位置を推定するために、曲率中心の点(620)を決めるステップと、
    d)前記三次元シーンの中で前記フィッティングおよびトラッキングすべきオブジェクトを表現する前記複数の制御点(110、112、114、116、118、120、122、124、126、128、130、132、134)の位置を決めるステップと、
    e)時間に対する前記オブジェクトの前記骨格表現(100)の前記位置を改良するために、前記三次元シーンの中の前記複数の制御点(110、112、114、116、118、120、122、124、126、128、130、132、134)をフィッティングおよびトラッキングするステップと、
    を含むことを特徴とする方法。
  2. 前記入力情報は、前記三次元点群の中の点のそれぞれのために決められる法線を含むことを特徴とする請求項1に記載の方法。
  3. ステップa)は、少なくとも1つの着目したオブジェクトに対応する三次元点群を決めるステップを含むことを特徴とする請求項1または2のいずれか1項に記載の方法。
  4. ステップa)は、前記フィッティングおよびトラッキングすべきオブジェクトの主方向を決めるステップを含むことを特徴とする請求項3に記載の方法。
  5. ステップa)は、以前にいかなるオブジェクトもフィッティングおよびトラッキングされていない場合に、前記フィッティングおよびトラッキングすべきオブジェクトの骨格のポーズの表現を規定する前記制御点の位置の初期配置を空間内で決めるステップを含むことを特徴とする請求項3または4のいずれか1項に記載の方法。
  6. ステップb)は、前記フィッティングおよびトラッキングすべきオブジェクトの前記三次元点群をグリッド(520)に投射するステップを含み、前記グリッドは、そのそれぞれが既定の大きさを有する複数のグリッドビン(530、532、534、536、538、540、542、544、546、548、550)を含み、前記投射は、空間における既定の静的な大きさによって前記オブジェクトの前記三次元点群をサンプリングすることを特徴とする先行する請求項のいずれか1項に記載の方法。
  7. ステップb)は、前記三次元点群の中の前記点に関する情報を、それが関連する前記グリッドビン(530、532、534、536、538、540、542、544、546、548、550)において、蓄積し、重み付けをするステップを含むことを特徴とする請求項6に記載の方法。
  8. グリッドビン(542)が空の場合、近隣の空でないグリッドビン(540、544)から補間された情報でそれを充填するステップをさらに含むことを特徴とする請求項7に記載の方法。
  9. ステップc)は、グリッドビン(530、532、534、536、538、540、542、544、546、548、550)によって提供される法線データから曲率中心の点(620)を決めるステップを含むことを特徴とする請求項6ないし8のいずれか1項に記載の方法。
  10. ステップc)は、前記フィッティングおよびトラッキングすべきオブジェクトのそれぞれの部分の中心軸の体積を近似するために、それぞれの曲率中心の点(620)を接触する球(610)に関連付けるステップをさらに含むことを特徴とする請求項9に記載の方法。
  11. ステップc)は、それぞれの曲率中心の点(620)とその関連する接触する球(610)とを、それらと関連付けられた前記フィッティングおよびトラッキングすべきオブジェクトのそれぞれの部分の表面の凸性を示すタグに関連付けるステップをさらに含むことを特徴とする請求項10に記載の方法。
  12. ステップd)は、
    d1)制御点(110、112、114、116、118、120、122、124、126、128、130、132、134)のそれぞれの対の間の、少なくとも1つのセグメント(152、154、156、158、160、162、164、166)をフィッティングするステップ
    を含むことを特徴とする先行する請求項のいずれか1項に記載の方法。
  13. ステップd)は、
    d2)前記オブジェクトの前記三次元点群の平面(140)を識別するステップ
    を含むことを特徴とする先行する請求項のいずれか1項に記載の方法。
  14. ステップd2)は、
    d3)凸性タグを使用して前記フィッティングおよびトラッキングすべきオブジェクトの前記三次元点群の平面(140)を識別するステップ
    をさらに含むことを特徴とする請求項13に記載の方法。
  15. ステップd)は、
    d4)前記オブジェクトの主方向を識別するステップと、
    d5)前記オブジェクトの少なくとも1つの部分の前記位置を識別するステップと、
    d6)前記オブジェクトのそれぞれ部分の前記位置と、主方向とを、お互いに対して改良するステップと、
    をさらに含むことを特徴とする請求項13または14のいずれか1項に記載の方法。
  16. ステップe)は、前記トラッキングすべきオブジェクトの前記骨格表現の前記位置をフィッティングするために、識別される制御点(110、112、114、116、118、120、122、124、126、128、130、132、134)の特性を利用するステップを含むことを特徴とする先行する請求項のいずれか1項に記載の方法。
  17. 前記利用される特性は、時間に対して決められる、位置、速度、加速度、および確率係数のうちの少なくとも1つを含むことを特徴とする請求項16に記載の方法。
  18. ステップe)は、時間に対して前記オブジェクトの前記骨格表現の前記ポーズをフィッティングするために、局所的な、および全体的なエネルギーの最小化の戦略の組み合わせを利用するステップを含むことを特徴とする先行する請求項のいずれか1項に記載の方法。
  19. 前記エネルギーの最小化の戦略は、物体までの距離、以前の骨格までの距離、およびシルエットまでの距離のうちの少なくとも1つを含むことを特徴とする請求項18に記載の方法。
  20. 前記エネルギーの最小化の戦略は、物体までの距離、以前の骨格までの距離、およびシルエットまでの距離の基準のすべてを使うことを特徴とする請求項19に記載の方法。
  21. ステップe)は、フィッティングおよびトラッキングの結果を最適化するために時間について決められた確率係数にしたがって制御点(110、112、114、116、118、120、122、124、126、128、130、132、134)の複数の可能性のある位置を評価するステップをさらに含むことを特徴とする請求項18ないし20のいずれかの1項に記載の方法。
  22. ステップe)は、少なくとも1つの既定の基準にしたがって、局所的な、および全体的なエネルギーの最小化の両方を繰り返し実行するステップを含むことを特徴とする請求項21に記載の方法。
  23. 前記エネルギーの最小化の戦略は、傾斜降下型のアルゴリスムを使って実行されることを特徴とする請求項18ないし22のうちのいずれか1項に記載の方法。
JP2014524423A 2012-06-14 2013-05-16 三次元オブジェクトのモデリング、フィッティング、およびトラッキング Active JP5855751B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12172091.6A EP2674913B1 (en) 2012-06-14 2012-06-14 Three-dimensional object modelling fitting & tracking.
EP12172091.6 2012-06-14
PCT/EP2013/060196 WO2013186010A1 (en) 2012-06-14 2013-05-16 Three-dimensional object modelling fitting & tracking

Publications (2)

Publication Number Publication Date
JP2014522058A true JP2014522058A (ja) 2014-08-28
JP5855751B2 JP5855751B2 (ja) 2016-02-09

Family

ID=48464003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014524423A Active JP5855751B2 (ja) 2012-06-14 2013-05-16 三次元オブジェクトのモデリング、フィッティング、およびトラッキング

Country Status (6)

Country Link
US (1) US9317741B2 (ja)
EP (1) EP2674913B1 (ja)
JP (1) JP5855751B2 (ja)
KR (1) KR101519940B1 (ja)
CN (1) CN103733227B (ja)
WO (1) WO2013186010A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017116403A (ja) * 2015-12-24 2017-06-29 トヨタ自動車株式会社 姿勢推定装置、姿勢推定方法、およびプログラム
KR101798132B1 (ko) 2016-12-26 2017-11-16 한국생산기술연구원 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법
JP2018532216A (ja) * 2015-09-07 2018-11-01 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 画像正則化及びリターゲティングシステム
KR102058421B1 (ko) * 2019-01-31 2020-01-22 주식회사 팀엘리시움 대상물의 표면 메시를 획득하는 방법 및 이를 이용한 장치
JP2020140719A (ja) * 2020-04-02 2020-09-03 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JPWO2021156914A1 (ja) * 2020-02-03 2021-08-12
JP2022503426A (ja) * 2019-09-27 2022-01-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 人体検出方法、装置、コンピュータ機器及び記憶媒体
WO2024009503A1 (ja) * 2022-07-08 2024-01-11 富士通株式会社 姿勢推定プログラム、装置、及び方法
US11893671B2 (en) 2015-09-07 2024-02-06 Sony Interactive Entertainment LLC Image regularization and retargeting system

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2790152B1 (en) * 2013-04-12 2015-12-02 Alcatel Lucent Method and device for automatic detection and tracking of one or multiple objects of interest in a video
CN103268631B (zh) * 2013-05-23 2015-09-30 中国科学院深圳先进技术研究院 点云骨架提取方法及装置
JP2015061579A (ja) * 2013-07-01 2015-04-02 株式会社東芝 動作情報処理装置
US9595125B2 (en) * 2013-08-30 2017-03-14 Qualcomm Incorporated Expanding a digital representation of a physical plane
IN2013MU04097A (ja) * 2013-12-27 2015-08-07 Tata Consultancy Services Ltd
US9524582B2 (en) * 2014-01-28 2016-12-20 Siemens Healthcare Gmbh Method and system for constructing personalized avatars using a parameterized deformable mesh
WO2015148824A1 (en) * 2014-03-27 2015-10-01 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
CN104050720B (zh) * 2014-06-24 2017-02-15 中国科学院深圳先进技术研究院 点云曲面重建方法及系统
US20160110593A1 (en) * 2014-10-17 2016-04-21 Microsoft Corporation Image based ground weight distribution determination
JP2016091108A (ja) * 2014-10-30 2016-05-23 パナソニックIpマネジメント株式会社 人体部位検出システムおよび人体部位検出方法
US10696517B2 (en) 2014-11-26 2020-06-30 Otis Elevator Company Elevator security and control system based on passenger movement
CN105741312B (zh) * 2014-12-09 2018-04-27 株式会社理光 目标对象跟踪方法和设备
CN105788000A (zh) * 2014-12-16 2016-07-20 富泰华工业(深圳)有限公司 网格补孔方法及系统
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
EP3243188A4 (en) * 2015-01-06 2018-08-22 Facebook Inc. Method and system for providing depth mapping using patterned light
CN104658012B (zh) * 2015-03-05 2017-04-12 第二炮兵工程设计研究院 一种基于惯性与光学测量融合的运动捕捉方法
US9959655B2 (en) * 2015-04-17 2018-05-01 Autodesk, Inc. Segmented full body inverse kinematics
US9836118B2 (en) 2015-06-16 2017-12-05 Wilson Steele Method and system for analyzing a movement of a person
US9830703B2 (en) * 2015-08-12 2017-11-28 Nvidia Corporation Model-based three-dimensional head pose estimation
WO2017031718A1 (zh) * 2015-08-26 2017-03-02 中国科学院深圳先进技术研究院 弹性物体变形运动的建模方法
EP3359036B1 (en) * 2015-10-05 2021-08-18 Scholl's Wellness Company LLC Generating orthotic product recommendations
US9691153B1 (en) * 2015-10-21 2017-06-27 Google Inc. System and method for using image data to determine a direction of an actor
US10043279B1 (en) * 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
KR102535617B1 (ko) * 2016-01-04 2023-05-24 한국전자통신연구원 깊이 영상에서의 객체 검출 시스템 및 방법
US10134146B2 (en) 2016-01-14 2018-11-20 RetailNext, Inc. Detecting, tracking and counting objects in videos
US9875535B2 (en) * 2016-02-11 2018-01-23 Caterpillar Inc. Wear measurement system using computer vision
US9880075B2 (en) * 2016-02-11 2018-01-30 Caterpillar Inc. Wear measurement system using a computer model
US10025308B1 (en) 2016-02-19 2018-07-17 Google Llc System and method to obtain and use attribute data
CN111329552B (zh) 2016-03-12 2021-06-22 P·K·朗 包括机器人的用于引导骨切除的增强现实可视化
US10607665B2 (en) 2016-04-07 2020-03-31 Micron Technology, Inc. Span mask generation
CN106250867B (zh) * 2016-08-12 2017-11-14 南京华捷艾米软件科技有限公司 一种基于深度数据的人体骨骼跟踪系统的实现方法
US10192147B2 (en) * 2016-08-30 2019-01-29 Microsoft Technology Licensing, Llc Foreign substance detection in a depth sensing system
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
CN110430809B (zh) 2017-01-16 2023-09-26 P·K·朗 用于外科、医疗和牙科手术的光学引导
US10083524B1 (en) * 2017-04-21 2018-09-25 Octi Systems and methods for determining location and orientation of a camera
EP3624059A4 (en) * 2017-05-10 2020-05-27 Fujitsu Limited METHOD, DEVICE, TARGET OBJECT RECOGNITION SYSTEM, AND PROGRAM
US10282913B2 (en) 2017-07-24 2019-05-07 Visom Technology, Inc. Markerless augmented reality (AR) system
US10535160B2 (en) 2017-07-24 2020-01-14 Visom Technology, Inc. Markerless augmented reality (AR) system
EP3667611A4 (en) * 2017-08-07 2020-08-26 Fujitsu Limited INFORMATION PROCESSING DEVICE, MODEL DATA GENERATION PROGRAM AND MODEL DATA GENERATION METHOD
JP6942566B2 (ja) * 2017-08-30 2021-09-29 キヤノン株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US11801114B2 (en) 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
US10607079B2 (en) * 2017-09-26 2020-03-31 Toyota Research Institute, Inc. Systems and methods for generating three dimensional skeleton representations
KR102147930B1 (ko) * 2017-10-31 2020-08-25 에스케이텔레콤 주식회사 포즈 인식 방법 및 장치
US10460512B2 (en) * 2017-11-07 2019-10-29 Microsoft Technology Licensing, Llc 3D skeletonization using truncated epipolar lines
CN107917712B (zh) * 2017-11-16 2020-07-28 苏州艾吉威机器人有限公司 一种同步定位与地图构建方法及设备
WO2019129919A1 (en) 2017-12-28 2019-07-04 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
CN108228798B (zh) * 2017-12-29 2021-09-17 百度在线网络技术(北京)有限公司 确定点云数据之间的匹配关系的方法和装置
KR102519653B1 (ko) * 2018-01-20 2023-04-07 삼성전자주식회사 포인트 클라우드 압축 방법 및 장치
CN108272513B (zh) * 2018-01-26 2021-03-16 智美康民(珠海)健康科技有限公司 临床定位方法、装置、计算机设备和存储介质
WO2019148154A1 (en) 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures
CN108304819B (zh) * 2018-02-12 2021-02-02 北京世纪好未来教育科技有限公司 姿态识别系统及方法、存储介质
CN112767542A (zh) * 2018-03-22 2021-05-07 影石创新科技股份有限公司 一种多目相机的三维重建方法、vr相机和全景相机
CN108765577B (zh) * 2018-04-09 2021-07-09 华南农业大学 一种实时点云数据驱动的四肢畜牧动物骨架增强现实跟踪方法
CN108564600B (zh) * 2018-04-19 2019-12-24 北京华捷艾米科技有限公司 运动物体姿态跟踪方法及装置
KR102030040B1 (ko) * 2018-05-09 2019-10-08 한화정밀기계 주식회사 빈 피킹을 위한 빈 모델링 방법 및 그 장치
CN108597019A (zh) * 2018-05-09 2018-09-28 深圳市华讯方舟太赫兹科技有限公司 点云采样方法、图像处理设备及具有存储功能的装置
US11035943B2 (en) * 2018-07-19 2021-06-15 Aptiv Technologies Limited Radar based tracking of slow moving objects
US10573050B1 (en) 2018-11-20 2020-02-25 Sony Corporation Marker-based pose estimation
CN109618183B (zh) * 2018-11-29 2019-10-25 北京字节跳动网络技术有限公司 一种视频特效添加方法、装置、终端设备及存储介质
CN109740628A (zh) * 2018-12-03 2019-05-10 深圳市华讯方舟太赫兹科技有限公司 点云聚类方法、图像处理设备及具有存储功能的装置
CN109766868B (zh) * 2019-01-23 2020-12-11 哈尔滨工业大学 一种基于身体关键点检测的真实场景遮挡行人检测网络及其检测方法
GB2580691B (en) * 2019-01-24 2022-07-20 Imperial College Innovations Ltd Depth estimation
CN109859237B (zh) * 2019-01-25 2023-05-26 湖南大学 一种基于红外扫描的人体骨骼运动分析方法
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US10825196B2 (en) 2019-02-15 2020-11-03 Universal City Studios Llc Object orientation detection system
US11331006B2 (en) * 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
CN110097639B (zh) * 2019-03-18 2023-04-18 北京工业大学 一种三维人体姿态估计方法
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
CN110009029B (zh) * 2019-03-28 2021-02-12 北京智行者科技有限公司 基于点云分割的特征匹配方法
CN110084161B (zh) * 2019-04-17 2023-04-18 中山大学 一种人体骨骼关键点的快速检测方法及系统
CN110223336B (zh) * 2019-05-27 2023-10-17 上海交通大学 一种基于tof相机数据的平面拟合方法
JP7285703B2 (ja) * 2019-06-17 2023-06-02 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
CN112149466A (zh) 2019-06-28 2020-12-29 富士通株式会社 手臂动作识别方法、装置及图像处理设备
CN110766719B (zh) * 2019-09-21 2022-11-18 北醒(北京)光子科技有限公司 一种目标跟踪方法、设备及存储介质
CN110992400A (zh) * 2019-11-13 2020-04-10 北京影谱科技股份有限公司 基于边缘的动态投影映射对象跟踪方法和装置
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11373331B2 (en) 2019-12-18 2022-06-28 Agt International Gmbh System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera
CN111402290B (zh) * 2020-02-29 2023-09-12 华为技术有限公司 一种基于骨骼关键点的动作还原方法以及装置
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
KR20230050268A (ko) * 2020-05-11 2023-04-14 코그넥스코오포레이션 3차원 이미지들로부터 프로파일들을 추출하기 위한 방법 및 장치
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
CN112446952B (zh) * 2020-11-06 2024-01-26 杭州易现先进科技有限公司 三维点云法向量的生成方法、装置、电子设备及存储介质
CN112669462B (zh) * 2021-01-18 2023-02-28 新拓三维技术(深圳)有限公司 一种适用于扫描点云的模型处理方法及系统
US11786206B2 (en) 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
JP2022155037A (ja) * 2021-03-30 2022-10-13 新東工業株式会社 情報処理装置、情報処理方法、およびプログラム
CN112907709B (zh) * 2021-03-31 2023-07-25 福建天晴在线互动科技有限公司 一种虚拟人物抓握目标物体动作的实现方法及系统
CN113269890B (zh) * 2021-07-21 2021-11-19 广州中望龙腾软件股份有限公司 边界面网格生成方法、智能终端以及存储装置
US11861779B2 (en) * 2021-12-14 2024-01-02 Adobe Inc. Digital object animation using control points
US11954801B2 (en) 2022-04-11 2024-04-09 Microsoft Technology Licensing, Llc Concurrent human pose estimates for virtual representation
US11983819B2 (en) * 2022-05-25 2024-05-14 Verizon Patent And Licensing Inc. Methods and systems for deforming a 3D body model based on a 2D image of an adorned subject
CN114821814B (zh) * 2022-06-27 2022-09-30 中建安装集团有限公司 一种融合可见光、红外、结构光的步态识别方法
CN115131478A (zh) * 2022-07-15 2022-09-30 北京字跳网络技术有限公司 图像处理方法、装置、电子设备及存储介质
CN115458128B (zh) * 2022-11-10 2023-03-24 北方健康医疗大数据科技有限公司 一种基于关键点生成数字人体影像的方法、装置及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102537A1 (ja) * 2006-03-07 2007-09-13 Osaka University 姿勢推定装置および方法
WO2010088032A2 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking
JP2010231452A (ja) * 2009-03-26 2010-10-14 Kddi Corp 多次元時系列データ分析装置及び多次元時系列データ分析プログラム
JP2011123733A (ja) * 2009-12-11 2011-06-23 Denso Corp 乗員姿勢推定装置
JP2011238222A (ja) * 2010-04-30 2011-11-24 Liberovision Ag 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
JP2012059082A (ja) * 2010-09-09 2012-03-22 Seiren Co Ltd 3次元形状の骨格モデル作成方法及び装置並びに3次元形状の寸法測定方法及び装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
CN103778635B (zh) 2006-05-11 2016-09-28 苹果公司 用于处理数据的方法和装置
AU2007351713B2 (en) * 2007-04-20 2011-11-17 Softkinetic Software Volume recognition method and system
WO2010019925A1 (en) * 2008-08-15 2010-02-18 Brown Technology Partnerships Method and apparatus for estimating body shape
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
EP2357608B1 (en) 2009-12-28 2012-11-21 Softkinetic Software Tracking method
EP2357605B1 (en) 2009-12-28 2013-01-16 Softkinetic Software Stabilisation method and computer system
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
JPWO2011108028A1 (ja) 2010-03-05 2013-06-20 富士通株式会社 無線通信システム、端末装置、及び無線通信システムにおける無線通信方法
RU2534892C2 (ru) 2010-04-08 2014-12-10 Самсунг Электроникс Ко., Лтд. Устройство и способ для захвата безмаркерных движений человека
US20110292036A1 (en) * 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
US20120218395A1 (en) * 2011-02-25 2012-08-30 Microsoft Corporation User interface presentation and interactions
WO2012156141A1 (en) * 2011-05-16 2012-11-22 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Fast articulated motion tracking
US9418475B2 (en) * 2012-04-25 2016-08-16 University Of Southern California 3D body modeling from one or more depth cameras in the presence of articulated motion
US9047507B2 (en) * 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007102537A1 (ja) * 2006-03-07 2007-09-13 Osaka University 姿勢推定装置および方法
WO2010088032A2 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Visual target tracking
JP2010231452A (ja) * 2009-03-26 2010-10-14 Kddi Corp 多次元時系列データ分析装置及び多次元時系列データ分析プログラム
JP2011123733A (ja) * 2009-12-11 2011-06-23 Denso Corp 乗員姿勢推定装置
JP2011238222A (ja) * 2010-04-30 2011-11-24 Liberovision Ag 多関節オブジェクトモデルのポーズを推定するためのコンピュータ実行方法、仮想画像をレンダリングするためのコンピュータ実行方法、およびソース画像セグメントのセグメント化を決定するためのコンピュータ実行方法
JP2012059082A (ja) * 2010-09-09 2012-03-22 Seiren Co Ltd 3次元形状の骨格モデル作成方法及び装置並びに3次元形状の寸法測定方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
横矢直和: "三次元物体の理解", 電気学会雑誌, vol. 111, no. 2, JPN6014052361, 20 February 1991 (1991-02-20), pages 103 - 107, ISSN: 0002962075 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018532216A (ja) * 2015-09-07 2018-11-01 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 画像正則化及びリターゲティングシステム
US11893671B2 (en) 2015-09-07 2024-02-06 Sony Interactive Entertainment LLC Image regularization and retargeting system
JP2017116403A (ja) * 2015-12-24 2017-06-29 トヨタ自動車株式会社 姿勢推定装置、姿勢推定方法、およびプログラム
KR101798132B1 (ko) 2016-12-26 2017-11-16 한국생산기술연구원 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법
KR102058421B1 (ko) * 2019-01-31 2020-01-22 주식회사 팀엘리시움 대상물의 표면 메시를 획득하는 방법 및 이를 이용한 장치
JP2022503426A (ja) * 2019-09-27 2022-01-12 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 人体検出方法、装置、コンピュータ機器及び記憶媒体
JP7101829B2 (ja) 2019-09-27 2022-07-15 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 人体検出方法、装置、コンピュータ機器及び記憶媒体
JPWO2021156914A1 (ja) * 2020-02-03 2021-08-12
WO2021156914A1 (ja) * 2020-02-03 2021-08-12 三菱電機株式会社 注意方向判定装置および注意方向判定方法
JP7267467B2 (ja) 2020-02-03 2023-05-01 三菱電機株式会社 注意方向判定装置および注意方向判定方法
JP2020140719A (ja) * 2020-04-02 2020-09-03 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
WO2024009503A1 (ja) * 2022-07-08 2024-01-11 富士通株式会社 姿勢推定プログラム、装置、及び方法

Also Published As

Publication number Publication date
EP2674913A1 (en) 2013-12-18
CN103733227A (zh) 2014-04-16
JP5855751B2 (ja) 2016-02-09
EP2674913B1 (en) 2014-07-23
KR20140133773A (ko) 2014-11-20
CN103733227B (zh) 2017-02-22
KR101519940B1 (ko) 2015-05-13
US20140334670A1 (en) 2014-11-13
WO2013186010A1 (en) 2013-12-19
US9317741B2 (en) 2016-04-19

Similar Documents

Publication Publication Date Title
JP5855751B2 (ja) 三次元オブジェクトのモデリング、フィッティング、およびトラッキング
JP5211069B2 (ja) ラベル付けを用いた人体姿勢の推定および追跡
CN108475439B (zh) 三维模型生成系统、三维模型生成方法和记录介质
Ganapathi et al. Real time motion capture using a single time-of-flight camera
EP2680228B1 (en) Improvements in or relating to three dimensional close interactions.
US9058514B2 (en) Apparatus and method for estimating joint structure of human body
CN104680582B (zh) 一种面向对象定制的三维人体模型创建方法
KR101650799B1 (ko) 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법
US9159134B2 (en) Method and apparatus for estimating a pose
CN103778635B (zh) 用于处理数据的方法和装置
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP5480667B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、プログラム
KR20110139694A (ko) 제스쳐 인식 방법 및 시스템
JP2009536731A5 (ja)
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2012123667A (ja) 姿勢推定装置および姿勢推定方法
JP2021105887A (ja) 3dポーズ取得方法及び装置
CN109325444A (zh) 一种基于三维几何模型的单目无纹理三维物体姿态跟踪方法
JP2015219868A (ja) 情報処理装置、情報処理方法、プログラム
Yamauchi et al. Recognition of walking humans in 3D: Initial results
JP2015111128A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
Haker et al. Self-organizing maps for pose estimation with a time-of-flight camera
Alcoverro et al. Skeleton and shape adjustment and tracking in multicamera environments
JPH07302341A (ja) 姿勢検出装置および方法
US20240013415A1 (en) Methods and systems for representing a user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140206

AA91 Notification that invitation to amend document was cancelled

Free format text: JAPANESE INTERMEDIATE CODE: A971091

Effective date: 20140701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151209

R150 Certificate of patent or registration of utility model

Ref document number: 5855751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250