JP2009506441A - モーションキャプチャに使用されるラベリング - Google Patents

モーションキャプチャに使用されるラベリング Download PDF

Info

Publication number
JP2009506441A
JP2009506441A JP2008528254A JP2008528254A JP2009506441A JP 2009506441 A JP2009506441 A JP 2009506441A JP 2008528254 A JP2008528254 A JP 2008528254A JP 2008528254 A JP2008528254 A JP 2008528254A JP 2009506441 A JP2009506441 A JP 2009506441A
Authority
JP
Japan
Prior art keywords
points
labeling
labeled
motion capture
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008528254A
Other languages
English (en)
Other versions
JP5016602B2 (ja
Inventor
ゴードン,デミアン
ハウク,デニス,ジェイ.,ジュニア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2009506441A publication Critical patent/JP2009506441A/ja
Application granted granted Critical
Publication of JP5016602B2 publication Critical patent/JP5016602B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

モーションキャプチャボリュームデータにラベル付けする方法は:ラベル付けされていないボディポイント、及びラベル付けされていない顔面ポイントを含むモーション撮影ビートを受信するステップと;所定のボディモデルテンプレートに高精度にフィッティングするラベル付けされていないボディポイントにラベル付けするステップと;ラベル付けされたボディポイントを伸縮率解析を使用して検証するステップと;ラベル付けされていないボディポイントに骨格運動解析を使用してラベル付けするステップと;ラベル付けされていない顔面ポイントを分離するステップと;ラベル付けされていない顔面ポイントを安定化させるステップと;ラベル付けされていない顔面ポイントにラベル付けするステップと;そしてラベル付けされた顔面ポイント及びラベル付けされたボディポイントを統合するステップと、を含む。
【選択図】図1

Description

本出願は、2005年8月26日出願の「モーションキャプチャに使用され、かつラベリングを利用するレンダリングファーム」と題する同時係属中の米国仮特許出願第60/712,082号、2005年8月26日出願の「相対位置関係を考慮したラベリング」と題する同時係属中の米国仮特許出願第60/711,968号、及び2005年8月26日出願の「モーションキャプチャにおける身体拘束システム」と題する米国仮特許出願第60/711,848号の優先権の利益を主張するものである。上記参照特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる。
本発明は概して、モーションキャプチャに関し、特にモーションキャプチャによって作成されるデータポイントのラベル付けに関する。
モーションキャプチャ(motion capture:MOCAP)システムを使用して実際のオブジェクトの動きを撮影し、そしてこの動きを、コンピュータにより表現されるオブジェクトにマッピングする。このようなシステムは、動画及びビデオゲームの作成に使用されることが多く、人のデジタル表示を行なってコンピュータグラフィックス(CG)アニメーションを作成するためのソースデータとして使用する。通常のシステムでは、アクターが、マーカを種々の位置に取り付けた衣服(例えば、小さな光反射マーカを体及び四肢に取り付けた衣服)を纏い、そして複数のデジタルカメラがアクターの動きを異なるアングルから、マーカを照明しながら記録する。次に、システムは画像を分析してアクターの衣服に取り付けられたマーカの位置及び向きを(例えば、空間座標として)各フレームで求める。これらのマーカの位置をトラッキング(追跡的記録)することにより、システムはこれらのマーカに関する時間軸を考慮した空間表示を行ない、そして動いているアクターのデジタル表示を実現する。次に、この動きをデジタルモデルに適用し、次にこのデジタルモデルで質感を表現し、そしてモデルをレンダリングして、アクター及び/又は演技のCG表示を実現することができる。この技法は、リアルなアニメーションを多くの人気のある映画に収めるために特殊効果会社によって使用されている。
しかしながら、マーカの位置のトラッキングは難しい作業である。非常に多くのマーカが使用され、かつ複数のアクターが群がってモーション撮影空間に現われる場合に種々の困難が重なってしまう。
本発明の実施形態は、モーションキャプチャデータポイントにラベル付けするラベリングシステムを実現する。
一の実施形態では、モーションキャプチャラベリングシステムは:ラベル付けされていないボディデータ及びラベル付けされていない顔面データを含むモーションキャプチャデータを受信し、そしてラベル付けされたボディデータを生成するように構成されるボディラベリングモジュールと;そしてモーションキャプチャボリュームデータを受信し、ラベル付けされた顔面データを生成し、そしてラベル付けされたボディデータ及びラベル付けされた顔面データを含むラベル付けされたモーションキャプチャボリュームデータを生成するように構成される相対ラベリングモジュールと、を備える。
別の実施形態では、モーションキャプチャラベリングシステムは更に:ボディラベリングモジュールと、伸縮チェックモジュールと、運動骨格モジュールと、そして相対ラベリングモジュールと、を備える。
別の実施形態では、モーションキャプチャラベリング方法が提供され、前記方法は:ラベル付けされていないボディポイント、及びラベル付けされていない顔面ポイントを含むモーション撮影ビートを受信するステップと;所定のボディモデルテンプレートに高精度にフィッティングするラベル付けされていないボディポイントにラベル付けすることにより、ラベル付けされたボディポイントを生成するステップと;ラベル付けされたボディポイントを伸縮率解析を使用して検証するステップと;ラベル付けされていないボディポイントに骨格運動解析を使用してラベル付けすることにより、ラベル付けされた更に別のボディポイントを生成するステップと;ラベル付けされていない顔面ポイントを分離するステップと;ラベル付けされていない顔面ポイントを安定化させるステップと;ラベル付けされていない顔面ポイントにラベル付けするステップと;そしてラベル付けされた顔面ポイント及びラベル付けされたボディポイントを統合するステップと、を含む。
本発明の他の特徴及び利点は、この技術分野の当業者であれば、次の詳細な記述、及び添付の図を吟味することにより一層容易に理解できるものと思われる。
アクター(達)に取り付けられたマーカをモーションキャプチャカメラによって撮影した画像が3次元ボリュームを作成するために再構成において使用され、3次元ボリュームの中では、一つの「ポイント」が一つのマーカを表わす。ポイントの動きを3次元ボリュームで撮影するためには、ポイント群を、ショット(モーション撮影「ビート」とも表記される)を構成するフレームシーケンスに特定する必要がある。しかしながら、これらのポイントのほとんどは多くの場合、区別することができない。ポイント群にラベル付けすることにより、識別情報を提供することができ、この識別情報によって各ポイントの動きが求め易くなる。
従って、本発明の実施形態では、モーションキャプチャに使用されるラベリングシステム及び方法について、ボディラベリングモジュール及び相対ラベリングモジュール(例えば、顔にラベル付けする)に関する記述を行ないながら説明する。従って、ラベリングシステムは、顔面データ及び/又はボディ(身体)データに対して適用することができる。ラベリングシステムは、誰がビートにおけるアクターであるか、出力される種々のファイルの呼称をどのようにすべきか、これらのファイルをどこに保存するか、そしてどのプロセスがビートに対して既に実行されているかを指定する。一の実施形態では、モーションキャプチャに使用されるラベリングシステムは情報をモーションキャプチャデータベースから受信する。
この説明を一読した後、この技術分野の当業者には、本発明を種々の別の実施形態及びアプリケーションにおいてどのようにして実施するかが明らかになると思われる。しかしながら、本発明の種々の実施形態についてここに説明するが、これらの実施形態は一例として提示されるのに過ぎず、制限的に解釈されるべきではないことを理解されたい。従って、種々の別の実施形態についてのこの詳細な説明は、添付の請求項に示される本発明の技術範囲、または本発明が包含する範囲を制限するものとして捉えられるべきではない。
図1は、モーションキャプチャに使用されるラベリングシステム100を示すブロック図である。ラベリングシステム100は、ボディラベリングモジュール(body labeling module)110及び相対ラベリングモジュール(relative labeling module)120を含む。一の実施形態では、ボディラベリングモジュール110を使用するかどうかは任意である。別の実施形態では、相対ラベリングモジュール120を使用するかどうかは任意である。
図1に示す実施形態では、ラベリングシステム100はモーションキャプチャボリュームデータを受信し、モーションキャプチャボリュームデータは、ポイント群を3次元空間に含み、これらのポイントは普通、再構成システムが元のモーションキャプチャカメラ画像に基づいて生成する。上に説明したように、ラベリングシステム100は、ビート(すなわち、モーションキャプチャショット)におけるアクターが誰であるか、出力される種々のファイルにどのように命名すべきか、これらのファイルをどこに保存するか、そしてどのプロセスがビートに対して実行されているかを指定することができる。別の実施形態では、ラベリングシステム100はモーションキャプチャデータベース(図示せず)にクエリーを出し、そしてモーションキャプチャデータベースを更新する。
ボディラベリングモジュール110は、ラベル付けされていないボディデータを含むモーションキャプチャボリュームデータを受信し、そしてラベル付けされたボディデータを含むモーションキャプチャボリュームデータを出力する。ボディラベリングモジュール110は、アクターの姿勢のボディモデルテンプレートを維持し、非常に類似する姿勢を廃棄し、そして固有の姿勢のみを維持する。多くの姿勢はフルモーションの範囲(full range of motion:full ROM)、すなわちアクターがモーション撮影ビートの始点で演じる一連の動きに含まれる姿勢に基づいて生成される。ボディラベリングモジュール110はまた、拘束空間を定義して正しい関係を複数のボディポイントの間に成立させる。ボディラベリングモジュール110は、異なる日のビートから入力される同じアクターの姿勢を、新規かつ固有の姿勢を付加する前に正規化することができる。本明細書において使用するように、「ボディデータ(body data)」及び「ボディポイント(body points)」という用語は共に、アクターのボディ(身体)に関連付けられる「ポイント集合(point clouds)」を指す。更に、「ボディ(body)」データは、ほとんど全ての形態を表わすデータ、または「動いている」または「静止している」かどうかに拘わらず、一つ以上の要素を有するオブジェクトを表わすデータを含む。
相対ラベリングモジュール120は、ラベル付けされたボディデータ及びラベル付けされていない顔面データを含むモーションキャプチャボリュームデータをボディラベリングモジュール110から受信し、そしてラベル付けされた顔面データを含むモーションキャプチャボリュームデータを出力する。一の実施形態では、相対ラベリングモジュール120は、顔または頭に関するデータにラベル付けし、当該データはラベル付けされたボディデータと統合される。別の実施形態では、相対ラベリングモジュール120は、ボディの他のパーツにラベル付けして3次元再構成及び3次元ラベリングを行なうように拡張することができる(手の動きの撮影を含む)。
相対ラベリングモジュール120を通常、再構成の前に使用して(2005年8月26日出願の「モーションキャプチャに使用される再構成レンダリングファーム」と題する米国仮特許出願第60/711,971号を参照)、顔面マーカを対象から外す。従って、ラベリングシステムが考察対象とするボディマーカのみに再構成が施される。
図2は、モーションキャプチャに使用されるボディラベリングモジュール110を示すブロック図である。ボディラベリングモジュール110はボディモデリングモジュール210と、伸縮チェックモジュール220と、そして運動骨格モジュール230と、を含む。
ボディモデリングモジュール210は、ラベル付けされていないモーションキャプチャボリュームデータを受信し、そして、ラベル付けされたボディポイント群を含むタグ付けされたフレームを生成する。ラベル付けされていない入力モーションキャプチャボリュームデータは一つのビートを含み、このビートはデータフレーム列を含む。各フレームは、マーカを表わすポイント群を含む3次元ボリュームを表わす。
一の実施形態では、ボディモデリングモジュール210は、ビートの各フレームをスキャンし、そしてラベル付けされていないボディデータを所定のボディモデルテンプレートに一致させる。有効な一致が検出されると、関連フレームにタグ付けし、そしてタグ付けされたフレームのボディポイント群にラベル付けする。これ以外に有効な一致を示すパーツを構成しない個々のポイントは余分である、または誤りであると見なされるので使用することができない。ボディモデリングモジュール210の出力は、ビートに含まれるタグ付けされたフレーム及びタグ付けされていないフレームを含む。タグ付けされたフレームは多くの場合、フレーム列に散在し、そして「キーフレーム(keyframes)」と表記される。複数のキーフレームの間のタグ付けされていないフレームはギャップ(gaps)を構成する。
伸縮チェックモジュール220はキーフレーム及びタグ付けされていないフレームをボディモデリングモジュール210から受信する。伸縮チェックモジュール220は、アクターのボディモデルを使用して、ボディデータに関する有効な伸縮(及び剛性)値を求め、そして限度を超えて伸縮しているマーカを全て消去する。伸縮チェックモジュールは、キーフレームのボディデータのみを分析して、移動マーカ(すなわちポイント)が正しく動いていることを検証する。複数のキーフレームの間のギャップフレームはこの段階では分析されない。伸縮チェックモジュール220は更に、伸縮率解析(stretch analysis)で不合格になる(すなわち、間違って動いている)ラベル付けされた全てのポイントのラベルを剥がす。伸縮チェックモジュール220は、ビートを構成するキーフレーム及びギャップグレームを出力し、この場合、キーフレームは検証された/ラベル付けされたボディポイント、及びラベルを剥がすことができるポイントを有する。
伸縮チェックモジュール220は更に、マーカが時間と共にどのようにして伸縮するかについての「時間に即した」(すなわち、「ほぼリアルタイムの」)分析結果、及び情報を供給する。ほぼ時間に即した機能によって、ボリューム内の他のマーカがプロップ及びセットシーンレイアウトに使用される場合のトラッキングが容易になる。このようなマーカはほとんど伸縮することがないので、伸縮率解析を使用して配置することができる。次に、これらのマーカは、マーカにラベル付けしないことにより消去する、または無視することができる。一の実施形態では、ラベル付けされたポイントのファイルは取り出すことができ、そして伸縮チェックを当該ファイルを使用して実行することができる。
運動骨格モジュール230は、キーフレーム及びギャップフレームを含むビートを構成するフレーム群を伸縮チェックモジュール220から受信する。運動骨格モジュール230は、モデル化された骨格、速度予測値、正しい関節角度に関する情報、及び拘束空間を含む種々のパラメータ(以下に説明する)をアクターのボディモデルにおいて使用して、ビートフレームのボディポイント群にラベル付けする。一の実施形態では、運動骨格モジュール230は、キーフレーム群の間の骨格の動きを補間して、中間ギャップフレームにおける骨格の位置及び速度を推定し易くする。次に、ボディポイント群に、骨格に対するこれらのポイントの空間的関係及び運動学的関係に従ってラベル付けすることができる。
運動骨格モジュール230は、「不要なものが取り除かれ(cleaned)」、かつ検証されたボディポイント群を有するキーフレーム、及び新規にラベル付けされた(運動骨格モジュール230で)が検証されていない(伸縮チェックモジュール220で)ボディポイント群を有する中間ギャップフレームを含むラベル付けされたボディボリュームデータを出力する。これらの出力フレームは伸縮チェックモジュール220に戻される。伸縮チェックモジュール220では、フレームの全てを分析し、そしてボディポイント群を検証する、またはボディポイント群のラベルを剥がす。次に、結果として得られ、かつこの時点で検証され、かつラベル付けされているボディポイント群を有するフレームを運動骨格モジュール230に渡す。
運動骨格モジュール230がビートに関して再度処理を実行する場合、運動骨格モジュール230を最初に実行した後に伸縮チェックモジュール220が特定のフレームに対して行なったラベル剥がしの対象となったマーカ群に、これらのマーカが同じフレームの中で前にラベル付けされた方法と同じ方法でラベル付けすることは許されない。
各ビートが終了し、そして全体を通じて正しくラベル付けされていると検証された後、結果をボディモデルに取り込んで当該モデルを更に堅固なものにする。従って、一の実施形態では、運動骨格モジュール230が出力し、「不要なものが取り除かれ」、かつラベル付けされたボディボリュームデータは、ボディモデリングモジュール210に戻される。新規の姿勢は、「不要なものが取り除かれ」、かつラベル付けされたボディポイント群を有するこれらのフレームから生成することができ、そして当該姿勢をボディモデリングモジュール210で使用することにより、利用可能なボディモデルテンプレートを更新し、そして当該テンプレートに付加することができる。アクターのボディモデルは全ての姿勢を付加することによって更に堅固になる。ハンドトラッキングは、新規の各ビートが終了し、分析され、そして新規の姿勢が、当該アクターのボディモデルテンプレートに付加されるので行なう機会が少なくなる。
一の特定の実施形態では、マスターボディモデルは、アクターのボディモデルを調整し、そしてマスターボディモデルを正規化することにより構築される。次に、ほぼ完全に複製された姿勢を選択することができる。別の特定の実施形態では、被写界深度分析が、特定のボディに不要となったマーカ(ポイント)を消去し易くするために行なわれる。ボディラベリングモジュール110でボディラベリングを行なう前に、3次元再構成(図示せず)に対して、カメラに近接する小さい2次元マーカ画像を無視する指示が出される。例えば、4〜5mmの顔面マーカは19mmのボディマーカよりもずっと物理サイズが小さいのではあるが、モーションキャプチャ画像において、小さいマーカ画像が、近接する顔面マーカであるか、それとも遠く離れたボディマーカであるかを判断するのは難しい。ビートにおいてマーカ画像を投影するカメラ光線は、小さい円形サイズの短距離カメラ光線を禁止し(すなわち、カメラに近接する顔面マーカを廃棄する)、かつ小さい円形サイズの長距離カメラ光線を許可する(すなわち、カメラから遠く離れたボディマーカを保持する)ルールに従って使用される。不所望のマーカを再構成を行なっている間に消去することにより、所望のマーカにラベリングシステム100でラベル付けする作業を大幅に簡易化することができる。
図3は、モーションキャプチャに使用することができるボディモデリングモジュール210を示すブロック図である。ボディモデリングモジュール210は、モデルフィッティングモジュール310と、モデル構築モジュール320と、マーカ閾値設定モジュール330と、そして初期モデルモジュール340と、を含む。
図3に示す実施形態では、モデルフィッティングモジュール310は、ラベル付けされていないモーションキャプチャボリュームデータを含む入力ビート、及び入力ビートに撮影されているシーン中のアクターに関連付けられるボディモデルテンプレートを受信する。モデルフィッティングモジュール310は、ラベル付けされたボディポイントを含むタグ付けフレームを出力する。
一の実施形態では、ラベル付けされていないポイント集合として表わされるボディデータが最初に、3つのマーカに手動でラベル付けすることにより特定される。3人のアクターを見分けるために、例えば3つのマーカを固有のパターンで配置することができる。3つのマーカを頭(顔用)または腰(ボディ用)に取り付けることができる。別の構成として、これらのマーカが手動でラベル付けされない場合、アクティブマーカシステムを使用して、安定化のために使用される座標系を生成することができる。一旦、座標系が局所的に動いている(ラベル付けされることになる情報の残りの部分に対して)ことが判明すると、シーン中の各オブジェクトが相対的にラベル付けされることになる場合に、ファイル全体のバージョンが保存される。アクティブマーカは、LED,RFタグ、超音波チャープデバイス(sonic chirp devices)、磁気センサ、及び慣性誘導用センサを含む。更に、固有の特徴を有し、かつ暗闇で光る形状マーカを含むパッシブマーカを使用することができる。
別の実施形態では、一人のアクターを表わすポイント群はボリューム内の残りのポイント群から分離される。一つのコピーが、ラベル付けされていないモーションキャプチャボリュームデータから作成される。当該コピー内では、一つの球がアクターのポイント群の周りに形成され、そして球の外側の全てのポイントが削除される。次に、ラベル付けを進め、当該コピーに対して行なうが、この場合、注目するアクターは1人だけである。
一旦、一人のアクターがシーン中に特定されると、当該アクターのボディモデルテンプレートをモデルフィッティングモジュール310が受信する。一の実施形態では、ボディモデルテンプレートは、骨を移動させるマーカと、ボディが異なる姿勢になっている(例えば、異なる関節角度になっている)ときの当該骨に対するマーカのずれ、距離、及び伸縮との間の正しい関係を記述する拘束空間を含む。モデルフィッティングモジュール310はボリュームデータの各フレームを通じて実行され、そしてアクターのボディポイント群をテンプレートに、最良の一致が得られるまでフィッティングさせる。別の実施形態では、アクターの骨格をボディモデルテンプレートに取り込み、そしてボディポイント群に最良の一致が得られるまで適合させる。最良の一致がボディポイント群に関して特定のフレームにおいて得られる場合、当該フレームにタグ付けし、そしてボディポイント群にラベル付けする。最良の一致が得られない場合、モデルフィッティングモジュール310は次のフレームに進む。
モデル構築モジュール320はボディモデルテンプレート、及びボディポイント群がラベル付けされた状態のモーションキャプチャボリュームデータのフレームを受信し、そしてボディモデルテンプレートを出力する。ボディモデルテンプレートは、「不要なものが取り除かれ」、かつラベル付けされたボディポイント群及び骨格だけでなく、他の情報も含む。一人のアクターに関するラベル付けされたボディデータのフレームが、ボディモデルテンプレートによってこれまでには表現されていない新規の、かつ特異な姿勢に関して自動的に分析され、そして判明する全ての情報が付加される。一の実施形態では、モデル構築モジュール320は、新規の姿勢をボディモデルテンプレートに加える前に、同じアクターの姿勢を異なる日に撮影されるビートに基づいて正規化する機能を備える。別の実施形態では、モデル構築モジュール320は、非常に類似性の高い姿勢を廃棄して、特異な姿勢のみを保持する。
マーカ閾値モジュール330は、ラベル付けされていないモーションキャプチャボリュームデータを受信し、そして複数のボディモデルテンプレートを出力するが、これらのボディモデルテンプレートは各ボディマーカの剛性閾値(図4参照)を取り入れ、かつこれらのボディモデルテンプレートを使用することにより、モデルフィッティングモジュール310に関する上に議論した拘束空間を表わすことができる。
初期モデルモジュール340はラベル付けされていないモーションキャプチャボリュームデータを受信し、そしてラベル付けされ、かつ「不要なものが取り除かれた」ボディポイント群を含むフレームを生成する。一の実施形態では、各アクターは各ビートの始点において、「フルレンジモーション(full range of motion:full ROM)」と呼ばれる或る範囲の動き、及び姿勢を採る。フルROMは、例えばT字姿勢(「Tpose」)のような既知の姿勢を含む。初期モデルモジュール340を使用して、フルROMに含まれる或る範囲の姿勢を撮影したボディモデルテンプレートを作成する。別の実施形態では、初期モデルモジュール340によって、マスタースケルトン(master skeleton)を手動で大雑把な自由度(rough degrees of freedom:DOFs)で作成する操作が容易になる。フルROMのフレーム群を選択し、そしてマスタースケルトンを、これらのフレームの中でアクターのボディポイント群にフィッティングし、そしてサイズを合わせると、マスタースケルトンが当該アクターの「アクターの骨格」になる。アクターの骨格の定義及びDOFs(大雑把な自由度)は、アクターのボディモデルテンプレートに関して保持される。アクターの骨格には、更に別のDOFs(大雑把な自由度)を「学習によって」、当該アクターの他のボディモデルテンプレートに基づいて付与することができる。
初期モデルモジュール340を使用してフルROM(フルレンジモーション)に手動でラベル付けし、そしてフルROMから全ての「不要なものを取り除いて」(全ての不要なポイントを取り除く)、初期ボディモデルテンプレート集合を作成するために適するラベル付けされたボディポイント群のフレームを生成することができる。マーカ閾値モジュール330を使用してボディモデルテンプレートを、手動でDOFs(大雑把な自由度)でフィッティングを行なう初期モデルモジュール340で選択されなかったフルROM(フルレンジモーション)の残余フレームを使用して作成することができる。
図4は、マーカ閾値を決定する方法400を示すフローチャートであり、マーカ閾値は、ここに説明する種々の実施形態と連動させて使用することができる。一の実施形態では、図4に記述される方法は、ラベル付けされていないモーションキャプチャボリュームデータを受信するマーカ閾値モジュール330において使用される(図3参照)。ラベル付けされていないこのモーションキャプチャボリュームデータは、一人以上のアクターを表わすボディポイント群を含む3次元ボリュームフレーム列を含む。
一つのボディをフレーム列の中からステップ410で選択する。選択は、特異なマーカパターン及びアクティブマーカを使用することにより容易になる。ボディのボディポイント群の互いに対する剛性を経時的に(すなわち、或る範囲のフレームに渡って)求める。所定の許容度に従った「剛性を示す」ボディポイント群をステップ420で見付け出す。高剛性のボディポイント群を「剛性グループ群」にステップ430で分類する。一の実施形態では、剛性グループ群は前腕及び上腕のような身体の四肢の各部分に対応する。各剛性グループにおける各ボディポイントに関する剛性閾値をステップ440で設定する。これにより、他のフレーム及び姿勢において分析されるボディポイント群に関する伸縮限界が設定され、この閾値を用いて、ボディポイントが特定の剛性グループに属するかどうかを判断する。
フレームを複数の姿勢(poses)にステップ450で分類する。例えば、初期フルROM(フルレンジモーション)のフレーム群を分析すると、非常に広い範囲の姿勢を発見することができる。種々のフレームを、特異な姿勢を表わすものとして分類することができる。ボディポイント閾値リストをボディに関してステップ460で作成する。ボディポイント閾値リストを、ボディに関するボディモデルテンプレートの一部分に取り入れ、そして当該リストがボディモデルテンプレートの一部分となる。一の実施形態では、ボディポイント閾値リストをファイルに保存し、このファイルをボディモデルテンプレートに関連付ける。別の実施形態では、ボディポイントの剛性閾値が初期値であり、これらの初期値は後の時点で調整することができる。ビートにおける最後のボディが分析されたかどうかについての判断をステップ470で行なう。ビートが分析されていない場合、フレーム列の次のボディをステップ480で選択し、そして本方法をステップ420に進める。ビートがステップ470で分析されている場合、本方法を終了させる。
図5は、伸縮チェックを行なう方法500を示すフローチャートであり、この伸縮チェックは、ここに説明する種々の実施形態と連動させて使用することができる。一の実施形態では、図5に記述される方法500は伸縮チェックモジュール220(図2参照)において使用される。
ラベル付けされたボディポイント群によって表わされる一つのボディを入力ビートにおいてステップ510で選択する。ボディポイント群の互いに対する剛性を経時的に(すなわち、或る範囲のフレームに亘って)求める。例えば、アクターの上腕の2つのボディポイントは互いに対して非常に高い剛性を示すが、これらのボディポイントは両方とも、アクターの前腕のボディポイントよりも剛性が低い。しかしながら、上腕のような共通の身体要素のどの部位の2つのボディポイントも通常、互いに対してはるかに高い剛性を示すということはない。従って、剛性を、或る範囲の値を使用して、または一の実施形態では、所定の許容度によって表現することができる。従って、ラベル付けされたボディポイント群の剛性を所定の許容度に従って求める。別の構成として、ラベル付けされたボディポイント群の剛性を、既に決定しているボディポイント閾値のリストに基づいて作成される伸縮テンプレートと比較することにより求める。十分高い剛性を持つと判断されるボディポイント群をステップ520で見付け出す。
ポイントの剛性許容度に収まることが判明しているラベル付けされたボディポイント群は、「検証済み」ボディポイント群と見なされる。これとは異なり、ポイントの剛性許容度に収まらないことが判明しているラベル付けされたボディポイント群のラベルをステップ530で剥がし、これによって当該ボディポイントを特定のボディから切り離す。
ビートにおける最後のボディが分析されたかどうかについての判断をステップ540で行なう。最後のボディが分析されていない場合、当該ビートの次のボディをステップ550で選択し、そして本方法をステップ520に進める。最後のボディがステップ540で分析されている場合、本方法を終了させる。
図6は、一の実施形態による骨格運動解析を行なう方法600を示すフローチャートである。図6に記述される方法600は運動骨格モジュール230(図2参照)において使用することができる。運動骨格モジュール230はフレーム列を受信し、このフレーム列の幾つかのフレームまたは全てのフレームが、検証済みのラベル付けされたボディポイント群を含む。
一旦、ビートにおける一つのボディをステップ620で選択すると、第1キーフレームペアをステップ620で選択する。選択したキーフレーム群がフレーム列の隣接フレームである場合、次のキーフレームペアを選択し、そして選択したペアの間に、選択したボディに関連付けられ、かつラベル付けされていないボディポイント群を含む中間ギャップフレームが挟まれるようになるまで同様の操作を繰り返す。
一の実施形態では、骨格(例えば、アクターの骨格)、有効な関節角度、及び拘束空間をボディモデルテンプレートからステップ630で取得する。中間ギャップフレームにおける骨格の位置及び速度を、キーフレームペアを使用してステップ640で補間する。各中間ギャップフレームでは、選択したボディのボディポイント群を補間済の骨格に、位置、速度、有効な関節角度、及び拘束空間を使用してステップ650でフィッティングする。このキーフレームペアが最後のキーフレームペアであるかどうかについての判断をステップ660で行なう。このキーフレームペアが最後のキーフレームペアではない場合、次のキーフレームペアをステップ670で選択し、そして本方法をステップ640に進める。このキーフレームペアが最後のキーフレームペアである場合、ボディがビートにおける最後のボディであるかどうかについての判断をステップ680で行なう。ボディが最後のボディではない場合、ビートにおける次のボディを選択し、そして本方法をステップ620に進める。ボディが最後のボディである場合、本方法を終了させる。
図7は、別の実施形態による骨格運動解析を行なう方法700を示すフローチャートである。図7に記述される方法700は運動骨格モジュール230(図2参照)において使用することができる。運動骨格モジュール230はフレーム列を受信し、このフレーム列の幾つかのフレームまたは全てのフレームが、検証済みのラベル付けされたボディポイント群を含む。
一旦、ビートにおける一つのボディをステップ710で選択すると、ビートの第1フレームをステップ720で選択する。一つの骨格を、第1フレームのラベル付けされたボディポイント群にステップ730でフィッティングさせる。一の実施形態では、一つのビートの第1フレーム群は、例えばT字姿勢(「Tpose」)のような公知の姿勢で演技しているアクターを表わすボディポイント群を含む。この場合、骨格を、ビートの第1フレームの公知の「Tpose」を構成するラベル付けされたボディポイント群にフィッティングさせる。骨格がどのようにすれば各後続フレームのボディポイント群に最も良くフィッティングするかについての仮説をステップ740で設定する。仮説が設定された各骨格は、逆運動学を使用して検証することができ、そして最小二乗誤差を計算して仮説に「スコアを与える」。別の実施形態では、キーフレームのような、既にラベル付けされたボディポイント群を含むフレーム群を使用して仮説の誤差を小さくする。キーフレームのラベル付けされたボディポイント群は、第1フレームのアクターの姿勢「Tpose」に非常に似た公知の姿勢情報となる。ビートの最後のボディが分析されたかどうかについての判断をステップ750で行なう。最後のボディが分析されていない場合、次のボディをステップ760で選択し、そして本方法をステップ720に進める。最後のボディが分析されていた場合、最も高いスコアが与えられた仮説を使用して、ビートのボディポイント群にステップ770でラベル付けする。
一つの骨格をラベル付けに使用することができない場合(この状況は、マーカデータの有効性が非常に低いために発生し得る)、該当するフレームのラベル付けをスキップする。これは、ポイント群に間違ったラベル付けが行なわれることによって、誤差が後続のフレームを通して増大するからである。
図8は、相対ラベリングモジュール120を示すブロック図であり、このモジュールは、ここに説明する種々の実施形態と連動させて使用することができる。相対ラベリングモジュール120は顔面分離モジュール810と、顔画像安定化モジュール820と、ラベリングモジュール830と、そして統合モジュール840と、を含む。相対ラベリングモジュール120は、ラベル付けされたボディポイント群及びラベル付けされていない顔面ポイント群のフレーム群を含む一つのビートを受信する。上に議論したように、「ボディ」ポイント群は、人物またはオブジェクトを表わす全ての3次元ポイントデータを含むことを理解されたい。「顔面」ポイント群も同様に、人物またはオブジェクトを表わす3次元ポイントデータを含む。更に、相対ラベリングは、ラベル付けされていないボディポイント群に適用することができる。ボディデータ及び顔面データの区別は、ボディデータ及び顔面データの各々に使用されるマーカの差異を利用して行なうことができる。一つの例では、ボディマーカは相対的に大きいのに対して、顔面マーカは、かすかな動きを撮影するために相対的に小さくなっている。
顔面分離モジュール810は、ラベル付けされたボディポイント群及びラベル付けされていない顔面ポイント群を受信し、そしてボディ及び他のアクターの頭から分離されたアクターの頭を表わすラベル付けされていない顔面ポイント群を出力する。各アクターがビートに含まれる場合、顔面分離モジュール810は、アクターのラベル付けされていないボディポイント群を、ボディにつながる「頭」から分離する。次に、顔面分離モジュール810は、頭に関連付けされたラベル付けされていない顔面ポイント群を含む各頭を分離する。一の実施形態では、分離された頭、及びラベル付けされていない顔面ポイント群を、頭に関連するアクターに対応するファイルに格納する。
顔画像安定化モジュール820は、ボディ及び他のアクターの頭から分離されたアクターの頭を表わすラベル付けされていない顔面ポイント群を受信し、そして空間で安定化させたラベル付けされていない顔面ポイント群を出力する。従って、顔画像安定化モジュール820は、アクターの頭を表わす顔面ポイントのポイント集合を保持し、これによって後続のラベル付けを簡易化することができる。一の実施形態においては、分離された一つの頭を含む保存ファイル群の各ファイルでは、ファイルのポイント集合を、頭に関する既知の相対情報を利用して安定化させる。既知の相対情報は、例えばシーンにおけるアクターの頭の総合並進移動速度を含む。従って、顔面ポイント群は、並進移動速度をポイント集合から切り離すと安定化する。この操作は、並進移動速度をポイント集合の運動状態の速度から減算することにより行なうことができる。一の実施形態では、ポイント集合は、ラベル付けされていないボディポイント群を含むことができる。安定化の後、動いているアクターは、動かないトルソーとなって現われる。
分離され、かつ安定化した顔面ポイント群を顔面ラベリングモジュール830が受信し、この顔面ラベリングモジュールがラベル付けされた顔面ポイント群を出力する。一の実施形態では、ラベリングモジュール830は他の自動ラベル付与ソフトウェアを使用する。
統合モジュール840は、ビートから顔面分離モジュール810で切り離されたラベル付けされた顔面ポイント群、及びラベル付けされたボディポイント群を受信する。統合モジュール840は、ラベル付けされた顔面ポイント群をラベル付けされたボディポイント群と統合して、ラベル付けされたモーションキャプチャボリュームデータ(出力ビート)を生成する。一の実施形態では、統合をアクター1人に対して1回の割合で行なって、個別の出力ビートを各アクターに関して生成する。
図9は、顔面分離方法900を示すフローチャートであり、顔面分離方法900はここに説明する種々の実施形態と連動させて使用することができる。一の実施形態では、図9に示す方法900は相対ラベリングモジュール120(図8参照)において使用される。
ラベル付けされたボディポイント群及びラベル付けされていない顔面ポイント群を含む一つのビートをステップ910で受信する。ラベル付けされたボディポイント群をビートからステップ920で消去して、ビートのラベル付けされていない頭部ポイント群を残す。次に、ビートのコピーをビートの各頭に関してステップ930で作成する。一つのコピーを各アクターの頭に関連付ける。
一の実施形態では、頭の識別を容易にするために、「ハット」を各アクターが被る。各ハットは、マーカの固有パターンのような識別用の標識を含む(「ハットマーカ」)。別の実施形態では、シーン中の複数の頭は、頭に取り付けられる3つのマーカに手作業でラベル付けすることにより識別される。別の構成として、アクティブマーカを使用して各頭または各ハットを識別する。
ビートの各コピーでは、関連するアクターの頭をステップ940で分離する。一の実施形態では、分離は、約20インチの球を、ラベル付けされたハットマーカの周りに生成することにより行なわれる。球の外側に位置する全てのデータは、アクターの頭の一部分ではないと推定されるので、取り込まない。別の実施形態では、ボディを分離するために、ボディの腰またはトルソーの周りの約7フィートの球の外側に位置する全てのボディポイント群を取り込まない。ここに説明する分離によって、ファイルサイズを大幅に小さくし、そして自動ラベル付与ソフトウェアの速度を上げることができる。
図10は、モーションキャプチャラベリングシステム100の方法1000を示すフローチャートであり、この方法1000はここに説明する種々の実施形態と連動させて使用することができる。
ラベル付けされていないモーションキャプチャボリュームデータを含む一つの入力ビートをステップ1010で受信する。所定のボディモデルテンプレートに高精度にフィッティングするボディポイント群にステップ1020でラベル付けする。一の実施形態では、初期ボディモデルテンプレートを、Tposeを含む、アクターの姿勢のフルモーションの範囲に基づいてビートの始点で生成する。
ラベル付けされたボディポイント群を、伸縮率解析(stretch analysis)を使用してステップ1030で検証する。ボディポイント群の剛性を互いに決定し、これらのボディポイントを剛性グループに分類する。ステップ1040では、更に別のボディポイント群に対するラベル付けを、骨格運動解析を使用して行なう。一の実施形態では、骨格をラベル付けされたボディポイント群にフィッティングし、そして補間を行なって骨格位置、及びラベル付けされたボディポイント群を含むフレームの間の速度を推定する。ラベル付けされていないボディポイント群を補間済みの骨格にフィッティングし、そしてこれらのボディポイントにラベル付けする。別の実施形態では、一つの骨格を、初期Tposeを表わすボディポイント群にフィッティングする。骨格を、ビートの残りのフレームに関して推定し、そしてラベル付けされていないボディポイント群が、推定済みの骨格に最も良くフィッティングするような仮説を設定する。ボディポイント群に各フレームにおいて、最高のスコアを持つ仮説に従ってラベル付けする。
ラベル付けされたボディポイント群をここでも同じように、伸縮率解析を使用してステップ1030で検証する。更に多くのボディポイントに対して、骨格運動解析を使用してラベル付けする。一の実施形態では、ステップ1030での伸縮率解析を使用する検証、及びステップ1040での骨格運動解析を使用する更なるラベル付けを、「不要な」ボディポイントが十分に「取り除かれる」まで継続する。
顔面ポイント群をステップ1050で分離する。一の実施形態では、顔の周りの所定の球の内側の顔面ポイント群を保持するが、顔面ポイント群の周りの球の外側のポイント群は保持しない。ステップ1060において、顔面ポイント群を空間内で、並進移動速度を各顔面ポイントの運動状態の速度から減算することにより安定化させる。顔面ポイント群にステップ1070でラベル付けする。ラベル付けされた顔面ポイント群及びラベル付けされたボディポイント群をステップ1080で統合する。
種々の実施形態は主としてハードウェアとして、例えば特定用途向け集積回路(「ASIC」)、またはフィールドプログラマブルゲートアレイ(「FPGA」)のようなコンポーネントを使用して実現することもできる。ここに説明する機能を実行することができるハードウェアステートマシンを実装することも、関連分野の当業者には容易に想到できるであろう。種々の実施形態は、ハードウェア及びソフトウェアの両方の組み合わせを使用して実現することもできる。
更に、この技術分野の当業者であれば、上に説明した図、及びここに開示する実施形態に関連付けながら説明した種々の例示としての論理ブロック、モジュール、コネクタ、データパス、回路、及び方法ステップは多くの場合、電子ハードウェア、コンピュータソフトウェア、または電子ハードウェア及びコンピュータソフトウェアの両方の組み合わせとして実現することができることが理解できるであろう。ハードウェアとソフトウェアがこのように入れ替え可能であることを明示するために、種々の例示としてのコンポーネント、ブロック、モジュール、回路、及びステップを、これらの要素の機能に関して概要を上に説明してきた。このような機能がハードウェアまたはソフトウェアとして実装されるかどうかは、システム全体に課される適用上及び設計上の特定の制限によって変わる。当業者であれば、説明した機能を各特定用途に対して種々の方法で実装することができるが、このようにして実装が決定される機能が、本発明の技術範囲に包含されなくなるものと解釈されるべきではない。更に、複数の機能を一つのモジュール、ブロック、回路、またはステップにグループ化しているのは、説明を分かり易くするためである。特定の機能またはステップは一つのモジュール、ブロック、または回路から別のモジュール、ブロック、または回路に、本発明から逸脱しない範囲で移動させることができる。
更に、ここに開示する実施形態に関連付けながら説明した種々の例示としての論理ブロック、モジュール、コネクタ、データパス、回路、及び方法ステップは、汎用プロセッサ、デジタル信号プロセッサ(DSP)、ASIC,FPGA,または他のプログラマブル論理デバイス、個別ゲートまたはトランジスタロジック、ディスクリートハードウェアコンポーネント、またはここに説明する機能を実行するように構成されるこれらの要素のいずれかの組み合わせを用いて実現する、または実行することができる。汎用プロセッサはマイクロプロセッサとすることができるが、別の構成として、プロセッサはいずれかのプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンとすることができる。プロセッサは、コンピューティングデバイスの組み合わせ、例えばDSP及びマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと連動する一つ以上のマイクロプロセッサ、または他のいずれかのこのような構成として実装することもできる。
更に、ここに開示する実施形態に関連付けながら説明した方法のステップは、ハードウェアで直接実行する、プロセッサが実行するソフトウェアモジュールで実行する、またはこれらの2つの形態の組み合わせで実行することができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD−ROM、またはネットワーク記憶媒体を含む他のいずれかの形態の記憶媒体に格納することができる。例えば、記憶媒体はプロセッサに接続することができるので、このようなプロセッサは情報を記憶媒体から読み出すことができ、そして情報を記憶媒体に書き込むことができる。別の構成として、記憶媒体はプロセッサに一体化することができる。プロセッサ及び記憶媒体はASICに形成することもできる。
開示する実施形態に関する説明を上に行なうことにより、この技術分野の当業者であれば必ず本発明を実施する、または使用することができる。これらの実施形態に対する種々の変更は、この技術分野の当業者であれば容易に想到することができ、そしてここに説明する一般原理は他の実施形態に、本発明の技術思想または技術範囲から逸脱しない限り適用することができる。従って、ここに示す記述及び図は、本発明の現時点での好適な実施形態を表わしているので、本発明が広義に意図する主題の代表例であることを理解されたい。更に、本発明の技術範囲は、この技術分野の当業者であれば容易に想到し得る他の実施形態を完全に包含し、従って本発明の技術範囲は、添付の請求項によってのみ規定されることを理解されたい。
本発明の構造及び動作の両方に関する本発明の詳細は、添付の図を分析することにより部分的に説明することができ、これらの図では、同様の参照番号は同様の構成要素を指す。
本明細書で説明する種々の実施形態に関連して使用することができる例示としてのラベリングシステムを示す機能ブロック図である。 本明細書で説明する種々の実施形態に関連して使用することができる例示としてのボディラベリングモジュールを示す機能ブロック図である。 本明細書で説明する種々の実施形態に関連して使用することができる例示としてのボディモデリングモジュールを示す機能ブロック図である。 本明細書で説明する種々の実施形態に関連して使用することができるマーカ閾値を決定する例示としての方法を示すフローチャートである。 本明細書で説明する種々の実施形態に関連して使用することができる伸縮チェックを行なう例示としての方法を示すフローチャートである。 本明細書で説明する種々の実施形態に関連して使用することができる骨格運動解析を行なう例示としての方法を示すフローチャートである。 本明細書で説明する種々の実施形態に関連して使用することができる骨格運動解析を行なう例示としての別の方法を示すフローチャートである。 本明細書で説明する種々の実施形態に関連して使用することができる例示としての相対ラベリングモジュールを示す機能ブロック図である。 本明細書で説明する種々の実施形態に関連して使用することができる例示としての顔パーツ分離方法を示すフローチャートである。 本明細書で説明する種々の実施形態に関連して使用することができるラベリングシステムにおける例示としての方法を示すフローチャートである。

Claims (15)

  1. モーションキャプチャラベリングシステムであって:
    モーションキャプチャボリュームデータを受信し、そしてラベル付けされたボディデータを生成するように構成されるボディラベリングモジュールと;
    ラベル付けされた前記ボディデータを含む前記モーションキャプチャボリュームデータを受信し、ラベル付けされた顔面データを生成し、そしてラベル付けされた前記ボディデータ、及びラベル付けされた前記顔面データを含むラベル付けされたモーションキャプチャボリュームデータを生成するように構成される相対ラベリングモジュールと、
    を備えるモーションキャプチャラベリングシステム。
  2. 前記ボディラベリングモジュールは更に、前記モーションキャプチャボリュームデータを所定のボディモデルテンプレートにフィッティングし、そして前記モーションキャプチャボリュームデータの内、前記所定のボディモデルテンプレートに高精度にフィッティングするデータにラベル付けすることにより、ラベル付けされた前記ボディデータを決定するように構成される、請求項1記載のモーションキャプチャラベリングシステム。
  3. 前記ボディラベリングモジュールは更に、ラベル付けされた前記ボディデータを検証するように構成される伸縮率解析(stretch analysis)モジュールを含む、請求項2記載のモーションキャプチャラベリングシステム。
  4. 前記伸縮率解析モジュールは更に、
    ラベル付けされた前記ボディデータの第2データポイントに対するラベル付けされた前記ボディデータの第1データポイントの剛性を求め;
    前記剛性を所定の許容誤差と比較し;
    前記剛性が前記所定の許容誤差を超える場合に前記第1データポイントのラベルを剥がすように構成される、請求項3記載のモーションキャプチャラベリングシステム。
  5. 前記ボディラベリングモジュールは更に運動骨格モジュールを含み、
    前記運動骨格モジュールは:
    骨格を、ラベル付けされた前記ボディデータに非隣接フレームにおいてフィッティングし;
    前記骨格の位置推定値及び速度推定値を、ラベル付けされていないボディデータを含み、かつ前記非隣接フレームの間に位置する中間フレームにおいて補間し;
    ラベル付けされていない前記ボディデータを各前記中間フレームにおいて、骨格の姿勢が前記位置推定値及び速度推定値に従って調整されている前記骨格にフィッティングし;
    各前記中間フレームにおいて前記骨格にフィッティングされた前記ボディデータにラベル付けする、請求項1記載のモーションキャプチャラベリングシステム。
  6. 前記ボディラベリングモジュールは更に運動骨格モジュールを含み、
    前記運動骨格モジュールは:
    骨格を所定の姿勢に前記モーションキャプチャボリュームデータの第1フレームにおいてフィッティングし;
    前記骨格が前記モーションキャプチャボリュームデータに前記モーションキャプチャボリュームデータの各後続フレームにおいて最も良くフィッティングする仮説を設定し;
    前記モーションキャプチャボリュームデータのポイントを前記各後続フレームにおいて、最良の仮説に従ってラベル付けするように構成される、請求項1記載のモーションキャプチャラベリングシステム。
  7. 前記相対ラベリングモジュールは更に:
    前記モーションキャプチャボリュームデータの一つの顔に対応する顔面データを分離するように構成される顔面分離モジュールと;
    運動による影響を前記顔面データから除去するように構成される顔画像安定化モジュールと;
    前記顔面データにラベル付けするように構成されるラベリングモジュールと;
    そしてラベル付けされた前記顔面データをラベル付けされた前記ボディデータと統合する統合モジュールと、を含む、請求項1記載のモーションキャプチャラベリングシステム。
  8. 前記顔面分離モジュールは更に:
    ラベル付けされたボディデータを前記モーションキャプチャボリュームデータから除去し;
    前記顔に対応する前記モーションキャプチャボリュームデータのコピーを生成し;
    前記モーションキャプチャボリュームデータの前記コピーの前記顔を、前記顔の周りの所定サイズの球の外側に位置する前記モーションキャプチャボリュームデータのポイントを除去することにより分離するように構成される、請求項7記載のモーションキャプチャラベリングシステム。
  9. モーションキャプチャラベリング方法であって:
    ラベル付けされていないボディポイント、及びラベル付けされていない顔面ポイントを含むモーション撮影ビートを受信するステップと;
    所定のボディモデルテンプレートに有効にフィッティングする前記ラベル付けされていないボディポイントにラベル付けすることにより、ラベル付けされたボディポイントを生成するステップと;
    ラベル付けされた前記ボディポイントを、伸縮率解析(stretch analysis)を使用して検証するステップと;
    ラベル付けされていないボディポイントに骨格運動解析(kinematic skeleton analysis)を使用してラベル付けすることにより、ラベル付けされた更に別のボディポイントを生成するステップと;
    ラベル付けされていない前記顔面ポイントを分離するステップと;
    ラベル付けされていない前記顔面ポイントを安定化させるステップと;
    ラベル付けされていない前記顔面ポイントにラベル付けするステップと;
    ラベル付けされた前記顔面ポイント及びラベル付けされた前記ボディポイントを統合するステップと、
    を含むモーションキャプチャラベリング方法。
  10. 前記伸縮率解析は:
    ラベル付けされた前記ボディデータの第2データポイントに対するラベル付けされた前記ボディポイントの第1データポイントの剛性を求め;
    前記剛性を所定の許容誤差と比較し;
    前記剛性が前記所定の許容誤差を超える場合に前記第1データポイントのラベルを剥がす、請求項9記載のモーションキャプチャラベリング方法。
  11. 前記骨格運動解析は:
    骨格を、ラベル付けされた前記ボディポイントに非隣接フレームにおいてフィッティングし;
    前記骨格の位置推定値及び速度推定値を、ラベル付けされていないボディポイントを含み、かつ前記非隣接フレームの間に位置する中間フレームにおいて補間し;
    ラベル付けされていない前記ボディデータを各前記中間フレームにおいて、前記位置推定値及び速度推定値に従って調整されている前記骨格にフィッティングし;
    各前記中間フレームにおいて前記骨格にフィッティングされたラベル付けされていない前記ボディポイントにラベル付けする、請求項9記載のモーションキャプチャラベリング方法。
  12. 前記分離するステップは:
    ラベル付けされたボディデータを除去し;
    顔に一致するビートコピーを生成し;
    前記ビートコピーの前記顔を、前記顔の周りの所定サイズの球の外側に位置する前記モーションキャプチャボリュームデータのポイントを除去することにより分離する、請求項9記載のモーションキャプチャラベリング方法。
  13. 前記安定化させるステップは、
    運動による影響を各前記ビートコピーの前記顔から除去する、請求項9記載のモーションキャプチャラベリング方法。
  14. コンピュータ読み取り可能な記憶媒体に格納されるモーションキャプチャラベリングコンピュータプログラムであって、プログラムは実行可能命令を含み、実行可能命令によってコンピュータは:
    ラベル付けされていないボディポイント及びラベル付けされていない顔面ポイントを含むモーション撮影ビートを受信し;
    所定のボディモデルテンプレートに高精度にフィッティングするラベル付けされていない前記ボディポイントにラベル付けすることにより、ラベル付けされたボディポイントを生成し;
    ラベル付けされた前記ボディポイントを伸縮率解析を使用して検証し;
    ラベル付けされていないボディポイントに骨格運動解析を使用してラベル付けすることにより、ラベル付けされた更に別のボディポイントを生成し;
    ラベル付けされていない顔面ポイントを分離し;
    ラベル付けされていない前記顔面ポイントを安定化させ;
    ラベル付けされていない前記顔面ポイントにラベル付けし;
    ラベル付けされた前記顔面ポイント及びラベル付けされた前記ボディポイントを統合する、コンピュータプログラム。
  15. モーションキャプチャラベリング装置であって:
    ラベル付けされていないボディポイント及びラベル付けされていない顔面ポイントを含むモーション撮影ビートを受信する手段と;
    所定のボディモデルテンプレートに高精度にフィッティングするラベル付けされていない前記ボディポイントにラベル付けすることにより、ラベル付けされたボディポイントを生成する手段と;
    ラベル付けされた前記ボディポイントを伸縮率解析を使用して検証する手段と;
    ラベル付けされていないボディポイントに骨格運動解析を使用してラベル付けすることにより、ラベル付けされたボディポイントを生成する手段と;
    ラベル付けされていない前記顔面ポイントを分離する手段と;
    ラベル付けされていない前記顔面ポイントを安定化させる手段と;
    ラベル付けされていない前記顔面ポイントにラベル付けする手段と;
    ラベル付けされた前記顔面ポイント及びラベル付けされた前記ボディポイントを統合する手段と、
    を備える装置。
JP2008528254A 2005-08-26 2006-08-28 モーションキャプチャに使用されるラベリング Expired - Fee Related JP5016602B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US71208205P 2005-08-26 2005-08-26
US71196805P 2005-08-26 2005-08-26
US71184805P 2005-08-26 2005-08-26
US60/711,848 2005-08-26
US60/711,968 2005-08-26
US60/712,082 2005-08-26
US11/467,503 US8014565B2 (en) 2005-08-26 2006-08-25 Labeling used in motion capture
US11/467,503 2006-08-25
PCT/US2006/033711 WO2007025299A2 (en) 2005-08-26 2006-08-28 Labeling used in motion capture

Publications (2)

Publication Number Publication Date
JP2009506441A true JP2009506441A (ja) 2009-02-12
JP5016602B2 JP5016602B2 (ja) 2012-09-05

Family

ID=37772538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008528254A Expired - Fee Related JP5016602B2 (ja) 2005-08-26 2006-08-28 モーションキャプチャに使用されるラベリング

Country Status (9)

Country Link
US (1) US8014565B2 (ja)
EP (1) EP1924967A4 (ja)
JP (1) JP5016602B2 (ja)
KR (1) KR101378216B1 (ja)
CN (1) CN101578613B (ja)
AU (1) AU2006282763B2 (ja)
CA (1) CA2620496C (ja)
NZ (1) NZ566388A (ja)
WO (1) WO2007025299A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116495A1 (ja) * 2017-12-14 2019-06-20 富士通株式会社 技認識プログラム、技認識方法および技認識システム
WO2022254644A1 (ja) * 2021-06-03 2022-12-08 日本電気株式会社 姿勢推定装置、姿勢推定方法、及びコンピュータ読み取り可能な記録媒体

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396326B1 (ko) * 2007-10-12 2014-05-16 삼성전자주식회사 얼굴 검출을 위한 디지털 영상 처리 장치의 제어 방법 및이 방법을 채용한 디지털 영상 처리 장치
US8736616B2 (en) * 2009-09-15 2014-05-27 Sony Corporation Combining multi-sensory inputs for digital animation
RU2534892C2 (ru) * 2010-04-08 2014-12-10 Самсунг Электроникс Ко., Лтд. Устройство и способ для захвата безмаркерных движений человека
KR101908284B1 (ko) 2012-01-13 2018-10-16 삼성전자주식회사 신체 연결 관계 분석 장치 및 방법
CN104766345B (zh) * 2015-04-08 2018-09-25 深圳锐尔新科技有限公司 基于衣服特征点的身体扫描及运动捕捉方法
US9911219B2 (en) 2015-05-13 2018-03-06 Intel Corporation Detection, tracking, and pose estimation of an articulated body
CN104921397A (zh) * 2015-06-01 2015-09-23 江苏省电力公司 动态捕捉头盔
EP3324365A1 (en) * 2016-11-22 2018-05-23 Dassault Systèmes Computer-implemented method for simulating a body taking a posture, in particular to look at a target
EP3324366A1 (en) 2016-11-22 2018-05-23 Dassault Systèmes Computer-implemented method for simulating a body taking a posture
US10657656B2 (en) 2018-06-15 2020-05-19 International Business Machines Corporation Virtual generation of labeled motion sensor data
KR102174695B1 (ko) * 2018-11-15 2020-11-05 송응열 객체 움직임 인식 방법 및 장치
EP3966740A4 (en) * 2019-07-09 2022-07-06 Gentex Corporation SYSTEMS, DEVICES AND METHODS FOR MEASURING THE MASS OF OBJECTS IN A VEHICLE
US11707663B1 (en) * 2021-06-08 2023-07-25 Matthew Hall System for tracking, locating and predicting the position of a ball in a game of baseball or similar
US11900678B2 (en) * 2021-06-08 2024-02-13 Patricia Hall System for tracking, locating and calculating the position of an object in a game involving moving objects

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550928A (en) * 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
US20040005004A1 (en) * 2001-07-11 2004-01-08 Demos Gary A. Interpolation of video compression frames
JP2005535031A (ja) * 2002-08-02 2005-11-17 本田技研工業株式会社 人体測定に基づく骨格フィッティング
US7092569B1 (en) * 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects
JP2006520971A (ja) * 2003-03-13 2006-09-14 ソニー ピクチャーズ エンターテインメント デジタル顔モデルのアニメーション化のためのシステム及び方法
JP2006243975A (ja) * 2005-03-01 2006-09-14 Advanced Telecommunication Research Institute International モーションキャプチャデータ補正装置、マルチモーダルコーパス作成システム、画像合成装置、及びコンピュータプログラム
JP2007004718A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2007004732A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
US7184047B1 (en) * 1996-12-24 2007-02-27 Stephen James Crampton Method and apparatus for the generation of computer graphic representations of individuals

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US550928A (en) * 1895-12-03 Island
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
US5845009A (en) * 1997-03-21 1998-12-01 Autodesk, Inc. Object tracking system using statistical modeling and geometric relationship
US6236737B1 (en) * 1997-03-26 2001-05-22 Dalhousie University Dynamic target addressing system
US5930379A (en) * 1997-06-16 1999-07-27 Digital Equipment Corporation Method for detecting human body motion in frames of a video sequence
US6061644A (en) * 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
JP3141004B2 (ja) * 1998-08-31 2001-03-05 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 動画中のオブジェクトを分類する方法
CN1148702C (zh) * 2000-12-04 2004-05-05 浙江大学 基于视频的人体动画系统
US6697502B2 (en) * 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
US20040063480A1 (en) * 2002-09-30 2004-04-01 Xiaoling Wang Apparatus and a method for more realistic interactive video games on computers or similar devices
CN100483462C (zh) * 2002-10-18 2009-04-29 清华大学 融合多视角、多线索二维信息的人脸三维模型的建立方法
US8194093B2 (en) * 2004-09-15 2012-06-05 Onlive, Inc. Apparatus and method for capturing the expression of a performer
US7503663B2 (en) * 2005-05-25 2009-03-17 Tvi Corporation Infrared reflective tape squares

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550928A (en) * 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
US7184047B1 (en) * 1996-12-24 2007-02-27 Stephen James Crampton Method and apparatus for the generation of computer graphic representations of individuals
US7092569B1 (en) * 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects
US20040005004A1 (en) * 2001-07-11 2004-01-08 Demos Gary A. Interpolation of video compression frames
JP2005535031A (ja) * 2002-08-02 2005-11-17 本田技研工業株式会社 人体測定に基づく骨格フィッティング
JP2006520971A (ja) * 2003-03-13 2006-09-14 ソニー ピクチャーズ エンターテインメント デジタル顔モデルのアニメーション化のためのシステム及び方法
JP2006243975A (ja) * 2005-03-01 2006-09-14 Advanced Telecommunication Research Institute International モーションキャプチャデータ補正装置、マルチモーダルコーパス作成システム、画像合成装置、及びコンピュータプログラム
JP2007004718A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2007004732A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116495A1 (ja) * 2017-12-14 2019-06-20 富士通株式会社 技認識プログラム、技認識方法および技認識システム
US11776134B2 (en) 2017-12-14 2023-10-03 Fujitsu Limited Non-transitory computer readable recording medium, element recognition method, and element recognition system
WO2022254644A1 (ja) * 2021-06-03 2022-12-08 日本電気株式会社 姿勢推定装置、姿勢推定方法、及びコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
CA2620496C (en) 2015-10-13
US20070200854A1 (en) 2007-08-30
KR20080069960A (ko) 2008-07-29
JP5016602B2 (ja) 2012-09-05
NZ566388A (en) 2011-07-29
WO2007025299A2 (en) 2007-03-01
CN101578613A (zh) 2009-11-11
AU2006282763B2 (en) 2011-12-15
KR101378216B1 (ko) 2014-04-09
AU2006282763A1 (en) 2007-03-01
EP1924967A2 (en) 2008-05-28
EP1924967A4 (en) 2017-04-12
WO2007025299A3 (en) 2009-04-30
US8014565B2 (en) 2011-09-06
CN101578613B (zh) 2012-09-19
CA2620496A1 (en) 2007-03-01

Similar Documents

Publication Publication Date Title
JP5016602B2 (ja) モーションキャプチャに使用されるラベリング
CN110637323B (zh) 基于部分的跟踪的方法、设备和系统
US7324110B2 (en) Method and system for cleaning motion capture data
US9619704B2 (en) Fast articulated motion tracking
CA2676166C (en) Method of capturing, processing, and rendering images
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN102725038B (zh) 组合多传感输入以用于数字动画
JP2013529801A (ja) 単眼3次元ポーズ推定および検出による追跡
JP4761670B2 (ja) 動立体モデル生成装置及び方法
EP2615583B1 (en) Method and arrangement for 3D model morphing
Fossati et al. Bridging the gap between detection and tracking for 3D monocular video-based motion capture
US7580546B2 (en) Marker-free motion capture apparatus and method for correcting tracking error
KR20090066065A (ko) 디지털 크리쳐의 이동 동작 생성 방법 및 장치
JP4568967B2 (ja) 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム記録媒体
CN111316323A (zh) 一种三维轨迹数据的异常值处理方法及装置
CN111344741A (zh) 一种三维轨迹数据的数据缺失处理方法及装置
JP2009048305A (ja) 形状解析プログラム及び形状解析装置
Pan et al. Modeling for deformable body and motion analysis: A review
US11393107B2 (en) Jaw tracking without markers for facial performance capture
JP2011149952A (ja) モデル入力装置およびモデル生成システム
Zhou et al. Tracking of Deformable Human Avatars through Fusion of Low-Dimensional 2D and 3D Kinematic Models
Albanis et al. BundleMoCap: Efficient, Robust and Smooth Motion Capture from Sparse Multiview Videos
Klinger et al. Ragdolls in action–action recognition by 3d pose recovery from monocular video
JP2001028049A (ja) 3次元形状取得方法、装置及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090828

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111128

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120228

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120528

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5016602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees