JP4901752B2 - 顔動作および身体動作を取り込むシステムおよび方法 - Google Patents

顔動作および身体動作を取り込むシステムおよび方法 Download PDF

Info

Publication number
JP4901752B2
JP4901752B2 JP2007544477A JP2007544477A JP4901752B2 JP 4901752 B2 JP4901752 B2 JP 4901752B2 JP 2007544477 A JP2007544477 A JP 2007544477A JP 2007544477 A JP2007544477 A JP 2007544477A JP 4901752 B2 JP4901752 B2 JP 4901752B2
Authority
JP
Japan
Prior art keywords
motion
motion capture
cameras
capture volume
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007544477A
Other languages
English (en)
Other versions
JP2008522324A (ja
Inventor
ゴードン,デミアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2008522324A publication Critical patent/JP2008522324A/ja
Application granted granted Critical
Publication of JP4901752B2 publication Critical patent/JP4901752B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明は、3次元グラフィックスおよびアニメーションに関し、より詳細には、複数の俳優を収容することのできるボリューム内で顔動作と身体動作を共に同時に取り込むことを可能にするモーションキャプチャシステムに関する。
本願は、"System and Method for Capturing Facial and Body Motion"という名称の2003年5月1日出願の米国特許出願第10/427,114号の一部継続出願として米国特許法第120条に従って優先権を主張するものである。
モーションキャプチャシステムは、実物体の運動を取り込み、それをコンピュータで生成された物体上にマッピングするのに使用される。そのようなシステムはしばしば、映画およびビデオゲームの製作で人物のデジタル表現を作成するのに使用され、人物のデジタル表現は、コンピュータグラフィックス(CG)アニメーションを作成するためのソースデータとして使用される。典型的なシステムでは、俳優は、様々な位置に取り付けられたマーカを有する(例えば、胴体および手足に取り付けられた小型の反射マーカを有する)衣服を着用し、マーカを照明中に、デジタルカメラが、俳優の運動を様々な角度から記録する。次いで、システムは、イメージを解析して、各フレーム内の俳優の衣服上のマーカの位置(例えば空間座標として)および向きを求める。マーカの位置を追跡することにより、システムは、経時的にマーカの空間表現を作成し、動作中の俳優のデジタル表現を構築する。次いで動作がデジタルモデルに適用され、次いでデジタルモデルをテクスチャリングおよびレンダリングして、俳優および/または演技の完全なCG表現を生成することができる。この技法は特殊効果会社で使用されており、人気のある多くの映画で信じられないほどリアルなアニメーションが製作されてきた。
モーションキャプチャシステムはまた、俳優の顔の特徴の動作を追跡して俳優の顔の動作および表情(例えば笑い、泣き、微笑みなど)の表現を作成するのにも使用される。身体モーションキャプチャと同じく、マーカが俳優の顔に取り付けられ、カメラが俳優の表情を記録する。顔の運動は身体の運動に関係する大きい筋肉と比較して小さい筋肉が関係するので、顔マーカは通常、対応する身体マーカよりもずっと小さく、カメラは通常、身体モーションキャプチャのために通常使用されるカメラよりも高い解像度を有する。カメラは通常、俳優の顔にカメラの焦点を合わせたままに保つよう制限された俳優の物理的運動との共通平面内に位置合せされる。顔マーカを一様に照明し、カメラと顔の間の相対運動の度合を最小限に抑えるように、俳優に物理的に取り付けられたヘルメットまたはその他の器具に顔モーションキャプチャシステムを組み込むことができる。このために、顔動作および身体動作は通常、別々のステップで取り込まれる。次いで、後続のアニメーションプロセスの一部として、取り込まれた顔動作データが、取り込まれた身体動作データと後で組み合わされる。
キーフレーミングなどの従来のアニメーション技法に勝るモーションキャプチャシステムの利点は、リアルタイム視覚化の能力である。製作チームは、俳優の運動の空間表現をリアルタイムまたはほぼリアルタイムで検討することができ、最適なデータを取り込むために俳優が物理的演技を変更することが可能となる。さらに、モーションキャプチャシステムは、他のアニメーション技法を使用して容易に再現することのできない物理運動の微妙なニュアンスを検出し、それによって自然な運動を正確に反映するデータが生成される。その結果、モーションキャプチャシステムを使用して収集されたソース材料を使用して作成されたアニメーションは、真にせまった外観を示す。
モーションキャプチャシステムのこうした利点にも関わらず、顔動作と身体動作を別々に取り込む結果、しばしば、真にせまったものではないアニメーションデータが生じる。顔動作と身体動作は複雑に結びついており、それによって、顔の表情がしばしば、対応する身体動作によって強められる。例えば、俳優は、興奮して話すときに腕の動きを使用したり、不機嫌なときに肩をすくめるなどの一定の身体動作(すなわちボディランゲージ)を利用して感情を伝達し、対応する顔の表情を強調することがある。この顔動作と身体動作の間の連係は、動作が別々に取り込まれるときに失われ、これらの別々に取り込んだ動作を互いに同期させることは難しい。顔動作と身体動作が組み合わされるとき、得られるアニメーションはしばしば、目立つほどに異様に見える。ますますリアルなアニメーションの作成を可能にすることがモーションキャプチャの目的であるので、顔動作と身体動作の分離は、従来型モーションキャプチャシステムの著しい欠点を表す。
従来型モーションキャプチャシステムの別の欠点は、俳優の動作データが小道具や他の俳優などの他の物体に邪魔されて遮られることがあることである。具体的には、身体マーカまたは顔マーカの一部がデジタルカメラの視野から遮られた場合、その身体部分または顔部分に関するデータが収集されない。この結果、動作データ内にオクルージョンまたはホールが生じる。後で事後製作(post−production)中に従来型コンピュータグラフィックス技法を使用してオクルージョンを充填することができるが、充填データは、実際の動作データの品質が欠けており、その結果、観客が識別することができる可能性のあるアニメーションの不良が生じる。この問題を回避するために、従来型モーションキャプチャシステムは、一度に取り込むことのできる物体の数を例えば1人の俳優に制限する。俳優の演技の質はしばしば、他の俳優および物体との相互作用に依存するので、このことによっても動作データのリアルさが損なわれる傾向がある。さらに、こうした別々の演技を自然に見える仕方で一緒に組み合わせることは難しい。
従来型モーションキャプチャシステムのさらに別の欠点は、音声がモーションキャプチャと同時に記録されないことである。アニメーションでは、オーディオトラックをまず記録し、次いでオーディオトラックに合致するようにキャラクタをアニメーション化することが一般的である。顔モーションキャプチャ中に、俳優は、記録されたオーディオトラックに同期して唇を動かすことになる。俳優が顔動作を完璧にオーディオトラックと同期させることは難しいので、これにより、必然的に動作データの視覚的品質がさらに低下する。さらに、身体動作はしばしば、発話を述べる方式に影響を及ぼし、身体動作と顔動作を別々に取り込むことにより、オーディオトラックを同期させて結合性のある最終的作品(cohesive end product)を生み出すことの困難が増大する。
したがって、従来技術の上記およびその他の欠点を克服するモーションキャプチャシステムを提供することが望ましい。より具体的には、複数の俳優を収容することのできるボリューム内で身体動作と顔動作を共に同時に取り込むことを可能にするモーションキャプチャシステムを提供することが望ましい。身体モーションキャプチャおよび顔モーションキャプチャと同時にオーディオ記録を可能にするモーションキャプチャシステムを提供することも望ましい。
本発明の教示によれば、複数の俳優を収容することのできるボリューム内で身体動作と顔動作を共に同時に取り込むことを可能にするモーションキャプチャシステムおよび方法が提供される。このモーションキャプチャシステムおよび方法はまた、身体モーションキャプチャおよび顔モーションキャプチャと同時にオーディオ記録を可能にする。
より具体的には、動作を取り込むシステムおよび方法が、複数の身体地点を定義する身体マーカと、複数の顔地点を定義する顔マーカとを有する少なくとも1人の俳優を含むように適合されたモーションキャプチャボリュームを含む。モーションキャプチャボリュームは、楕円、円、矩形、多角形などの任意の所望の幾何形状を有することができる。複数のモーションカメラがモーションキャプチャボリュームの周辺部に配置される。モーションカメラは、モーションキャプチャボリューム内で動作中の俳優のすべての横方向露出面がほぼすべての時間に複数のモーションカメラのうちの少なくとも1つの視野内にあるように配置される。モーションキャプチャプロセッサが複数のモーションカメラに結合され、俳優の組合せ身体/顔動作を反映するデジタルモデルが生成される。モーションキャプチャボリュームから音声をピックアップするように少なくとも1つのマイクロフォンを配向することができる。
本発明の一実施形態では、モーションキャプチャボリュームは、各区間に細分された矩形エリアをさらに含む。複数のモーションカメラは、各区間にそれぞれ配向する第1サブグループのカメラをさらに含む。複数のモーションカメラは、各区間にそれぞれ配向し、第1サブグループのカメラから空間的に分離する第2サブグループのカメラをさらに含むことができる。第1サブグループのカメラは、第2サブグループのカメラに対して、それぞれの視野がほぼ重なるように配向する。第1および第2サブグループのカメラはそれぞれ、少なくとも3つのカメラをさらに含むことができる。複数のモーションカメラは、モーションキャプチャボリュームのコーナにそれぞれ配設され、概してモーションキャプチャボリュームの中心に配向する第3サブグループのカメラをさらに含むことができる。
以下の好ましい実施例の詳細な説明を考慮することにより、身体運動および顔運動を取り込むシステムおよび方法のより完全な理解、ならびにその追加の利点および目的の理解を当業者は得るであろう。最初に簡潔に説明される添付の図面に対して参照が行われる。
以下でさらに説明するように、本発明は、複数の俳優を収容することのできるボリューム内で顔動作と身体動作を共に同時に取り込むことを可能にするモーションキャプチャシステムの必要を満たす。さらに、本発明はまた、身体モーションキャプチャおよび顔モーションキャプチャと同時にオーディオ記録を可能にするモーションキャプチャシステムの必要を満たす。以下の詳細な説明では、図面のうちの1つまたは複数で示される同様の要素を記述するのに同様の要素番号が使用される。
まず図1を参照すると、ブロック図は、本発明の一実施形態によるモーションキャプチャシステム10を示す。モーションキャプチャシステム10は、複数の顔モーションカメラ14〜14および複数の身体モーションカメラ16〜16と通信するように適合されたモーションキャプチャプロセッサ12を含む。モーションキャプチャプロセッサ12は、関連するデータファイルの格納を可能にするように適合されたデータ記憶装置20を有するプログラム可能コンピュータをさらに含むことができる。ネットワークを使用して1つまたは複数のコンピュータワークステーション18〜18をモーションキャプチャプロセッサ12に結合することができ、複数のグラフィックアーティストが、コンピュータグラフィックスアニメーションを作成するプロセスで、格納されたデータファイルで作業することが可能となる。顔モーションカメラ14〜14および身体モーションカメラ16〜16は、モーションキャプチャボリューム内で演技する1人または複数の俳優の組合せ動作を取り込むように、モーションキャプチャボリューム(以下で説明する)に対して配置される。
各俳優の顔および身体が、モーションキャプチャボリューム内の俳優の演技中に顔モーションカメラ14〜14および身体モーションカメラ16〜16によって検出されるマーカでマークされる。マーカは、反射性素子または受照素子(illuminated element)でよい。具体的には、頭部、脚部、胴を含む様々な身体位置に配置された複数の反射マーカで各俳優の身体をマークすることができる。俳優は、マーカがそれに取り付けられる非反射性材料で形成されたボディスーツを着用していることができる。俳優の顔も複数のマーカでマークされる。顔マーカは一般に身体マーカよりも小さく、身体マーカよりも多数の顔マーカが使用される。顔動作を十分な解像度で取り込むために、(例えば100よりも多くの)多数の顔マーカが使用されることが予想される。ある例示的実装では、152個の小型の顔マーカと64個のより大型の身体マーカが俳優に貼り付けられる。身体マーカは、5から9ミリメートルの範囲の幅または直径を有することができ、顔マーカは、2から4ミリメートルの範囲の幅または直径を有することができる。
顔マーカの配置の整合性を保証するために、所望のマーカ位置に対応する適切な位置に穴が開けられた各俳優の顔のマスクを形成することができる。俳優の顔の上にマスクを配置し、適切なペンを使用して穴の位置を顔の上に直接マークすることができる。次いで、マークした位置で顔マーカを俳優の顔に付着させることができる。メイクアップ糊(make−up glue)などの演劇の分野で周知の適切な材料を使用して、顔マーカを俳優の顔に貼り付けることができる。このようにして、非常に長い期間(例えば数か月)にわたるモーションキャプチャ作品が、マーカが日ごとに付着され、取り外される場合であっても、俳優に関するかなり一貫したモーションデータを得ることができる。
モーションキャプチャプロセッサ12は、顔モーションカメラ14〜14および身体モーションカメラ16〜16から受け取った2次元イメージを処理し、キャプチャした動作の3次元デジタル表現を生成する。具体的には、モーションキャプチャプロセッサ12は、イメージ取込みプロセスの一部として、各カメラから2次元データを受け取り、データを複数のデータファイルの形態でデータ記憶装置20に保存する。次いで、イメージ処理プロセスの一部として、2次元データファイルが、個々のマーカの運動を表す軌跡ファイルの形態で互いにリンクされる単一の組の3次元座標に分解される。イメージ処理プロセスは、1つまたは複数のカメラからのイメージを使用して、各マーカの位置を求める。例えば、マーカは、モーションキャプチャボリューム内の俳優の顔の特徴または身体部分によるオクルージョンのために、カメラのサブセットに対してのみ可視であることがある。その場合、イメージ処理は、そのマーカの視界が遮られていない他のカメラからのイメージを使用して、空間内のマーカの位置を求める。
複数のカメラからのイメージを使用してマーカの位置を求めることにより、イメージ処理プロセスは、複数の角度からイメージ情報を評価し、三角測量プロセスを使用して空間位置を求める。次いで、軌跡ファイルに対して運動計算が実施され、俳優の演技に対応する身体動作および顔動作を反映するデジタル表現が生成される。経時的な空間情報を使用して、計算は、各マーカが空間を移動するときにその進行を求める。適切なデータ管理プロセスを使用して、プロセス全体に関連する多数のファイルのデータ記憶装置20への格納およびデータ記憶装置20からの検索を制御することができる。モーションキャプチャプロセッサ12およびワークステーション18〜18は、Vicon Motion SystemsまたはMotion Analysis Corp.から入手可能なものなどの市販のソフトウェアパッケージを使用して、上記およびその他のデータ処理機能を実行することができる。
モーションキャプチャシステム10は、動作に加えて音声を記録する能力をさらに含む。複数のマイクロフォン24〜24をモーションキャプチャボリュームの周りに配置して、俳優演技中に音声(例えば、発話された対話)をピックアップすることができる。モーションキャプチャプロセッサ12を、直接的に、またはオーディオインターフェース22を介してマイクロフォン24〜24に結合することができる。マイクロフォン24〜24を定位置に固定することができ、または動作に追従するようにブーム上で可動にすることができ、または俳優がマイクロフォン24〜24を担持し、マイクロフォン24〜24がモーションキャプチャプロセッサ12またはオーディオインターフェース22とワイヤレスに通信することができる。モーションキャプチャプロセッサ12は、動作との同期を可能にする時間トラックまたはその他のデータと共に、記録された音声をデジタルファイルの形態で受け取り、データ記憶装置20上に格納する。
図2および3に、複数のモーションキャプチャカメラによって囲まれた例示的モーションキャプチャボリューム30を示す。モーションキャプチャボリューム30は周縁部32を含む。モーションキャプチャボリューム30は、グリッド線で細分された矩形領域として示されている。実際にはモーションキャプチャボリューム30はモーションキャプチャボリュームに対するフロアを定義するグリッドを有する3次元空間を含むことを理解されたい。フロアの上の3次元空間内で動作が取り込まれる。本発明の好ましい実施形態では、モーションキャプチャボリューム30は、約10フィート四方、フロアの上の高さ約6フィートのフロアエリアを含む。有利には、製作の特定の必要に適合するように、楕円、円、矩形、多角形などの他のサイズおよび形状のモーションキャプチャボリュームも使用することができる。
図2は、複数のモーションキャプチャカメラが周縁部32の周りに概して円形のパターンで配置されたモーションキャプチャボリューム30の上面図を示す。個々のカメラは、カメラのレンズの方向を表す鋭角を有する三角形として図形的に表されており、したがって、複数のカメラが複数の別個の方向からモーションキャプチャボリューム30に向けられることを理解されたい。より具体的には、複数のモーションキャプチャカメラは、複数の身体モーションカメラ16〜16および複数の顔モーションカメラ14〜14をさらに含む。図2の多数の顔モーションカメラに鑑みて、多くには符号を付けていないことを理解されたい。本発明のこの実施形態では、身体モーションカメラよりも多くの顔モーションカメラが存在する。身体モーションカメラ16〜16は、モーションキャプチャボリューム30の辺ごとにおよそ2個配置され、顔モーションカメラ14〜14は、モーションキャプチャボリューム30の辺ごとにおよそ12個配置される。顔モーションカメラ14〜14と身体モーションカメラ16〜16は、顔モーションカメラの焦点合せレンズが身体モーションカメラよりも狭い視野を与えるように選択されることを除いてほぼ同一である。
図3は、複数のモーションキャプチャカメラがモーションキャプチャボリュームのフロアの上のおよそ3つの階に配置されたモーションキャプチャボリューム30の側面図を示す。下階は、モーションキャプチャボリューム30の辺ごとにおよそ8個配置された複数の顔モーションカメラ14〜1432を含む。本発明の一実施形態では、下階顔モーションカメラ14〜1432のそれぞれは、モーションキャプチャボリューム30のほぼ反対側のカメラが視野内に含まれないようにわずかに上方に向く。モーションキャプチャカメラは一般に、モーションキャプチャボリューム30を照明するのに使用される光源(例えば発光ダイオードの配列)を含む。光源はモーションキャプチャカメラにとって反射マーカからのデータを圧倒する明るい反射率のように見えるので、モーションキャプチャカメラが別のモーションキャプチャカメラの光源を「見ない」ようにすることが望ましい。中階は、モーションキャプチャボリューム30の辺ごとにおよそ2個配置された複数の身体モーションカメラ16〜16を含む。上記で議論したように、身体モーションカメラは、顔モーションカメラよりも広い視野を有し、各カメラが、それぞれの視野内により多くの量のモーションキャプチャボリューム30を含むことが可能となる。
上階は、モーションキャプチャボリューム30の辺ごとにおよそ5個配置された複数の顔モーションカメラ(例えば1433〜1452)を含む。本発明の一実施形態では、上階顔モーションカメラ1433〜1452のそれぞれは、モーションキャプチャボリューム30のほぼ反対側のカメラが視野内に含まれないようにわずかに下方に向く。図2の左側に示すように、モーションキャプチャボリューム30の前縁部に焦点を合わせたいくつかの顔モーションカメラ(例えば1453〜1460)が中階にも含まれる。俳優の演技は一般にモーションキャプチャボリューム30の前縁部に向くので、その領域内のカメラの数が増加され、オクルージョンに対して失われるデータ量が低減される。さらに、モーションキャプチャボリューム30のコーナに焦点を合わせたいくつかの顔モーションカメラ(例えば1461〜1464)が中階に含まれる。これらのカメラも、オクルージョンに対して失われるデータ量を低減する役割を果たす。
本発明の好ましい実施形態では、身体および顔モーションカメラは、マークされた俳優のイメージを多数の異なる角度から記録し、その結果、俳優の側面のほぼすべてが、すべての時間に少なくとも1つのカメラに対して露出する。より具体的には、カメラの配置により、俳優の側面のほぼすべてがすべての時間に少なくとも3つのカメラに対して露出することが実現されることが好ましい。カメラを複数の高さに配置することにより、俳優がモーションキャプチャフィールド30内で移動するときに不規則な面をモデル化することができる。それによってこのモーションキャプチャシステム10は、俳優の身体運動を顔運動(すなわち表情)と同時に記録する。上記で議論したように、音声記録もモーションキャプチャと同時に実施することができる
図4は、顔モーションカメラの例示的配置を示すモーションキャプチャボリューム30の上面図である。モーションキャプチャボリューム30は、a、b、c、およびdと符号が付けられた象限に図形的に分割される。顔モーションカメラはクラスタ36、38にグループ化され、各カメラクラスタは複数のカメラを表す。例えば、そのような1つのカメラクラスタは、下階に配置された2つの顔モーションカメラと、上階に配置された1つの顔モーションカメラとを含むことができ、有利には、クラスタ内のカメラの他の配置も使用することができる。2つのカメラクラスタ36、38は互いに物理的に隣接して配設されるが、認識可能な距離だけ互いに水平方向に偏位する。2つのカメラクラスタ36、38はそれぞれ、約45°の角度から、象限dの前縁部に焦点を合わせている。第1カメラクラスタ36は、象限cの前縁部の一部から象限dの前縁部の右端まで延びる視野を有する。第2カメラクラスタ38は、象限dの前縁部の左端から象限dの右縁部の一部まで延びる視野を有する。したがって、第1および第2カメラクラスタ36、38のそれぞれの視野は、象限dの前縁部のかなりの長さにわたって重なる。象限a、b、c、およびdの(周縁部32と一致する)他の外縁のそれぞれについて、カメラクラスタの同様の配置が含まれる。
図5は、顔モーションカメラの例示的配置を示すモーションキャプチャボリューム30の上面図である。図4と同様に、モーションキャプチャボリューム30は、象限a、b、c、およびdに図形的に分割される。顔モーションカメラは、クラスタ42、44にグループ化され、各カメラクラスタは複数のカメラを表す。図4の実施形態と同様に、クラスタは、様々な高さに配置された1つまたは複数のカメラを含むことができる。この配置では、カメラクラスタ42、44は、モーションキャプチャボリューム30のコーナに配置され、モーションキャプチャボリュームに面する。これらのコーナカメラクラスタ42、44は、オクルージョンなどのために他のカメラでピックアップされない俳優のイメージを記録する。他の同様のカメラクラスタもモーションキャプチャボリューム30の他のコーナに配置される。
モーションキャプチャボリューム30に対して様々なカメラの高さおよび角度を有することは、モーションキャプチャボリューム内の俳優から取り込まれる利用可能なデータを増大させる働きをし、データオクルージョンの可能性を低減する。モーションキャプチャボリューム30内で複数の俳優を同時にモーションキャプチャすることも可能となる。さらに、多数の様々なカメラにより、モーションキャプチャボリューム30を従来技術よりかなり大きくすることが可能となり、それによってモーションキャプチャボリューム内の動作の範囲を広くすることが可能となり、したがってより複雑な演技が可能となる。有利には、身体および顔モーションカメラの多数の代替配置も使用できることを理解されたい。例えば、より多数または少数の別々の階を使用することができ、個々の階の中の各カメラの実際の高さを変更することができる。
上記の本発明の好ましい実施形態の説明では、身体および顔モーションカメラは定位置のままである。このようにして、モーションキャプチャプロセッサ12は、身体マーカおよび顔マーカの運動をそれに対して測定することのできる固定基準点を有する。この配置の欠点は、モーションキャプチャボリューム30のサイズが限定されることである。より多くの量の空間を必要とする演技の動作を取り込むことが望まれる場合(例えば、登場人物が長い距離にわたって走っているシーン)、別々にモーションキャプチャされる複数のセグメントに演技を分割しなければならなくなる。本発明の代替実施形態では、カメラの一部が固定されたままとなり、他のカメラは、動作に追従するように移動する。可動カメラは、コンピュータ制御サーボモータを使用して可動にすることができ、または人間のカメラオペレータによって手動で移動することができる。モーションキャプチャプロセッサ12は、カメラの運動を追跡し、取り込んだデータの後続の処理でこの運動を取り除いて、俳優の演技に対応する身体動作および顔動作を反映する3次元デジタル表現を生成する。
図6は、モーションキャプチャボリューム内の2人の俳優52、54を反映するモーションキャプチャデータを示すモーションキャプチャボリューム30の斜視図である。図6は、モーションキャプチャデータが図1に関して上記で説明したワークステーション18のオペレータにはどのように見えるかを反映する。図2および3(上記)と同様に、図6は、下階に配置されたカメラ14〜1412と、上階に配置されたカメラ1433〜1440と、モーションキャプチャボリューム30のコーナに配置されたカメラ1460、1462とを含む複数の顔モーションカメラをさらに示す。2人の俳優52、54は、身体および顔上の反射マーカに対応する1群のドットとして見える。上記で図示および議論したように、俳優の身体よりも、俳優の顔上に位置するマーカの数の方がずっと多い。俳優の身体および顔の運動は、上記で説明したのとほぼ同様にモーションキャプチャシステム10によって追跡される。
次に図7および8を参照すると、モーションキャプチャデータが、ワークステーション18のオペレータが見ることとなるように示されている。図6と同様に、モーションキャプチャデータは2人の俳優52、54を反映し、高濃度のドットが俳優の顔を反映し、他のドットが身体地点を反映する。モーションキャプチャデータは、楕円形状として示される3つのオクルージョン領域62、64、66をさらに含む。オクルージョン領域62、64、66は、カメラの1つからの光が他のカメラの視野内に入るために信頼性の高い動作データが取り込まれなかった場所を表す。この光は、反射マーカからの照明を圧倒し、モーションキャプチャプロセッサ12によって身体マーカまたは顔マーカと解釈される。モーションキャプチャプロセッサ12によって実行されるイメージ処理プロセスは、図7および8に示されるオクルージョン領域62、64、66を定義することによってカメラ照明を除去する仮想マスクを生成する。製作会社は、俳優の演技を制御して、オクルージョン領域によって隠される運動を物理的に回避しようと試みることができる。それでも、図8に示すように、何らかのデータキャプチャの損失が必然的に生じる。図8では、俳優54の顔がオクルージョン領域64への物理的運動によってほぼ完全に隠されている。
図9に、オクルージョン問題を低減するモーションキャプチャシステムの一実施形態を示す。具体的には、図9は、互いにモーションキャプチャボリューム(図示せず)の両端に物理的に配設されるカメラ84および74を示す。カメラ84、74は、カメラの視野を照明するように適合された光源88、78をそれぞれ含む。カメラ84、74は、カメラレンズの正面のに配設された偏光フィルタ86、76をさらに備える。以下の説明から明らかとなるであろうが、偏光フィルタ86、76は、互いに位相外れとなるように配置される(すなわち回転する)。光源88は、偏光フィルタ86で偏光された光を放出する。偏光はカメラ74の偏光フィルタ76に到達するが、偏光はカメラ74を通過するのではなく、偏光フィルタ76で反射し、または吸収される。その結果、カメラ84は、カメラ74からの照明を「見ず」、それによってオクルージョン領域の形成が回避され、仮想マスキングの必要がなくなる。
上記の説明では、身体および顔に貼り付けられた物理的マーカの光学的感知の使用して動作を追跡することを参照したが、有利には、動作を追跡する代替方式も使用できることを当業者は理解されたい。例えば、マーカを貼り付ける代わりに、俳優の物理的特徴(例えば鼻または目の形状)を自然マーカとして使用して動作を追跡することができる。そのような特徴ベースのモーションキャプチャシステムでは、各演技の前にマーカを俳優に貼り付ける作業が不要となる。さらに、光以外の代替媒体を使用して、対応するマーカを検出することができる。例えば、マーカは、モーションキャプチャボリュームの周りに配置された対応する受信機によって検出される超音波または電磁放射体を含むことができる。この点で、上述のカメラは単に光センサであり、有利には、他のタイプのセンサも使用できることを理解されたい。
次に図10を参照すると、ブロック図は、本発明の代替実施形態によるモーションキャプチャシステム100を示す。モーションキャプチャシステム100は、上述の実施形態よりもデータ容量がかなり向上しており、拡張されたモーションキャプチャボリュームに関連するかなり大量のデータを取り込むのに適している。モーションキャプチャシステム100は、収集されたデータに関するリポジトリとして働くマスタサーバ110によって共に結合された3つの別々のネットワークを含む。ネットワークは、データネットワーク120、アーティストネットワーク130、および再構築レンダネットワーク(reconstruction render network)140を含む。マスタサーバ110は、モーションキャプチャシステム100に関する中央制御およびデータ記憶を実現する。データネットワーク120は、演技中に取り込まれた2次元(2D)データをマスタサーバ110に通信する。その後で、アーティストネットワーク130および再構築レンダネットワーク140が、マスタサーバ110からこれらの同じ2Dデータファイルにアクセスすることができる。マスタサーバ110は、大量のデータを格納するのに適したメモリ112システムをさらに含む。
データネットワーク120は、モーションキャプチャカメラとのインターフェースを提供し、取り込まれた動作データの初期データ処理を実現し、次いでそれがマスタサーバ100に供給され、メモリ112に格納される。より具体的には、データネットワーク120が、モーションキャプチャボリューム内で演技する1人または複数の俳優の組合せ動作を取り込むようにモーションキャプチャボリューム(以下で説明する)に対して配置された複数のモーションキャプチャカメラ122〜122に結合される。データネットワーク120はまた、演技(例えば対話)に関連した音声を取り込むように、直接的に、または適切なオーディオインターフェース124を介して複数のマイクロフォン126〜126にも結合することができる。1又はそれより多くのユーザワークステーション128をデータネットワーク120に結合して、データネットワークの機能の操作、制御、および監視を実現することができる。本発明の一実施形態では、データネットワーク120を,Vicon Motion SystemsまたはMotion Analysis Corpなどから入手可能な複数のモーションキャプチャデータ処理ステーションと、取り込まれたデータを2Dファイルとして照合する複数のスレーブ処理ステーションとで実現することができる。
アーティストネットワーク130は、適切なワークステーション132〜132を使用して、複数のデータチェッカおよびアニメータに対する高速インフラストラクチャを提供する。データチェッカは、マスタサーバ110から2Dデータファイルにアクセスし、データの受諾可能性を検証する。例えば、データチェッカは、データを検討し、演技の重要な側面が取り込まれたことを検証する。データの一部が遮られた場合など、演技の重要な側面が取り込まれなかった場合、取り込まれたデータが受け入れられるとみなされるまで、必要に応じて演技を反復することができる。俳優および/またはシーンディレクタとの通信を容易にするために、データチェッカおよび関連するワークステーション132〜132をモーションキャプチャボリュームに物理的に近接させて配置することができる。
再構築レンダネットワーク140は、2Dデータファイルの自動再構築を実施し、2Dデータファイルをマスタサーバ110によって格納される3次元(3D)アニメーションファイルにレンダリングするのに適した高速データ処理コンピュータを提供する。1又はそれより多くのユーザワークステーション142〜142を再構築レンダネットワーク140に結合して、データネットワークの機能の操作、制御、および監視を実現することができる。アーティストネットワーク130にアクセスするアニメータは、最終的コンピュータグラフィックスアニメーションを製作する間に3Dアニメーションファイルにもアクセスする。
図11に、例示的モーションキャプチャボリューム150の上面図を示す。上記の実施形態と同様に、モーションキャプチャボリューム150は一般に、グリッド線で細分された矩形領域である。この実施形態では、モーションキャプチャボリューム150は、著しく広いスペースを表すように意図され、4つの区間または象限(A、B、C、D)にさらに細分することができる。各区間は、上述のモーションキャプチャボリューム30のサイズにおおよそ等しいサイズを有し、したがってこのモーションキャプチャボリューム150は、上記の実施形態の4倍の表面積を有する。追加の区間Eが空間内の中心に置かれ、他の区間のそれぞれと部分的に重なる。グリッド線は、垂直軸に沿う数値座標(1〜5)と、水平軸に沿う英字座標(A〜E)とをさらに含む。このようにして、モーションキャプチャボリューム上の特定の位置を、領域4Aなどの英数字座標で定義することができる。そのような指定により、俳優の演技をどこで実施するか、および/または小道具をどこに配置するかに関して俳優に指示を与える点で、モーションキャプチャボリューム150の管理が可能となる。俳優および/またはシーンディレクタの便益のために、グリッド線および英数字座標を物理的にモーションキャプチャボリューム150のフロアにマークすることができる。こうしたグリッド線および英数字座標は2Dデータファイルには含まれないことを理解されたい。
本発明の好ましい実施形態では、各区間A〜Eは、10フィート四方の寸法を有する正方形の形状を有し、全面積400平方フィート、すなわち上記の実施形態のモーションキャプチャボリュームのおよそ4倍である。有利には、モーションキャプチャボリューム150に対して他の形状およびサイズを使用することもできることを理解されたい。
次に図12A〜12Cを参照すると、モーションキャプチャカメラ122〜122の例示的配置が、モーションキャプチャボリューム150の周りの周辺領域に対して示されている。周辺領域は、カメラ、照明、およびその他の装置を支持するための足場の配置を与え、領域152〜152として示される。モーションキャプチャカメラ122〜122が、様々なカメラの高さおよび角度で、モーションキャプチャボリューム150の周囲の領域152〜152のそれぞれに概して均等に配置される。さらに、モーションキャプチャカメラ122〜122はそれぞれ、モーションキャプチャボリューム全体ではなく、モーションキャプチャボリューム150の区間のうちの個々の区間に焦点を合わせるように配向される。本発明の例示的実施形態では、合計200個のモーションキャプチャカメラが存在し、40個の個々のカメラのグループが、モーションキャプチャボリューム150の5つの区間A〜Eのうちのそれぞれ1つ専用となる。
具体的には、モーションキャプチャボリュームからの距離およびモーションキャプチャボリューム150のフロアからの高さによってモーションキャプチャカメラ122〜122の配置を定義することができる。図12Aは、モーションキャプチャボリューム150から最も遠い距離で配向され、概して最低の高さで配向される第1グループのモーションキャプチャカメラ122〜12280の例示的配置を示す。例示的領域152(他の領域はほぼ同一である)を参照すると、第1行172がフロアから最高の高さ(例えば6フィート)でモーションキャプチャボリューム150に対して半径方向に外側に配設され、第2行174がわずかに低い高さ(例えば4フィート)に配設され、第3行176が最低の高さ(例えば1フィート)で第1行および第2行に対して半径方向に内側に配設される、3行のカメラが存在する。例示的実施形態では、この第1グループには合計80個のモーションキャプチャカメラが存在する。
図12Bは、第1グループよりもモーションキャプチャボリューム150に近接し、第1グループよりも高い高さで配向される第2グループのモーションキャプチャカメラ12281〜122160の配置を示す。例示的領域152(他の領域はほぼ同一である)を参照すると、第1行182がフロアから最高の高さ(例えば14フィート)でモーションキャプチャボリュームに対して半径方向に外側に配設され、第2行184がわずかに低い高さ(例えば11フィート)に配設され、第3行186が最低の高さ(例えば9フィート)で第1行および第2行に対して半径方向に内側に配設される、3行のカメラが存在する。例示的実施形態では、この第2グループには合計80個のモーションキャプチャカメラが存在する。
図12Cは、第2グループよりもモーションキャプチャボリューム150に近接し、第2グループよりも高い高さで配向される第3グループのモーションキャプチャカメラ122161〜122200の配置を示す。例示的領域152(他の領域はほぼ同一である)を参照すると、第1行192がフロアから最高の高さ(例えば21フィート)でモーションキャプチャボリュームに対して半径方向に外側に配設され、第2行194がわずかに低い高さ(例えば18フィート)に配設され、第3行196が最低の高さ(例えば17フィート)で第1行および第2行に対して半径方向に内側に配設される、3行のカメラが存在する。例示的実施形態では、この第3グループには合計40個のモーションキャプチャカメラが存在する。有利には、モーションキャプチャカメラの他の配置および異なる数のモーションキャプチャカメラも使用できることを理解されたい。
図4に関して上記で説明したのと同様に、モーションキャプチャボリューム150のそれぞれの区間にモーションキャプチャカメラの焦点が合わせられる。モーションキャプチャボリューム150の区間A〜Eのそれぞれについて、4つの辺のそれぞれから区間にモーションキャプチャカメラの焦点が合わせられる。例えば、モーションキャプチャボリュームから最も遠い第1グループのカメラは、それに対して最も近いモーションキャプチャボリュームの区間に焦点を合わせることができる。逆に、モーションキャプチャボリュームに最も近い第3グループのカメラは、そこから最も遠いモーションキャプチャボリュームの区間に焦点を合わせることができる。各辺のうちの1つの一端のカメラは、他端の区間に焦点を合わせることができる。より具体的な例では、モーションキャプチャボリューム150の区間Aを、周辺領域152の第1行182および第3行186の高さの低いあるカメラと、周辺領域152の第1行182および第3行186の高さの低いカメラと、周辺領域152の第2行184および第3行186の中程度の高さのカメラと、周辺領域152の第2行184および第3行186の中程度の高さのカメラの組合せによってカバーすることができる。図12Aおよび12Bは、中心区間E内の動作の取込みのために、周辺領域の中心にモーションカメラがより多く集中することを明らかにする。
様々な角度および高さを与え、モーションキャプチャボリューム150の各区間に対して多くのカメラの焦点を合わせることにより、望ましくないオクルージョンを最小限に抑えると共に演技全体を取り込む可能性がずっと高くなる。この配置で使用される多数のカメラに鑑みて、各カメラの周りに光シールドを配置して、モーションキャプチャボリュームの反対側に位置する別のカメラからの外部光の検出を低減することが有利である。本発明のこの例示的実施形態では、同じカメラを使用して、顔動作と身体動作を共に同時に取り込むことができ、したがって、別々の身体モーションカメラおよび顔モーションカメラは不要である。顔動作と身体動作を区別するために、俳優に対して異なるサイズのマーカを使用することができ、モーションキャプチャボリュームが大きいとすると、データキャプチャを保証するために、一般に大型のマーカが全般に使用される。例えば、身体に対して9ミリメートルのマーカを使用することができ、顔に対して6ミリメートルのマーカを使用することができる。
身体動作および顔動作を取り込むシステムおよび方法の好ましい実施形態をこのように説明したので、本発明のいくつかの利点が達成されたことは当業者には明らかなはずである。本発明の範囲および精神内で本発明の様々な修正形態、適合、および代替実施形態を作成できることも理解されたい。本発明は、添付の特許請求の範囲によってさらに定義される。
本発明の一実施形態によるモーションキャプチャシステムを示すブロック図である。 モーションキャプチャボリュームの周辺部に配置された複数のモーションキャプチャカメラを備えるモーションキャプチャボリュームの上面図である。 モーションキャプチャボリュームの周辺部に配置された複数のモーションキャプチャカメラを備えるモーションキャプチャボリュームの側面図である。 モーションキャプチャボリュームの象限に対する顔モーションカメラの例示的配置を示すモーションキャプチャボリュームの上面図である。 モーションキャプチャボリュームのコーナに対する顔モーションカメラの例示的配置を示すモーションキャプチャボリュームの上面図である。 モーションキャプチャボリューム内の2人の俳優を反映するモーションキャプチャデータを示すモーションキャプチャボリュームの斜視図である。 モーションキャプチャボリューム内の2人の俳優を反映し、データのオクルージョン領域を示すモーションキャプチャデータを示す図である。 2人の俳優の一方がオクルージョン領域で遮られている、図7と同様のモーションキャプチャデータを示す図である。 モーションキャプチャシステムで使用されるモーションキャプチャカメラの代替実施形態を示すブロック図である。 本発明の別の実施形態によるモーションキャプチャシステムを示すブロック図である。 複数の演技領域を定義する拡張モーションキャプチャボリュームの上面図である。 モーションキャプチャカメラの例示的配置を示す図11の拡張モーションキャプチャボリュームの上面図である。 モーションキャプチャカメラの例示的配置を示す図11の拡張モーションキャプチャボリュームの上面図である。 モーションキャプチャカメラの例示的配置を示す図11の拡張モーションキャプチャボリュームの上面図である。

Claims (15)

  1. 動作を取り込むシステムであって、
    複数の身体地点を定義する身体マーカと、複数の顔地点を定義する顔マーカとを有する少なくとも1人の俳優を含むように適合されたモーションキャプチャボリュームと、
    前記モーションキャプチャボリュームの周辺部に配置された複数のモーションカメラであって、前記モーションキャプチャボリューム内で動作中の前記少なくとも1人の俳優のすべての横方向露出面がほぼすべての時間に前記複数のモーションカメラのうちの少なくとも1つの視野内にあるように配置される複数のモーションカメラと、
    前記複数のモーションカメラに結合され、前記少なくとも1人の俳優の身体動作および顔動作を反映する3次元(3D)デジタル表現を生成するモーションキャプチャデータ処理システムと
    を備え
    前記モーションキャプチャデータ処理システムは、
    前記複数のモーションカメラに結合され、当該複数のモーションカメラによってキャプチャされた2次元(2D)データを処理し、複数の2Dデータファイルを生成するように適合されている少なくとも一つのコンピュータに結合されているデータネットワークと、
    前記データネットワークに結合されている少なくとも一つのワークステーションであって、前記3Dデジタル表現を生成するための適応性を判定するよう検証される前記複数の2Dデータファイルへのアクセスを提供するように適合されている少なくとも一つのワークステーションを有するアーティストネットワークと、
    前記複数の2Dデータファイルから前記3Dデジタル表現を生成するよう適合されている少なくとも一つのデータ処理用コンピュータを有する再構築レンダネットワークと、
    を有すことを特徴とするシステム。
  2. 前記モーションキャプチャボリュームが、複数の区間に細分された矩形エリアをさらに含む請求項1に記載のシステム。
  3. 前記複数のモーションカメラが、第1の高さで前記モーションキャプチャボリュームから最も離れて配置された第1グループのカメラを含む請求項1に記載のシステム。
  4. 前記複数のモーションカメラが、前記第1の高さよりも高い第2の高さで、前記第1グループのカメラよりも前記モーションキャプチャボリュームに近く配置された第2グループのカメラを含む請求項3に記載のシステム。
  5. 前記複数のモーションカメラが、前記第2の高さよりも高い第3の高さで、前記第2グループのカメラよりも前記モーションキャプチャボリュームに近く配置された第3グループのカメラを含む請求項4に記載のシステム。
  6. 前記複数の区間のそれぞれが、3.048メートル四方(10フィート四方のエリアを含む請求項2に記載のシステム。
  7. 前記モーションカメラのうちの少なくとも40個が、前記複数の区間のそれぞれに焦点が合わせられる請求項2に記載のシステム。
  8. 前記モーションキャプチャボリュームが、37.16平方メートル(400平方フィートのエリアをさらに含む請求項1に記載のシステム。
  9. 前記モーションキャプチャデータ処理システムが、前記データネットワークに結合され、前記複数の2Dデータファイルを格納するように適合されたマスタサーバをさらに備える請求項に記載のシステム。
  10. 動作を取り込む方法であって、
    複数の身体地点を定義する身体マーカと、複数の顔地点を定義する顔マーカとを有する少なくとも1人の俳優を含むように適合されたモーションキャプチャボリュームを定義すること、
    前記モーションキャプチャボリュームの周辺部に複数のモーションカメラを配置することであって、複数のモーションカメラが、前記モーションキャプチャボリューム内で動作中の前記少なくとも1人の俳優のすべての横方向露出面がほぼすべての時間に前記複数のモーションカメラのうちの少なくとも1つの視野内にあるように配置されること、および
    前記複数のモーションカメラからのデータを処理し、前記少なくとも1人の俳優の身体動作および顔動作を反映するデジタル表現を生成すること
    を含み、
    前記モーションカメラからのデータについての処理は、
    前記複数のモーションカメラから受信される信号に基づいて2次元(2D)データファイルを生成すること、
    前記2Dデータファイルを中央データストアに格納すること、
    前記2Dデータファイルの正確さを検証すること、
    前記2Dデータファイルの自動再構築を実施すること、およびそれから3次元(3D)アニメーションファイルを生成すること
    を有することを特徴とする方法。
  11. 前記定義するステップが、複数の区間に細分された矩形エリアとして前記モーションキャプチャボリュームを定義することをさらに含む請求項10に記載の方法。
  12. 前記配置するステップが、第1の高さで、前記モーションキャプチャボリュームから最も離れた前記モーションキャプチャボリュームの周辺領域内に第1グループの前記複数のモーションカメラを配置することを含む請求項11に記載の方法。
  13. 前記配置するステップが、前記第1の高さよりも高い第2の高さで、前記第1グループのカメラよりも前記モーションキャプチャボリュームに近い前記周辺領域内に第2グループの前記複数のモーションカメラを配置することを含む請求項12に記載の方法。
  14. 前記配置するステップが、前記第2の高さよりも高い第3の高さで、前記第2グループのカメラよりも前記モーションキャプチャボリュームに近い前記周辺領域内に第3グループの前記複数のモーションカメラを配置することを含む請求項13に記載の方法。
  15. 前記モーションキャプチャボリューム内から音声を記録することをさらに含む請求項10に記載の方法。
JP2007544477A 2004-12-03 2005-11-30 顔動作および身体動作を取り込むシステムおよび方法 Expired - Fee Related JP4901752B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/004,320 2004-12-03
US11/004,320 US7573480B2 (en) 2003-05-01 2004-12-03 System and method for capturing facial and body motion
PCT/US2005/043366 WO2006060508A2 (en) 2004-12-03 2005-11-30 System and method for capturing facial and body motion

Publications (2)

Publication Number Publication Date
JP2008522324A JP2008522324A (ja) 2008-06-26
JP4901752B2 true JP4901752B2 (ja) 2012-03-21

Family

ID=36565699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007544477A Expired - Fee Related JP4901752B2 (ja) 2004-12-03 2005-11-30 顔動作および身体動作を取り込むシステムおよび方法

Country Status (8)

Country Link
US (1) US7573480B2 (ja)
EP (1) EP1825438B1 (ja)
JP (1) JP4901752B2 (ja)
KR (1) KR100938021B1 (ja)
CN (1) CN101379530B (ja)
AU (1) AU2005311889B2 (ja)
NZ (1) NZ555867A (ja)
WO (1) WO2006060508A2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100507780B1 (ko) * 2002-12-20 2005-08-17 한국전자통신연구원 고속 마커프리 모션 캡쳐 장치 및 방법
US7333113B2 (en) * 2003-03-13 2008-02-19 Sony Corporation Mobile motion capture cameras
JP2009500042A (ja) * 2005-07-07 2009-01-08 インジーニアス・ターゲティング・ラボラトリー・インコーポレーテッド ターゲットの運動行動の3dのモニタリング及び分析のためのシステム
US8659668B2 (en) 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
FR2897680B1 (fr) * 2006-02-17 2008-12-05 Commissariat Energie Atomique Dispositif de capture de mouvement et procede associe
US7629994B2 (en) * 2006-07-11 2009-12-08 Sony Corporation Using quantum nanodots in motion pictures or video games
GB2456727B (en) * 2006-10-30 2011-10-26 Jerry Moscovitch System and method for producing and displaying images
US20080170750A1 (en) * 2006-11-01 2008-07-17 Demian Gordon Segment tracking in motion picture
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US20080297304A1 (en) * 2007-06-01 2008-12-04 Jerry Moscovitch System and Method for Recording a Person in a Region of Interest
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
US20100315524A1 (en) * 2007-09-04 2010-12-16 Sony Corporation Integrated motion capture
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
CN101833791B (zh) * 2010-05-11 2012-04-18 成都索贝数码科技股份有限公司 一种单摄像机下的场景建模方法及系统
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
CN101930628A (zh) * 2010-09-21 2010-12-29 北京大学 基于单目摄像机和多平面镜折反射装置的运动捕捉方法
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
CN106125921B (zh) 2011-02-09 2019-01-15 苹果公司 3d映射环境中的凝视检测
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
NZ702690A (en) * 2012-05-07 2017-08-25 DermSpectra LLC System and apparatus for automated total body imaging
US20140046923A1 (en) 2012-08-10 2014-02-13 Microsoft Corporation Generating queries based upon data points in a spreadsheet application
CN104469130A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种基于影像技术的动作捕捉、解析方法
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
WO2016121921A1 (ja) * 2015-01-30 2016-08-04 株式会社電通 コンピュータグラフィックスのデータ構造、情報処理装置、情報処理方法及び情報処理システム
EP3274912B1 (en) * 2015-03-26 2022-05-11 Biomet Manufacturing, LLC System for planning and performing arthroplasty procedures using motion-capture data
US10327624B2 (en) * 2016-03-11 2019-06-25 Sony Corporation System and method for image processing to generate three-dimensional (3D) view of an anatomical portion
JP6434947B2 (ja) * 2016-09-30 2018-12-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
CN106773815A (zh) * 2016-11-30 2017-05-31 广州微至科技有限公司 数字智能控制方法、装置和中控系统
JP2020136776A (ja) * 2019-02-14 2020-08-31 キヤノン株式会社 画像生成システムおよび画像生成方法、制御装置および制御方法
CN110108205B (zh) * 2019-05-13 2020-11-24 中国农业科学院农产品加工研究所 体积快速测定的装置和方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07296194A (ja) * 1994-04-22 1995-11-10 Canon Inc 画像処理方法およびその装置
US6020892A (en) * 1995-04-17 2000-02-01 Dillon; Kelly Process for producing and controlling animated facial representations
US5802220A (en) * 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US6121953A (en) * 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
JPH10334270A (ja) * 1997-05-28 1998-12-18 Mitsubishi Electric Corp 動作認識装置及び動作認識プログラムを記録した記録媒体
US6324296B1 (en) * 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
JP2001084375A (ja) 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab 動作検証システムおよび非接触マニピュレーションシステム
KR100361462B1 (ko) * 1999-11-11 2002-11-21 황병익 모션 캡쳐 데이터 획득 방법
US6633294B1 (en) * 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
JP2002008040A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 三次元情報検出装置及び三次元情報検出方法
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
US6707444B1 (en) * 2000-08-18 2004-03-16 International Business Machines Corporation Projector and camera arrangement with shared optics and optical marker for use with whiteboard systems
US6950104B1 (en) * 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US7012637B1 (en) * 2001-07-27 2006-03-14 Be Here Corporation Capture structure for alignment of multi-camera capture systems
NZ535747A (en) * 2002-03-12 2005-05-27 Menache Llc Motion tracking system and method
US7012634B2 (en) * 2002-03-28 2006-03-14 Eastman Kodak Company System and method for calibrating an image capture device
KR100606996B1 (ko) * 2002-04-30 2006-09-07 (주)싸이런 골프 스윙모션 분석방법 및 그 시스템
CN1477602A (zh) * 2002-08-21 2004-02-25 厦门影迪软件有限公司 一种动画制作方法及装置
CN1506799A (zh) * 2002-12-11 2004-06-23 技嘉科技股份有限公司 虚拟位置动作捕捉装置
US7106358B2 (en) * 2002-12-30 2006-09-12 Motorola, Inc. Method, system and apparatus for telepresence communications
US7068277B2 (en) * 2003-03-13 2006-06-27 Sony Corporation System and method for animating a digital facial model
US7218320B2 (en) * 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion

Also Published As

Publication number Publication date
CN101379530A (zh) 2009-03-04
EP1825438B1 (en) 2020-04-15
WO2006060508A3 (en) 2008-10-02
CN101379530B (zh) 2012-01-11
US20050083333A1 (en) 2005-04-21
EP1825438A2 (en) 2007-08-29
KR100938021B1 (ko) 2010-01-21
KR20070094757A (ko) 2007-09-21
EP1825438A4 (en) 2017-06-21
AU2005311889B2 (en) 2009-11-12
NZ555867A (en) 2009-11-27
WO2006060508A2 (en) 2006-06-08
US7573480B2 (en) 2009-08-11
JP2008522324A (ja) 2008-06-26
AU2005311889A1 (en) 2006-06-08

Similar Documents

Publication Publication Date Title
JP4901752B2 (ja) 顔動作および身体動作を取り込むシステムおよび方法
JP5710652B2 (ja) モバイルモーションキャプチャカメラ
KR100688398B1 (ko) 얼굴 움직임과 몸체 움직임을 캡쳐하는 시스템 및 방법
US7358972B2 (en) System and method for capturing facial and body motion
US8106911B2 (en) Mobile motion capture cameras
KR101299840B1 (ko) 모바일 모션 캡쳐 카메라
JP2006520476A5 (ja)
CN108038911A (zh) 一种基于ar技术的全息成像控制方法
Kanade et al. Historical perspectives on 4d virtualized reality
US20070146543A1 (en) Volume configurations in motion capture

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100617

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100617

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100915

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110518

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111219

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111227

R150 Certificate of patent or registration of utility model

Ref document number: 4901752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees