JP2009545083A - モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング - Google Patents

モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング Download PDF

Info

Publication number
JP2009545083A
JP2009545083A JP2009522030A JP2009522030A JP2009545083A JP 2009545083 A JP2009545083 A JP 2009545083A JP 2009522030 A JP2009522030 A JP 2009522030A JP 2009522030 A JP2009522030 A JP 2009522030A JP 2009545083 A JP2009545083 A JP 2009545083A
Authority
JP
Japan
Prior art keywords
face
marker data
frame
cleaning
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009522030A
Other languages
English (en)
Other versions
JP5109191B2 (ja
Inventor
ゴードン,デミアン
ハヴァルダル,パラーグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2009545083A publication Critical patent/JP2009545083A/ja
Application granted granted Critical
Publication of JP5109191B2 publication Critical patent/JP5109191B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)

Abstract

顔マーカデータをクリーニングする方法であって、本方法は:分析顔マーカデータフレーム群を間引きして代表的なキー顔ポーズフレーム群とするステップと;顔ポーズマトリクスを、代表的なキー顔ポーズフレーム群を使用して生成するステップと;そして 入力顔マーカデータフレーム群を、顔ポーズマトリクスを使用してクリーニングするステップと、を含む。

Description

本出願は、第35編米国法典119条に基づき、同時係属中の2006年7月28日出願の「モーションキャプチャにおけるFACS(顔の表情符号化システム)クリーニング」と題する米国仮特許出願第60/834,132号に関する優先権の利益を主張するものであり、当該仮特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる。
本出願は更に、本出願と同じ譲受人に譲渡され、かつ2003年5月23日出願の「デジタル顔形態モデルをアニメートするシステム及び方法」と題する米国特許第7,068,277号;2003年5月1日出願の「顔及びボディの動きを撮影するシステム及び方法」と題する米国特許出願第10/427,114号;及び2007年4月24日出願の「演技から作り出される顔アニメーション」と題する米国特許出願第11/739,448号の開示内容を参照することにより組み込む。
本出願は概して、モーションキャプチャ(motion capture)に関するものであり、特に顔モーションマーカデータをクリーニングし、そして安定させる方法及びシステムに関するものである。
モーションキャプチャシステムを使用して実際のオブジェクトの動きを撮影し、そしてこの動きをアニメートする方法として、この動きをコンピュータにより表現されるオブジェクトにマッピングする。このようなシステムは多くの場合、動画及びビデオゲームの作成に使用されてオブジェクトまたは人のデジタル表示を行ない、このデジタル表示をソースデータとして使用して、コンピュータグラフィックス(CG)アニメーションを作成する。通常のシステムでは、アクターが、マーカを種々の位置に取り付けた(例えば、小さな光反射マーカをボディ(体)及び四肢に取り付けた)衣服を纏う。次に、正確な場所に配置されるデジタルカメラ群がアクターのボディの動きを撮影空間において異なるアングルから、マーカを照明しながら記録する。システムは後の時点で、画像を分析してアクターの衣服に取り付けられたマーカの位置(例えば、空間座標)及び向きを各フレームで求める。これらのマーカの位置をトラッキングすることにより、システムはこれらのマーカに関する時間軸を考慮した空間表示を行ない、そして動いているアクターのデジタル表示を構築する。次に、この動きをデジタルモデルに仮想空間において適用し、次にこのデジタルモデルで質感を表現し、そしてモデルをレンダリングして、アクター及び/又は演技の完全なCG表示を構築することができる。この技法は、リアルなアニメーションを多くの人気のある映画に収めるために特殊効果会社によって使用されている。
アクターの顔の表情を表わす動きを撮影するためには、ボディの動きを撮影する操作と同様のアプローチを必要とする。しかしながら、アクターが「衣服」を彼または彼女の顔に纏うことは現実的ではない。更に、ヒトの顔の表情は、通常のボディの動きよりもずっと動きが速い顔筋肉の動きを含む。顔の動きを撮影する場合、非常に小さいサイズのマーカ群をアクターの顔に直接取り付け、顔の動きを定義するために配置し、そして動きの速い多くの種類の顔筋肉の動きを撮影するために十分な数だけ取り付ける。しかしながら、非常に多くのマーカ及びこれらのマーカの近傍部分によって、撮影後のフレーム毎のマーカトラッキングが困難になり、そして各個々のマーカに対する正確なトラッキングを確実に行なうために膨大な手作業処理が必要になる。
本発明の実施形態は、顔マーカデータをクリーニングする技術を用いるシステム、方法、装置、及びコンピュータプログラムを含む。
一の態様では、顔マーカデータをクリーニングする方法が開示される。本方法は:分析顔マーカデータフレーム群を間引きして代表的なキー顔ポーズフレーム群とするステップと; 顔ポーズマトリクスを、代表的なキー顔ポーズフレーム群を使用して生成するステップと;そして入力顔マーカデータフレーム群を、顔ポーズマトリクスを使用してクリーニングするステップと、を含む。
別の態様では、顔マーカデータクリーニングシステムが開示される。本システムは:分析顔マーカデータフレーム群を受信し、そして代表的なキー顔ポーズフレーム群を生成するフレーム間引きモジュールと;代表的なキー顔ポーズフレーム群を受信し、そして顔ポーズマトリクスを生成するFACSモジュールと;そして入力顔マーカデータフレーム群を受信し、そして顔ポーズマトリクスを使用してクリーニング済み顔マーカデータフレーム群を生成するクリーナモジュールと、を備える。
本発明の他の特徴及び利点は、この技術分野の当業者であれば、次の詳細な記述、及び添付の図面を吟味することにより一層容易に理解できるものと思われる。
本発明の構造及び動作の両方に関する本発明の詳細は、添付の図面を分析することにより部分的に調査することができる。
FACSクリーニングを行なう例示的な方法のフローチャートである。 顔マーカデータフレームをクリーニングする例示的な方法のフローチャートである。 新規のキー顔の表情を顔の表情マトリクスに追加する例示的な方法のフローチャートである。 FACSクリーニングを可変レートを使用して行なう例示的な方法のフローチャートである。 FACSクリーニングシステムの例示的な実施形態の機能ブロック図である。 FACSクリーニングシステムの例示的な実施形態の機能ブロック図である。 可変レートを使用するFACSクリーニングシステムの例示的な実施形態の機能ブロック図である。 例示的な顔モーションキャプチャシステムの機能ブロック図である。 ユーザ及びコンピュータシステムを示す図である。 FACSクリーニングシステムのホストとなる例示的なコンピュータシステムの機能ブロック図である。
本明細書に開示される所定の実施形態は、顔マーカデータフレーム群をクリーニングする方法を提供する。一の実施形態においては、クリーニングでは、分析顔マーカデータフレーム群を間引きして、代表的なキー顔ポーズフレーム群とし;顔ポーズマトリクスを代表的なキー顔ポーズフレーム群を使用して生成し;そして入力顔マーカデータフレーム群を顔ポーズマトリクスを使用してクリーニングする。一の例においては、クリーニングでは、ポイント自体で独自に動く顔マーカデータポイントを削除する。別の例では、所定の筋肉グループの全ての顔マーカデータポイントに、これらのポイントが一緒に動くように制限を加える。
本記述を一読した後、この技術分野の当業者であれば、どのようにして本発明を種々の別の実施形態及び別の用途において実施すればよいかが理解できるであろう。しかしながら、本発明の種々の実施形態が本明細書において記載されるが、これらの実施形態は例示としてのみ提示されるのであり、本発明を制限するために提示されるのではないことを理解されたい。従って、種々の別の実施形態についてのこの詳細な記述は、添付の請求項に示される本発明の範囲または広さを制限するものとして捉えられるべきではない。
図8は、一の実施形態による顔モーションキャプチャシステム800の機能ブロック図である。顔モーションキャプチャシステム800は、モーションキャプチャプロセッサモジュール810と、モーションキャプチャカメラ820,822,824と、ユーザワークステーション830と、そして複数の顔マーカ850を取り付けたアクターの顔840と、を含む。モーションキャプチャプロセッサモジュール810はワークステーション830に有線または無線によって接続することができる。モーションキャプチャプロセッサモジュール810は通常、制御データパケットをワークステーション830から受信するように構成される。
図8に示す実施形態では、3台のモーションキャプチャカメラ820,822,824がモーションキャプチャプロセッサモジュール810に接続される。しかしながら、3台よりも多くのモーションキャプチャカメラを種々のユーザ関連要件及びアニメーション関連要件に従って使用することができる。モーションキャプチャカメラ820,822,824はアクターの顔840に焦点を合わせ、顔の表面には、センサ(球形顔マーカ850として示される)がターゲットポイントに配置されている。これらのマーカの配置は普通、例えば顔筋肉グループを撮影するように構成される。別の構成として、これらのマーカはアクターの顔840の上の他の所定の注目領域に対応して構成される。
モーションキャプチャカメラ820,822,824はモーションキャプチャプロセッサモジュール810によって制御されて、マーカのフレーム毎の2D(2次元)画像を撮影する。このようにして撮影される2D画像を含む画像データは通常、ユーザワークステーション830にリアルタイムに保存され、そして/またはユーザワークステーション830で閲覧される。
モーションキャプチャプロセッサモジュール810は、画像データを統合して(すなわち、画像データの「再構成」を行なって)、3D(ボリューム)顔マーカデータのフレームシーケンスを生成する。一般的に、顔マーカデータは複数の個々の顔マーカデータポイントを含み、そして各ポイントはマーカの空間位置を表わす。各フレームは複数の顔マーカデータポイントを含む。フレームシーケンスは「ビート(beat)」と表記される場合が多く、ビートは「テイク(take)」と考えることもできる。モーションキャプチャプロセッサモジュール810は、フレームシーケンスを取り出し、そしてトラッキング機能を実行して、各フレームの顔マーカデータポイント群を、シーケンスにおける先行する各画像フレーム、及び後続の各画像フレームの顔マーカデータポイント群に正確にマッピングする。例えば、第1フレーム中の各個々の顔マーカデータポイントは、定義により、アクターの顔の上に配置される単一の顔マーカに対応する。従って、固有ラベルを第1フレームの各顔マーカデータポイントに割り当てる。次に、これらの顔マーカデータポイントを第2フレーム中の該当する顔マーカデータポイント群に関連付け、そして第1フレームの顔マーカデータポイント群に対応する固有ラベル群を第2フレームの該当するポイント群に割り当てる。ラベル付けプロセスがフレームシーケンスに関して終了すると、第1フレームの各顔マーカデータポイント群をシーケンス全体で追跡することができ、個々の軌跡が各顔マーカデータポイントに対応することになる。
一の実施形態では、ラベル付けされた各顔マーカデータポイントは、空間の一つの頂点として表わされ、従って各フレームは頂点座標系を含み、そして頂点座標系は、アクターの顔840のモデル化表面を含む。各フレーム内の顔マーカデータを、シーケンスの他のフレーム群の該当する顔マーカデータに正しくマッピングして、顔マーカデータポイント群に対応するスムーズな関連性のある動きを生成しようとするのではあるが、トラッキングエラーが発生してしまう。エラーとして普通、一つのフレームのマーカを次のフレームの異なるマーカに不正にマッピングすることにより、軌跡の動きに「急激な変化(jerk)」が生じる。エラーとして更に、「ジグル(jiggle:揺れ)」が生じ、この場合、マーカ群が継続的にフレームシーケンス全体で誤ラベル付けされている。エラーの他の例として、精度の低い三角測量、オブジェクトの視認性の悪いビューの再構成、及び2つの軸では正しいが、第3の軸では不正になる計算「ゴースト」を挙げることができる。
エラーは一の実施形態では、顔の表情符号化システムを使用して補正される。顔の表情符号化システム(facial action coding system:FACS)は、ヒトの顔の表情を体系的に分類する標準的な分類法を提供する。種々の顔の表情を表わす顔の動きデータは、図8に示すシステムのような顔モーションキャプチャシステムを使用して撮影され、そしてFACSに従って分類される。トラッキングエラーによって異常が、ラベル付けされたマーカデータの軌跡に生じるので、これらのデータが分類には適さなくなる。
一の実施形態では、FACSシステムが一人のアクターに関して、複数回の初期顔面分析(initial facial surveys)を利用して作成される。アクターには、モーションキャプチャマーカ群を顔に取り付け、そしてアクターに指示して或る範囲の所定の表情、または顔ポーズを演技させる。これらの顔ポーズの動きは、理想的な条件の下に小さい撮影ボリュームで撮影され、撮影ボリュームでは、照明は高精度に制御され、そして余分な動きは細心の注意を払って抑制される。アクターは多くの場合、動かずにじっと座っている、またはじっと立っていることにより、顔の動きを他のボディの動きから更に分離する。顔マーカデータが再構成され、顔マーカデータトラッキング手順を行ない、そして結果として得られるデータが「クリーニング」される。次に、トラッキング手順の間に誤ラベル付けされた顔マーカデータを正しくラベル付けし直す。ジグル(揺れ)は、例えば一つ以上のマーカデータポイントについてラベル付けし直し、フレームシーケンス全体のこれらのポイントの動きがスムーズな軌跡に忠実に従うようにすることにより取り除かれる。
要約すると、顔モーションキャプチャシステム800のモーションキャプチャプロセッサモジュール810は次のタスクを実行することができる:ビートにラベル付けし;ラベル付けされた全ての軌跡を検査し;ノイズを除去し;誤ラベル付けされたマーカを補正し;ゴーストまたは低い精度で再構成されたデータを削除し;データのギャップを埋め;そしてフィルタを適用して軌跡を更にスムーズにする。
一の実施形態によるFACSクリーニングを行なう方法100を図1のフローチャートによって示す。顔の表情を上に議論したように分析した後、顔マーカデータフレーム群をブロック110で受信し、そしてブロック120で、間引きしてキー顔ポーズフレーム群とする。キー顔ポーズ(key facial poses)は、例えば唇吊り上げ部分、眉毛吊り上げ部分、及び頬膨らませ部分のような種々の表情部分を含む。
FACSマトリクス(または、更に広い概念として、顔ポーズマトリクス)をブロック130で作成して、分析顔マーカデータから抽出されるキー顔ポーズ群の幾つかのポーズ、または全てのポーズを保存する(ブロック120)。FACSマトリクスは「制限空間(constraint space)」として機能することにより、顔マーカデータポイントに関して計算される動きが許容可能な限界値(ここでは、「許容可能な」動きとも表記される)に収まる場合を判断するためのルールを定義する。トラッキングエラーの例として、顔マーカデータポイントpにフレームA及びCにおいて正しくラベル付けするが、中間フレームB(フレームAとCとの間のフレームB)内の別の顔マーカデータポイントqに間違ってpとラベル付けすると、フレームB内の正しいポイントpがラベル付けされないで、または誤ラベル付けして残される。フレームシーケンスを眺める場合、ポイントpはその結果、当該ポイントの軌跡に不連続を示すが、この不連続は、当該ポイントがフレームBが表示されると予測されない位置に、すなわちqの位置にジャンプして現われることにより生じる。フレームB内のpの動きに、例えばフレームAとCとの間でのpの動きの補間に従って制限を加えることにより、qがpとしてラベル付けされる可能性を無くす。次に、フレームB内のポイントqのラベルを剥がし、そしてpに正しくフレームBにおいてラベル付けされるが、これは、フレームB内のpが補間条件を満たす可能性の最も高いポイントとなるからである。同様にして、qにもラベルを正しく付け直して、ポイントqがフレームシーケンス全体でqの正しい軌跡を忠実になぞるようにする。
一の実施形態では、顔マーカデータポイントの動きが許容できるかどうかを判断するルールでは、顔マーカデータポイントがポイント自体で独自に動くことがないことが必要である。別の実施形態では、所定の筋肉グループの全ての顔マーカデータポイントは、これらのデータポイントの内のいずれのポイントの動きも許容することができるように一緒に動く必要がある。
従って、FACSマトリクスはアクターに関して個々に、特定の例示的な顔ポーズの選択に基づいて校正され、そして演技中に引き続き撮影されるアクターの顔の表情を分類する正確な、厳密な、そして強固な手段となる。
顔モーションキャプチャデータをブロック140で、FACSマトリクスを使用してクリーニングする。通常、顔モーションキャプチャデータビートを受信する。顔マーカデータポイントを分析し、そして所定のルールによれば許容できない動きを特定する。一の実施形態では、許容できる顔マーカデータポイントの動きのデータのみを返す。クリーニングではこのようにして、フィルタリング効果を実現して顔マーカデータのノイズアーチファクトを除去することができる。更に、クリーニングでは、マーカデータポイント群が占めるべきであったのに、アクターが演技している間に見えなくなった空間位置(例えば、マーカの眺めが、小道具または別のアクターによって演技中に遮られてマーカが見えなくなる場合の空間位置)を求める。顔マーカデータポイント軌跡に結果として生じるギャップを、適用可能なルールに従ったデータポイント群で埋める。更に別のフィルタを適用して、軌跡を更にスムーズにすることができる。ギャップの無い、正しくラベル付けされた、ノイズの無いデータポイント群がこのようにして生成される。
アクターが演技している間に生成されるデータに含めて受信される幾つかの顔ポーズは、FACSマトリクスによって既に保存されている顔ポーズに容易に「合致する」ということがない。一旦、これらの顔マーカデータが上に議論したようにクリーニングされると、これらのマーカデータをFACSマトリクスに新規のキー顔ポーズとしてブロック150で追加して、FACSマトリクスによって保存される顔ポーズの範囲を広げる。従って、次の演技に含めて受信される顔ポーズを、FACSマトリクスの更に広い範囲の基本の校正済みポーズと照合する。
一の実施形態では、一旦、このような新規ポーズがFACSマトリクスに追加されると、新規ポーズを抽出した抽出先の同じビートを同じようにして、高機能FACSマトリクスを使用して処理することにより、生成されるクリーニング済み顔マーカデータの精度及び一貫性が高まる。新規のキー顔ポーズをFACSマトリクスに追加する処理について、図3を参照しながら以下に更に詳細に議論する。
図2は、顔マーカデータフレームをクリーニングする例示的な方法140を示すフローチャートである。
フレームシーケンスの顔マーカデータをブロック200で巨視的に安定させる。顔モーションキャプチャビートが経過している間、アクターの動きには、顔の表情に関連する微妙な動きの他に、並進運動及び回転運動を含む頭部の大きな運動が伴なう可能性がある。一の実施形態では、頭部の大きな運動を除去することにより、並進運動及び回転運動によって変わることがない顔マーカデータが得られ、そしてアクターの顔の表情の微妙な動きを明瞭に表現することができる。例えば、第1フレームの顔マーカデータを特定する。フレームシーケンスにおける他のフレームの顔マーカデータを第1フレームの顔マーカデータと、アクターの顔の2つ以上の所定の剛性ポイントに従って整合させる。剛性ポイントは、例えば頭部、耳、及び鼻梁に取り付けられるマーカに対応する顔マーカデータポイントを含む。一般的に、剛性ポイント群は、これらのポイントがアクターの顔の表情に連動して変化することがない上に更に、モーションキャプチャ演技空間におけるアクターの肉体的な動きに一致するように選択される。空間座標系は、フレームシーケンスの剛性ポイントに従って定義される。従って、顔マーカデータの残りの動きはそれに応じて、当該空間座標系で定義され、そしてほぼ顔の表情にのみ関連付けられる。
入力フレームの顔マーカデータによって表わされるポーズを近似する重み付け合成されたキー顔ポーズ(中心となる顔ポーズ)をブロック210で求める。一の実施形態では、アクターの演技のフレームを、FACSマトリクスのFACSポーズ群(すなわち、活動単位群)の全てから成る空間において分析する。従って、FACSポーズ群は、空間データポイント群(すなわち、顔マーカデータ)によって定義される顔基本ベクトル群と見なすことができる。FACSマトリクスの各顔基本ベクトルに対応する重みを入力フレームに関して計算して、重み付け合成された顔基本ベクトル(すなわち、FACSポーズ)が入力フレームの新規ポーズを近似するようにする。或る場合では、複数の重みの内の一つ以上の重みが、FACSポーズ群の全てが入力顔マーカデータのポーズに関連する訳ではないのでゼロになる。次に、新規ポーズの顔マーカデータを重み付け合成されたFACSポーズと比較して、顔マーカデータポイントが喪失しているかどうか、誤ラベル付けされているかどうか、または顔マーカデータポイントのノイズが「許容できないほどに」大きい(すなわち、顔マーカデータポイントが「使えない」)かどうかを判断する。使えない顔マーカデータポイント群を入力フレームにおいて、重み付け合成されたFACSポーズから得られる適切なデータポイント群に置き換える。
ブロック220では、顔マーカデータポイント群に、これらのポイント自体で独自に動くことがないように制限を加える。制限は、単一の特定の顔マーカデータポイントが隣接する顔マーカデータポイントよりも大幅に異なる態様で動く確率が低いので加えることができ、従って単一の顔マーカデータポイントによる独自の動きは通常、データポイントが使えないことを示唆する。一旦、判断が行なわれると、データポイントの不正な動きは修正することができる。
ブロック230では、顔マーカデータポイント群に制限を加えて、これらのポイントが該当する筋肉グループと一緒に動くようにする。一の実施形態では、顔マーカデータポイント群は、マーカデータポイント群が属する筋肉グループに対して不自然となるような態様で動くことが許されない。
ブロック240では、顔マーカデータをフレーム群において微視的に安定させる。一の実施形態では、顔マーカデータポイント群の空間位置を、顔マーカデータポイントの動きを調整して、顔マーカデータポイントが所定の顔面モデルを忠実になぞるようにすることにより微視的に安定させる。別の実施形態では、微視的安定化は、FACSマトリクスに保存される顔ポーズを使用して、許容範囲から外れた顔マーカデータポイント群を調整することにより行なうことができる。更に別の実施形態では、顔マーカデータポイント群を、剛性マーカ群を使用して手作業で微視的に安定させる。
要約すると、安定化は2つの方法−巨視的安定化(gross-stabilization)及び微視的安定化(fine-stabilization)−により処理される。巨視的安定化では、ボディに取り付けられる剛性マーカ(例えば、頭部マーカ/顔マーカ)を利用する。これらの剛性マーカは十分に大きいので、変換行列を計算して剛性マーカ群(頭部/顔)の位置を、これらのマーカの空間位置から基準原点に変換することができ、従って顔の表情に関する全ての分析をロックダウン位置(物を動かすことができないように固定したときの位置)で行なうことができる。しかしながら、ノイズ、一貫性の無いラベル、及び他の異常が含まれる(例えば、顔の表情に)状態では、頭部を動かすことができないようにフレーム毎に固定するために計算される巨視的安定化変換には一貫性がなく、これによって、小さな揺れ、捻れ、跳ね、及び他のノイズが生じる。これらのデータをフェイシャルアニメーションのリターゲット(facial re-targeting)に使用する場合、良好(自然)な顔の表情の生成は難しい。その結果、微視的安定化が必要になり、微視的安定化によって揺れ、捻れ、跳ね、及び他のノイズを除去する。この微視的安定化は、FACSマトリクスを特定のアクターに関して利用することにより行なうことができる。FACSマトリクスを使用してマーカの小さな動きを、これらの動きが所定の表情に一致するものとして分析する。従って、或る表情に関して、マーカグループは、FACSマトリクスから学習される動き、またはFACSマトリクスによって生成される動きに一致する動きを示す。動きに一致が見られない、または動きが一致しない場合、動きを顔全体で矯正し、そして「補正して」、顔(及び/又は頭部)全体を更に安定させることができる。
図3は、新規のキー顔ポーズをFACSマトリクスに追加する例示的な方法150のフローチャートである。クリーニングされた顔マーカデータのフレーム群をブロック300で受信する。一の実施形態では、受信されるフレーム群は一つのビートを構成するフレームシーケンスである。別の構成として、受信されるフレーム群は、全てのフレームシーケンスを含む。
FACSマトリクスによって保存されるキー顔ポーズが顔マーカデータと極めて正確に一致するということがないフレームをブロック310で求める。一の実施形態では、ビート中のどのフレームに、FACSマトリクスのキー顔ポーズと無事に一致したポーズ(すなわち、特定の顔ポーズを表わす顔マーカデータ)が撮影されているかについての調査を行なう。キー顔ポーズと一致しなかったポーズが撮影されているフレームも特定される。一致が見られないこれらのフレームは、FACSマトリクスによって保存される顔ポーズ集合に不足があることを裏付けているので、FACSマトリクスに追加すべき新規のキー顔ポーズの基礎データとなる。次に、FACSマトリクスのキーポーズに一致しなかった顔マーカデータが、FACSマトリクスに追加される新規データとなる(ブロック340を参照)。FACSマトリクスによって保存されるキー顔ポーズ群の不足はこのようにして解消されて、更に完全かつ強固なFACSマトリクスが得られる。
一致するキーポーズがFACSマトリクスに含まれていないと判断される顔マーカデータをブロック320で正規化して、FACSマトリクスを構成する、例えば初期FACS校正中に得られる分析顔マーカデータ(survey facial marker data)のような他のキー顔ポーズデータとの拡大縮小率の差を無くす。サイズの一貫性がこのようにして、キー顔ポーズが初期分析中または演技中に得られたかどうかに関係なく、FACSマトリクスに保存されるキー顔ポーズ集合全体に関して確保される。これにより、次の入力顔マーカデータに撮影される顔ポーズとの一致が容易になる。
FACSマトリクスに追加されることになる顔マーカデータをブロック330で安定させる。一の実施形態では、追加される顔マーカデータを安定させることにより、FACSマトリクスに既に捕捉されているキーポーズの安定化された顔マーカデータに一致させる。ブロック340では、正規化され、かつ安定させた顔マーカデータを次に、FACSマトリクスに新規のキー顔ポーズとして追加する。別の実施形態では、顔マーカデータビートを、新規に追加されたキー顔ポーズを含むFACSマトリクスを使用して再分析する。前に一致が見られなかったフレーム中のポーズをこのようにして、この再分析の間に一致させ、そしてクリーニングされた顔マーカデータの品質を前の分析におけるよりも高める。
一の実施形態では、FACSマトリクスによって保存されるキー顔ポーズが顔マーカデータと極めて正確に一致するということがないような顔マーカデータを有する複数のフレームを自動的に求める。求めたフレーム群のリストを提供し、このリストの中から、フレーム群を選択して検証し、そしてグループとしてFACSマトリクスに追加する。
図4は、FACSクリーニングを「3D減衰(3-D damping)」を使用して行なう例示的な方法のフローチャートであり、3D減衰によって可変レート処理が可能になる。一の実施形態においては、クリーニングでは調整を行なって、ノイズを制御し、そして顔マーカデータポイントの動きを減衰させることにより、ジグル(jiggle:揺れ)をほとんど削除する。しかしながら、単一の処理レートだけでは、ビート内に撮影されている顔の動きが変化するときの可変の速さを補正することができない。従って、「3D減衰」方法の可変レート処理を取り入れ、可変レート処理では、クリーニングによって得られる複数の結果の合成結果を種々のレートで生成する。
一の実施形態では、フレームシーケンスを複数の異なるレート、例えば高レート、中レート、及び低レートで、閾値及び周波数を使用してクリーニングする(「3D減衰」)。従って、「3D減衰」では、処理の閾値及び周波数を調整して、入力データに反応する時間を変化させる。例えば、5〜50のような小さい数字では、データが高速領域においてゴムのように変形するようになるとともに、低速領域においては細かく見えるようになる。200〜240のような大きい数字では、データが高速領域で細かく見えるようになるが、ゆっくり動くノイズの大きい領域のノイズを除去する機能が低下する。
各結果を同じビートの個別の「クリップ」として保存し、この場合、各クリップは固有の処理レートに対応する。次に、フレームのサブセットシーケンスを種々のクリップから選択し、各サブセットは、当該サブセットに撮影される演技の期間中のアクターの動きを最も良く表わす。次に、これらのサブセットシーケンスを合成してマスタークリップを生成し、マスタークリップを使用して顔形態モデルをアニメートする。
一の実施形態では、マスタークリップは、低減されたノイズによって特徴付けられる。例えば、合成を低レート領域で行なうことにより、ゆっくり動く領域における残留ノイズまたは残留ジッタを除去する。
クリーニングを可変レート処理を使用して行なう図4に示す例示的な方法400は、図1に示すクリーニングを行なう例示的な方法100と同様である。顔の表情を上に議論したように分析した後、顔マーカデータフレーム群をブロック410で受信し、そしてブロック420で、間引きしてキー顔ポーズフレーム群とする。キー顔ポーズは、例えば唇吊り上げ部分、眉毛吊り上げ部分、及び頬膨らませ部分のような種々の表情部分を含む。
FACSマトリクスをブロック430で生成して、モーションキャプチャデータから抽出される(ブロック420で)キー顔ポーズ群の幾つか、または全てを保存する。
処理レートをブロック440で、上述の「3D減衰」を使用して選択する。一の実施形態では、上に議論したように、高レート、中レート、及び低レートに対応する3つのレートの内の一つのレートは、閾値の数字及び周波数の数字を選択することにより選択される。これらの数字は、多数の方法で表現することができる相対的な数字であることを理解されたい。一の実施形態では、どのような個数の異なる閾値の数字及び周波数の数字も生産要件に従って選択することができる。
顔モーションキャプチャデータをブロック450で、FACSマトリクスを使用して、選択したレートでクリーニングする。通常、顔モーションキャプチャデータビート全体が分析される。顔マーカデータポイント群を分析し、そして所定のルールに照らして許容できない動きを特定する。一の実施形態では、許容できる顔マーカデータポイントの動きのデータのみを返す。従って、クリーニングでは、フィルタリングを選択したレート(すなわち、サンプリングレート)で実行することができるので、顔マーカデータのノイズアーチファクトを除去することができる。更に、クリーニングでは、マーカデータポイント群が占めるべきであったのに、アクターが演技している間に見えなくなった空間位置を求める。クリーニングでは、顔マーカデータポイント軌跡に結果として生じるギャップを、適用可能なルールに従ったデータポイント群で埋める。選択したレートのクリップがこのようにして生成され、この場合、クリップは、ギャップの無い、正しくラベル付けされた、かつノイズの無いデータポイントを含むビートに対応するフレームシーケンスを含む。
別のレートをブロック440で必要に応じて選択する。顔モーションキャプチャデータをこの場合も同じようにして、FACSマトリクスを使用して、選択したレートでクリーニングし、そして選択したレートに対応する別のクリップをブロック450で生成する。更に別のレートをブロック440で選択し、続いてビートを更に処理する必要が無くなるまで、ブロック450において、新規のクリップをクリーニングし、そして生成する。
合成「マスター」クリップをブロック460で生成する。一の実施形態では、マスタークリップは処理レートで生成されるクリップ群の内の一つ以上のクリップの一部分を含む。従って、各クリップ部分は、ビートの該当する部分に対応する所望の顔モーションキャプチャ結果を表わし、そしてマスタークリップはビート全体に対応する所望の顔モーションキャプチャ結果を表わす。
図5は、FACSクリーニングシステム500の例示的な実施形態の機能ブロック図である。FACSクリーニングモジュール510は分析顔マーカデータ及び入力顔マーカデータを受信し、そしてクリーニング済み顔マーカデータを生成する。一の実施形態では、入力顔マーカデータは一つのビートを表わすフレームシーケンスを含む。
図6は、一の実施形態によるFACSクリーニングシステム510の機能ブロック図である。FACSクリーニングシステム510はフレーム間引きモジュール600と、FACSモジュール610と、そしてクリーナモジュール620と、を含む。
顔の表情を上に議論したように分析した後、分析顔マーカデータフレーム群をフレーム間引きモジュール600が受信する。これらのフレームを、図1を参照しながら上に議論したように、ブロック120で間引きしてキー顔ポーズフレーム群とする。これらのキー顔ポーズは、例えば唇吊り上げ部分、眉毛吊り上げ部分、及び頬膨らませ部分のような種々の表情部分を含む。
アクター用のFACSマトリクスはFACSモジュール610によって保存され、FACSモジュール610は、フレーム間引きモジュール600でモーションキャプチャデータから抽出されるキー顔ポーズ群の幾つか、または全てを含む。上に議論したように、FACSマトリクスは制限空間として機能して、一つのマーカデータポイントに関して計算される動きが許容できる動きである場合を判断するルールを定義する。FACSマトリクスはアクターに関して個々に、特定の例示的な顔ポーズの選択に基づいて校正され、そして演技に際して続いて撮影されるアクターの顔の表情を分類する正確な、厳密な、かつ強固な手段となる。キー顔ポーズをFACSモジュール610で受信し、そしてFACSマトリクスが生成される。
アクターの演技を撮影した顔マーカデータビート、及びアクターに対応するFACSマトリクスをクリーナモジュール620で受信する。クリーニング済み顔マーカデータは、FACSマトリクスを使用して生成される。顔マーカデータポイントを分析し、そして所定のルールに照らして許容できない動きを特定する。一の実施形態では、許容できる顔マーカデータポイントの動きのデータのみを返す。クリーニングではこのようにして、フィルタリング効果を実現して、顔マーカデータのノイズアーチファクトを除去する。更に、クリーニングでは、マーカデータポイント群が占めるべきであったのに、アクターが演技している間に見えなくなった空間位置を求める。顔マーカデータポイント軌跡に結果として生じるギャップを、適用可能なルールに従ったデータポイント群で埋める。ギャップの無い、正しくラベル付けされた、かつノイズの無いデータポイント群がクリーナモジュール620の出力で生成される。
別の実施形態では、クリーナモジュール620は、顔マーカデータポイント群に制限を加えて、これらのポイントが該当する筋肉グループと一緒に動くようにするルールを呼び出す。更に別の実施形態では、顔マーカデータポイント群は、これらのデータポイントが属する筋肉グループに対して不自然になるような態様で動くことが許されない。
一の実施形態では、顔マーカデータポイント群の空間位置をクリーナモジュール620で、所定の顔面モデルに対するマーカの動きを決定することにより、微視的に安定させる。別の実施形態では、微視的安定化は、FACSマトリクスに保存される顔ポーズを使用して、許容範囲から外れた顔マーカデータポイントを調整することにより行なうことができる。
一の実施形態では、フレームシーケンスをクリーナモジュール620で、複数の異なるレート、例えば高レート、中レート、及び低レートでクリーニングする。結果を同じビートの個別の「クリップ」として保存し、この場合、各クリップは固有の処理レートに対応する。次に、フレームのサブセットシーケンスを種々のクリップから選択し、各サブセットは、当該サブセットに撮影される演技の期間中のアクターの動きを最も良く表わす。次に、これらのサブセットシーケンスを合成してマスタークリップを生成し、マスタークリップを使用して顔形態モデルをアニメートする。
一の実施形態では、マスタークリップは、低減されたノイズによって特徴付けられる。例えば、低レート領域での合成を行なうことにより、ゆっくり動く領域における残留ノイズまたは残留ジッタを除去する。
図7は、別の実施形態によるFACSクリーニングシステム700の機能ブロック図である。図7に示す実施形態では、FACSクリーニングシステム700は、キー顔ポーズをFACSマトリクスに追加するように動作することができる。FACSクリーニングシステム700は、フレーム間引きモジュール710と、FACSモジュール720と、クリーナモジュール730と、巨視的安定化モジュール740と、そしてフレーム選択モジュール750と、を含む。
顔の表情を分析した後、分析顔マーカデータフレーム群をフレーム間引きモジュール710が受信する。これらのフレームを、図1を参照しながら上に議論したように、ブロック120で間引きしてキー顔ポーズフレーム群とする。これらのキー顔ポーズは、例えば唇吊り上げ部分、眉毛吊り上げ部分、及び頬膨らませ部分のような種々の表情部分を含む。
アクター用のFACSマトリクスはFACSモジュール720によって保存され、FACSモジュール720は、フレーム間引きモジュール710で分析顔マーカデータから抽出されるキー顔ポーズ群の幾つか、または全てを含む。上に議論したように、FACSマトリクスは制限空間として機能して、一つのマーカデータポイントに関して計算される動きが許容できる動きである場合を判断するルールを定義する。FACSマトリクスはアクターに関して個々に、特定の例示的な顔ポーズの選択に基づいて校正され、演技に際して続いて撮影されるアクターの顔の表情を分類する正確な、厳密な、かつ強固な手段となる。
キー顔ポーズを受信する他に、FACSモジュール720は、フレーム選択モジュール750で生成される更に別のキー顔ポーズを受信する。更に別のキー顔ポーズは、フレーム間引きモジュール710で分析データから生成されるキー顔ポーズと同じようにして処理され、そしてFACSマトリクスに追加される。FACSマトリクスは出力で生成される。
アクターの演技を撮影した顔マーカデータを巨視的に安定させたビートを構成するフレーム群、及びアクターに対応するFACSマトリクスをクリーナモジュール730で受信する。クリーニング済み顔マーカデータは、FACSマトリクスを使用して生成される。クリーナモジュール730の機能は、図6を参照しながら議論したクリーナモジュール620の機能とほぼ同様である。すなわち、顔マーカデータポイント群を分析し、そして所定のルールに照らして許容できない動きを特定する。ギャップの無い、正しくラベル付けされた、かつノイズの無いデータがクリーナモジュール730の出力で生成される。
フレームシーケンスの顔マーカデータを巨視的安定化モジュール740で巨視的に安定させる。顔モーションキャプチャビートが経過している間、アクターの動きには、顔の表情に関連する微妙な動きの他に、並進運動及び回転運動を含む頭部の大きな運動が伴なう可能性がある。一の実施形態では、頭部の大きな運動を除去することにより、並進運動及び回転運動によって変わることがない顔マーカデータが得られ、そしてアクターの顔の表情の微妙な動きを明瞭に表現することができる。従って、顔マーカデータの残りの動きは、ほぼ顔の表情にのみ関連付けられる。
FACSマトリクスによって保存されるキー顔ポーズが顔マーカデータと極めて正確に一致するということがないフレームを求める場合、当該フレームを候補としてフレーム選択モジュール750で選択して、FACSモジュール720において保存されるFACSマトリクスに追加する。一の実施形態では、フレーム群をフレーム選択モジュール750において個々に、かつ手作業で選択する。別の実施形態では、フレーム群を自動的に選択する。更に別の実施形態では、選択フレーム群のリストをフレーム選択モジュール750において保存し、フレーム選択モジュール750から、リストされた選択フレーム群の全て、または一部をFACSモジュール720に供給してFACSマトリクスに追加する。
図9Aは、コンピュータシステム900及びユーザ902を表わす図を示している。ユーザ902はコンピュータシステム900を使用することにより、FACS解決策を実行する。コンピュータシステム800はFACS解決システム990を収容し、そして実行し、FACS解決システム990は、クリーニングされたモーションキャプチャフレームデータを処理する。
図9Bは、FACS解決システム990のホストとなるコンピュータシステム900を示す機能ブロック図である。コントローラ910はプログラマブルプロセッサであり、そしてコンピュータシステム900及び当該システムのコンポーネントの動作を制御する。コントローラ910は命令をメモリ920または埋め込みコントローラメモリ(図示せず)から読み込み、そしてこれらの命令を実行してシステムを制御する。コントローラ機能を実行するために、コントローラ910はFACS解決システム890をソフトウェアシステムとして提供する。別の構成として、このサービスは、コントローラ910内の、またはコンピュータシステム900内の別のコンポーネントとして実装することができる。
メモリ920はデータを一時的に保存して、コンピュータシステム900の他のコンポーネントが使用することができるようにする。一の実施形態では、メモリ920はRAMとして実装される。一の実施形態では、メモリ920は更に、フラッシュメモリ及び/又はROMのような長期メモリまたは永久メモリを含む。
ストレージ930は、コンピュータシステム900の他のコンポーネントが使用することができるようにデータを一時的に、または長期間に渡って保存する、例えばFACS解決システム990が使用するデータを保存する。一の実施形態では、ストレージ930はハードディスクドライブである。
メディア装置940は取り外し可能な媒体を受け入れ、そして挿入媒体に対するデータの読み出し、及び/又は書き込みを行なう。一の実施形態では、メディア装置840は光ディスクドライブである。
ユーザインターフェース950は、ユーザ入力をコンピュータシステム900のユーザから受け入れ、そして情報をユーザに対して提示するコンポーネントを含む。一の実施形態では、ユーザインターフェース950はキーボード、マウス、オーディオスピーカ、及びディスプレイを含む。コントローラ910はユーザからの入力を使用してコンピュータシステム900の動作を調整する。
I/Oインターフェース960は、外部ストレージまたは補助装置(例えば、プリンタまたはPDA)のような該当するI/O装置との接続を行なう一つ以上のI/Oポートを含む。一の実施形態では、I/Oインターフェース960のポートは:USBポート、PCMCIAポート、シリアルポート、及び/又はパラレルポートのようなポートを含む。別の実施形態では、I/Oインターフェース960は、外部デバイスと無線通信する無線インターフェースを含む。
ネットワークインターフェース970は、イーサネット(登録商標)接続をサポートするRJ−45または「Wi−Fi」インターフェース(これに制限されないが、802.11を含む)のような有線及び/又は無線ネットワーク接続を含む。
コンピュータシステム900は、コンピュータシステムでは普通の更に別のハードウェア及びソフトウェア(例えば、電源システム、冷却システム、オペレーティングシステム)を含むが、これらのコンポーネントは図を簡単にするために、図9Bには詳細には示されていない。他の実施形態では、コンピュータシステムの異なる構成を使用することができる(例えば、異なるバスまたはストレージ構成、或いはマルチプロセッサ構成)。
本発明の種々の例示的な実施形態について説明してきた。しかしながら、この技術分野の当業者であれば、更に別の実施形態を用いることもでき、かつ更に別の実施形態が本発明の範囲に含まれることが理解できるであろう。例えば、FACS解決システムについて顔マーカデータに関連する形で概要を説明してきたが、当該システムは、ボディマーカデータのような他のタイプのモーションキャプチャマーカデータに適用することができる。
本発明の種々の例示的な実施形態について説明してきた。しかしながら、この技術分野の当業者であれば、更に別の実施形態を用いることもでき、かつ更に別の実施形態が本発明の範囲に含まれることが理解できるであろう。例えば、FACSクリーニングシステムについて顔マーカデータに関連する形で概要を説明してきたが、当該システムは、ボディマーカデータのような他のタイプのモーションキャプチャマーカデータに適用することができる。この例では、生成されるボディFACSマトリクスを運動範囲(range of motion:ROM)から除外することができる。一の実施形態では、「T−ポーズ」をアクターがビートの始点及び終点で演技して複数の標準の位置を決定し、これらの位置の間で、マーカがトラッキングされる。別の実施形態においては、クリーニングでは、T−ポーズを、ビートを構成するフレーム群の全てに含まれるマーカデータを使用して人工的に生成する。T−ポーズを人工的に生成することにより、アクターが真の中立のT−ポーズの演技に失敗して、結果として得られるアニメーションにずれが生じるという問題を解決する。入力ビートに既に含まれている真のT−ポーズを特定し、そして当該T−ポーズを含むフレームを指定する機能も提供される。真のT−ポーズが特定されない場合、当該T−ポーズを人工的に生成することができる。
更に、モジュール内のまたはブロック内のグルーピング機能は説明を分かり易くするために提示されていることを理解されたい。特定の機能は、一つのモジュールまたはブロックから別のモジュールまたはブロックに、本発明から逸脱しない限り移動させることができる
従って本発明は、上に記載されるこれらの実施形態にのみ限定されることはない。

Claims (24)

  1. 顔マーカデータをクリーニングする方法であって、前記方法は:
    分析顔マーカデータフレーム群を間引きして代表的なキー顔ポーズフレーム群とするステップと、
    顔ポーズマトリクスを、代表的なキー顔ポーズフレーム群を使用して生成するステップと、
    入力顔マーカデータフレーム群を、顔ポーズマトリクスを使用してクリーニングするステップと、
    を含む方法。
  2. 入力顔マーカデータフレーム群をクリーニングする前記ステップは、
    クリーニングルールを有効にするステップを含む、
    請求項1記載の方法。
  3. クリーニングルールでは、
    顔マーカデータポイントが当該ポイント自体で独自に移動することがないように顔マーカデータポイントに制限を加える、
    請求項2記載の方法。
  4. クリーニングルールでは、
    一つの筋肉グループに対応する全ての顔マーカデータポイントが一緒に動くように、これらの顔マーカデータポイントに制限を加える、
    請求項2記載の方法。
  5. 入力顔マーカデータフレーム群をクリーニングする前記ステップは、
    顔マーカデータを安定させるステップを含む、
    請求項1記載の方法。
  6. 入力顔マーカデータフレーム群をクリーニングする前記ステップは、
    顔マーカデータのノイズアーチファクトを除去するステップを含む、
    請求項1記載の方法。
  7. 更に、
    新規の代表的なキー顔ポーズフレーム群を顔ポーズマトリクスに追加するステップを含む、請求項1記載の方法。
  8. 新規の代表的なキー顔ポーズフレーム群を顔ポーズマトリクスに追加する前記ステップは:
    前記入力フレーム群の内、顔ポーズマトリクスのキー顔ポーズが選択フレームの顔マーカデータの空間位置に一致しないような選択フレームを求めるステップと、
    元の顔マーカデータを正規化するステップと、
    選択フレームの顔マーカデータを安定させるステップと、そして
    選択フレームを顔ポーズマトリクスに新規のキー顔ポーズとして追加するステップと、を含む、請求項7記載の方法。
  9. 顔ポーズマトリクスのキー顔ポーズが元の顔マーカデータの空間位置に一致しないフレームを求める前記ステップは自動的に行なわれる、請求項8記載の方法。
  10. 更に、
    求めたフレームを含むリストを自動的に生成するステップを含む、
    請求項9記載の方法。
  11. 安定させる前記ステップでは、顔ポーズマトリクスに含まれるデータ安定化と同じ水準の安定化を達成する、請求項8記載の方法。
  12. 入力顔マーカデータフレーム群をクリーニングする前記ステップは、複数のレートを使用して行なわれる、請求項1記載の方法。
  13. 顔マーカデータクリーニングシステムであって、前記システムは:
    分析顔マーカデータフレーム群を受信し、そして代表的なキー顔ポーズフレーム群を生成するフレーム間引きモジュールと、
    代表的なキー顔ポーズフレーム群を受信し、そして顔ポーズマトリクスを生成するFACSモジュールと、そして
    入力顔マーカデータフレーム群を受信し、そして顔ポーズマトリクスを使用してクリーニング済み顔マーカデータフレーム群を生成するクリーナモジュールと、
    を備える顔マーカデータクリーニングシステム。
  14. 前記クリーナモジュールは、顔マーカデータポイントが当該ポイント自体で独自に移動することがないように顔マーカデータポイントに制限を加えるように動作する、請求項13記載のシステム。
  15. 前記クリーナモジュールは、一つの筋肉グループの全てのマーカが一緒に動くように、これらのマーカに制限を加えるように動作する、請求項13記載のシステム。
  16. 更に、
    顔マーカデータビートを受信し、そして巨視的に安定させた顔マーカデータのフレーム群を生成する巨視的安定化モジュールを備える、請求項13記載のシステム。
  17. 前記クリーナモジュールは、巨視的に安定させた顔マーカデータのフレーム群を微視的に安定させるように動作する、請求項16記載のシステム。
  18. 更に、
    クリーニング済み顔マーカデータフレーム群を受信し、そして追加のキー顔ポーズを含む選択フレーム群を生成するフレームセレクタモジュールを備える、請求項13記載のシステム。
  19. 前記フレームセレクタモジュールは、追加のキー顔ポーズを含むフレーム群を自動的に選択し、そして選択フレーム群のリストを生成する、請求項18記載のシステム。
  20. 前記FACSモジュールは、追加のキー顔ポーズを含む選択フレーム群を受信し、そして追加のキー顔ポーズをFACSマトリクスに追加する、請求項18記載のシステム。
  21. 前記クリーナモジュールは更に、クリーニング済みフレームシーケンスの複数のクリップを生成し、各クリップは異なる処理レートを有する、請求項13記載のシステム。
  22. 複数のクリップから選択されるクリップ群を合成することによりマスタークリップを生成する、請求項21記載のシステム。
  23. 顔マーカデータをクリーニングする装置であって、前記装置は:
    分析顔マーカデータフレーム群を間引きして代表的なキー顔ポーズフレーム群とする手段と、
    顔ポーズマトリクスを、代表的なキー顔ポーズフレーム群を使用して生成する手段と、そして
    入力顔マーカデータフレーム群を、顔ポーズマトリクスを使用してクリーニングする手段と、
    を備える装置。
  24. コンピュータ読み取り可能な記憶媒体に格納されて顔マーカデータをクリーニングするコンピュータプログラムであって、プログラムは実行可能な命令を含み、実行可能な命令によってコンピュータは:
    分析顔マーカデータフレーム群を間引きして代表的なキー顔ポーズフレーム群とし、
    顔ポーズマトリクスを、代表的なキー顔ポーズフレーム群を使用して生成し、そして
    入力顔マーカデータフレーム群を、顔ポーズマトリクスを使用してクリーニングする、
    コンピュータプログラム。
JP2009522030A 2006-07-28 2007-07-30 モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング Expired - Fee Related JP5109191B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US83413206P 2006-07-28 2006-07-28
US60/834,132 2006-07-28
US11/829,711 US7961947B2 (en) 2006-07-28 2007-07-27 FACS cleaning in motion capture
US11/829,711 2007-07-27
PCT/US2007/074744 WO2008014512A2 (en) 2006-07-28 2007-07-30 Facs cleaning in motion capture

Publications (2)

Publication Number Publication Date
JP2009545083A true JP2009545083A (ja) 2009-12-17
JP5109191B2 JP5109191B2 (ja) 2012-12-26

Family

ID=38982428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009522030A Expired - Fee Related JP5109191B2 (ja) 2006-07-28 2007-07-30 モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング

Country Status (5)

Country Link
US (1) US7961947B2 (ja)
EP (1) EP2047406B1 (ja)
JP (1) JP5109191B2 (ja)
CN (1) CN101512554B (ja)
WO (1) WO2008014512A2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US9390516B2 (en) * 2008-09-29 2016-07-12 Two Pic Mc Llc Asynchronous streaming of data for validation
US8289443B2 (en) * 2008-09-29 2012-10-16 Two Pic Mc Llc Mounting and bracket for an actor-mounted motion capture camera system
US9325972B2 (en) 2008-09-29 2016-04-26 Two Pic Mc Llc Actor-mounted motion capture camera
US8334872B2 (en) * 2009-05-29 2012-12-18 Two Pic Mc Llc Inverse kinematics for motion-capture characters
US8736616B2 (en) * 2009-09-15 2014-05-27 Sony Corporation Combining multi-sensory inputs for digital animation
US8842933B2 (en) * 2009-11-10 2014-09-23 Sony Corporation Facial motion capture using marker patterns that accommodate facial surface
US10812693B2 (en) 2017-10-20 2020-10-20 Lucasfilm Entertainment Company Ltd. Systems and methods for motion capture
JP7396482B2 (ja) * 2020-06-09 2023-12-12 富士通株式会社 判定プログラム、判定装置、および判定方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6020892A (en) * 1995-04-17 2000-02-01 Dillon; Kelly Process for producing and controlling animated facial representations
WO2005024728A1 (ja) * 2003-09-03 2005-03-17 Nec Corporation 形態変形装置、物体動作符号化装置および物体動作復号化装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2227361A1 (en) * 1998-01-19 1999-07-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of expressions
JPH11249636A (ja) * 1998-03-05 1999-09-17 Fujitsu Ltd 表情画像再生装置及び表情画像再生方法
WO1999053443A1 (en) * 1998-04-13 1999-10-21 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
US7068277B2 (en) * 2003-03-13 2006-06-27 Sony Corporation System and method for animating a digital facial model
US7239321B2 (en) 2003-08-26 2007-07-03 Speech Graphics, Inc. Static and dynamic 3-D human face reconstruction
US7554549B2 (en) * 2004-10-01 2009-06-30 Sony Corporation System and method for tracking facial muscle and eye motion for computer graphics animation
WO2006062908A2 (en) * 2004-12-09 2006-06-15 Image Metrics Limited Optical motion capturing with fill-in of missing marker points using a human model derived from principal component analysis

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6020892A (en) * 1995-04-17 2000-02-01 Dillon; Kelly Process for producing and controlling animated facial representations
WO2005024728A1 (ja) * 2003-09-03 2005-03-17 Nec Corporation 形態変形装置、物体動作符号化装置および物体動作復号化装置

Also Published As

Publication number Publication date
EP2047406A4 (en) 2010-02-24
EP2047406B1 (en) 2014-04-09
JP5109191B2 (ja) 2012-12-26
WO2008014512A3 (en) 2008-08-14
CN101512554B (zh) 2013-01-09
CN101512554A (zh) 2009-08-19
EP2047406A2 (en) 2009-04-15
WO2008014512A2 (en) 2008-01-31
US20080025569A1 (en) 2008-01-31
US7961947B2 (en) 2011-06-14

Similar Documents

Publication Publication Date Title
JP5109191B2 (ja) モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング
US9460539B2 (en) Data compression for real-time streaming of deformable 3D models for 3D animation
JP4335449B2 (ja) 表情の3dジオメトリ、色、およびシェーディングを取り込んで表すための方法およびシステム
CN112700523B (zh) 虚拟对象面部动画生成方法及装置、存储介质、终端
Bao et al. High-fidelity 3d digital human head creation from rgb-d selfies
JP4886645B2 (ja) 仮想顔モデル変形装置及び仮想顔モデル変形プログラム
US8736616B2 (en) Combining multi-sensory inputs for digital animation
EP1405272A1 (en) Method and apparatus for interleaving a user image in an original image
US11055892B1 (en) Systems and methods for generating a skull surface for computer animation
JP5109192B2 (ja) モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法
US20070146368A1 (en) Eye movement data replacement in motion capture
US11823400B2 (en) Image processing apparatus, image processing method and storage medium
US20220245885A1 (en) Volumetric Imaging
Borshukov et al. Playable universal capture: compression and real-time sequencing of image-based facial animation
US11783493B2 (en) Obtaining high resolution and dense reconstruction of face from sparse facial markers
US20230154094A1 (en) Systems and Methods for Computer Animation of an Artificial Character Using Facial Poses From a Live Actor
WO2022072372A1 (en) Additional developments to the automatic rig creation process
Sidorov et al. Towards efficient 3D facial appearance models
Root et al. Performance and Motion Capture
Lewis Siggraph 2005 course notes-Digital Face Cloning Audience Perception of Clone Realism

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100616

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120220

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120321

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120417

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120423

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120820

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120919

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5109191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees