JP2009545084A - モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法 - Google Patents

モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法 Download PDF

Info

Publication number
JP2009545084A
JP2009545084A JP2009522031A JP2009522031A JP2009545084A JP 2009545084 A JP2009545084 A JP 2009545084A JP 2009522031 A JP2009522031 A JP 2009522031A JP 2009522031 A JP2009522031 A JP 2009522031A JP 2009545084 A JP2009545084 A JP 2009545084A
Authority
JP
Japan
Prior art keywords
facial
skin layer
frame
data point
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009522031A
Other languages
English (en)
Other versions
JP5109192B2 (ja
Inventor
ゴードン,デミアン
ハヴァルダル,パラーグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/829,731 external-priority patent/US7733346B2/en
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2009545084A publication Critical patent/JP2009545084A/ja
Application granted granted Critical
Publication of JP5109192B2 publication Critical patent/JP5109192B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

方法は:顔筋肉活動を顔マーカデータに基づいて生成するステップと;コンピュータグラフィックス顔形態モデルを、顔筋肉活動を使用してアニメートするステップと; コンピュータグラフィックス顔形態モデルに重ね合わせる皮膚レイヤを生成するステップと;そして皮膚レイヤを、顔マーカデータを使用してアニメートするステップと、を含む。

Description

本出願は、第35編米国法典119条に基づいて、2006年7月28日出願の同時係属中の「モーションキャプチャにおけるFACS(顔の表情符号化システム)解決法」と題する米国仮特許出願第60/834,298号に関する優先権の利益を主張するものであり、当該仮特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる。
本出願は更に、本出願と同じ譲受人に譲渡され、かつ2003年5月23日出願の「デジタル顔形態モデルをアニメートするシステム及び方法」と題する米国特許第7,068,277号;2003年5月1日出願の「顔及びボディの動きを撮影するシステム及び方法」と題する米国特許出願第10/427,114号;2007年4月24日出願の「演技から作り出される顔アニメーション」と題する米国特許出願第11/739,448号;及び2006年7月28日出願の「モーションキャプチャにおけるFACS(顔の表情符号化システム)クリーニング」と題する米国仮特許出願第60/834,132号の開示内容を参照することにより組み込む。
本発明は概して、モーションキャプチャ(motion capture)に関するものであり、特にデジタル顔形態モデルに重ね合わせる皮膚レイヤをアニメートする方法及びシステムに関するものである。
モーションキャプチャシステムを使用して実際のオブジェクトの動きを撮影し、そしてこの動きをアニメートする方法として、この動きをコンピュータにより表現されるオブジェクトにマッピングする。このようなシステムは多くの場合、動画及びビデオゲームの作成に使用されてオブジェクトまたは人のデジタル表示を行ない、このデジタル表示をソースデータとして使用して、コンピュータグラフィックス(CG)アニメーションを作成する。通常のシステムでは、アクターが、マーカを種々の位置に取り付けた(例えば、小さな光反射マーカをボディ(体)及び四肢に取り付けた)衣服を纏う。次に、正確な場所に配置されるデジタルカメラ群がアクターのボディの動きを撮影空間において異なるアングルから、マーカを照明しながら記録する。システムは後の時点で、画像を分析してアクターの衣服に取り付けられたマーカの位置(例えば、空間座標)及び向きを各フレームで求める。これらのマーカの位置をトラッキングすることにより、システムはこれらのマーカに関する時間軸を考慮した空間表示を行ない、そして動いているアクターのデジタル表示を構築する。次に、この動きをデジタルモデルに仮想空間において適用し、次にこのデジタルモデルで質感を表現し、そしてモデルをレンダリングして、アクター及び/又は演技の完全なCG表示を構築することができる。この技法は、リアルなアニメーションを多くの人気のある映画に収めるために特殊効果会社によって使用されている。
アクターの顔の表情を表わす動きを撮影するためには、ボディの動きを撮影する操作と同様のアプローチを必要とする。しかしながら、アクターが「衣服」を彼または彼女の顔に纏うことは現実的ではない。更に、ヒトの顔の表情は、通常のボディの動きよりもずっと動きが速い顔筋肉の動きを含む。顔の動きを撮影する場合、マーカ群はアクターの顔に直接取り付けるのではなく、普通、顔の動きを最適に定義するために配置される。これらのマーカは更に、動きの速い多くの種類の顔筋肉の動きを撮影するために十分な数だけ取り付けられる。しかしながら、非常に多くのマーカ、及びこれらのマーカの近傍部分によって、撮影後のフレーム毎のマーカトラッキングが困難になり、そして各個々のマーカに対する正確なトラッキングを確実に行なうために膨大な手作業処理が必要になる。
これらのデータをクリーニングしてトラッキングの難しさを大幅に軽減する。しかしながら、更に別の問題が、デジタル顔形態モデルをアニメートするために使用される撮影済みの顔マーカデータも、良好にデジタル顔形態モデルに空間的に一致することがない場合に生じることが多い。キャラクターの皮膚は多くの場合、結果として得られる顔アニメーションの中で不連続な動きになる。
本発明の実施形態は、デジタル顔形態モデルの皮膚レイヤを生成し、そしてアニメートする技術を用いるシステム、方法、装置、及びコンピュータプログラムを含む。
一の態様では、本方法は:顔筋肉活動を顔マーカデータに基づいて生成するステップと;コンピュータグラフィックス顔形態モデルを、顔筋肉活動を使用してアニメートするステップと;コンピュータグラフィックス顔形態モデルに重ね合わせる皮膚レイヤを生成するステップと;そして皮膚レイヤを、顔マーカデータを使用してアニメートするステップと、を含む。
別の態様では、本システムは:顔マーカデータを受信し、そして顔筋肉グループ活動を生成する顔筋肉活動モジュールと;顔筋肉グループ活動を受信し、そして活動顔形態モデルを生成するアニメーションモジュールと;そして活動顔形態モデル及び顔マーカデータを受信し、そしてアニメートされ、かつ皮膚レイヤ化された顔形態モデルを生成する皮膚レイヤモジュールと、を備える。
本発明の他の特徴及び利点は、この技術分野の当業者であれば、次の詳細な記述、及び添付の図面を吟味することにより一層容易に理解できるものと思われる。
本発明の構造及び動作の両方に関する本発明の詳細は、添付の図面を分析することにより部分的に調査することができ、これらの図面では、同様の参照番号は同様の構成要素を指す。
顔モーションキャプチャシステムの機能ブロック図である。 一の実施形態によるデジタル顔形態モデルをアニメートする方法を示すフローチャートである。 一の実施形態によるFACSマトリクスを初期化する方法を示すフローチャートである。 一の実施形態による顔マーカデータをクリーニングする方法を示すフローチャートである。 一の実施形態による顔筋肉活動を顔マーカデータに基づいて生成する方法を示すフローチャートである。 本発明の一の実施形態によるデジタル顔形態モデルをアニメートするシステムの機能ブロック図である。 アニメートされた皮膚レイヤを生成する皮膚レイヤモジュールの機能ブロック図である。 ユーザ及びコンピュータシステムを表わす図を示している。 FACS解決システムのホストとなるコンピュータシステムを示す機能ブロック図である。
本明細書に開示される所定の実施形態は、デジタル顔形態モデルの皮膚レイヤを生成し、そしてアニメートするシステム及び方法を実現する。例えば、本明細書に開示される一の方法によって、顔筋肉活動を顔マーカデータに基づいて生成し;コンピュータグラフィックス顔形態モデルを顔筋肉活動を使用してアニメートし;コンピュータグラフィックス顔形態モデルに重ね合わせる皮膚レイヤを生成し;そして皮膚レイヤを顔マーカデータを使用してアニメートすることが可能になる。
皮膚レイヤをアニメートする操作では、顔マーカデータポイントを皮膚レイヤの該当する領域に関連付け、そして皮膚レイヤの該当する領域を移動させる。皮膚レイヤの当該領域の移動は:(1)顔マーカデータポイントの空間位置と別のフレームの時間軸上で関連付けられたデータポイントの空間位置との間の変位に対応し;そして移動させる操作では、(2)この変位を皮膚の当該領域の上の所定位置に加える。
この記述を一読した後、この技術分野の当業者であれば、どのようにして本発明を種々の別の実施形態及び別の用途において実施すればよいかが理解できるであろう。しかしながら、本発明の種々の実施形態が本明細書において記載されるが、これらの実施形態は例示としてのみ提示されるのであり、本発明を制限するために提示されるのではないことを理解されたい。従って、種々の別の実施形態についてのこの詳細な記述は、添付の請求項に示される本発明の範囲または広さを制限するものとして捉えられるべきではない。
顔の表情符号化システム(Facial Action Coding System:FACS)は、ヒトの顔の表情を体系的に分類する標準的な分類法を提供する。種々の顔の表情を表わす顔の動きデータは、図1に示すシステムのような顔モーションキャプチャシステムを使用して撮影され、そして次に、FACSに従って分類することができる。トラッキングエラーによって異常が、ラベル付けされたマーカデータの軌跡に生じるので、データが分類には適さなくなる。
FACSクリーニングシステムの実施形態は、種々のトラッキングエラーを除去し、そして撮影マーカデータの安定性を仮想空間において高めるシステム及び方法を含む。FACS、FACSクリーニングシステム(2006年7月28日出願の「モーションキャプチャにおけるFACSクリーニング」と題する米国仮特許出願第60/834,132号に詳細に記載されている)、演技から作り出される或るタイプの顔アニメーション(2007年4月24日出願の「演技から作り出される顔アニメーション」と題する米国特許出願第11/739,448号に詳細に記載されている)、及び顔マーカデータを利用して、アニメートされた皮膚を有するアニメートされたデジタル顔形態モデルが生成される。
本発明の一の実施形態では、クリーンデータを受信し、そしてFACSマトリクスで処理する。すなわち、「クリーニングされた」データは、時間マーカギャップ、誤ラベル付けマーカ、及びノイズがほとんど無い。FACSマトリクスは、複数の顔ポーズを保存(maintain)するFACSの一の形態である。FACSマトリクスの各顔ポーズは、特定のアクターが演じる大きく異なるタイプのポーズを表わす。次に、FACSマトリクスを顔マーカデータと一緒にここでも同じように使用して、どの筋肉グループが、顔マーカデータに撮影されている特定のポーズによって活動しているかについて判断する。筋肉グループ活動を使用して、CGキャラクターのデジタル顔形態モデルを当該活動に従ってアニメートする。
モデル製作者は多くの場合、デジタル顔形態モデルの顔形状を作成して、各アクターが演じ、かつFACSマトリクスに保存されるポーズに一致させる。顔形状は、FACSマトリクスを使用して生成される顔筋肉グループ活動によって変化する。これにより、デジタル顔形態モデルのアニメーションが得られる。
アニメーションによって、デジタル顔形態モデルの皮膚に、皮膚の境界のような不連続が生じることがあるが、これは、デジタル顔形態モデルで取らせる種々のポーズがオン/オフの態様で始まり、そして終わるからである。すなわち、デジタル顔形態モデルの皮膚は、FACSマトリクスと連動する顔マーカデータによって直接影響を受ける、ということがない。直接影響を受けるのではなく、顔マーカデータを使用することにより、モデル製作者が作成する種々の顔形状の変化を操作する。
皮膚に結果として生じる不連続を無くすために、演技から作り出される顔アニメーションに或る態様において類似する更に別のスキンアニメーション技法(「ダイレクトドライブ(direct drive)」方式と表記されることがある)を、デジタル顔形態モデルの内、顔筋肉グループを操作することにより既にアニメートされている最上層レイヤに適用する。デジタル顔形態モデルの顔面皮膚と顔マーカデータとの間の直接対応付け(direct correspondence)を行なう。顔マーカデータポイント群が動くと、これらのポイントには皮膚レイヤも直接覆い被さる。この皮膚レイヤは、デジタル顔形態モデルに個別レイヤとして重ね合わせ、そしてこの皮膚レイヤを使用して種々の効果を実現することができる。例えば、アクターの顔の皮膚の自然な揺れは、アニメートされる該当するキャラクターの顔の上では小さくすることができる、または別の方法として、ただ単に過剰に大きくすることにより、効果を誇張することができる。従って、筋肉グループをFACSマトリクスを利用して活動させ、続いて皮膚レイヤの動きを顔マーカデータで操作することにより、アニメーションを従来の意味で(キャラクターはモデルから外れることがない)制御することができるだけでなく、皮膚を、この皮膚を撮影したときのアクターの顔に現われていた皮膚のように動的に動かすことができる。
図1は、顔モーションキャプチャシステム100の機能ブロック図であり、顔モーションキャプチャシステム100は、モーションキャプチャプロセッサ110と、モーションキャプチャカメラ120,122,124と、ユーザワークステーション130と、そして複数の顔マーカ150を取り付けたアクターの顔140と、を含む。モーションキャプチャプロセッサ110はワークステーション130に有線または無線によって接続することができる。モーションキャプチャプロセッサ110は通常、制御データパケットをワークステーション130から受信するように構成される。
図1に示す実施形態では、3台のモーションキャプチャカメラ120,122,124がモーションキャプチャプロセッサモジュール110に接続される。しかしながら、3台よりも多い、または少ないモーションキャプチャカメラを種々のユーザ関連要件及びアニメーション関連要件に従って使用することができる。モーションキャプチャカメラ120,122,124はアクターの顔80に焦点を合わせ、顔の表面には、球形顔マーカ150が特定のターゲットポイントに配置されている。これらの顔マーカ150は、アクターの顔140の特定の位置に配置されているものとして示されるが、顔マーカ150は、特定の顔筋肉グループの撮影、またはアクターの顔140の他の定義領域の撮影を最適化するように配置される場合が多い。
モーションキャプチャカメラ120,122,124はモーションキャプチャプロセッサ110によって制御され、そしてこれらのカメラはフレーム毎に、マーカの2次元(「2D」)画像を撮影する。このようにして撮影される画像データは通常、ユーザワークステーション130にリアルタイムに保存し、そして/またはユーザワークステーション130で閲覧することができる。モーションキャプチャカメラ120,122,124の各カメラによって取得される2D画像データのフレーム群は、撮影空間におけるモーションキャプチャカメラ120,122,124の空間位置を三角測量することにより統合される。この統合プロセスは「再構成(reconstruction)」と呼ばれ、そしてボリューム顔マーカデータのフレーム群は出力で生成される。フレーム中の各顔マーカデータポイントは該当する一つの空間位置を含み、そしてボリューム顔マーカデータのフレーム群は一つの時間シーケンスを構成し、この時間シーケンスはほぼ、ボリュームの3次元(「3D」)サンプル群から成り、このボリュームの中で、アクターの顔の動きが演技中に撮影されている。
再構成ボリューム顔マーカデータのフレームシーケンスは「ビート(beat)」と表記され、ビートは普通、「テイク(take)」を表わし、このテイクの間に、アクターの演技が撮影される。モーションキャプチャプロセッサ110は、ビートのトラッキング機能を実行する。トラッキングを行なうことにより、ビートにおいて、各フレームの顔マーカ群を、シーケンスにおいて当該各フレームに先行する、そして当該各フレームの後に続く他のフレーム群の該当する顔マーカ群に正確に関連付ける。固有ラベルを各顔マーカデータポイントに割り当て、そしてビートの長さ全体に亘ってトラッキングすることにより、各顔マーカデータポイントに対応する軌跡のトレースが可能になる。一旦、時間軸上の関連付けが完了すると、結果として得られる顔マーカデータは各フレーム内に仮想空間の頂点座標系を含み、各頂点は一つのラベル付けされたマーカによって表わされる。頂点座標系は、アクターの顔140を表わすモデル化表面を含む。
特定フレーム内の特定の顔マーカ150を表わす顔マーカデータポイントを、次のフレーム内の特定マーカ150を表わす顔マーカデータポイントに時間軸上で関連付けようとする。特定の顔マーカ150を表わす顔マーカデータポイント群を時間軸上で正しく関連付けることにより、特定マーカ150の動きを表わすスムーズな関連性のある軌跡が生成される。しかしながら、トラッキングエラーが発生してしまう。
トラッキングエラーでは普通、一のフレームの顔マーカデータポイントを次のフレームの顔マーカデータポイントに不正に関連付けることにより通常、明らかな「急激な変化(jerk)」が顔マーカ150の分解軌跡の動きに生じる。エラーでは更に、顔マーカ150が継続的にフレームシーケンス全体で誤ラベル付けされると、反復痙攣として現われる。エラーの他の例として、精度の低い三角測量、オブジェクトの視認性の悪いビューの再構成、及び2つの軸では正しいが、第3の軸では不正になる計算「ゴースト」を挙げることができる。
図2は、一の実施形態によるデジタル顔形態モデルをアニメートする方法200を示すフローチャートである。図示の実施形態では、FACSマトリクスをブロック210で初期化する。初期化では基本的に、FACS活動単位をFACSマトリクスの中で定義し、そしてアクターに関連付けられるポーズを校正し、そして初期化については、図3を参照しながら以下に詳細に説明する。
顔マーカデータをブロック220で受信する。顔マーカデータはボリュームデータのフレームシーケンスを含み、各フレームは、複数の顔マーカデータポイントを含み、そして各顔マーカデータポイントは一つの空間位置を含む。上に議論したように、トラッキングプロセスでは、各顔マーカデータポイントを、フレームシーケンスの少なくとも一つの他のフレームの顔マーカデータポイントに時間軸上で、かつ確実に関連付けている。通常、各顔マーカデータポイントをフレームシーケンスの複数の他のフレームの顔マーカデータポイントに時間軸上で関連付けて、軌跡を当該シーケンス内で定義されるボリュームを利用して形成する。
ブロック230では、顔マーカデータをクリーニングして時間軸上のギャップ、顔マーカデータポイントの誤ラベル付け、及びノイズに関するデータを除去する。時間軸上のギャップは、フレーム中の一つ以上の顔マーカデータポイントに対するラベル付けが失敗して、例えばシーケンス内の隣接するフレームの正しくラベル付けされたポイントの間に「ギャップ」が発生すると生じる。或る場合には、フレーム中の一つ以上のポイントが誤ラベル付けされることにより、これらのポイントが、隣接するフレームのポイントに不正に時間軸上で関連付けられる。このようにして、不連続が、フレームシーケンスの隣接する他のフレーム中の不正にラベル付けされたポイントの軌跡に生じる。ノイズは、小さなエラーが画像取得中及び/又は再構成中に生じて、例えば顔マーカデータポイントの分解空間位置が、当該ポイントの真の空間位置からわずかに変位することによって顔マーカデータに混入し得る。一の実施形態では、クリーニングは、図4のフローチャートに示される方法400に従って行なわれる。
ブロック240では、顔筋肉活動が顔マーカデータに基づいて生成される。顔筋肉活動の生成では基本的に:顔マーカデータを近似する活動単位の重み付け合成を特徴付ける重みを決定し;そして重み付けされた活動を生成する。顔筋肉活動の生成について、図5を参照しながら以下に更に詳細に説明する。
コンピュータグラフィックス(CG)顔形態モデルをブロック250で、顔筋肉活動を使用してアニメートする。一の実施形態では、CG顔形態モデルは、アーティストまたはアニメータが「リギング」した(組み立てた)デジタル顔形態モデルである。デジタル顔形態モデルのリギングでは、種々の筋膜レイヤ(fascia layers:筋膜層)を設定し、これらの筋膜レイヤをブレンドすることにより、最終的な顔の変形をデジタル顔形態モデルに生じさせる。これらの筋膜レイヤは一の実施形態では、顔筋肉変形を可能にする筋肉レイヤ(muscle layer)、顎の動きを可能にする顎レイヤ(jaw layer)、種々の顔領域の皮膚の膨らみを制御するボリュームレイヤ(volume layer)、及び唇の動きを明らかにする開度レイヤ(articulation layer)を含む。
筋肉レイヤは、顔を変形させる筋肉制御を行なう頭蓋縫合部(skull patches)を含む。筋肉制御は、モーションキャプチャデータから生成される重み付けされた活動によって行なわれる。顎レイヤは、デジタル顔形態モデルの顎の動きを制御し易くする。ボリュームレイヤは膨らみを、デジタル顔形態モデルに生じる変形に付加する。従って、ボリュームレイヤは、皺及び他の顔変形のモデル化を容易にし、モデル化は、モーションキャプチャデータから生成される重み付けされた活動によって行なうことができる。開度レイヤは、唇が変形するときの唇の形状に関与する。詳細には、開度レイヤは唇の起伏及び膨らみを制御し易くし、この処理は、唇を顔の表情の中で薄く広げる、またはすぼめるときに必須となる。顔マーカデータはデジタル顔形態モデルに、種々の筋膜レイヤを起動する重み付けされた活動として、マッピングされる、またはリターゲットされる。すなわち、重みによって、一つ以上の所定のポーズの各ポーズが、筋膜レイヤを起動する際に及ぼす影響を重みに比例する形で定量化する。
しかしながら、或る場合には、筋膜レイヤを上に議論したように、重み付けされた活動で起動することにより、不所望のセグメンテーション効果がCG顔形態モデルの表面に現われる。すなわち、起動される種々の筋肉グループがこれらのグループの隙間で不連続を示す。CG顔形態モデルに別の皮膚レイヤを重ね合わせることにより、隙間の不連続をスムーズにし、そしてアーティストまたはアニメータが、結果として得られる顔アニメーションの見栄えを制御することができるときに利用する別の手段を提供することができる。
従って、CG顔形態モデルに重ね合わせる皮膚レイヤをブロック260で生成する。一の実施形態では、この皮膚レイヤは、上に議論した4つの筋膜レイヤとは別の要素として生成される。皮膚レイヤは、CG顔形態モデルの外側表面を忠実になぞる。皮膚レイヤには種々の視覚属性を持たせることができ、これらの属性として、例えば色、質感、透明度、毛髪、及び/又は産毛(fur:うぶげ)を挙げることができる。皮膚レイヤには更に種々の肉体的属性を持たせることができ、これらの属性として、例えば弾性、厚み、色、及びきめの細かさを挙げることができる。別の実施形態では、皮膚レイヤを複数の領域に区切り、各領域が一つの顔マーカデータポイントに対応するようにする。
次に、ブロック270で、皮膚レイヤを顔マーカデータを使用してアニメートする。一の実施形態では、フレームシーケンス全体の各顔マーカデータポイントの軌跡として表現されるアクターの各顔マーカの動きが皮膚レイヤの該当する領域に反映される。すなわち、フレーム毎の空間変位(すなわち、空間位置の変化)を示す各顔マーカデータポイントによって、該当する変位が皮膚レイヤの該当する領域に加えられる。一の実施形態では、このようにして皮膚レイヤの領域に加えられる変位は皮膚の上での「引っ張り」に類似する。アクターの演技によって変わるが、顔マーカデータポイント群の全てが、特定の時点で動く訳ではないことを理解されたい。
一の実施形態では、各顔マーカデータポイントの変位は、皮膚レイヤの該当する領域に対して所定の位置に加えられる。一の例では、変位は各領域の質量中心に、当該レイヤのきめ細かさを決める値に従って加えられる。別の実施形態では、各顔マーカデータポイントの変位を、該当する領域全体に微小面分布関数(surface spreading function)に従って分布させる。例えば、顔マーカの変位は、該当する領域全体に均一に加えられる。別の例では、顔マーカの変位は、該当する領域の中心に加えられ、かつ領域全体にガウス分布に従って分布する。
別の実施形態では、各顔マーカデータポイントの変位を修正する。修正の例として、これらには制限されないが、変位を拡大縮小する、そして/または変位の方向を線形関数及び非線形関数に従って変化させる。別の実施形態では、顔マーカデータポイントの変位を該当する領域全体に、当該領域に関連付けられる弾性関数に従って分布させる。別の実施形態では、顔マーカデータポイントの変位を該当する領域全体に、当該領域に関連付けられる厚さ関数に従って分布させる。別の実施形態では、顔マーカデータポイントの変位を該当する領域全体に、当該領域に関連付けられる密度関数に従って分布させる。
図3は、一の実施形態によるFACSマトリクスを初期化する方法210を示すフローチャートである。
FACS(顔の表情符号化システム)によれば、ヒトの顔は筋肉を有し、筋肉は「活動単位(action units)」と呼ばれるグループ単位で連動して働く。FACSは、所定の活動単位が稼働する時点、及び各活動単位に、所定の顔ポーズに対する相対的な影響度を割り当てる方法を決定するフレームワークを提供する。顔の表情は複数の異なる活動単位に分類される。各活動単位によって筋肉の動作(「活動(activation)」)を定義し、筋肉の動作によって瞬時変化が顔の外見に現われる。顔の外見におけるこれらの変化は人ごとに、顔の解剖学的構造、例えば骨格構造、脂肪性沈着物、皺(しわ)、種々の顔の部位の形状、及び関連する他の顔の外見によって変わる。しかしながら、これらの活動単位が稼働すると、或る共通性を人々の間に見出すことができる。FACSにおいて使用される活動単位は、顔の動作の顔の位置、及び関与する顔の動作の種類を利用する。例えば、顔上部は、眉毛、前額部、及び瞼に影響する筋肉を持ち、口及び唇の周りの下部の筋肉は別のグループを形成する。これらの筋肉の各筋肉はグループ単位で働いて活動単位を構成し、そしてこれらの活動単位を更に、顔の左右領域に細かく分割し、これらの左右領域の活動単位は非対称に、かつ互いに独立して稼働することができる。
ブロック300では、活動単位をFACSマトリクスに関して定義する。一の実施形態では、FACSマトリクスは64個の活動単位を含み、各活動単位は一つの特定の顔の表情を表わし、そして一緒に働くことによって顔の表情を生成する顔筋肉活動グループを定義する。活動単位を更に細かく分割して顔の左側及び右側を表現し、これらの左右両側を用いて、非対称の顔ポーズが表現される。
FACSマトリクスの活動単位をブロック310で校正する。一の実施形態では、各アクターは独自の個人化されたFACSマトリクスを有する。アクターのFACSマトリクスによって保存される各活動単位は、活動単位に対応するポーズを取るアクターの演技の動きを撮影することにより校正される。顔マーカデータを上述のように撮影し、FACSクリーニングし、そして特定の活動単位に対応するFACSマトリクスに割り当てる。別の実施形態では、アクターは各ポーズを極端な仕草で演技して、ポーズまたは同様のポーズがビート中に演技されるときの顔マーカ偏位の予測限界を設定する。
図4は、一の実施形態による顔マーカデータをクリーニングする方法230を示すフローチャートである。
フレームシーケンスの顔マーカデータをブロック400で、巨視的に安定させる。顔モーションキャプチャビートが経過している間、アクターの動きには、顔の表情に関連する更に微妙な動きの他に、並進運動及び回転運動を含む頭部の巨視的な非常に大きな運動が伴なう可能性がある。一の実施形態では、頭部の巨視的な運動を除去して、アクターの顔の表情の微妙な動きを一層明瞭に表現することにより、並進運動及び回転運動によって変わることがない顔マーカデータが得られる。例えば、第1フレームの顔マーカデータを特定する。フレームシーケンスにおける他のフレームの顔マーカデータを第1フレームの顔マーカデータと、アクターの顔の2つ以上の所定の剛性ポイントに従って整合させる。このような剛性ポイントは、例えば頭部、耳、及び鼻梁に取り付けられるマーカに対応する顔マーカデータポイントを含む。一般的に、剛性ポイント群は、これらのポイントがアクターの顔の表情に連動して変化することがない上に更に、モーションキャプチャ演技空間におけるアクターの肉体的運動を捕捉するように選択される。空間座標系は、フレームシーケンスに関して剛性ポイントに従って定義される。従って、顔マーカデータの残りの動きは、ほぼ顔の表情にのみ関連付けられ、そしてそれに応じて、当該空間座標系で定義される。
不良顔マーカデータポイントをブロック410で、FACSマトリクスの空間において修正する。一の実施形態では、アクターの演技のフレームをFACSマトリクスのFACSポーズ群(すなわち、活動単位群)の全てから成る空間において分析する。従って、FACSポーズ群は、空間データポイント群によって定義される顔基本ベクトル群と見なすことができる。各顔基本ベクトルに対応する重みを入力フレームに関して計算して、重み付け合成されたFACSポーズ(すなわち、顔基本ベクトル)が入力フレームの新規ポーズを近似するようにする。次に、新規ポーズの顔マーカデータポイントを重み付け合成されたFACSポーズと比較して、顔マーカデータポイントが喪失しているかどうか、誤ラベル付けされているかどうか、または顔マーカデータポイントのノイズが許容できないほどに大きいかどうかを判断する。このような不良顔マーカデータポイント群を全て、入力フレームにおいて、重み付け合成されたFACSポーズから得られる適切なデータポイント群に置き換える。
ブロック420では、顔マーカデータポイント群に、これらのポイント自体が独自に動くことがないように制限を加える。この制限は一般的に、単一の特定の顔マーカデータポイントが隣接する顔マーカデータポイントとは大幅に異なる態様で動く確率が低いので加えることができ、従って単一の顔マーカデータポイントによる独自の動きは通常、データポイントが使えないことを示唆する。一旦、判断が行なわれると、データポイントの不正な動きは修正することができる。
ブロック430では、顔マーカデータポイント群に制限を加えて、これらのポイントが該当する筋肉グループと一緒に動くようにする。一の実施形態では、顔マーカデータポイント群は、顔マーカデータポイント群が属する筋肉グループに対して不自然になるような態様で動くことが許されない。
ブロック440では、顔マーカデータをフレーム群において微視的に安定させる(fine-stabilized)。顔マーカデータポイント群の空間位置を、顔面モデルに対するマーカの動きを求めることにより微視的に安定させる。一の実施形態では、顔マーカデータポイント群の空間位置を、顔マーカデータポイントの動きを調整して、このポイントが所定の顔面モデルを忠実になぞるようにすることにより微視的に安定させる。別の実施形態では、微視的安定化は、FACSマトリクスに保存される顔ポーズを使用して、許容範囲から外れた顔マーカデータポイント群を調整することにより達成される。更に別の実施形態では、顔マーカデータポイント群を、剛性マーカ群を使用して手作業で微視的に安定させる。
要約すると、安定化は2つの方法−巨視的安定化(gross-stabilization)及び微視的安定化(fine-stabilization)−により処理される。巨視的安定化では、ボディに取り付けられる剛性マーカ(例えば、頭部マーカ/顔マーカ)を利用する。これらの剛性マーカは十分に大きいので、変換行列を計算して剛性マーカ群(頭部/顔)の位置を、これらのマーカの空間位置から基準原点に変換することができ、従って顔の表情に対する全ての分析をロックダウン位置(物を動かすことができないように固定したときの位置)で行なうことができる。しかしながら、ノイズ、一貫性の無いラベル、及び他の異常が含まれる(例えば、顔の表情に)状態では、頭部を動かすことができないようにフレーム毎に固定するために計算される巨視的安定化変換には一貫性がなく、これによって、小さな揺れ、捻れ、跳ね、及び他のノイズが生じる。これらのデータをフェイシャルアニメーションのリターゲット(facial re-targeting)に使用する場合、良好な顔の表情の生成は難しい。その結果、微視的安定化が必要になり、微視的安定化によって揺れ、捻れ、跳ね、及び他のノイズを除去する。微視的安定化は、FACSマトリクスを特定のアクターに関して利用することにより行なうことができる。FACSマトリクスを使用してマーカの小さな動きを、これらの動きが所定の表情に一致するものとして分析する。従って、或る表情に関して、マーカグループは、FACSマトリクスから学習される動き、またはFACSマトリクスによって生成される動きに一致する動きを示す。しかしながら、動きに一致が見られない、または動きが一致しない場合、動きを顔全体で矯正し、そして「補正して」、顔(及び/又は頭部)全体を更に安定させることができる。
図5は、一の実施形態による顔筋肉活動を顔マーカデータに基づいて生成する方法500を示すフローチャートである。
重みをブロック500で決定して、顔マーカデータの入力フレームに表示されるポーズを近似する重み付け合成された活動単位を特徴付ける。所定の顔筋肉グループの活動を表わす活動単位は、上に議論したように顔基本ベクトルと見なすことができる。従って、一つ以上の活動単位−FACSマトリクスの活動単位群の全てを最大限として含む−は入力顔マーカデータのポーズを近似するための重み付け合成の構成要素として使用される。すなわち、顔マーカデータは、FACSマトリクスの所定の活動単位群の或る組み合わせとして特徴付けられる。重みの決定では、各活動単位に関連付けられる重み付け合成された顔ポーズデータを新規の顔ポーズデータにフィッティングする。一の実施形態では、最小自乗フィッティングのような線形最適化を使用して重みの最適な組み合わせを計算する。別の実施形態では、非線形最適化を使用してフィッティングを行なう。
一旦、重みが決定されると、重み付けされた活動をブロック510で生成する。一の実施形態では、図2を参照しながら議論したように、重みを、各活動単位に関連付けられる筋肉グループ活動に適用し、そして結果として得られる複数の活動を合成して一つの重み付けされた活動を生成する。次に、重み付けされた活動をデジタル顔形態モデルに適用する。
図6は、本発明の一の実施形態によるデジタル顔形態モデルをアニメートするシステム600の機能ブロック図である。システム600はクリーニングモジュール610と、顔筋肉活動モジュール620と、FACSモジュール630と、アニメーションモジュール640と、そして皮膚レイヤモジュール650と、を含む。
図6に示す実施形態では、クリーニングモジュール610は顔マーカデータをクリーニングして、時間軸上のギャップ、顔マーカデータポイントの誤ラベル付け、及びノイズに関するデータを除去する。時間軸上のギャップは、フレーム中の一つ以上の顔マーカデータポイントに対するラベル付けが失敗して、例えばシーケンス内の隣接するフレームの正しくラベル付けされたポイントの間に「ギャップ」が発生すると生じる。一の実施形態では、クリーニングは、図4のフローチャートに示される方法400に従って行なわれる。
顔筋肉活動モジュール620は、顔筋肉活動を顔マーカデータに基づいて生成する。図2を参照しながら上に議論したように、顔筋肉活動を生成するステップは基本的に:顔マーカデータを近似する重み付け合成された活動単位を特徴付ける重みを決定するステップと;そして重み付けされた活動を生成するステップと、を含む。顔筋肉活動を生成するステップについて、図5を参照しながら更に詳細に説明する。
FACSモジュール630はFACSマトリクスを、FACSマトリクスのFACS活動単位を定義し、そしてアクターに関連付けられるポーズを校正することによりほぼ初期化する。
アニメーションモジュール640は、コンピュータグラフィックス(「CG」)顔形態モデルを、顔筋肉活動モジュール620において生成される顔筋肉活動を使用してアニメートする。一の実施形態では、CG顔形態モデルは、アーティストまたはアニメータが「リギング」した(組み立てた)デジタル顔形態モデルである。デジタル顔形態モデルのリギングでは、種々の筋膜レイヤ(fascia layers:筋膜層)を設定し、これらの筋膜レイヤをブレンドすることにより、最終的な顔の変形をデジタル顔形態モデルに生じさせる。これらの筋膜レイヤは一の実施形態では、顔筋肉変形を可能にする筋肉レイヤ(muscle layer)、顎の動きを可能にする顎レイヤ(jaw layer)、種々の顔領域の皮膚の膨らみを制御するボリュームレイヤ(volume layer)、及び唇の動きを明らかにする開度レイヤ(articulation layer)を含む。
筋肉レイヤは、顔を変形させる筋肉制御を行なう頭蓋縫合部(skull patches)を含む。筋肉制御は、モーションキャプチャデータから生成される重み付けされた活動によって行なわれる。顎レイヤは、デジタル顔形態モデルの顎の動きを制御し易くする。ボリュームレイヤは膨らみを、デジタル顔形態モデルに生じる変形に付加する。従って、ボリュームレイヤは、皺及び他の顔変形のモデル化を容易にし、モデル化は、モーションキャプチャデータから生成される重み付けされた活動によって行なうことができる。開度レイヤは、唇が変形するときの唇の形状に関与する。詳細には、開度レイヤは、唇の起伏及び膨らみを制御し易くし、この処理は、唇を顔の表情の中で薄く広げる、またはすぼめるときに必須となる。顔マーカデータはデジタル顔形態モデルに、種々の筋膜レイヤを起動する重み付けされた活動として、マッピングされる、またはリターゲットされる。すなわち、重みによって、一つ以上の所定のポーズの各ポーズが、筋膜レイヤを起動する際に及ぼす影響を重みに比例する形で定量化する。
しかしながら、或る場合には、筋膜レイヤを上に議論したように、重み付けされた活動で起動することにより、不所望のセグメンテーション効果がCG顔形態モデルの表面に現われる。すなわち、起動される種々の筋肉グループがこれらのグループの隙間で不連続を示す。CG顔形態モデルに別の皮膚レイヤを重ね合わせることにより、隙間の不連続を滑らかにし、そしてアーティストまたはアニメータが、結果として得られる顔アニメーションの見栄えを制御することができるときに利用する別の手段を提供することができる。
従って、皮膚レイヤモジュール650は、CG顔形態モデルに重ね合わせる皮膚レイヤを生成する。一の実施形態では、この皮膚レイヤは、上に議論した4つの筋膜レイヤとは別の要素として生成される。皮膚レイヤは、CG顔形態モデルの外側表面を忠実になぞる。皮膚レイヤには種々の視覚的属性を持たせることができ、これらの属性として、例えば色、質感、透明度、毛髪、及び/又は産毛(うぶげ)を挙げることができる。皮膚レイヤには更に種々の肉体的属性を持たせることができ、これらの属性として、例えば弾性、厚み、及びきめの細かさを挙げることができる。別の実施形態では、皮膚レイヤを複数の領域に区切り、各領域が一つの顔マーカデータポイントに対応するようにする。
次に、皮膚レイヤモジュール650は、皮膚レイヤを顔マーカデータを使用してアニメートする。一の実施形態では、フレームシーケンス全体の各顔マーカデータポイントの軌跡として表現されるアクターにおける各顔マーカの動きが皮膚レイヤの該当する領域に反映される。すなわち、フレーム毎の空間変位(すなわち、空間位置の変化)を示す各顔マーカデータポイントによって、該当する変位が皮膚レイヤの該当する領域に加えられる。このモジュール650について以下に詳細に説明する。
図7は、アニメートされた皮膚レイヤを生成する皮膚レイヤモジュール650の機能ブロック図である。皮膚レイヤモジュール650は、データポイント関連付けモジュール700と、皮膚移動モジュール710と、変位モジュール720と、変位修正モジュール730と、そして皮膚弾性モジュール740と、を含む。
データポイント関連付けモジュール700は、マーカ群(すなわち、顔マーカデータポイント群)を、アニメートされたモデルの追加皮膚レイヤの領域群(すなわち、離散「皮膚パッチ群」)に関連付けて、個々の顔マーカデータポイント群と該当する皮膚領域群との関連付けを生成する。皮膚移動モジュール710は関連付けを受信し、そしてこれらの関連付けを使用して、顔マーカデータポイント群の変位を、これらのポイントに対応する皮膚領域群に加える。
変位モジュール720は、一つのマーカの複数の空間位置の間の変位を計算する。この変位を使用して、追加皮膚レイヤの該当する領域を引っ張る。マーカ及び領域は、アクターの顔の上に物理的に対応する。変位モジュール720によって計算されるデータポイント変位を変位修正モジュール730が使用することにより、変位を、例えば拡大縮小することにより修正して所望の結果を得る。変位を皮膚レイヤの領域に加える基本操作は一対一対応である。例えば、1インチのマーカ変位は1インチの皮膚変位を意味する。従って、変位を修正することが望ましい。修正では、変位を表わす向き(例えば、ベクトル)を、当該変位が少なくとも空間的に広がっているので変更することができる。
皮膚弾性モジュール740は、弾性を計算し、そして/または弾性を皮膚領域に付与して、変位を皮膚領域に加える(皮膚移動モジュール710において)と、皮膚が的確に予測可能な態様で動くようにする。
図8Aは、コンピュータシステム800及びユーザ802を表わす図を示している。ユーザ802はコンピュータシステム800を使用することにより、FACS解決策を実行する。コンピュータシステム800はFACS解決システム890を収容し、そして実行し、FACS解決システム890は、クリーニングされたモーションキャプチャフレームデータを処理する。
図8Bは、FACS解決システム890のホストとなるコンピュータシステム800を示す機能ブロック図である。コントローラ810はプログラマブルプロセッサであり、そしてコンピュータシステム800及び当該システムのコンポーネントの動作を制御する。コントローラ810は命令をメモリ820または埋め込みコントローラメモリ(図示せず)から読み込み、そしてこれらの命令を実行してシステムを制御する。コントローラ機能を実行するために、コントローラ810はFACS解決システム890をソフトウェアシステムとして提供する。別の構成として、このサービスは、コントローラ810内の、またはコンピュータシステム800内の別のコンポーネントとして実装することができる。
メモリ820はデータを一時的に保存して、コンピュータシステム800の他のコンポーネントが使用することができるようにする。一の実施形態では、メモリ820はRAMとして実装される。一の実施形態では、メモリ820は更に、フラッシュメモリ及び/又はROMのような長期メモリまたは永久メモリを含む。
ストレージ830は、コンピュータシステム800の他のコンポーネントが使用することができるようにデータを一時的に、または長期間に渡って保存する、例えばFACS解決システム890が使用するデータを保存する。一の実施形態では、ストレージ830はハードディスクドライブである。
メディア装置840は取り外し可能な媒体を受け入れ、そして挿入媒体に対するデータの読み出し、及び/又は書き込みを行なう。一の実施形態では、メディア装置840は光ディスクドライブである。
ユーザインターフェース850は、ユーザ入力をコンピュータシステム800のユーザから受け入れ、そして情報をユーザに対して提示するコンポーネントを含む。一の実施形態では、ユーザインターフェース850はキーボード、マウス、オーディオスピーカ、及びディスプレイを含む。コントローラ810はユーザからの入力を使用してコンピュータシステム800の動作を調整する。
I/Oインターフェース860は、外部ストレージまたは補助装置(例えば、プリンタまたはPDA)のような該当するI/O装置との接続を行なう一つ以上のI/Oポートを含む。一の実施形態では、I/Oインターフェース860のポートは:USBポート、PCMCIAポート、シリアルポート、及び/又はパラレルポートのようなポートを含む。別の実施形態では、I/Oインターフェース860は、外部デバイスと無線通信する無線インターフェースを含む。
ネットワークインターフェース870は、イーサネット(登録商標)接続をサポートするRJ−45または「Wi−Fi」インターフェース(これに制限されないが、802.11を含む)のような有線及び/又は無線ネットワーク接続を含む。
コンピュータシステム800は、コンピュータシステムでは普通の更に別のハードウェア及びソフトウェア(例えば、電源システム、冷却システム、オペレーティングシステム)を含むが、これらのコンポーネントは図を簡単にするために、図8Bには詳細には示されていない。他の実施形態では、コンピュータシステムの異なる構成を使用することができる(例えば、異なるバスまたはストレージ構成、或いはマルチプロセッサ構成)。
本発明の種々の例示的な実施形態について説明してきた。しかしながら、この技術分野の当業者であれば、更に別の実施形態を用いることもでき、かつ更に別の実施形態が本発明の範囲に含まれることが理解できるであろう。例えば、FACS解決システムについて顔マーカデータに関連する形で概要を説明してきたが、当該システムは、ボディマーカデータのような他のタイプのモーションキャプチャマーカデータに適用することができる。更に、モジュール内のまたはブロック内のグルーピング機能は説明を分かり易くするために提示されていることを理解されたい。特定の機能は、一つのモジュールまたはブロックから別のモジュールまたはブロックに、本発明から逸脱しない限り移動させることができる。
従って本発明は、上に記載されるこれらの実施形態にのみ限定されることはない。

Claims (42)

  1. 顔筋肉活動を顔マーカデータに基づいて生成するステップと、
    コンピュータグラフィックス顔形態モデルを、顔筋肉活動を使用してアニメートするステップと、
    コンピュータグラフィックス顔形態モデルに重ね合わせる皮膚レイヤを生成するステップと、
    皮膚レイヤを、顔マーカデータを使用してアニメートするステップと、
    を含む方法。
  2. 顔筋肉活動を生成する前記ステップは、
    所定の顔筋肉活動の重み付け合成解を求めるステップを含む、請求項1記載の方法。
  3. 所定の顔筋肉活動はFACSマトリクスに保存される、請求項2記載の方法。
  4. 顔マーカデータは、
    複数のフレームを含み、各フレームは複数のデータポイントを含み、そして各データポイントは一つの空間位置を含み、
    各フレームの各データポイントは、複数のフレームの内の少なくとも一つの他のフレームの一つのデータポイントに時間軸上で関連付けられる、請求項1記載の方法。
  5. 皮膚レイヤをアニメートする前記ステップは:
    特定フレームの一つのデータポイントを、皮膚レイヤの該当する領域に関連付けるステップと、
    皮膚レイヤの該当する領域を移動させるステップと、
    を含む、請求項4記載の方法。
  6. 前記移動は、
    特定フレームのデータポイントの空間位置と、少なくとも一つの他のフレームの時間軸上で関連付けられるデータポイントの空間位置との間の変位に対応する、
    請求項5記載の方法。
  7. 移動させる前記ステップは、
    変位を、皮膚レイヤの該当する領域に関連付けられる所定の位置に加えるステップを含む、
    請求項6記載の方法。
  8. 変位を修正する、請求項6記載の方法。
  9. 前記移動は、
    皮膚レイヤの該当する領域の所定の弾性に対応する、
    請求項5記載の方法。
  10. 更に、
    中間フレームの不良データポイントを修正するステップを含む、
    請求項4記載の方法。
  11. 不良データポイントは、
    欠落データポイント、誤ラベル付けデータポイント、及びノイズの大きなデータポイントを含む、
    請求項10記載の方法。
  12. 不良データポイントは、
    特定フレームのデータポイントに時間軸上で関連付けられ、かつ少なくとも一つの他のフレームの時間軸上で関連付けられるデータポイントである、
    請求項10記載の方法。
  13. 中間フレームは、
    時間軸上に位置し、かつ特定フレームと少なくとも一つの他のフレームとの間に位置する、
    請求項12記載の方法。
  14. 不良データポイントを修正する前記ステップは、
    中間フレームの置き換えデータポイントの空間位置を推定するステップを含む、
    請求項12記載の方法。
  15. 置き換えられるデータポイントの空間位置を推定する前記ステップは、
    複数の所定フレームの間を補間するステップを含む、
    請求項14記載の方法。
  16. 複数の所定フレームはFACSマトリクスに保存される、請求項15記載の方法。
  17. 顔マーカデータを受信し、そして顔筋肉グループ活動を生成する顔筋肉活動モジュールと、
    顔筋肉グループ活動を受信し、そして活動顔形態モデルを生成するアニメーションモジュールと、
    活動顔形態モデル及び顔マーカデータを受信し、そしてアニメートされ、かつ皮膚レイヤ化された顔形態モデルを生成する皮膚レイヤモジュールと、
    を備える、システム。
  18. 前記顔筋肉活動モジュールは、
    所定の顔筋肉活動の重み付け合成解を求めるユニットを含む、
    請求項17記載のシステム。
  19. 所定の顔筋肉活動はFACSマトリクスに保存される、請求項18記載のシステム。
  20. 顔マーカデータは、
    複数のフレームを含み、各フレームは複数のデータポイントを含み、そして各データポイントは一つの空間位置を含み、
    各フレームの各データポイントは、複数のフレームの内の少なくとも一つの他のフレームの一つのデータポイントに時間軸上で関連付けられる、請求項17記載のシステム。
  21. 前記皮膚レイヤモジュールは:
    特定フレームの一つのデータポイントを、皮膚レイヤの該当する領域に関連付けるデータポイント関連付けモジュールと、
    皮膚レイヤの該当する領域を移動させる皮膚移動モジュールと、
    を含む、請求項20記載のシステム。
  22. 皮膚レイヤモジュールは、
    特定フレームのデータポイントの空間位置と、少なくとも一つの他のフレームの時間軸上で関連付けられるデータポイントの空間位置との間の変位を生成する変位モジュールを含む、
    請求項21記載のシステム。
  23. 前記皮膚移動モジュールは、
    生成される変位を、皮膚レイヤの該当する領域に関連付けられる所定の位置に加えるユニットを含む、
    請求項22記載のシステム。
  24. 皮膚レイヤモジュールは更に、
    変位を修正する変位修正モジュールを含む、請求項22記載のシステム。
  25. 前記皮膚レイヤモジュールは、
    皮膚レイヤの該当する領域の所定の弾性を計算し、そして付与することにより、皮膚が予測可能に非常に正確に動くようにする皮膚弾性付与モジュールを含む、
    請求項21記載のシステム。
  26. 顔筋肉活動を顔マーカデータに基づいて生成する手段と、
    コンピュータグラフィックス顔形態モデルを、顔筋肉活動を使用してアニメートする手段と、
    コンピュータグラフィックス顔形態モデルに重ね合わせる皮膚レイヤを生成する手段と、
    皮膚レイヤを、顔マーカデータを使用してアニメートする手段と、
    を備える装置。
  27. コンピュータ読み取り可能な媒体に格納され、かつ実行可能な命令を含むコンピュータプログラムであって、実行可能な命令によってコンピュータは:
    顔筋肉活動を顔マーカデータに基づいて生成し、
    コンピュータグラフィックス顔形態モデルを、顔筋肉活動を使用してアニメートし、
    コンピュータグラフィックス顔形態モデルに重ね合わせる皮膚レイヤを生成し、
    皮膚レイヤを、顔マーカデータを使用してアニメートする、
    コンピュータプログラム。
  28. コンピュータに顔筋肉活動を生成させる実行可能な命令は、コンピュータに、
    所定の顔筋肉活動の重み付け合成解を求めさせる実行可能な命令を含む、
    請求項27記載のコンピュータプログラム。
  29. 所定の顔筋肉活動はFACSマトリクスに保存される、請求項28記載のコンピュータプログラム。
  30. 顔マーカデータは、
    複数のフレームを含み、各フレームは複数のデータポイントを含み、そして各データポイントは一つの空間位置を含み、
    各フレームの各データポイントは、複数のフレームの内の少なくとも一つの他のフレームの一つのデータポイントに時間軸上で関連付けられる、
    請求項27記載のコンピュータプログラム。
  31. コンピュータに皮膚レイヤをアニメートさせる実行可能な命令は、コンピュータに:
    特定フレームの一つのデータポイントを、皮膚レイヤの該当する領域に関連付けさせ、
    皮膚レイヤの該当する領域を移動させる実行可能な命令を含む、
    請求項30記載のコンピュータプログラム。
  32. コンピュータに皮膚レイヤの該当する領域を移動させる実行可能な命令は、
    特定フレームのデータポイントの空間位置と、少なくとも一つの他のフレームの時間軸上で関連付けられるデータポイントの空間位置との間に変位を生じさせることに対応する、
    請求項31記載のコンピュータプログラム。
  33. コンピュータに皮膚レイヤの該当する領域を移動させる実行可能な命令は、コンピュータに、
    変位を、皮膚レイヤの該当する領域に関連付けられる所定の位置に加えさせる実行可能な命令を含む、
    請求項32記載のコンピュータプログラム。
  34. 変位を修正する、請求項32記載のコンピュータプログラム。
  35. コンピュータに皮膚レイヤの該当する領域を移動させる実行可能な命令は、
    皮膚レイヤの該当する領域の所定の弾性を生じさせることに対応する、
    請求項31記載のコンピュータプログラム。
  36. 更に、コンピュータに、
    中間フレームの不良データポイントを修正させる実行可能な命令を含む、
    請求項30記載のコンピュータプログラム。
  37. 不良データポイントは、
    欠落データポイント、誤ラベル付けデータポイント、及びノイズの大きなデータポイントを含む、
    請求項36記載のコンピュータプログラム。
  38. 不良データポイントは、
    特定フレームのデータポイントに時間軸上で関連付けられ、かつ少なくとも一つの他のフレームの時間軸上で関連付けられるデータポイントである、
    請求項36記載のコンピュータプログラム。
  39. 中間フレームは、
    時間軸上に位置し、かつ特定フレームと少なくとも一つの他のフレームとの間に位置する、
    請求項38記載のコンピュータプログラム。
  40. コンピュータに不良データポイントを修正させる実行可能な命令は、コンピュータに、
    中間フレームの置き換えられるデータポイントの空間位置を推定させる実行可能な命令を含む、
    請求項38記載のコンピュータプログラム。
  41. コンピュータに、置き換えられるデータポイントの空間位置を推定させる実行可能な命令は、コンピュータに、
    複数の所定フレームの間を補間させる実行可能な命令を含む、
    請求項40記載のコンピュータプログラム。
  42. 複数の所定フレームはFACSマトリクスに保存される、請求項41記載のコンピュータプログラム。
JP2009522031A 2006-07-28 2007-07-30 モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法 Expired - Fee Related JP5109192B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US83429806P 2006-07-28 2006-07-28
US60/834,298 2006-07-28
US11/829,731 US7733346B2 (en) 2006-07-28 2007-07-27 FACS solving in motion capture
US11/829,731 2007-07-27
PCT/US2007/074749 WO2008014513A2 (en) 2006-07-28 2007-07-30 Facs solving in motion capture

Publications (2)

Publication Number Publication Date
JP2009545084A true JP2009545084A (ja) 2009-12-17
JP5109192B2 JP5109192B2 (ja) 2012-12-26

Family

ID=38982429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009522031A Expired - Fee Related JP5109192B2 (ja) 2006-07-28 2007-07-30 モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法

Country Status (4)

Country Link
EP (1) EP2047429B1 (ja)
JP (1) JP5109192B2 (ja)
CN (1) CN101512603B (ja)
WO (1) WO2008014513A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019523145A (ja) * 2016-07-21 2019-08-22 オートデスク,インコーポレイテッド モーションキャプチャを介したロボットカメラ制御
JP2023071137A (ja) * 2021-11-10 2023-05-22 イーヴィーアール スタジオ カンパニー リミテッド 顔表情を生成するための方法及びそれを利用する3次元グラフィックインターフェース装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418465B2 (en) * 2013-12-31 2016-08-16 Dreamworks Animation Llc Multipoint offset sampling deformation techniques
GB201709659D0 (en) 2017-06-16 2017-08-02 Found For Res And Tech Hellas Imbb-Forth Detecting nucleic acids in impure samples with an acoustic wave sensor
US10573050B1 (en) * 2018-11-20 2020-02-25 Sony Corporation Marker-based pose estimation
CN110662129A (zh) * 2019-09-26 2020-01-07 联想(北京)有限公司 一种控制方法及电子设备
JP7396482B2 (ja) * 2020-06-09 2023-12-12 富士通株式会社 判定プログラム、判定装置、および判定方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005024728A1 (ja) * 2003-09-03 2005-03-17 Nec Corporation 形態変形装置、物体動作符号化装置および物体動作復号化装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2227361A1 (en) * 1998-01-19 1999-07-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of expressions
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US8988419B2 (en) * 2000-11-27 2015-03-24 Ding Huang Parameterization of deformation and simulation of interaction
US7239321B2 (en) * 2003-08-26 2007-07-03 Speech Graphics, Inc. Static and dynamic 3-D human face reconstruction
WO2006062908A2 (en) * 2004-12-09 2006-06-15 Image Metrics Limited Optical motion capturing with fill-in of missing marker points using a human model derived from principal component analysis

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005024728A1 (ja) * 2003-09-03 2005-03-17 Nec Corporation 形態変形装置、物体動作符号化装置および物体動作復号化装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019523145A (ja) * 2016-07-21 2019-08-22 オートデスク,インコーポレイテッド モーションキャプチャを介したロボットカメラ制御
JP2023071137A (ja) * 2021-11-10 2023-05-22 イーヴィーアール スタジオ カンパニー リミテッド 顔表情を生成するための方法及びそれを利用する3次元グラフィックインターフェース装置

Also Published As

Publication number Publication date
WO2008014513A2 (en) 2008-01-31
EP2047429A4 (en) 2010-03-03
EP2047429B1 (en) 2013-01-09
WO2008014513A3 (en) 2008-12-24
CN101512603A (zh) 2009-08-19
JP5109192B2 (ja) 2012-12-26
EP2047429A2 (en) 2009-04-15
CN101512603B (zh) 2014-06-04

Similar Documents

Publication Publication Date Title
US7733346B2 (en) FACS solving in motion capture
JP5344358B2 (ja) 演技から作り出される顔アニメーション
JP5468047B2 (ja) デジタル顔モデルのアニメーション化のためのシステム及び方法
US9460539B2 (en) Data compression for real-time streaming of deformable 3D models for 3D animation
JP5235891B2 (ja) モーションピクチャにおける表面キャプチャリング
US7804997B2 (en) Method and system for a three dimensional facial recognition system
CA2715259C (en) Facial performance synthesis using deformation driven polynomial displacement maps
Deng et al. Computer facial animation: A survey
JP5109192B2 (ja) モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法
EP1748391A2 (en) Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
JP5109191B2 (ja) モーションキャプチャにおけるfacs(顔の表情符号化システム)クリーニング
KR20120006610A (ko) 얼굴 애니메이션 시스템 및 방법
US6650335B2 (en) Method for extracting static and dynamic super-resolution textures form a sequence of images
Zhang et al. Anatomy-based face reconstruction for animation using multi-layer deformation
JP7251003B2 (ja) 細かいしわを有する顔メッシュ変形
Karunaratne et al. A new efficient expression generation and automatic cloning method for multimedia actors
KR20060067242A (ko) 해부 데이터를 이용한 얼굴 애니메이션 생성 시스템 및 그방법
WO2023022606A1 (en) Systems and methods for computer animation of an artificial character using facial poses from a live actor
Orvalho A System to Reuse Facial Rigs and Animations

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100616

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120220

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120321

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120417

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120423

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120820

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120919

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5109192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees