JP5829371B2 - モーションキャプチャデータを使用する顔面アニメーション - Google Patents

モーションキャプチャデータを使用する顔面アニメーション Download PDF

Info

Publication number
JP5829371B2
JP5829371B2 JP2008232751A JP2008232751A JP5829371B2 JP 5829371 B2 JP5829371 B2 JP 5829371B2 JP 2008232751 A JP2008232751 A JP 2008232751A JP 2008232751 A JP2008232751 A JP 2008232751A JP 5829371 B2 JP5829371 B2 JP 5829371B2
Authority
JP
Japan
Prior art keywords
facial
motion capture
virtual
animation
states
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008232751A
Other languages
English (en)
Other versions
JP2009070380A (ja
JP2009070380A5 (ja
Inventor
エス. ハーディング リチャード
エス. ハーディング リチャード
エイ. メイベリー クリストファー
エイ. メイベリー クリストファー
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2009070380A publication Critical patent/JP2009070380A/ja
Publication of JP2009070380A5 publication Critical patent/JP2009070380A5/ja
Application granted granted Critical
Publication of JP5829371B2 publication Critical patent/JP5829371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

モーションキャプチャとは、物理的オブジェクトの動きをキャプチャする方法である。モーションキャプチャの広く用いられている用途に、物理的オブジェクトの動きをキャプチャして、この動きを、アニメーション化されたオブジェクトの動きの表現に変換することがある。
実際の俳優の動きをキャプチャして、仮想空間またはアニメーション空間における対応する俳優の動きに変換する処理により、アニメーションに関するコストを削減することができる。更に、キャプチャされた物理的な動きを、アニメーション空間に変換することにより、アニメーション化された俳優の動きにリアルさが与えられるが、このリアルさは、手動アニメーション処理を使用して、仮想環境で動きを作り出す際には完全に実現することができない。
代表的なモーションキャプチャシステムでは、数個のモーションキャプチャマーカが、実際の俳優に配置される。例えば、モーションキャプチャマーカが、実際の俳優の骨格フレームの関節の近くに配置され得る。少なくとも1台のモーションキャプチャカメラ(通常は数台のモーションキャプチャカメラ)を使用して、俳優と、対応するモーションキャプチャマーカの動きとが、一連のピクチャフレームにキャプチャされる。モーションキャプチャマーカの位置が、対応するモデル化されたマーカを有する骨格フレームまたはワイヤフレームに変換され得る。
実際の俳優に多くのモーションキャプチャマーカを配置することは、実際の俳優の空間が、モーションキャプチャマーカの数および配置面に対して大きい場合には、通常は問題とならない。マーカのための面積が小さくなると、実際の俳優へのモーションキャプチャマーカの配置が問題となってくる。
実際の動きをキャプチャするために多くのモーションキャプチャマーカを配置しても、モーションキャプチャマーカのサイズに対して、マーカの空間的移動が比較的大きな場合には、良好に機能するか、あるいは、モーションキャプチャの誤差が生じても、混合されるアニメーションには実質的に影響しない。従来のモーションキャプチャは、大きな物理的動き(例えば骨格の動き)をキャプチャする際には良好に機能することができる。
しかし、顔面アニメーションなどの用途では、モーションキャプチャマーカが配置される物理的面積が小さい。表情は複雑であるため、従来のモーションキャプチャに必要なモーションキャプチャマーカの数が増えるが、実際の俳優の顔に配置するモーションキャプチャマーカの数を増やすと、キャプチャしようとしている表情自体が隠れてしまうことがある。
更に、モーションキャプチャマーカのわずかなばらつきが、俳優が伝える表情の大きな差となってしまう。マーカが取り付けられている実際の俳優の実際の面積が小さいことと、モーションキャプチャマーカのわずかな変化が、大きな表情の変化に相当するために、モーションキャプチャ処理のノイズおよび誤差が、仮想環境において事実上拡大されてしまう。
モーションキャプチャに基づく顔面アニメーションは、顔面アニメーションに関わるコストを削減するために望ましい。実際の俳優に配置されるモーションキャプチャマーカの数を削減すると共に、同時に、モーションキャプチャからアニメーション化できる表情を複雑なものに保つことが望ましい。
モーションキャプチャデータを使用した顔面アニメーションのための方法および装置をここに記載する。指標の最小化に基づいた数学的解により、モーションキャプチャデータを顔面アニメーションに正確に変換するのに必要なモーションキャプチャマーカの数を低減できる。モーションキャプチャマーカの組と、俳優へのこれらの配置が定義され、仮想マーカを有する仮想形状の組が定義される。仮想マーカの動きが、解剖学的モデルに基づいてモデル化される。初期の顔面キャプチャが、対応する仮想基準形状と相関される。その後行われる顔面キャプチャのそれぞれに対して、デルタベクトルが計算され、デルタマーカ、初期位置および仮想形状の組に基づいて行列解が求められる。この解は、平均二乗距離などの指標を最小化することができる。この解は、ユーザインタフェースまたはコンソールを使用して、手動で変更または編集することができる。
本発明の各種態様は、モーションキャプチャデータからの顔面アニメーションの方法を含む。前記方法は、複数のモーションキャプチャマーカに基づいてモーションキャプチャデータを取得するステップと、前記複数のモーションキャプチャマーカのそれぞれの、複数の仮想マーカのうちの対応する仮想マーカへのオフセットを決定するステップと、前記オフセットに基づいてアニメーションライブラリ内の複数の所定の顔面状態のそれぞれに対する重みの解を決定するステップと、顔面アニメーションを生成するために、前記重みの解に従って前記複数の所定の顔面状態を結合するステップと、を有する。
本発明の各種態様は、顔面アニメーション装置を含み、前記装置は、複数の顔面状態、および基準画像からのモーションキャプチャマーカにマップされた仮想マーカを含む仮想基準画像のアニメーションライブラリと、モーションキャプチャデータにアクセスし、前記アニメーションライブラリ内の前記顔面状態のそれぞれに対して、性能指標を最適化するために重みの解を決定するように構成された重みソルバと、前記モーションキャプチャデータに対する顔面アニメーションを生成するために、前記重みの解に従って前記複数の顔面状態を結合するように構成された形状デフォーマと、を有する。
本開示の各種実施形態の機能、目的および利点は、図面を参照しながら、下記に記載する詳細な説明を読めばより明らかとなるであろう。下記の図面においては、同様の要素に同一の参照符号が付されている。
モーションキャプチャデータを使用した顔面アニメーションのための方法および装置をここに記載する。顔面アニメーションは、数学的解に基づき、モーションキャプチャデータをフィッティングするために所定のアニメーションコントロールの組を混合することによって決定された品質指標を最適化する。所定のアニメーションコントロールのそれぞれは、仮想俳優の特定の定義された顔面の動きまたは状態を操作する。アニメーションコントロールは、顔面の動きまたは顔面状態に関連する筋肉の変形および皮膚の動きを符号化している。
モーションキャプチャデータを所定の顔面状態にフィッティングする数学的解に基づく顔面アニメーションのための方法および装置により、既存のモーションキャプチャ顔面アニメーション手法と比べて、いくつかの改良点が得られる。所定の品質指標を最適化する数学的解は、モーションキャプチャデータ内のノイズの影響を受けにくい。所定の顔面状態の組は、有効な顔面の動きの制限空間を定義する。モーションキャプチャデータ内のノイズおよび誤差は、解の処理中にフィルタリングされる。
所定の顔面状態のそれぞれは、顔面の動きまたは顔面状態に関連する筋肉の変形および皮膚の動きを符号化している。これにより、実際の俳優に配置すべきモーションキャプチャマーカの個数を減らすことができると共に、表情の微妙な変化をキャプチャし、アニメーション化できる能力が維持される。
数学的解の次元を形成している所定のアニメーションコントロールが、手動編集を可能にするユーザインタフェース内に提供され得る。このため、手動編集処理において、アニメーション解の計算中にその設定が自動的に決定されるのと同じコントロールの組を使用することができる。手動アニメーション処理と自動アニメーション処理で同じコントロールを使用することにより、アニメーション処理の整合性が保たれると共に、手動編集処理の設定を簡略化することができる。
図1は、モーションキャプチャデータに基づく顔面アニメーションシステム100の一実施形態の概略機能ブロック図である。システム100は、顔面に複数のモーションキャプチャマーカ112が配置されている実際の俳優110からモーションキャプチャデータを生成するように動作する。各モーションキャプチャマーカ112は、顔面の位置に接着され得る。各モーションキャプチャマーカ112は、例えば、受動マーカ、能動マーカ、または受動マーカと能動マーカの組み合せなどである。例えば、受動マーカは、所定の波長または波長帯域に対して最適化され得る反射式光学マーカなどである。例えば、能動マーカは、能動光学マーカであってもよく、LEDなどの光源などである。
実際の俳優110と、モーションキャプチャマーカ112の対応する位置とを撮影するか、または他の方法によって撮像するために、少なくとも1台のカメラ120(通常は数台のカメラ120)が使用される。一般に、モーションキャプチャマーカ112の位置を3次元で決定可能にするために、複数のカメラを使用するのが有利である。
カメラ120からの出力が、カメラ120の画像のフレームからモーションキャプチャデータを抽出するように動作するデータキャプチャモジュール130に結合され得る。データキャプチャモジュール130は、各カメラ120からの画像フレーム内のさまざまなモーションキャプチャマーカ112の位置を特定するように動作し、モーションキャプチャマーカ112の動きに基づいていないデータおよび情報を無視するか、破棄するか、または他の方法によって実質的に除去しうる。例えば、データキャプチャモジュール130は、モーションキャプチャマーカ112に対応する点の単純な配列のモーションキャプチャデータを生成するように構成され得る。例えば、この点の配列は、複数のモーションキャプチャマーカ112の座標の行列として構成され得る。モーションキャプチャデータは、他の視覚情報(実際の俳優110の輪郭または陰影、テクスチャおよび他のパラメータなど)をほとんど含まないことがある。
データキャプチャモジュール130から出力されたモーションキャプチャデータは、安定化モジュール140に結合される。安定化モジュール140は、実際の俳優の頭部の動きを実質的に除去するか、または他の方法によって補償するように構成され得る。安定化モジュール140は、顔面アニメーションに関わるモーションキャプチャデータを出力する。
安定化モジュール140は、複数のカメラ120からのモーションキャプチャデータを処理して、実際の俳優の110の頭部の傾きまたは回転を決定しうる。安定化モジュール140によって生成される頭部の動きデータは、例えば、頭部および体のアニメーションモジュール(図示せず)の動作に使用され得る。
安定化モジュール140からのモーションキャプチャデータは、ソルバモジュール150に結合され得る。ソルバモジュール150は、モーションキャプチャデータの各フレームについて、性能指標を最適化する複数の所定の顔面アニメーション状態のそれぞれに対する重みを決定する。
所定の顔面アニメーション状態のそれぞれは、複数の仮想モーションキャプチャマーカを有するメッシュとして作成され得る。所定の顔面アニメーション状態のそれぞれは、仮想空間内で構成され、実際の俳優の表情の3次元表現であってもよい。顔面アニメーション状態のそれぞれが、実際の俳優110からキャプチャされた、対応する実際の顔面状態にマップされている必要はない。
複数の所定の顔面状態間の仮想マーカの位置の変化は、解剖学的モデルに従いうる。例えば、顔面状態の変化は、顔面表情記号化システム(Facial Action Coding System:FACS)モデルまたは解剖学的モデルのための他のモデルに従いうる。顔面状態は、所定の範囲にわたるように構成され得る。顔面状態を特徴付けるために使用される数値範囲は、正規化され、有界であってもよい。しかし、一部の実施形態では、ある顔面状態を制限する範囲が、他の顔面状態に対して正規化されていなくてもよい。同様に、顔面状態は、有界である必要はないが、通常は、実際の俳優110の制約を反映するように有界である。
ソルバ150は、所定の性能指標を最適化する解を決定するように構成され得る。例えば、この所定の性能指標は、距離、最小距離、最小二乗距離、有界変数最小二乗や、これらの組み合わせなどであってもよい。
ソルバ150は、キャプチャされた状態に寄与するさまざまな顔面状態の重みの解を、形状デフォーマ170に結合する。形状デフォーマ170は、解に寄与する各顔面状態を混合した顔面アニメーションフレームを生成する。一実施形態では、形状デフォーマ170は、ソルバ150によって決定された顔面状態の重みに基づいて、顔面状態を変形させるように構成されている。例えば、形状デフォーマ170は、アニメーション解に寄与するさまざまな顔面状態の線形頂点モーフィングを実行しうる。
ソルバ150は、手動エディタ160に解を伝達するか、または他の方法によって手動エディタ160が解を使用できるようにしうる。手動エディタ160は、各顔面状態の重みをアニメータが変更できるように構成され、顔面アニメーション解に寄与する1つ以上の顔面状態をアニメータが追加または削除できるようにしうる。手動エディタ160は、1つのフレームベースでの編集、または複数のフレームベースでの編集を可能にするように構成され得る。例えば、手動エディタ160により、特定のモーションキャプチャファイルまたはフレームのグループの全ての顔面アニメーション解に影響する一括変更を適用することができる。手動エディタ160は、アニメータに視覚フィードバックを提供するために、形状デフォーマ170と連携して動作し、例えば、編集内容に基づいて顔面アニメーションを更新するように構成され得る。
一例では、手動エディタ160は、顔面アニメーションに寄与する特定の顔面状態の重みをアニメータが編集できるようにしうる。別の例では、手動エディタ160は、アニメータが、顔面状態の範囲に対応する境界の1つ以上を調整するか、または他の方法によって再構成できるようにしうる。例えば、顔面状態が、通常、0〜1の正規化範囲に入るように制限されている場合、手動エディタ160により、特定の状態の範囲を、0〜1.25、0〜0.8やその他の範囲に設定することができる。
一実施形態では、手動エディタ160は、各顔面状態のためのコントロール(ノブまたはスライダなど)を有するコンソールを備えるユーザインタフェースを提供しうる。アニメータは、コントロールを操作して、対応する顔面状態に付与された重みを変更することができる。
アニメーションに手動編集が関わったかどうかを問わず、形状デフォーマ170によって生成された最終的な顔面アニメーションが、形状デフォーマ170からアニメーションモジュール170に結合される。アニメーションモジュール170は、モーションキャプチャデータに基づいた顔面アニメーションに特に関連しない顔面アニメーション状態(色調、テクスチャリング、陰影または他の手法または操作など)の追加のアニメーションを可能にする。例えば、アニメーションモジュール180は、その後のアクセスおよび処理のために、顔面アニメーションフレームを記憶するメモリを備えうる。
図2は、顔面アニメーション装置200の一実施形態の概略機能ブロック図である。例えば、顔面アニメーション装置200は、図1の顔面アニメーションシステム100に示したさまざまなモジュールの一部を実装しうる。
顔面アニメーション装置200は、モーションキャプチャデータを記憶するように構成された記憶装置210を備える。例えば、モーションキャプチャデータは、モーションキャプチャデータの一連のフレームとして記憶され得る。このモーションキャプチャデータは、頭部の動き(傾き、回転および移動など)を除去するために安定化された顔面モーションキャプチャデータであってよい。記憶装置210は、事実上どのような種類の電子記憶装置でもよく、例えば、RAMを含む固体メモリ、ハードディスク記憶装置および磁気テープを含む磁気記憶装置、光ディスクを含む光記憶装置や、あるいはこれらの組み合わせなどである。
記憶装置210は、基準キャプチャモジュール220と重みソルバ230に結合され得る。基準キャプチャモジュール220は、モーションキャプチャデータ内のキャプチャされた実際の俳優からの所定の表情と、仮想俳優の対応する所定の表情との間の関係を規定するように構成され得る。基準キャプチャモジュール220は、重みソルバ230のほか、アニメーションライブラリ240にも結合され得る。
基準キャプチャモジュール220は、通常、モーションキャプチャデータの基礎となるモーションシーケンスの撮影の前に行われる較正段階で使用される。より詳細には、基準キャプチャモジュール220は、実際の俳優のキャプチャされた表情と、アニメーションライブラリ240に仮想基準242として記憶されている対応する所定の表情との間の関係またはマッピングを規定するために使用され得る。
実際の俳優が、所定のポーズまたは所定の表情をとった状態で、初期画像がキャプチャされる。初期画像は一般に、実際の俳優の3次元画像キャプチャである。例えば、所定の表情は、実際の俳優が実質的に無表情である休止ポーズであってもよい。当然、所定の表情は、休止ポーズに限定されることはなく、ほぼどのようなポーズまたは表情でもよい。
アニメーションライブラリ240内の仮想基準242は、実際の俳優からの所定の表情に対応しうる所定の表情を記憶するように構成されている。例えば、仮想基準242には、実際の俳優の頭部にあるモーションキャプチャマーカの配置点に対応する点に、仮想マーカが配置されているアニメーション化された仮想の頭部から導出された情報およびデータが含まれうる。
一実施形態では、仮想基準242は、実際の頭部に対応する3次元形状の数学的表現を生成するための非一様有理B−スプライン曲線(Non-Uniform Rational B-Spline:NURBS)を使用して生成され得る。仮想NURBS頭部モデルの外観は、実際のモデルの外観と同じである必要はない。実際、一部の実施形態では、仮想俳優は、本物の俳優に基づいている必要はなく、その代わり、形式化された(stylized)アニメーションキャラクタのモデルであってもよい。
別の実施形態では、仮想俳優は、実際の俳優の3次元スキャンを使用して生成され得る。3次元スキャンから、仮想俳優を定義するメッシュの表面が生成され得る。3次元スキャンの使用は、仮想俳優が、実際の俳優の外観と実質的に同じである場合に有利となりうる。
別の実施形態では、仮想基準242は、複数のポリゴンメッシュによって定義される3次元の形状または表面として生成され得る。各ポリゴンメッシュは、仮想基準242の表面の一部を定義している。
仮想の頭部の表面に、仮想マーカが配置され得る。仮想マーカのそれぞれの位置は、NURBS曲線によって定義されるメッシュが変形しても、このメッシュの表面の同じ点にとどまるように構成され得る。
基準キャプチャモジュール220は、実際の俳優から3次元キャプチャされた所定の表情にあるモーションキャプチャマーカの位置から、仮想基準242上の仮想マーカの位置にマッピングするように構成されている。一実施形態では、基準キャプチャモジュール220は、マッピングを実行する前に、キャプチャされた所定の表情を仮想基準242に対して自動的に位置決めおよび位置合わせする。例えば、基準キャプチャモジュールは、位置合わせまたは位置決めの指標に基づいて、仮想基準242に対するキャプチャされたモーションキャプチャデータの位置決めおよび位置合わせを変更するように構成され得る。例えば、位置合わせまたは位置決めの指標は、キャプチャされた画像内のモーションキャプチャマーカの位置を、仮想基準242内の仮想マーカの位置に関連付ける、最小距離、最小二乗や、またはこれらの組み合わせであってもよい。
別の実施形態では、仮想基準242に対するキャプチャされた所定の表情の位置決めおよび位置合わせが、半自動または手動で行われうる。例えば、ユーザは、ユーザインタフェース254を使用して、実際の俳優のモーションキャプチャマーカを、仮想基準242上の仮想マーカに実質的に位置合わせするために、仮想基準242の表示の上に重ねられている、キャプチャされた所定の表情の表示を操作しうる。例えば、ユーザは、ユーザインタフェース254を使用して、モーションキャプチャマーカを仮想マーカに対して並進移動、回転、スケール変更したり、または他の方法で位置決めおよび位置合わせしうる。次に、ユーザは、基準キャプチャモジュール220を起動して、マッピング操作を実行しうる。マッピング操作の結果、実際の俳優の表面(モーションキャプチャマーカの配置によって定義される)の、仮想俳優の表面に対する概算の相関が求められる。
顔面アニメーション装置200は、わずか1つの所定の表情を使用してもよいが、別の実施形態では、実際の俳優からの複数の所定の表情が、対応する1つの仮想基準242にマッピングされてもよく、有利である。顔面アニメーション装置200が、所定の表情の1つのマッピングを利用することができることで、顔面アニメーション処理を、仮想ドメインでほぼ完全に実行することができる。更に、実際の俳優からの所定の表情の数を最小限に減らすことで、各所定の表情に対して基準表情を実行しキャプチャするのに要する時間を短縮できる。
キャプチャされた画像のモーションキャプチャデータ210のうち、所定の表情ではないものは、重みソルバ230に結合される。この場合も、上で説明したように、キャプチャされた画像は、一般に、3次元画像であるか、または3次元の情報を伝える。重みソルバ230は、アニメーションライブラリ240に結合されており、仮想基準242のほかに仮想表情ライブラリ244を使用して、顔面アニメーション解を生成する。
仮想表情ライブラリ244内の各表情は、仮想基準242の生成に使用されたのと同じ仮想俳優に基づきうる。各顔面状態は、3次元の仮想俳優による異なる表情であってもよい。例えば、アニメータは、NURBS曲線によって定義されるメッシュを操作して、仮想表情ライブラリ244内の各顔面状態を生成しうる。顔面状態の数およびタイプは、仮想俳優の所望の表情の範囲に基づいて決定され得る。仮想表情ライブラリ244に含まれる顔面状態の数およびタイプが不十分な場合、仮想俳優のアニメーション化された表情の動きが欠落することがある。一般に、仮想表情ライブラリ244内の各顔面状態は、現実の顔面の動きを表すために生成される。顔面アニメーションが、モーションキャプチャデータ内の人間の行動をリアルにトラッキングすることが望ましい場合は、仮想表情ライブラリ244内の顔面状態を、実際の表情に制限することが望ましいこともある。しかし、一部の実施形態では、仮想表情ライブラリ244内の顔面状態が、誇張、変形などの非現実的な顔面の動きを表してもよい。
作成者、つまりアーチストは、仮想基準242を始点として使用して、仮想表情ライブラリ244内の各顔面状態を作成することができる。各仮想顔面状態に現れる筋肉および皮膚の細かい変形は、NURBSなど、形状のプロダクツとして生じる。メッシュが変形しても、メッシュに配置された仮想マーカは、メッシュ上の元の位置に保持される。
重みソルバ230は、アニメーションライブラリ240内の各顔面状態に適用される相対重みを決定するように構成され得る。この相対重みが結合されて、モーションキャプチャデータによって示される表情が再現される。一実施形態では、重みソルバ230は、モーションキャプチャデータ210の各フレームに対して、相対重みまたは混合形状重みなどのコントロール値を決定するように構成され得る。重みソルバ230は、仮想マーカがモーションキャプチャマーカに実質的に一致するか、または他の方法によってこれと位置が合うように、性能指標に基づいて重みまたはコントロール値の組を生成するように構成され得る。重みソルバ230は、モーションキャプチャデータの各フレームに対して、重みを再決定するか、または他の方法によって再計算できる。
実際の俳優の動きに対応するモーションキャプチャデータにおいて、顔面の筋肉の活動が皮膚を変形させ、モーションキャプチャマーカが空間中で並進移動する。重みソルバ230は、仮想俳優の皮膚または表面を変形させるための重みを決定し、仮想マーカを対応する量だけ空間中で並進移動させる。モーションキャプチャデータの各フレームに対して、重みソルバ230は、仮想マーカをモーションキャプチャデータに位置合わせする重み値(例えば混合形状重み値)の組を見つけ出すように構成することができる。
仮想俳優の表面上の点が線形に移動するという前提に基づいて、重みソルバ230によって決定される解は、わかりやすい最小二乗法のタイプ、線形最適化問題として実装され得る。
m個のコントロール(例えば混合形状重み)を仮定すると、ある点の新しい位置は以下のように計算される。
Figure 0005829371
ここで、d=pij−p
=全てのコントロールが最大値をとるときのi番目の点の位置、
ij=コントロールtjが最大値をとるときのi番目の点の位置。
上に示した式から、以下のベクトルおよび行列を定義することができる。
t=(t ... t、コントロール値のm×1ベクトル。
=(px piyiz番目の点の休止位置。
=(PTix PTiy PTiz、i番目の点のターゲット位置。
=(d ... d)、デルタ値の3×m配列。
ベクトルおよび行列の定義から、位置に関して以下の式が得られる。
Figure 0005829371
重みソルバ230は、性能指標を最適化するm個のコントロールの値を決定するように構成され得る。性能指標は、アニメーションの適切さを示す指標であれば、ほぼどのような指標として構成されてもよい。しかし、モーションキャプチャマーカの位置が、さまざまな顔面状態における仮想マーカの初期休止位置に対する距離として表され得るため、距離ベースの性能指標を使用するのが便利なこともある。例えば、性能指標が二乗距離であり、最適性能指標が最小二乗距離などである。重みソルバ230は、以下の式によって決定される最小二乗距離を与えるm個のコントロールの値を決定するように構成され得る。
=[y−(z+Xt)]
重みに対する勾配は、tに対して上記の式の導関数を求めることで決定することができる。このため、勾配は以下の式によって求めることができる。
2X Tt−2(y−z
勾配が実質的にゼロのときに最適値に達する。重みソルバ230は、個々の勾配方程式から生成したブロック行列を求めることによって、各モーションキャプチャマーカに対応するn個の点の解を求めるように構成され得る。このため、重みソルバ230は、以下の行列の一般解を求めるように構成され得る。
Figure 0005829371
m個のコントロールのそれぞれは、所定の範囲(例えば[0.1])に制限されるように構成され得る。
このため、重みソルバ230は、境界の制約を満たす解を決定するように構成され得る。重みソルバ230は、有界最小二乗解を求めるように構成され、それぞれの重みが所定の有界範囲内に制限され得る。
重みソルバ230は、重みに対する解を記憶装置(メモリ280など)に結合するように構成され得る。重みソルバ230は、1つ以上の追加のモジュールがアクセスできるように、モーションキャプチャデータの各フレームの重み解をメモリ280に記憶しうる。
形状デフォーマ270は、アニメーションライブラリ240およびメモリ280に結合され得る。形状デフォーマ270は、特定のフレームの重みにアクセスし、アニメーションライブラリ240からの顔面状態にこの重みを適用することにより、対応する顔面アニメーションを生成しうる。例えば、形状デフォーマ270は、アニメーションライブラリ240にある形状の線形頂点モーフィングを実行するように構成され得る。別の実施形態では、形状デフォーマ270は、他の手法を使用して、アニメーションライブラリからのさまざまな顔面状態を混合するように構成され得る。形状デフォーマ270は、変形または他の方法で混合された形状をメモリ280に記憶するか、あるいは表現または出力の処理中に、混合または変形された形状を生成するように構成され得る。
例えば、顔面アニメーション装置200は、別個のハードウェアモジュールとして実装されても、記憶装置に記憶され、1つ以上のプロセッサ260上で実行されるソフトウェアとして実装される1つ以上のプロセッサ可読命令として構成されても、あるいはこれらの組み合わせとして構成されてもよい。一実施形態では、顔面アニメーション装置200は、コンピュータワークステーション上で実行されているソフトウェアを使用して実装され得る。メモリ280は、モジュールの1つ以上の1つ以上の機能を実行するために、プロセッサ260によって実行される1つ以上の命令を記憶するように構成され得る。
ユーザは、エディタ250に結合されたユーザインタフェース254を使用して、1つ以上のモーションキャプチャフレームに対する重み解にアクセスし、これを手動で編集することができる。例えば、アニメータは、重みソルバ230によって決定された重みに従って顔面状態を混合して得られた顔面アニメーションフレームの1つ以上を表示することができる。アニメータは、エディタ250の一部である画像エディタ258に結合されたユーザインタフェース254を使用して、顔面アニメーションを手動で編集することができる。
ユーザインタフェース254と画像エディタ258は、顔面アニメーションを実現するために使用されるのと実質的に同じ処理を使用して、顔面アニメーションを手動編集できるように構成され得る。例えば、ユーザインタフェース254は、顔面アニメーションと、重みソルバ230によって決定された重みを表示しうる。ユーザインタフェース254は、アニメータが、アニメーションライブラリ240からの顔面状態の1つ以上に対応する重みを調整できるようにしうる。
ユーザインタフェース254は、ハードウェアに実装されるか、またはソフトウェアとハードウェアの組み合せとして実装され得る。例えば、ユーザインタフェース254は、出力を提供し、ユーザ入力を受け取るためにハードウェアを備えて構成されたグラフィカルユーザインタフェース(GUI)であってもよい。
一実施形態では、ユーザインタフェース254は、対応する顔面状態の重みを調整するコントロールを提供しうる。ユーザインタフェース254は、アニメーションライブラリ240内の各顔面状態の対応するコントロールを提供するか、または1つ以上の顔面状態に選択的に関連付けられたコントロールを提供しうる。例えば、ユーザインタフェース254は、アニメーションライブラリ240内の顔面状態用のスライドコントロールを表示するGUIであってよい。ユーザインタフェース254は、それぞれの顔面状態のコントロールを有するか、顔面状態の集合に対してコントロールを提供しうる。例えば、ユーザインタフェース254から、仮想基準242に対応するコントロールが省略されてもよいが、これは、他の全ての顔面状態に対して重みを適用しなければ仮想基準242が得られるためである。アニメータは、スライドコントロールを動かして、対応する顔面状態に関連する重みを変更することができる。このようにして、アニメータは、重みと、得られる顔面アニメーションとを手動で編集することができる。
エディタ250は、ユーザインタフェース254から変更された重みを受け取り、形状デフォーマ270を制御して、顔面アニメーションを更新させるように構成され得る。次に、エディタ250は、ユーザインタフェース254での表示のために、更新された顔面アニメーションのフォーマットを調整しうる。例えば、エディタ250は、編集された重みと、対応する顔面アニメーションとを記憶しうる。アニメータが編集内容を承諾するか、または他の方法によって記憶すると、エディタ250はメモリ280に記憶されている、アニメーションフレームに対する重みおよび顔面アニメーションを変更するように構成され得る。
また、エディタ250は、ユーザが、ユーザインタフェース254を介して、重みソルバ230に関連する1つ以上のパラメータまたは制約を変更できるようにするソルバエディタ256も備える。例えば、ユーザは、ソルバエディタ256を使用して、重みソルバ230が使用可能なアニメーションライブラリ240からの顔面状態の数および識別情報を変更するか、または他の方法によって構成することができる。更に、ユーザは、ソルバエディタ256を使用して、ソルバ制約(例えば顔面状態の相互排他性)を変更することができる。また、ユーザは、ソルバエディタ256を使用して、アニメーションライブラリ240内の顔面状態244の1つ以上の重みに対する有界範囲を変更することもできる。
重みソルバ230は、初期重み解の決定後に、ソルバエディタ256を使用してソルバパラメータまたは制約が変更されると、フレームの1つ以上の重み解をリフレッシュするか、または他の方法によって再決定するように構成され得る。例えば、ユーザは、最初のアニメーションの結果を見てから特定の表情を強調しようと思い、範囲を広げることができるように、ソルバエディタ256を使用して、表情に関連する範囲を変更することができる。重みソルバ230は、その後、新しいパラメータに基づいて、フレームの一部または全てをリフレッシュするか、または他の方法によって再決定するように構成され得る。
図3は、位置決めおよび位置合わせを示す簡略的な例である。図3には、便宜上、実際の俳優と仮想俳優の画像が含まれる。キャプチャされた画像と仮想俳優の画像には3次元の情報が含まれるが、これは図3では容易にみることができない。実際の俳優の画像からのモーションキャプチャマーカを、仮想俳優の仮想マーカに対して位置決めおよび位置合わせする処理は、マーカの位置のみを使用するか、仮想俳優のワイヤメッシュモデルを使用するか、実際の俳優の画像を使用するか、仮想俳優のスキンバージョン(skinned version)を使用するか、あるいはこれらの組み合わせによって行われうる。
仮想俳優の仮想マーカに対する、実際の俳優の画像からのモーションキャプチャマーカの初期の位置決めおよび位置合わせは、初期較正中と、顔面アニメーションの段階で実行され得る。位置決めおよび位置合わせ処理は、顔面アニメーション中に、モーションキャプチャデータに基づいて繰り返し行う必要がないこともある。更に、仮想俳優に対する実際の俳優の位置決め、位置合わせおよびマッピングは、わずか1つの所定の表情を使用して行われてもよい。
モーションキャプチャ装置は、顔面に複数のモーションキャプチャマーカが配置されている実際の俳優の基準画像310をキャプチャする。基準画像310は、通常、実際の俳優の3次元画像である。図3の例では、基準画像310は、目を閉じた休止ポーズをとっている所定の表情である。何の表情にも実質的に対応していない所定の表情を規定することは便利であると考えられるが、基準画像310に使用される実際の表情は、顔面アニメーション装置および処理の限定事項ではない。
また、顔面アニメーション処理には、仮想基準画像320も含まれ、これは、基準画像310によって表される所定の表情に実質的に対応する顔面状態である。また、仮想基準画像320は、仮想俳優の3次元モデルからの3次元画像であってもよい。仮想基準画像320には、仮想俳優の顔面に配置された複数の仮想マーカが含まれる。一般に、仮想マーカ322の数は、実際の俳優に配置したモーションキャプチャマーカ312の数と同じであり、仮想マーカ322の配置は、実際の俳優へのモーションキャプチャマーカ312の配置と実質的に同じである。しかし、マーカの数とマーカの位置を一致させることは限定事項ではなく、制約の両方または一方を満足させることが不可能か望ましくない場合もありうる。仮想俳優は、NURBS曲線のメッシュとして、実際の俳優の3次元スキャンとして、または他の方法で生成され得る。
顔面アニメーション装置および方法は、実際の俳優と実質的に外観が同じ仮想俳優の顔面アニメーションに限定されることはない。仮想俳優が、実際の俳優とほとんど似ていない、形式化された俳優であってもよい。形式化された仮想俳優の例としては、動物、漫画のキャラクタ、機械装置、芸術的な彫刻または他の形式化されたアニメーションキャラクタに似せた仮想俳優などが挙げられる。
実際の俳優のキャプチャされた基準画像310は、仮想基準画像320に対して手動または自動で位置決めおよび位置合わせされ得る。手動処理では、ユーザが、ユーザインタフェースにあるコントロールを介して、仮想基準画像320の上に基準画像310を重ねうる。次に、ユーザは、基準画像310または仮想基準画像320に関連するパラメータを調整するか、または他の方法によって制御して、モーションキャプチャマーカ312を仮想マーカ322に位置決めおよび位置合わせしうる。
一実施形態では、ユーザは、基準画像310を仮想基準画像320に位置合わせするために、基準画像310のスケール、回転、傾きおよび並進移動を調整しうる。位置決めおよび位置合わせのレベルは、指標としてユーザに報告されるか、またはユーザによって主観的に最適化され得る。位置決めおよび位置合わせの指標は、例えば、最小距離または最小二乗距離、または他の尺度であってもよい。自動位置決めおよび位置合わせ処理では、位置決めおよび位置合わせの指標を最適化するために、所定の数のパラメータのそれぞれが変更され得る。
2つの画像が位置決めおよび位置合わせされると、モーションキャプチャマーカ312の位置が仮想マーカ322の位置にマッピングされる。1つのマッピングのみが行われる実施形態では、全ての顔面アニメーションは、基準画像310の仮想基準画像320に対するマッピングに基づいたものとなる。
マッピングが完了すると、モーションキャプチャデータから生成される顔面アニメーションが、完全に仮想ドメインにおいて数学的に計算され得る。重みソルバが提供する重みは、アニメーション化される表情に寄与する、アニメーションライブラリにあるさまざまな顔面状態を変形させるように機能する。仮想俳優に発生し、顔面アニメーションとして表示される皮膚および筋肉の細かい変形は、顔面状態の変形の結果として生じるものであり、モーションキャプチャデータから仮想俳優への直接変換として行われるものではない。このため、仮想俳優によって描写される表情の細かさのレベルは、仮想俳優および顔面状態を形成する形状に含まれる細部によってほぼ決まる。顔面アニメーションの細部は、皮膚および筋肉の細かい変形をキャプチャする実際の俳優へのモーションキャプチャマーカの配置には依存しない。このように、ここに記載の顔面アニメーションの方法および装置は、モーションキャプチャマーカを仮想俳優の表情の変形に直接マッピングする顔面アニメーション処理に必要とされるよりも、使用するモーションキャプチャマーカがはるかに少なくて済む。
図4は、モーションキャプチャデータに基づく仮想俳優の顔面アニメーションを示す簡略的な例である。第1の画像410は、モーションキャプチャデータのフレーム内に記憶されているモーションキャプチャマーカ412の位置を示す。第1の画像410内のモーションキャプチャマーカの位置は、所定のポーズ(休止ポーズなど)をとっている実際の俳優の基準画像のモーションキャプチャマーカ412の位置を表しうる。
モーションキャプチャマーカ412の位置が、仮想マーカ413の位置の上に重ねられて示されている。例えば、モーションキャプチャマーカ412の位置は、モーションキャプチャマーカ412の位置決めおよび位置合わせされた位置を表しうる。一般に、位置決めおよび位置合わせは3次元で行われるが、図4は図示しやすいように2次元で示されている。このため、モーションキャプチャマーカ412の位置は、仮想基準画像の仮想マーカ413の位置であるとも解釈され得る。
第2の画像420は、特定のフレームのモーションキャプチャデータの例を表している。第2の画像420は、モーションキャプチャデータのこの特定のフレームのモーションキャプチャマーカ412の位置を示しており、基準位置について仮想マーカ413の位置に重ねられている。また、第2の画像420は、ソルバの重み解に基づいて決定された仮想マーカ414の位置も示している。すなわち、仮想マーカ414の位置は、ソルバによって決定された重みに従って顔面状態を混合した後のマーカの位置を表している。
重み付けされた顔面状態が、混合されると、フレームについて実質的にモーションキャプチャマーカ412の位置に仮想マーカ414を配置するように、仮想俳優の表面を変形させるように、顔面アニメーション装置は、アニメーションライブラリ内の顔面状態のそれぞれに適用される重みを決定する処理を実行する。重みソルバは、性能指標(二乗距離など)を検査することによって、解に収束したと判定する。
第3の画像430は、重み付けされた顔面状態の結合、モーフィング、またはその他の混合により得られた顔面アニメーションの例を示す。また、第3の画像430には、顔面状態のリストと、顔面状態について、例えば重みソルバによって決定された対応する重みとを示す表示ウィンドウ440も含まれる。第3の画像430の顔面アニメーション映像が、編集された顔面アニメーションである場合には、表示ウィンドウ440は変更された重みを示している。
図5は、さまざまな顔面状態を含むアニメーションライブラリの例である。さまざまな顔面状態(510など)は、それぞれ、仮想マーカを含む仮想基準画像から、この仮想基準画像のメッシュまたは曲線を変形させ、所望の顔面状態を作成することによって生成され得る。仮想マーカは、メッシュの表面上の元の位置にとどまる。仮想基準画像のマーカの位置からの、作成された顔面状態内の仮想マーカの位置のずれは、実際の俳優の表情の変化によって生じるずれをモデル化している。
図5に示す顔面状態(510など)は、顔面状態の最大範囲を示し、他の顔面状態は寄与していない。すなわち、図5に示す顔面状態のそれぞれは、1つの顔面状態のみの結果であり、その顔面状態の重みが最大値に設定されている。
アニメーションライブラリに含むことができる顔面状態の数には、事実上制限はない。しかし、含まれる顔面状態が多すぎると、顔面アニメーションが実質的に改善されず、重みソルバによる解が複雑化してしまう。アニメーションライブラリに含まれる顔面状態が少なすぎると、顔面アニメーションの動きが欠落し、得られる顔面アニメーションが望ましくないものとなる。
重みソルバは、顔面アニメーションに寄与する各顔面状態の重みを決定しうる。重みソルバは、それぞれの重みが変化できる有界範囲によって制約され得る。別の実施形態では、重みソルバは、顔面状態の組み合せの制限によって制約され得る。例えば、重みソルバが、ある顔面状態がほかの顔面状態と相互排他的に適用されることを要求する1つ以上の制約を有しうる。例えば、「口の右」を表す顔面状態は、「口の左」を表す顔面状態と相互排他的であるように制約され得る。当然、顔面状態の中には、他の顔面状態と相互排他的でないものがあっても、複数の異なる顔面状態と相互排他的なものがあってもよい。
図6は、顔面状態の混合と、得られる顔面アニメーションを示す簡略的な例である。図6に示す顔面状態の混合は、重みソルバによって決定される重みに基づいても、またはユーザ入力を介した顔面アニメーション装置に入力されるユーザ編集に基づいて手動で決定されてもよい。
第1の画像は、第1の顔面状態610の顔面アニメーションを示す。第1の顔面状態610は最大範囲にあり、他の顔面状態は画像に寄与していないことが示されている。第1のコントロール表示612は、顔面アニメーションの編集に使用できるグラフィックユーザインタフェースの一部を示す。第1のコントロール表示612は、スライドコントロールの場合には数値を示しており、それぞれがアニメーションライブラリ内の特定の顔面状態に対応している。第1のコントロール表示612は、表示されている第1の顔面状態610用の第1のスライドコントロール614を示している。表示されている第1の顔面状態610用の第1のスライドコントロール614は、その最大範囲またはフルレンジをとって示されている。
同様に、第2の画像は、第2の顔面状態620の顔面アニメーションと、第2のコントロール表示622を示している。第2の顔面状態620は、同様に最大範囲をとり、他の顔面状態は寄与していないことが示されている。第2のコントロール表示622では、第2のスライドコントロール624がそのフルレンジまたは最大範囲をとり、他の全てのスライドコントロールは最小範囲をとって示されている。
第3の画像は、第1の画像と第2の画像との混合、モーフィングまたは組み合せである顔面アニメーション630を示しており、第1の顔面状態610がその最大範囲の約80%に重み付けされ、第2の顔面状態620がその最大範囲の約75%に重み付けされるように制御されている。例えば、第1の顔面状態610と第2の顔面状態620は、それぞれ、スライドコントロール614,624の位置を再調整することによってこれらの重みに制御され得る。第3のコントロール表示632では、第2のスライドコントロール624がその最大範囲の約75%に再調整されて示されている。
得られる顔面アニメーションと、顔面アニメーションのさまざまなテクスチャおよび変形は、曲線、メッシュ、および各顔面状態の基礎をなすその他の構造に基づいている。合成された顔面アニメーション630は、実際のモーションキャプチャマーカの仮想空間への顔面マッピングを必ずしも反映したものでなくてもよく、モーションキャプチャデータ内の実際のマーカの位置に最も適合する仮想空間における重み付けされた解を反映していてもよい。
図7は、モーションキャプチャデータを使用した顔面アニメーションの方法の概略フローチャート700である。方法700は、例えば、アニメータによって提供される入力または制御を使用して、図1または図2の顔面アニメーション装置によって実行され得る。
方法700はブロック702から開始し、アニメータが、実際の俳優のモーションキャプチャマーカの位置を決定する。記載している実施形態では、実際の俳優の顔面に配置するモーションキャプチャマーカの数は、モーションキャプチャマーカの位置を顔面アニメーションに直接マッピングする他のモーションキャプチャの実装で使用されるマーカよりも少なくてもよい。直接マッピングの顔面アニメーションの実装では、モーションキャプチャマーカの移動を用いて、仮想俳優上の仮想マーカが移動され得る。このため、アニメーション化される表情の細部は、実際の俳優の変化をキャプチャできるモーションキャプチャマーカの能力に直接対応しうる。
しかし、ここに記載の方法および装置では、仮想俳優の顔面アニメーションは、複数の顔面アニメーション状態の混合の結果得られる。得られる顔面アニメーションの細部は、モーションキャプチャマーカによってキャプチャされる詳細の関数では必ずしもなく、混合された顔面アニメーションに寄与する各顔面状態に含まれる細部に基づく。例えば、開示の方法および装置を支援するモーションキャプチャマーカの数は、わずか30個であってもよく、その際、仮想俳優にアニメーション化される特徴の細部はほとんど失われずに済む。
アニメータはブロック710に進み、仮想俳優のアニメーションモデルを決定しうる。一部の実施形態では、仮想俳優は、実際の俳優と実質的に同じに定義され得る。しかし、別の実施形態では、仮想俳優が実際の俳優と似ている必要はない。例えば、仮想俳優は、物理的な世界に類似するものがない、形式化されたキャラクタまたは想像のキャラクタであってもよい。
アニメータは、例えば、各種アニメーションツールのいずれかを使用して、仮想俳優のモデルを生成しうる。例えば、アニメータは、NURBS曲線の組に基づいて、頭部のスカルプチャを定義しうる。また、アニメータは、さまざまな顔面状態をアニメーション化するための基礎をなすモデルも定義しうる。例えば、人間の頭部を実質的に表す仮想俳優の動きは、顔面表情記号化システム(Facial Action Coding System:FACS)などの所定の顔面モデルによって、その動きがモデル化されていてもよい。
ステップ712において、アニメータはアニメーションライブラリを定義する。アニメータは、基準顔面状態を表す顔面状態のほかに、アニメーションライブラリに寄与する顔面状態を決定しうる。各顔面状態は、異なる表情を表しており、アニメーションライブラリ内の顔面状態の数およびバリエーションが、リアルな顔面アニメーションを作成できる能力に寄与する。例えば、アニメータは、実際の俳優の3次元スキャン、基準顔面状態における仮想俳優のモデル、あるいは仮想俳優の他のモデルまたは表現などに基づいて、各顔面状態を作成しうる。
アニメータはブロック720に進み、顔面アニメーション装置が、所定のポーズをとっている実際の俳優の基準画像をキャプチャする。基準画像内のモーションキャプチャマーカの位置が、仮想基準画像内の仮想マーカの位置にマッピングされる。一般に、基準画像は、仮想基準画像によって定義されるのと同じ表情をしている実際の俳優でキャプチャされる。例えば、休止ポーズをとり、実質的に無表情をしている実際の俳優で基準画像がキャプチャされ得る。例えば、顔面アニメーション装置は、モーションキャプチャマーカの位置を記録するように構成されたビデオカメラの組から、基準画像のモーションキャプチャデータを受信しうる。
基準画像のデータをキャプチャしたら、顔面アニメーション装置はブロック722に進む。ブロック722において、顔面アニメーション装置は、基準画像を仮想基準画像に位置合わせおよび位置決めする。顔面アニメーション装置は、位置合わせおよび位置決めを、アニメータからの手動コマンド、または手動処理と自動処理の組み合わせを併用して、自動的に実行するように構成され得る。一実施形態では、顔面アニメーション装置は、基準画像と仮想基準画像をディスプレイに表示するように構成され得る。顔面アニメーション装置は、アニメータが画像の位置合わせおよび位置決めを実行できるようにするため、基準画像を変更しているアニメータからの入力を受け取りうる。顔面アニメーション装置にあるユーザインタフェースは、位置合わせおよび位置決めを容易にするため、例えば、スケール、回転、並進移動、傾き、および基準画像または仮想基準の他の側面を制御するために使用され得る。
自動、手動を問わず、基準画像および仮想基準画像が位置合わせおよび位置決めされると、顔面アニメーション装置はブロック724に進み、位置合わせおよび位置決めされた基準画像上のモーションキャプチャマーカの位置を、仮想基準画像上の仮想マーカの位置にマッピングする。例えば、顔面アニメーション装置は、各モーションキャプチャマーカの位置を、最も近い仮想マーカに対して決定し、その後得られるモーションキャプチャデータを、マッピングで決定されたオフセット距離によって補償しうる。
顔面アニメーション装置はブロック730に進み、顔面アニメーションを実行すべき1つ以上のフレームについて、モーションキャプチャデータをキャプチャするか、または他の方法によって受け取る。一般に、モーションキャプチャデータは、モーションキャプチャデータのフレームに編成されており、これらのフレームは、モーションキャプチャマーカを位置合わせし、顔面アニメーションとは無関係な頭部の移動を除去するために処理されている。顔面アニメーション装置は、モーションキャプチャデータの1つのフレームをメモリから取得するように構成されても、または、供給源(モーションキャプチャカメラの組など)から、モーションキャプチャデータを1度に1フレームずつ受け取るように構成されてもよい。
顔面アニメーション装置は、モーションキャプチャデータのフレームを受け取るかまたは取得すると、ブロック740に進む。顔面アニメーション装置は、モーションキャプチャマーカの位置を決定する。例えば、顔面アニメーション装置は、各モーションキャプチャマーカの位置を3次元で決定するために、複数のカメラからのモーションキャプチャデータを使用しうる。例えば、顔面アニメーション装置は、基準画像の位置決めおよびマッピング中に定義された直交座標系に従って、各モーションキャプチャマーカのx、y、z位置を決定しうる。
顔面アニメーション装置はブロック742に進み、モーションキャプチャデータ内の各モーションキャプチャマーカと、仮想基準画像上の対応する仮想マーカとの間の距離を決定する。一般に、顔面アニメーション装置は、特に、モーションキャプチャマーカと仮想マーカ間に一対一の対応が存在し、かつモーションキャプチャマーカの少なくとも1つの移動が隣接するマーカの間の距離に対して小さい場合に、モーションキャプチャマーカと、関連する仮想マーカとの組み合せを一意に特定することが可能である。顔面アニメーション装置は、基準画像の仮想基準画像へのマップ中に決定されたマッピング誤差を訂正した後に、距離を決定するように構成され得る。
一部の実施形態では、顔面アニメーション装置は、距離のほかに、方向を決定するか何らかの形で示すように構成され得る。例えば、顔面アニメーション装置は、各モーションキャプチャマーカの、その関連する仮想マーカに対するデルタを示すベクトルを決定するように構成され得る。
顔面アニメーション装置はブロック750に進み、顔面アニメーションライブラリ内の顔面状態に対する重みの解を決定し、これらが、モーションキャプチャデータに実質的に適合させるために合成または混合される。顔面アニメーション装置は、重みに関連する性能指標を最適化するように構成され得る。例えば、性能指標は、最小距離、最小二乗距離または他の性能指標であってもよい。
顔面アニメーション装置は、1つ以上の解制約の存在下で、性能指標を最適化するように構成され得る。解制約は、例えば、重み解を制約するか、または他の方法によって限界を定める規則であってよい。例えば、解は、有界最小二乗解であり、重みはそれぞれ、所定の範囲内に入るように制約される。この所定の範囲は、それぞれの表情が正規化される表情の範囲などである。別の制約は、ある顔面状態を他の1つ以上の顔面状態と相互排他的になるように指定しうる。この制約下では、ある顔面状態に関連する重みがゼロ以外である重み解が、相互排他的な別の顔面状態に関連する重みが非ゼロであってはならない。相互排他的な顔面状態の例としては、例えば、「口の右」の顔面状態と「口の左」の顔面状態が挙げられる。
重み解を決定すると、顔面アニメーション装置はブロック760に進み、さまざまな顔面状態に対する重みに少なくとも部分的に基づいて、顔面アニメーションを決定する。例えば、顔面アニメーション装置は、顔面状態の線形頂点モーフィングを、その重みに従って実行する混合形状デフォーマを実行するように構成され得る。顔面状態は、混合形状デフォーマによってターゲットとして使用される。
顔面アニメーションを生成すると、顔面アニメーション装置は判定ブロック770に進み、アニメーション化すべき追加のフレームが存在するか、あるいかモーションキャプチャデータの全てのフレームがアニメーション化されているかを判定する。モーションキャプチャデータのフレームが更に存在する場合、顔面アニメーション装置はブロック730に戻り、モーションキャプチャデータの次のフレームをキャプチャするか、取得するか、または他の方法によって受け取る。全モーションキャプチャデータが処理され、対応する顔面アニメーションフレームが生成されている場合、顔面アニメーション装置はブロック780に進む。
ブロック780において、顔面アニメーション装置は、アニメータが、生成済みの顔面アニメーションフレームに対して、手動編集を実行可能にしうる。例えば、アニメータは、顔面アニメーションをプレビューして、1つ以上のフレームを編集すべきであると判定しうる。顔面アニメーション装置は、グラフィカルユーザインタフェースを介してアニメータから編集内容を受け取りうる。グラフィカルユーザインタフェースは、顔面アニメーションを表示し、顔面状態の1つ以上に関連するコントロールを表示しうる。アニメータは、顔面状態に関連するコントロールを操作することによって、顔面状態の重みを調整しうる。例えば、グラフィカルユーザインタフェースは顔面状態のそれぞれに対してスライドコントロールを表示し、アニメータは、対応するスライドコントロールを操作することにより、顔面状態の重みを調整しうる。
また、顔面アニメーション装置は、顔面状態の1つ以上に対する一括変更を可能にしうる。また、顔面アニメーション装置は、重みソルバに関連する1つ以上のパラメータまたは制約を編集可能にしうる。例えば、複数の顔面状態の範囲が、最初は同じ範囲に正規化されているとする。アニメータは、顔面状態の1つ以上の範囲を、正規化範囲とは異なる範囲に拡げるように調整しうる。更新された範囲は、顔面アニメーションフレームの全てに適用されるか、またはフレームの選択された集合のみに適用され得る。範囲の変更が可能であることは、顔面状態では実際の俳優の表情を良好に描写できない場合や、特定の顔面アニメーションを誇張する場合に、役立つことがある。
アニメータがコントロールを調整すると、顔面アニメーション装置は、顔面アニメーションの変化の視覚によるフィードバックをアニメータに提供するために、顔面アニメーションを更新しうる。ユーザインタフェースは、アニメータが編集内容を承諾して、編集した顔面アニメーションフレームを記憶可能にしうる。アニメータが顔面アニメーションフレームを手動で編集すると、顔面アニメーション装置は判定ブロック785に進み、編集を行ったことで、重み解を更新する必要があるかどうかが判定され得る。例えば、手動編集によって、重みソルバが使用可能な顔面状態が追加または削除された場合は、重み解が変わりうる。1つ以上の重み解を再決定するか、または他の方法によってリフレッシュする必要がある場合、顔面アニメーション装置はブロック750に戻り、重み解を更新する。
判定ブロック785において、顔面アニメーション装置が、解の更新は不要であると判定した場合、顔面アニメーション装置はブロック790に進み、顔面アニメーション処理が終了する。例えば、アニメータが、特定のフレームに対して重み解を調整して、そのフレームについて単にアニメーション編集を実行する場合には、重み解の更新が不要なことがある。
アニメーションコントロールの組に対するモーションキャプチャ性能を求めることによって、顔面アニメーションの処理を可能にする方法および装置をここに開示した。各アニメーションコントロールは、顔面状態のために、特定の顔面の動きを定義するように構成され得る。各アニメーションコントロールは、顔面の動きまたは状態に関連するわずかな筋肉の変形および皮膚の動きを符号化している。
ここで使用されるように、「結合される」または「接続される」との文言は、直接的な結合または接続のほかに、間接的な結合を指すためにも使用される。2つ以上のブロック、モジュール、デバイスまたは装置が結合されている場合、この2つの結合されたブロックの間に1つ以上の中間ブロックが存在してもよい。
ここに開示の実施形態に関連して記載した、各種の例示的な論理ブロック、モジュールおよび回路は、汎用プロセッサ、デジタル信号処理装置(DSP)、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)またはその他のプログラマブルロジックデバイス、別個のゲートまたはトランジスタロジック、別個のハードウェア部品、あるいはここに記載した機能を実行するように設計されたこれらの組み合わせによって、実装または実行することができる。汎用プロセッサはマイクロプロセッサでもよいが、別法として、プロセッサは、どのようなプロセッサ、コントローラ、マイクロコントローラまたはステートマシンでもよい。プロセッサは、複数のコンピューティングデバイスの組み合せ(例えばDSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと併用した1つ以上のマイクロプロセッサ、またはこのような他の任意の構成)として実装され得る。
ここに開示の実施形態に関連して記載した方法、処理またはアルゴリズムのステップは、ハードウェアで直接実施されても、プロセッサによって実行されるソフトウェアモジュールによって実施されても、あるいはこれら2つの組み合せで実施されてもよい。方法または処理における各種ステップまたは行為は、記載した順序で実行されても、別の順序で実行されてもよい。更に、処理または方法の1つ以上のステップを省略しても、処理または方法の1つ以上のステップを方法および処理に追加してもよい。追加のステップ、ブロックまたはアクションは、方法および処理の開始要素、終了要素またはその間の既存の要素に追加することができる。
開示の実施形態の説明は、全ての当業者が、本開示を作成または使用することができるように提供される。これらの実施形態の各種の変更は、当業者にとって非常に自明であり、ここに定義した一般的な原理は、本開示の趣旨または範囲から逸脱することなく、他の実施形態に適用することができる。このため、本開示は、ここに示した実施形態に限定されることを意図するものではなく、ここに開示した原則および新規の特徴と一貫する最も広い範囲を与えられるべきである。
顔面モーションキャプチャシステムの一実施形態の概略機能ブロック図である。 顔面アニメーション装置の一実施形態の概略機能ブロック図である。 位置決めおよび位置合わせを示す簡略的な例である。 モーションキャプチャデータに基づく仮想俳優の顔面アニメーションを示す簡略的な例である。 アニメーションライブラリ内のさまざまな顔面状態の例である。 顔面状態の混合を示す簡略的な例である。 モーションキャプチャデータを使用した顔面アニメーションの方法の概略フローチャートである。

Claims (15)

  1. コンピュータが実行する、モーションキャプチャデータからの顔面アニメーションの方法であって、前記コンピュータが、
    複数のモーションキャプチャマーカを含んだ基準画像を、複数の仮想マーカを含んだ仮想基準画像に対してマッピングするステップと、
    複数の所定の顔面状態を有する仮想表情ライブラリを生成するステップと、 前記複数のモーションキャプチャマーカのそれぞれの、前記複数の仮想マーカのうちの対応する仮想マーカへのオフセットを決定するステップと、
    複数の所定の顔面状態から、ある顔面状態と、他の1つの顔面状態と、が相互排他的になるように顔面状態のセットを決定するステップと、
    前記オフセットと前記決定された相互排他的な顔面状態のセットに基づいて仮想表情ライブラリ内の複数の所定の顔面状態のそれぞれに対する重みの解を決定し、かつ、前記相互排他的な顔面状態のセットが決定されているときは、前記ある顔面状態に関連する重みの解がゼロ以外であるときには、前記他の1つの顔面状態に関連する重みの解がゼロとなるように決定されるものであるステップと、
    顔面アニメーションを生成するために、前記重みの解に従って前記仮想表情ライブラリ内の前記複数の所定の顔面状態を結合するステップと、を有する方法。
  2. モーションキャプチャデータの基準画像を仮想基準画像に位置決めおよび位置合わせするステップを更に有する請求項1に記載の方法。
  3. 前記複数のモーションキャプチャマーカのそれぞれの前記オフセットを決定する前記ステップは、前記複数のモーションキャプチャマーカのそれぞれについてデルタベクトルを決定するステップを有する請求項1に記載の方法。
  4. 前記オフセットを決定する前記ステップは、仮想基準画像から前記対応する仮想マーカまでの距離を決定するステップを有する請求項1に記載の方法。
  5. 前記重みの解を決定する前記ステップは、最小二乗距離を含む所定の性能指標を最適化する前記重みの解を決定するステップを有する請求項1に記載の方法。
  6. 前記複数の所定の顔面状態を結合する前記ステップは、前記重みの解に従った顔面状態の線形頂点モーフィングを含む請求項1に記載の方法。
  7. 前記複数の所定の顔面状態を結合する前記ステップは、前記重みの解に従って、各顔面状態について曲線のメッシュを変形させるステップを有する請求項1に記載の方法。
  8. 顔面アニメーション装置であって、
    複数の顔面状態の仮想表情ライブラリおよび基準画像からのモーションキャプチャマーカにマップされた仮想マーカを含む仮想基準画像のアニメーションライブラリであって、前記仮想表情ライブラリは複数の顔面状態を含むものである、アニメーションライブラリと、
    モーションキャプチャデータにアクセスし、複数の顔面状態から、ある顔面状態と、他の1つの顔面状態と、が相互排他的になるように顔面状態のセットを決定し、前記アニメーションライブラリ内の前記顔面状態のそれぞれに対して、前記決定された少なくとも1セットの相互排他的な顔面状態に少なくとも部分的に基づいて性能指標を最適化するために重みの解を決定し、かつ、前記相互排他的な顔面状態のセットが決定されているときは、前記ある顔面状態に関連する重みの解がゼロ以外であるときには、前記他の1つの顔面状態に関連する重みの解がゼロとなるように決定されるように構成された重みソルバと、
    前記モーションキャプチャデータに対する顔面アニメーションを生成するために、前記重みの解に従って前記複数の顔面状態を結合するように構成された形状デフォーマと、を有する装置。
  9. 前記顔面アニメーションのために、前記重みの解のうちの1つ以上の重みに対する調整を受け取るように構成されたユーザインタフェースと、
    前記重みソルバに対する1つ以上のパラメータまたは制約を変更するように構成されたエディタと、を更に有する請求項8に記載の装置。
  10. 実際の俳優からモーションキャプチャマーカの位置を記録するように構成された少なくとも1つのカメラと、
    前記少なくとも1つのカメラに結合され、モーションキャプチャマーカの位置から前記実際の俳優の頭部の動きを除去することによって、モーションキャプチャデータを生成するように構成された安定化モジュールと、を更に有する請求項8に記載の装置。
  11. 前記基準画像にアクセスし、前記モーションキャプチャマーカのそれぞれの位置を仮想マーカの対応する位置にマッピングするように構成された基準キャプチャモジュールを更に有する請求項8に記載の装置。
  12. 前記複数の顔面状態のそれぞれは、顔面アニメーションモデルに従った前記仮想基準画像の変形を含む請求項8に記載の装置。
  13. 前記重みソルバは、少なくとも1つの制約の存在下で前記性能指標を最適化するように構成され、前記少なくとも1つの制約が第2の顔面状態に相互排他的な第1の顔面状態を指定している請求項8に記載の装置。
  14. 前記少なくとも1つの制約は、前記重みの解にある各重みが変化できる有界範囲を指定している請求項13に記載の装置。
  15. 前記重みソルバは、前記モーションキャプチャデータ内のモーションキャプチャマーカの位置および仮想マーカの位置に基づいて、有界最小二乗解を実行するように構成されている請求項8に記載の装置。
JP2008232751A 2007-09-11 2008-09-11 モーションキャプチャデータを使用する顔面アニメーション Active JP5829371B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/853,645 US8390628B2 (en) 2007-09-11 2007-09-11 Facial animation using motion capture data
US11/853,645 2007-09-11

Publications (3)

Publication Number Publication Date
JP2009070380A JP2009070380A (ja) 2009-04-02
JP2009070380A5 JP2009070380A5 (ja) 2011-10-27
JP5829371B2 true JP5829371B2 (ja) 2015-12-09

Family

ID=40303766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232751A Active JP5829371B2 (ja) 2007-09-11 2008-09-11 モーションキャプチャデータを使用する顔面アニメーション

Country Status (3)

Country Link
US (1) US8390628B2 (ja)
EP (1) EP2043049B1 (ja)
JP (1) JP5829371B2 (ja)

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830384B1 (en) * 2005-04-27 2010-11-09 Image Metrics Limited Animating graphical objects using input video
US8217922B2 (en) * 2008-01-07 2012-07-10 Harry Lee Wainwright Synchronized visual and audio apparatus and method
US8648863B1 (en) * 2008-05-20 2014-02-11 Pixar Methods and apparatus for performance style extraction for quality control of animation
US9129434B2 (en) * 2008-05-29 2015-09-08 Robert R. Taylor Method and system for 3D surface deformation fitting
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8442330B2 (en) 2009-03-31 2013-05-14 Nbcuniversal Media, Llc System and method for automatic landmark labeling with minimal supervision
US20100315424A1 (en) * 2009-06-15 2010-12-16 Tao Cai Computer graphic generation and display method and system
US8527217B2 (en) * 2009-09-08 2013-09-03 Dynamic Athletic Research Institute, Llc Apparatus and method for physical evaluation
US8698747B1 (en) 2009-10-12 2014-04-15 Mattel, Inc. Hand-activated controller
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US9196074B1 (en) * 2010-10-29 2015-11-24 Lucasfilm Entertainment Company Ltd. Refining facial animation models
KR101815986B1 (ko) * 2011-07-14 2018-01-09 삼성전자주식회사 가상 세계 처리 장치 및 방법
US9165404B2 (en) * 2011-07-14 2015-10-20 Samsung Electronics Co., Ltd. Method, apparatus, and system for processing virtual world
US10049482B2 (en) 2011-07-22 2018-08-14 Adobe Systems Incorporated Systems and methods for animation recommendations
US9123144B2 (en) * 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation
US10748325B2 (en) 2011-11-17 2020-08-18 Adobe Inc. System and method for automatic rigging of three dimensional characters for facial animation
US10013787B2 (en) 2011-12-12 2018-07-03 Faceshift Ag Method for facial animation
US10269165B1 (en) * 2012-01-30 2019-04-23 Lucasfilm Entertainment Company Ltd. Facial animation models
US9747495B2 (en) * 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
CN104170318B (zh) 2012-04-09 2018-06-01 英特尔公司 使用交互化身的通信
WO2014139118A1 (en) * 2013-03-14 2014-09-18 Intel Corporation Adaptive facial expression calibration
US9747716B1 (en) 2013-03-15 2017-08-29 Lucasfilm Entertainment Company Ltd. Facial animation models
US9946448B2 (en) 2013-03-15 2018-04-17 Crayola Llc Coloring kit for capturing and animating two-dimensional colored creation
US9424811B2 (en) 2013-03-15 2016-08-23 Crayola Llc Digital collage creation kit
US10475226B2 (en) 2013-03-15 2019-11-12 Crayola Llc Coloring kit for capturing and animating two-dimensional colored creation
US9355487B2 (en) * 2013-03-15 2016-05-31 Crayola, Llc Coloring kit for capturing and animating two-dimensional colored creation
US9990754B1 (en) 2014-02-04 2018-06-05 Electronic Arts Inc. System for rendering using position based finite element simulation
WO2016030305A1 (en) * 2014-08-29 2016-03-03 Thomson Licensing Method and device for registering an image to a model
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
US9827496B1 (en) * 2015-03-27 2017-11-28 Electronics Arts, Inc. System for example-based motion synthesis
US10022628B1 (en) 2015-03-31 2018-07-17 Electronic Arts Inc. System for feature-based motion adaptation
US10146877B1 (en) * 2015-08-17 2018-12-04 Amazon Technologies, Inc. Area of interest subscription
US11893671B2 (en) * 2015-09-07 2024-02-06 Sony Interactive Entertainment LLC Image regularization and retargeting system
WO2017044499A1 (en) 2015-09-07 2017-03-16 Sony Interactive Entertainment America Llc Image regularization and retargeting system
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
US10475225B2 (en) * 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
EP3232403B1 (en) * 2016-04-11 2024-05-29 Goodrich Corporation Fast multi-spectral image registration by modeling platform motion
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
US10559111B2 (en) 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
WO2017223530A1 (en) 2016-06-23 2017-12-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
US10403018B1 (en) 2016-07-12 2019-09-03 Electronic Arts Inc. Swarm crowd rendering system
US10726611B1 (en) 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
US10395412B2 (en) * 2016-12-30 2019-08-27 Microsoft Technology Licensing, Llc Morphing chart animations in a browser
US10304225B2 (en) 2016-12-30 2019-05-28 Microsoft Technology Licensing, Llc Chart-type agnostic scene graph for defining a chart
US11086498B2 (en) 2016-12-30 2021-08-10 Microsoft Technology Licensing, Llc. Server-side chart layout for interactive web application charts
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10535174B1 (en) 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
CN107945255A (zh) * 2017-11-24 2018-04-20 北京德火新媒体技术有限公司 一种虚拟人物表情驱动方法及系统
US10430642B2 (en) * 2017-12-07 2019-10-01 Apple Inc. Generating animated three-dimensional models from captured images
US10860838B1 (en) 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US11722764B2 (en) * 2018-05-07 2023-08-08 Apple Inc. Creative camera
CN108805966A (zh) * 2018-05-28 2018-11-13 上海大学 基于多模态捕捉的快速动画成片方法和系统
US10198845B1 (en) 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
US11087520B2 (en) * 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
US11551393B2 (en) 2019-07-23 2023-01-10 LoomAi, Inc. Systems and methods for animation generation
US11972353B2 (en) 2020-01-22 2024-04-30 Electronic Arts Inc. Character controllers using motion variational autoencoders (MVAEs)
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11670013B2 (en) 2020-06-26 2023-06-06 Jigar Patel Methods, systems, and computing platforms for photograph overlaying utilizing anatomic body mapping
JP7509492B2 (ja) * 2020-08-12 2024-07-02 ポーラ化成工業株式会社 出力方法、出力システム及び出力プログラム
US11663764B2 (en) 2021-01-27 2023-05-30 Spree3D Corporation Automatic creation of a photorealistic customized animated garmented avatar
US11830121B1 (en) 2021-01-26 2023-11-28 Electronic Arts Inc. Neural animation layering for synthesizing martial arts movements
US11494964B2 (en) * 2021-04-02 2022-11-08 Sony Interactive Entertainment LLC 2D/3D tracking and camera/animation plug-ins
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
US11769346B2 (en) * 2021-06-03 2023-09-26 Spree3D Corporation Video reenactment with hair shape and motion transfer
US11836905B2 (en) 2021-06-03 2023-12-05 Spree3D Corporation Image reenactment with illumination disentanglement
US11854579B2 (en) 2021-06-03 2023-12-26 Spree3D Corporation Video reenactment taking into account temporal information
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
CN113256684B (zh) * 2021-06-11 2021-10-01 腾讯科技(深圳)有限公司 动捕数据的修复方法、装置、设备及存储介质
US11670030B2 (en) 2021-07-01 2023-06-06 Electronic Arts Inc. Enhanced animation generation based on video with local phase
US11562523B1 (en) 2021-08-02 2023-01-24 Electronic Arts Inc. Enhanced animation generation based on motion matching using local bone phases
US20230143019A1 (en) * 2021-11-10 2023-05-11 Evr Studio Co., Ltd. Method of generating facial expression and three-dimensional (3d) graphic interface device using the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3106491B2 (ja) * 1990-09-26 2000-11-06 ソニー株式会社 画像作成装置及び画像作成方法
CA2227361A1 (en) * 1998-01-19 1999-07-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of expressions
US20020067362A1 (en) * 1998-11-06 2002-06-06 Agostino Nocera Luciano Pasquale Method and system generating an avatar animation transform using a neutral face image
US7068277B2 (en) * 2003-03-13 2006-06-27 Sony Corporation System and method for animating a digital facial model
JP2004363751A (ja) * 2003-06-03 2004-12-24 Pioneer Electronic Corp 画像情報再生装置の制御装置及び制御方法
TWI220234B (en) 2003-10-21 2004-08-11 Ind Tech Res Inst A method to simulate animated images for an object
JP4379616B2 (ja) * 2005-03-01 2009-12-09 株式会社国際電気通信基礎技術研究所 モーションキャプチャデータ補正装置、マルチモーダルコーパス作成システム、画像合成装置、及びコンピュータプログラム
CA2553546A1 (en) * 2005-07-29 2007-01-29 Avid Technology, Inc. Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh

Also Published As

Publication number Publication date
US20090066700A1 (en) 2009-03-12
EP2043049A3 (en) 2010-08-04
JP2009070380A (ja) 2009-04-02
EP2043049B1 (en) 2020-03-18
US8390628B2 (en) 2013-03-05
EP2043049A2 (en) 2009-04-01

Similar Documents

Publication Publication Date Title
JP5829371B2 (ja) モーションキャプチャデータを使用する顔面アニメーション
Cao et al. Facewarehouse: A 3d facial expression database for visual computing
EP1748391A2 (en) Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
US11158104B1 (en) Systems and methods for building a pseudo-muscle topology of a live actor in computer animation
US9892485B2 (en) System and method for mesh distance based geometry deformation
JP4842242B2 (ja) キャラクタアニメーション時の皮膚のしわのリアルタイム表現方法及び装置
Miranda et al. Sketch express: A sketching interface for facial animation
Song et al. A generic framework for efficient 2-D and 3-D facial expression analogy
Orvalho et al. Transferring the rig and animations from a character to different face models
JP2023540434A (ja) 操作順序変形エンジンを用いたコンピュータアニメーションのためのシステム及び方法
EP3980975B1 (en) Method of inferring microdetail on skin animation
US9317967B1 (en) Deformation of surface objects
US20190392653A1 (en) Method and apparatus for sculpting a 3d model
Zhang et al. Anatomy-based face reconstruction for animation using multi-layer deformation
CN115908664B (zh) 人机交互的动画生成方法、装置、计算机设备、存储介质
JP7251003B2 (ja) 細かいしわを有する顔メッシュ変形
US11348286B1 (en) Method for controlling digital feather generations through a user interface in a computer modeling system
KR20060067242A (ko) 해부 데이터를 이용한 얼굴 애니메이션 생성 시스템 및 그방법
Zhang et al. Synthesis of 3D faces using region‐based morphing under intuitive control
de Aguiar et al. Video-driven animation of human body scans
WO2023022607A1 (en) Systems and methods for computer animation of an artificial character using facial poses from a live actor
de Aguiar et al. A simple framework for natural animation of digitized models
Boquet Bertran Automatic and guided rigging of 3D characters

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121218

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130118

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130218

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130807

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130812

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130909

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151022

R150 Certificate of patent or registration of utility model

Ref document number: 5829371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250