JP5785254B2 - 顔の表情のリアルタイムアニメーション - Google Patents

顔の表情のリアルタイムアニメーション Download PDF

Info

Publication number
JP5785254B2
JP5785254B2 JP2013514192A JP2013514192A JP5785254B2 JP 5785254 B2 JP5785254 B2 JP 5785254B2 JP 2013514192 A JP2013514192 A JP 2013514192A JP 2013514192 A JP2013514192 A JP 2013514192A JP 5785254 B2 JP5785254 B2 JP 5785254B2
Authority
JP
Japan
Prior art keywords
individual
rig
facial features
avatar
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013514192A
Other languages
English (en)
Other versions
JP2013535051A (ja
JP2013535051A5 (ja
Inventor
ウィンチェスター,ロイヤル・ドウェイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013535051A publication Critical patent/JP2013535051A/ja
Publication of JP2013535051A5 publication Critical patent/JP2013535051A5/ja
Application granted granted Critical
Publication of JP5785254B2 publication Critical patent/JP5785254B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、顔の表情のリアルタイムアニメーションに関する。
[0001]ビデオゲームコンソールは、一般に、ビデオゲームのプレーヤーが、そのようなコンソールによってディスプレイスクリーン上に表示されたインタラクティブな体験に参加することを可能にする。ビデオゲームコンソールは、低解像度のグラフィックスをサポートするマシンから、比較的高解像度でディスプレイ上にグラフィックスをレンダリングすることができるマシンへと進歩した。したがって、ビデオゲームのデザイナーは、ビデオゲームのプレーヤーに対して表示されるべき非常に詳細なシーンを設計する可能性がある。
[0002]概して、ビデオゲームのプレーヤーは、ディスプレイスクリーン上で個人に対して表示されるグラフィカルなオブジェクトのアクションを制御することができ、グラフィカルなオブジェクトはキャラクターであることが多い。ビデオゲームにおけるキャラクターは、人間または動物の比較的本物に近い表現から人間または動物のより漫画的な表現にまで及ぶ。典型的には、個人は、方向パッドおよびいくつかのボタンを含むコントローラーを用いて、ビデオゲームコンソールによってディスプレイスクリーン上に表示されたキャラクターの動き/アクションを制御する。
[0003]最近では、ビデオゲームコンソールは、個人がビデオゲームコンソールおよび/または特定のゲームに関するデータを保存することができるようにローカルのストレージを備えるようになった。特定の例において、個人は、その個人の表現またはそのような個人の分身であるアバターを作成する可能性がある。アバターは、3次元キャラクターとして表示されることが多く、ユーザーは、アバターの体の形状、アバターの肌の色調、アバターの顔の特徴、アバターのヘアスタイルなどを含むがこれらに限定されないアバターに関するさまざまなスタイルを選択することができる。これらのアバターは、概して、本質的にいくらか漫画的であるが、アバターの設計は、個人の漫画的な表現に限定されない。
[0004]特定の種類のゲームをプレーするとき、個人は、それらの個人のアバターとしてゲームをプレーする可能性がある。アバターは、個人またはその個人の分身に何らかの形で似ている可能性があるが、アバターは、個人のように感情を示すことはない。むしろ、ディスプレイスクリーン上に表示されるアバターの感情は、ビデオゲーム内の状況に応じて事前にプログラミングされる。したがって、アバターに関してビデオゲームにおいて何らかの望ましくないことが起こる場合にアバターが顔をしかめることが事前にプログラムされ得る。しかし、多くの場合、これらの感情は、実際のゲームのプレーヤーの感情を反映しない可能性がある。
[0005]以下は、本明細書においてより詳細に説明される主題の簡潔な概要である。この概要は、特許請求の範囲に関する限定であるようには意図されていない。
[0006]本明細書において説明されるのは、個人の顔の表情をキャプチャーし、そのような顔の表情をアニメーションされるアバターにリアルタイムで反映させることに関するさまざまな技術である。例によれば、センサーユニットが、ビデオカメラ(例えば、RGBカメラ)を内部に収容する可能性がある。ビデオカメラは、個人の方に向けられることができ、個人のアクションをキャプチャーすることができる。結果として得られるビデオストリームは、例えば、既存の顔認識アプリケーションを用いて分析され得る。ビデオストリーム内のキャプチャーされた個人の顔の表情を示すデータが、そのようなビデオストリームから抽出されてもよく、3次元のリグを駆動するために利用されてもよい。したがって、個人の顔の表情が変わるときに顔の表情のそのような変化が3次元のリグにおいても起こるように、個人の顔の表情を示すデータが、3次元のリグの特定の部分にマッピングされてもよい。一例において、3次元のリグは、その後、個人の顔の表情をリアルタイムで反映するように顔がアニメーションされるようにディスプレイにレンダリング可能である。
[0007]さらに、3次元のリグは、キャプチャーされたユーザーの顔の表情に対応するアバターの顔の表情をアニメーションすること関連して利用されることがある。個人は、その個人の思い描くアバターがその個人またはその個人の分身を十分に表現するようにアバターをカスタマイズすることができる。したがって、そのような個人は、アバターが個人またはその個人の分身を表すようにヘアスタイル、髪の色、目の格好、目の色、口の形、唇の形、およびさまざまなその他の顔の特徴を選択することができる。アバターに対応する個人の顔の特徴を表すようにアバターをレンダリングするとき、そのような個人によって選択されたスタイルを、3次元のリグに適用する(例えば、実質的に貼り付ける)ことができる。そして、(3次元のリグに対応するメッシュ/スキンを含む)3次元のリグは、2次元空間に射影される可能性があり、スタイルは、所望の2次元のオブジェクト上の特定のテクスチャーとして表され得る。3次元のリグがユーザーの顔の表情を表すように時間とともに変化するにつれて、スタイルは、3次元のリグと一緒に動く可能性がある。したがって、例えば、個人がゲームをプレーしながら眉毛を上げる場合、眉毛に対応する3次元のリグの部分が上がり、3次元のリグに適用されるスタイルも上がる。スタイルに対応する2次元のテクスチャーは、グラフィカル処理ユニット(GPU)を利用して処理可能であり、個人がゲームのプレー中に感情を示すときに感情を示すアバターの見た目を与えるために漫画的な顔に配置されてもよい。
[0008]一例において、上述のこれらの特徴は、ユーザーが何らかの好適なモーションによってアバターのアクションを制御することができるビデオゲーム環境内で利用され得る。具体的には、センサーユニットが、ビデオストリーム、オーディオデータ、深度情報などを用いて個人のアクション/コマンドをキャプチャーするように構成可能であり、そのようなアクション/コマンドが、ディスプレイスクリーン上のアバターのアクションを制御することができる。さらに、個人がゲームをプレーしながら感情を表すとき、そのような感情がキャプチャーされ、ゲーム内のアバターの顔に表現されてもよい。したがって、一例において、個人は、アバターの感情を見ることによって、ビデオゲームをプレーするときに、その個人がどのように感情を示しているかを確かめることができる。
[0009]別の実施形態において、上述の特徴は、異なるプレーヤーが離れた場所におり、異なるスクリーンを見るマルチプレーヤー設定で利用されてもよい。つまり、第1の個人が、その第1の個人に対応するアバターを持つことができ、そのようなアバターが、マルチプレーヤーゲームで利用される。センサーユニットは、第1の個人の顔の画像を含むビデオストリームを出力するように構成可能である。その後、上述のように、そのビデオストリームが、第1の個人の顔の表情を示すデータをそのビデオストリームから抽出するために分析されてもよい。これは、第1の個人のビデオゲームコンソールで、および/または第2の個人によって利用されている別のビデオゲームコンソールで行われ得る。第2の個人のビデオゲームコンソールにおいて、3次元のリグが、第1の個人の顔の表情を示すデータに少なくとも部分的に基づいて駆動されてもよく、これらの顔の表情が、第2の個人によって見られるディスプレイ上で第1の個人を表すアバター上に表示されてもよい。したがって、第1の個人と第2の個人とが一緒にまたは対戦形式でゲームをプレーしているときに、第2の個人が、第1の個人がどのように感情を示しているかを見ることができるので、第1の個人は、第2の個人によって見られているディスプレイ上のアバターによるテレプレゼンスまたは疑似プレゼンス(pseudopresence)を持つことができる。
[0010]その他の態様は、添付の図面および説明を読み、理解すれば分かるであろう。
[0011]個人の実際の感情をリアルタイムで反映するためにアバターをアニメーションさせることを容易にする例示的なシステムの機能ブロック図である。 [0012]アバターに特定のスタイルを適用することを容易にする例示的なシステムの機能ブロック図である。 [0013]アバターにスタイルを適用することに関連して利用され得る例示的なグラフィカルユーザーインターフェースの図である。 [0014]2人の個人の感情がそれらの個人に対応するアバターによってリアルタイムで表現されるような、ゲームをプレーするそのような個人の例示的な図である。 [0015]2人の個人の感情がアニメーションされるアバターで表現される、別々の場所でゲームをプレーするそのような個人の例示的な図である。 [0016]アバターが表現する個人の顔の表情に対応する顔の表情を付けてディスプレイスクリーン上でアバターをアニメーションさせるための例示的な方法を示す流れ図である。 [0017]アバターによって表現される個人の顔の表情を反映するようにディスプレイスクリーン上でアバターをアニメーションさせるための例示的な方法を示す流れ図である。 [0018]例示的なコンピューティングシステムの図である。
[0019]リアルタイムでアバターによって表される個人の顔の表情/感情を反映するようにそのようなアバターをアニメーションすることに関連するさまざまな技術が、図面を参照して以降で説明され、それらの図面において、同様の参照番号は、図面全体を通じて同様の要素を表す。加えて、例示的なシステムのいくつかの機能ブロック図が、説明を目的として図示され、本明細書に記載されているが、特定のシステムコンポーネントによって実行されると記載されている機能が複数のコンポーネントによって実行される可能性があることを理解されたい。同様に、例えば、1つのコンポーネントが、複数のコンポーネントによって実行されると記載されている機能を実行するように構成される可能性がある。
[0020]図1を参照すると、アバターによって表される個人の顔の表情がディスプレイ上にレンダリングされるようにアバターをアニメーションすることを容易にする例示的なシステム100が、示される。システム100は、コンピューティング装置102を含む。例によれば、コンピューティング装置102は、テレビディスプレイなどのディスプレイスクリーンに通信可能なように結合され得るビデオゲームコンソールであってよい。別の例において、コンピューティング装置102は、ディスプレイスクリーンを備えるモバイル/ポータブルゲーム機であってもよい。さらに別の例において、コンピューティング装置102は、ポータブル電話またはマルチメディアデバイスなど、専用のゲームデバイスではないポータブルコンピューティングデバイスであってもよい。さらに、コンピューティング装置102は、通常のパーソナルコンピューターまたはラップトップコンピューターであってもよい。本明細書に記載のシステム100の例はビデオゲーム環境に関するが、本明細書に記載の技術は、テレプレゼンスが望まれており、またアバター/キャラクターを利用して個人を表すことができる他の環境にも適用され得ることを理解されたい。したがって、例えば、本明細書に記載の技術は、2人の個人が擬似的なビデオ会議環境によって互いに連絡したいが、実際のビデオデータを送信または表示する代わりに、ビデオ会議の参加者を表すアバターがレンダリングされる環境で使用され得る。その他の実施形態は、当業者に容易に理解されるであろう。
[0021]システム100は、コンピューティング装置102と通信するセンサーユニット104をさらに含む。例えば、センサーユニット104は、バッテリーを内蔵することができ、無線接続によってコンピューティング装置102と通信可能である。別の例において、センサーユニット104は、コンピューティング装置102への有線接続を有してもよく、コンピューティング装置102によって給電可能である。さらに別の例において、センサーユニット104は、コンピューティング装置102に含まれる(例えば、コンピューティング装置のプロセッサーおよびメモリーを含むのと同じハウジング内に含まれる)ことがある。センサーユニット104は、個人106の特定の動き/アクションをキャプチャーするために個人106に向けられることができる。具体的には、センサーユニット104は、個人106の画像および/またはモーションをキャプチャーすることができるRGBビデオカメラなどの撮像センサー108を含み得る。センサーユニット104は、個人106の可聴出力をキャプチャーするように構成されるマイクロホン110も含み得る。加えて、図示されていないが、センサーユニット104は、センサーユニット104からの個人106および/または個人106の特定の部分の距離を感知するように構成される深度センサーをさらに含み得る。深度センサーは、赤外光および反射率を利用して、センサーユニット104から個人106の異なる部分までのさまざまな距離を判定することができる。もちろん、深度の感知を実行するためのその他の技術が企図され、本明細書に添付された特許請求の範囲に入るように意図される。
[0022]例によれば、センサーユニット104は、個人106が動いており、および/または顔の表情によって感情を表しているときに、撮像センサー108がそのような個人106に関するモーションデータ(例えば、ビデオまたはその他の好適なデータ)をキャプチャーするように、個人106に向けられてもよい。センサーユニット104は、コンピューター装置102によって受信されるように意図されるキャプチャーされた画像を出力するように構成可能である。したがって、センサーユニット104は、モーションデータストリームを出力するように構成可能であり、モーションデータストリームは、個人106の画像を含み、特に、個人106の顔の画像を含むビデオストリームであってもよい。他の例においては、赤外線カメラが、個人に関連するモーションデータをキャプチャーするように構成可能であり、そのようなモーションデータは、個人の顔の表情を示すデータを含み得る。その他のモーションキャプチャー技術が企図され、本明細書に添付された特許請求の範囲に入るように意図される。
[0023]コンピューティング装置102は、汎用プロセッサー、グラフィカル処理ユニット(GPU)、および/またはその他の好適なプロセッサーであってもよいプロセッサー112を含む。コンピューティング装置102は、プロセッサー112によって実行可能であるさまざまなコンポーネントを含むメモリー114をも含む。一例において、メモリー114は、センサーユニット104から出力されたビデオストリームを受信し、そのようなビデオストリームを分析して個人106の顔の特徴を示すデータを抽出する顔認識コンポーネント116を含み得る。具体的には、顔認識コンポーネント116は、センサーユニット104によって出力されたモーションデータストリーム(例えば、ビデオデータストリーム)内の人間の顔の存在を認識可能であり、さらに、個人106の顔の表情を示すデータを抽出することができる。これは、顎のラインの位置、頬の動き、眉毛および個人106の顔の表情を示すことができる顔のその他の部分の位置および動きを含み得る。
[0024]ドライバーコンポーネント118が、個人106の顔の表情を示すデータを受信することができ、顔の表情を示すデータに少なくとも部分的に基づいて3次元のリグ120を駆動することができる。例えば、3次元(3D)のリグ120は、本質的に人間に似ている形態であり得る。グラフィカルアニメーションの分野に精通している者に理解されるように、3Dのリグ120は、アバターの表面を描くために利用されるスキンと、ボーンの階層的な組とを含み得る。各ボーンは、ボーンの位置、ボーンのスケール、およびボーンの向きを含む3D変換と、任意的に親ボーンとを有する。したがって、ボーンは、階層内の子ノード/ボーンの完全な変形が、そのボーンの親の変換とそのボーン自体の変換との積であるような階層を形成することができる。リギング(スケルタルアニメーション(skeletal animation)を利用してキャラクターをグラフィカルにアニメーションさせること)は、グラフィカルアニメーションの分野に精通している者によって理解され、認識されるであろう。メモリー114は単一の3Dのリグを含むように示されているが、メモリー114は複数の3Dのリグを含む可能性があり、適切な3Dのリグが、撮像センサー108によってキャプチャーされている個人の顔の認識された形状に少なくとも部分的に基づいて選択され得ることを理解されたい。
[0025]ドライバーコンポーネント118が、個人106の顔の表情を示すデータに少なくとも部分的に基づいて3Dのリグ120を駆動するように構成されてもよい。したがって、顔の表情を示すデータが個人の顎のラインが下方向に動いていることを示す場合、ドライバーコンポーネント118は、3Dのリグ120の対応する顎のラインを下方向に動かすことができる。別の例において、個人106の顔の表情を示すデータが個人106の眉毛が上方向に動いていることを示す場合、ドライバーコンポーネント118は、3Dのリグ120の(3Dのリグの眉毛の近くの)対応する位置を上方向に動かすことができる。
[0026]レンダーコンポーネント122は、ドライバーコンポーネント118によって駆動された3Dのリグ120に少なくとも部分的に基づいてディスプレイ126上にアバター124をグラフィカルにレンダリングすることができる。より詳細には、レンダーコンポーネント122は、アバター124の顔の表情が個人106の顔の表情をリアルタイムで反映するようにアバター124をアニメーションすることができる。したがって、個人106が笑う、顔をしかめる、にやにや笑う、いぶかしげに見える、不安を表すなどといったときに、そのような表情が、ディスプレイ126内でアバター124上に表される。
[0027]ディスプレイ126は、テレビディスプレイであってもよく、そのようなテレビディスプレイは、コンピューティング装置102と通信する。別の例において、ディスプレイ126は、コンピューターモニターであってもよいし、(例えば、コンピューティング装置102がポータブルゲーム機であるときは)コンピューティング装置102に含まれているディスプレイであってもよい。
[0028]ドライバーコンポーネント118は撮像センサー108によって出力されたビデオデータのみに基づいて3Dのリグ120を駆動するように本明細書において説明されたが、ドライバーコンポーネント118は、その他のデータを利用することによって3Dのリグ120を駆動するように構成されてもよいことを理解されたい。例えば、ドライバーコンポーネント118は、マイクロホン110から可聴データを受信する可能性があり、そのようなオーディオデータは、個人106によって発せられた言葉を含む。特定の音は、個人106の口を特定の形状にする可能性があり、ドライバーコンポーネント118は、個人106によって出された特定の音に関連する形状に少なくとも部分的に基づいて3Dのリグ120を駆動する可能性がある。加えて、センサーユニット104が、深度センサーを含む可能性があり、ドライバーコンポーネント118は、深度センサーによって出力されたデータに少なくとも部分的に基づいて3Dのリグ120を駆動する可能性がある。
[0029]例示的な実施形態において、システム100は、ビデオゲームに関連して利用され得る。個人106は、その個人106またはその個人106の分身を表すアバターを作成することができ、ユーザーまたは個人106がアバター124としてゲームをプレーすることを可能にするビデオゲームをプレーし始めてもよい。個人106の表情がゲームのプレー中に変わるとき、アバター124上でアニメーションされる表情も、リアルタイムで対応するように変わる。したがって、個人106は、ゲームのプレー中に、そのような個人106がどのように感情を示しているかを見ることができる。別の例において、ディスプレイ126は、個人106が別のゲームのプレーヤーと一緒に、または別のゲームのプレーヤーと対戦してプレーしているときのように、個人106から遠隔にあることがある。したがって、別のゲームのプレーヤーは、個人106の顔の表情がゲームのプレー中に変わるときに感情を示すアバター124を表示するディスプレイ126を見ることができる。その上さらに、システム100は、個人106が別の人とコミュニケーションしており、アバター124によって表される擬似的なビデオ会議アプリケーションで使用され得る。個人106がコミュニケーションしている人に、個人106の感情/顔の表情に対応する感情を表し/顔の表情を示すアバター124を提示することができる。
[0030]ここで図2を参照すると、そのアバターに対応する個人の顔の表情を表現しながらアバターをディスプレイ上でアニメーションさせるように構成される別の例示的なコンピューティング装置200が示される。コンピューティング装置200は、上述のように、プロセッサー112およびメモリー114を含む。この例示的なコンピューティング装置200において、メモリー114は、アバターに関連付けられ得る複数の異なる種類のスタイルを含むスタイルライブラリー202を含む。例えば、これらのスタイルは、顔の形、眉毛、目、鼻、口、耳、顎髭、髪などを含む異なる顔の特徴を含み得る。インターフェースコンポーネント118は、個人が、1つまたは複数のテンプレート(例えば、テンプレートの顔の形状、テンプレートの体の形状、...)にスタイルライブラリー202からのスタイルを適用することによってそのような個人を表すカスタマイズされたアバターを作成することを可能にすることができる。
[0031]例によれば、個人またはその個人の分身を表すアバターの作成について個人に解説するグラフィカルユーザーインターフェースを個人に提供することができる。グラフィカルユーザーインターフェースは、最初に、さまざまな体の種類を個人に提示することができる。その後、顔の異なる形状(例えば、丸形、楕円形、四角形、三角形など)を、個人に提示することができる。次に、個人は、目の形状、目の色、アバターの顔の上の目の位置、鼻の形状または鼻のサイズ、アバターの顔の上の鼻の位置、口の形状、口のサイズ、口の色などを選択することができる。アバターに適用すべき複数の事前に定義されたスタイルを選択することによって、個人は、その個人またはその個人の分身の表現を生成することができる。
[0032]コンピューティング装置200のメモリー114は、上述のように動作できる顔認識コンポーネント116、ドライバーコンポーネント118、および3Dのリグ120をも含む。メモリー114は、インターフェースコンポーネント204を介して個人によって選択された少なくとも1つのスタイルを3Dのリグ120上の適切な位置に適用することができるアプライヤーコンポーネント206も含み得る。したがって、スタイルが眉毛である場合、眉毛は、3Dのリグ120のメッシュ上の適切な位置に配置され得る。同様に、スタイルが口である場合、そのような口は、3Dのリグ120のメッシュ上の適切な位置に配置され得る。
[0033]上で示されたように、3Dのリグ120は、人間に似た形であってもよい。レンダーコンポーネント122が人間に似ていないキャラクター(例えば、漫画的なアバター)をレンダリングすることが望まれる場合、スタイルをアニメーションさせるが、3Dのリグ120の人間に似た外観はアニメーションさせないことが望ましくなる。これらのスタイルは、アバターの2Dのテンプレートの頭の上でアニメーションされてもよい。特定のスタイルをアニメーションさせるために、そのスタイルは、3Dのリグ120上の適切な位置に配置可能であり、そのようなスタイルの動きは、個人が異なる顔の表情をするときにキャプチャーされてもよい。つまり、個人106がその個人の眉毛を上げるとき、3Dのリグ120の適切な部分も上がり、3Dのリグ120の眉毛の領域に配置されたスタイルが上がることになる。3Dのリグ120に貼り付けられるこれらのスタイルは、上がり下がりする眉毛を表すために(GPUであってもよい)プロセッサー112を用いてキャプチャーされ得る。つまり、プロセッサー112の各フレームが、スタイルに対応するテクスチャーを描くように構成可能であり、そのようなテクスチャーは、すべてのフレームで変わることがあり、アバターのテンプレートの顔に適用可能である。したがって、個人によって選択されたスタイルは、今や、撮像センサー108によってキャプチャーされた個人106の顔の表情にしたがってアニメーションしているかのように見える。
[0034]空のテンプレート上でスタイルのアニメーションを実行するために、プロセッサー112は、頂点を生成し、三角形をそれらの頂点に縫い合わせ、三角形をスタイルに対応する色で塗りつぶし、そのようなスタイルを3Dのリグ120の動きにしたがってアニメーションするように構成され得る。プロセッサー112は、ディスプレイスクリーン上に滑らかなアニメーションを表示するために各フレームでスタイルをアニメーションするように構成され得る。要約すると、ビデオデータが、コンピューティング装置200で受信可能であり、ドライバーコンポーネント118によって3Dのリグ120にマッピングされる。スタイルが、3Dのリグ120の適切な位置に適用されてもよく、スタイルが適用された結果として得られる3Dモデルが、レンダーコンポーネント122によって2Dモデルに射影されてもよい。次いで、当該2Dモデルが、アバター上でアニメーションされ得る(スタイルに対応する)テクスチャーを生成するために利用され、このアニメーションは、リアルタイムで起こる。
[0035]ここで図3を参照すると、個人またはその個人の分身を表すアバターを生成するために利用することができる、そのような個人に提供され得る例示的なグラフィカルユーザーインターフェース300が示されている。グラフィカルユーザーインターフェース300は、個人によって現在選択されているスタイルをともなうアバター304を含む第1のウィンドウ302を含み得る。加えて、アバター304は、空であるように見えることがある(アバター304の顔が空であるように見えることがある)。グラフィカルユーザーインターフェース300は、選択可能な顔の特徴を表す複数のグラフィカルなアイテム306〜310も含み得る。示されるように、この例における顔の特徴は、アバター304に適用され得る目の形状である。グラフィカルなアイテム306〜310のうちの1つを選択することによって、対応する目の形状が、アバター304上で見えるようになる。次に、個人は、選択可能なグラフィカルなアイテム312〜324のうちの1つを選択することによって目の色を選ぶことができる。個人が適切な目の形状および対応する色を選択すると、その他のスタイルが、選択のために個人に提示されてもよい。やはり、そのようなスタイルは、眉毛の形状、眉毛の種類、眉毛の色、鼻の形状、顎髭があるかどうかなどを含み得る。
[0036]ここで図4を参照すると、アバターが個人の顔の表情を示すようにアニメーションされ得る例示的な実施形態400が示される。この例示的な実施形態400においては、第1の個人402および第2の個人404が、特定のビデオゲームコンソール406でビデオゲームをプレーしている。ビデオゲームコンソール406は、テレビ408に結合されている。センサーユニット410が、ビデオゲームコンソール406に通信可能なように結合されており、第1の個人402および第2の個人404の画像をキャプチャーする撮像センサーを含む。
[0037]個人402および404によってプレーされているゲームにおいて、個人402および404を表す2体のアバター412および414が表示され、ゲームのプレー中に利用される。具体的には、アバター412が、第1の個人402を表すことができ、アバター414が、第2の個人404を表すことができる。個人402および404がゲームをプレーしているとき、それらの個人402および404は、アバター412〜414上でアニメーションされる顔の表情を見ることによって、それらの個人と一緒にプレーしている人/それらの個人の対戦者がどのように感情を示しているかを確かめることができる。これは、センサーユニット410によってリアルタイムでキャプチャーされた本物に近い感情をプレーヤーに提供することによってゲームのプレーを向上させることができる。
[0038]ここで図5に移ると、ビデオゲームのプレーに関連する別の例示的な実施形態500が示されている。この実施形態においては、第1の個人502および第2の個人504が、離れた場所で一緒にまたは対戦形式でゲームをプレーしている。ゲームをプレーするために個人502および504によってそれぞれ利用される2台のビデオゲームコンソール506および508が、ネットワーク接続によって互いに結合される。これは、個人502および504が互いに地理的にかなり遠くに離れているとしても、個人502および504が互いに一緒にまたは対戦形式でプレーすることを可能にする。ビデオゲームコンソール506および508のそれぞれは、それらのビデオゲームコンソール506および508に対応するセンサーユニット510および512をそれぞれ有する。センサーユニット510は、第1の個人502の顔の表情をキャプチャーするビデオストリームを生成することができる撮像センサーを含む可能性があり、センサーユニット512は、そのような個人502および504が互いに一緒にまたは対戦形式でプレーしているときに第2の個人504の顔の表情をキャプチャーするビデオストリームを生成する撮像センサーを含むことがある。
[0039]ビデオゲームコンソール506は、アニメーションされるグラフィックスを第1の個人502に対するディスプレイ514上に表示させることができ、一方、ビデオゲームコンソール508は、ゲームに関連するアニメーションをディスプレイ516上に表示させることができる。第1の個人502に対するディスプレイ514上に表示されるアニメーションは、第2の個人504を表すアニメーションされるアバター518であってもよい。アバター518は、第2の個人504がゲームのプレーに反応しているときに、第2の個人504の顔の表情をリアルタイムで表示するようにアニメーションされ得る。同様に、ビデオゲームコンソール508は、第1の個人502を表すアバター520を第2の個人504に対して表示させることができる。このアバター518は、第1の個人502がゲームのプレー中に感情を示すときに、そのような第1の個人502の顔の表情を示すようにアニメーションされ得る。
[0040]プレーヤーの顔の表情がリアルタイムでアニメーションされる、このオンラインのゲームのプレーを可能にすることができるさまざまな実施形態が存在する。第1の実施形態においては、センサーユニット510によって出力されたビデオストリームが、第1の個人502の顔の表情を示すデータが第1のビデオゲームコンソール506で抽出されるように、第1のビデオゲームコンソール506で処理されてもよい。その後、個人502の顔の表情を示すこのデータは、第2の個人504によって使用されるビデオゲームコンソール508にネットワークを介して送信可能である。代替的な実施形態においては、センサーユニット510によって出力されたビデオストリームは、第2の個人504に対応するゲームコンソール508にゲームコンソール506を介してそのまま送信されてもよい。次に、ゲームコンソール508が、第1の個人502の顔の表情を示すデータをビデオゲームコンソール508で抽出可能であり、ビデオゲームコンソール508が、第1の個人502の顔の表情を反映するようにアバター518をアニメーションさせるように3Dのリグをそのビデオゲームコンソール508上で駆動することができる。その上さらに別の実施形態においては、集中サーバー(図示せず)が、データの処理を実行することができ、次に、サーバーが、処理されたデータを第2のビデオゲームコンソール508に送信することができる。したがって、要約すると、ビデオゲームコンソール506および508が個人502および504の顔の表情を反映するようにアバター516および518をそれぞれアニメーションすることを可能にするために行われる処理は、ビデオゲームコンソール506もしくはビデオゲームコンソール508のいずれかで行われてもよいし、ビデオゲームコンソール506とビデオゲームコンソール508の間で分割されてもよいし、またはサーバーにオフロードされてもよい。
[0041]加えて、本明細書に記載の実施形態はアバター上でユーザーの顔の表情をアニメーションさせることに関連するが、上述の1つまたは複数の特徴は、アバターのその他の部分をアニメーションさせるために利用され得る。例えば、個人が、アバターに特定のベルトのバックルを持たせることによってそれらの個人のアバターをカスタマイズしてもよい。ベルトのバックルは、人間の体の3Dのリグに適用可能であり、個人をキャプチャーするビデオストリームの分析が、3Dのリグを駆動するために利用されてもよい。このスタイル(ベルトのバックル)は、3Dのリグ上の適切な位置に配置可能であり、アバター上でアニメーションさせるために2次元のシーンに射影されてもよい。
[0042]ここで図6〜7を参照して、さまざまな例示的な方法が、示され説明される。方法はひと続きで実行される一連の行為であるものとして記載されているが、方法は、そのひと続きの順序によって限定されないことを理解されたい。例えば、一部の行為は、本明細書に記載の順序とは異なる順序で行われ得る。加えて、行為は、別の行為と同時に行われ得る。さらに、場合によっては、すべての行為が、本明細書に記載の方法を実施するのに必要とは限らないことがある。
[0043]さらに、本明細書に記載の行為は、1つもしくは複数のプロセッサーによって実施さされ、かつ/または1つもしくは複数のコンピューター可読媒体に記憶され得る、コンピューターが実行可能な命令であってもよい。コンピューターが実行可能な命令は、ルーチン、サブルーチン、プログラム、実行スレッドなどを含み得る。その上さらに、方法の行為の結果が、コンピューター可読媒体に記憶されること、ディスプレイデバイス上に表示されることなどが可能である。コンピューター可読媒体は、メモリー、ハードドライブ、CD、DVD、フラッシュドライブなどの非一時的媒体である可能性がある。
[0044]ここで図6を参照すると、リアルタイムで個人の顔の表情を反映するようにディスプレイスクリーン上でキャラクター(アバター)をアニメーションさせることを容易にする方法600が示される。方法600は、602で始まり、604において、ビデオデータのストリームが、ビデオカメラを含むセンサーユニットから受信される。ビデオカメラは、個人の方に向けられ、したがって、ビデオストリームは、いくつかのフレームにわたって個人の画像を含む。
[0045]606において、ビデオフレーム内でキャプチャーされた個人の顔の表情を示すデータが、ビデオのストリームから抽出される。例えば、任意の好適な顔認識/分析ソフトウェアが、ビデオフレーム内でキャプチャーされた個人の顔の表情を示すデータをビデオストリームから抽出することに関連して利用され得る。
[0046]608において、キャラクターが、ビデオフレーム内でキャプチャーされた個人の1つまたは複数の顔の表情に対応する顔の表情を付けてディスプレイスクリーン上でアニメーションされるようになる。キャラクターは、個人の顔の表情を示す、ビデオフレームから抽出されたデータに少なくとも部分的に基づいてアニメーションされる。さらに、キャラクターは、個人が顔の表情を作るときに、そのような個人のそのような顔の表情を実質的に直ちに反映するようにリアルタイムでアニメーションされるようになる。方法600は、610で終了する。
[0047]ここで図7を参照すると、リアルタイムで個人の顔の表情を反映するようにディスプレイスクリーン上でアバターをアニメーションさせることを容易にする例示的な方法700が、示される。方法700は、702で始まり、704において、アバターに含まれることが望ましいスタイルの、個人からの選択が受信される。この選択は、アバターに含まれることが望ましい顔の特徴の特定のスタイルの選択である可能性がある。
[0048]706において、リアルタイムで個人の顔の表情を示すデータが受信される。このデータは、撮像センサーから受信可能であり、上述のように、顔認識ソフトウェアによって処理されてもよい。
[0049]708において、スタイルが、人間の顔を表す3Dのリグ上の適切な位置に適用される。したがって、スタイルが眉毛である場合、眉毛の表現が、眉毛に対応する3Dのリグ上の位置に適用可能である。710において、3Dのリグが、行為706において受信されたデータに少なくとも部分的に基づいてリアルタイムで駆動される。したがって、3Dのリグは、個人の顔が動くときに動く。712において、アバターが、リアルタイムで個人の顔の表情を反映するようにディスプレイスクリーン上でアニメーションさせられる。方法700は、714で終了する。
[0050]ここで図8を参照すると、本明細書において開示されたシステムおよび方法によって使用され得る例示的なコンピューティングデバイス800の高レベルの図が示されている。例えば、コンピューティングデバイス800は、リアルタイムで、アバターによって表される個人の顔の表情を表現するそのようなアバターをアニメーションすることをサポートするシステムにおいて使用され得る。別の例において、コンピューティングデバイス800の少なくとも一部は、テレプレゼンスが望まれるオンラインゲームをサポートするシステムにおいて使用され得る。コンピューティングデバイス800は、メモリー804に記憶される命令を実行する少なくとも1つのプロセッサー802を含む。メモリー804は、RAM、ROM、EEPROM、フラッシュメモリー、もしくはその他の好適なメモリーであるか、またはそれらを含む可能性がある。命令は、例えば、上で検討された1つもしくは複数のコンポーネントによって実行されるものとして説明された機能を実施するための命令、または上述の方法のうちの1つもしくは複数を実施するための命令であり得る。プロセッサー802は、システムバス806を介してメモリー804にアクセスすることができる。実行可能な命令を記憶することに加えて、メモリー804は、3Dのリグ、個人のアバターに適用すべき複数の選択可能なスタイルなどをも記憶することができる。
[0051]コンピューティングデバイス800は、システムバス806を介してプロセッサー802によってアクセス可能なデータストア808をさらに含む。データストアは、ハードディスク、メモリーなどを含む任意の好適なコンピューター可読ストレージであるか、または任意の好適なコンピューター可読ストレージを含む可能性がある。データストア808は、実行可能な命令、1人または複数の個人によって作成された1体または複数のアバター、ビデオゲームのデータ、3Dのリグなどを含み得る。コンピューティングデバイス800は、外部のデバイスがコンピューティングデバイス800と通信することを可能にする入力インターフェース810も含む。例えば、入力インターフェース810は、外部のコンピューターデバイス、ユーザーなどから命令を受信するために使用され得る。コンピューティングデバイス800は、コンピューティングデバイス800と1つまたは複数の外部のデバイスとのインターフェースをとる出力インターフェース812も含む。例えば、コンピューティングデバイス800は、出力インターフェース812によってテキスト、画像などを表示することができる。
[0052]加えて、単一のシステムとして示されているが、コンピューティングデバイス800は分散システムであってもよいことを理解されたい。したがって、例えば、いくつかのデバイスが、ネットワーク接続によって通信していることがあり、コンピューティングデバイス800によって実行されるものとして説明されたタスクを集合的に実行することがある。
[0053]本明細書において使用されるとき、用語「コンポーネント」および「システム」は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせを包含するように意図される。したがって、例えば、システムまたはコンポーネントは、プロセス、プロセッサー上で実行されるプロセス、またはプロセッサーであり得る。さらに、コンポーネントまたはシステムは、単一のデバイスに置かれることも、いくつかのデバイスに分散されることもある。さらに、コンポーネントまたはシステムは、メモリーの一部および/または一連のトランジスターを指すことがある。
[0054]いくつかの例は説明の目的で与えられたことが留意される。これらの例は、本明細書に添付された特許請求の範囲を限定すると解釈されてはならない。さらに、本明細書において与えられた例は、依然として特許請求の範囲内にありながら、並べ換えてもよいことが認識されるであろう。

Claims (16)

  1. センサーから個人の顔の特徴を示すモーションデータストリームを受信するステップと、
    前記モーションデータストリームから前記個人の顔の特徴を取り出すステップと、
    前記個人の顔の特徴を示すデータを、3次元のリグ上に顔の特徴としてマッピングするステップと、
    前記個人の顔の特徴を示すデータが顔の特徴としてマッピングされた3次元のリグを駆動するステップであって、3次元のリグを駆動することとは、リアルタイムで3次元のリグの顔の特徴を更新することによって、前記個人の顔の特徴の変化に対応する変化を持たせるステップと、
    前記個人の顔の特徴の変化がキャラクターによって表現されるように、前記3次元のリグを駆動することによってディスプレイスクリーン上でキャラクターをアニメーションさせるステップと
    を含むコンピューターによって実行される方法であって、
    前記センサーは、深度センサーを含み、
    前記ディスプレイスクリーン上でキャラクターをアニメーションさせることとは、その一部が前記深度センサーの出力に基づく、方法
  2. 前記キャラクターが、カスタマイズできるスタイルを有するアバターである請求項1に記載の方法。
  3. スタイルの選択を受信するステップと、
    前記選択されたスタイルに対応する前記3次元のリグ上の位置に前記選択されたスタイルをマッピングするステップと、
    前記キャラクター上の前記選択されたスタイルを、前記3次元のリグを駆動することによって前記個人の顔の特徴の変化が表現されるようにアニメーションするステップと
    をさらに含む請求項2に記載の方法。
  4. 前記センサーは、マイクロホンを含み、
    前記ディスプレイスクリーン上でキャラクターをアニメーションさせることとは、更に、その一部が前記マイクロホンで取り込まれた可聴音に基づく、請求項1〜3のいずれか一項に記載の方法。
  5. 第2の個人の顔の特徴を表す第2のモーションデータストリームを受信するステップと、
    前記第2の個人の顔の特徴が第2のキャラクターの顔の特徴となるように、前記第2の個人の顔の特徴を表す前記第2のモーションデータストリームに基づいて前記ディスプレイスクリーン上で第2のキャラクターをアニメーションさせるステップであって、前記第2のキャラクターをアニメーションさせることとは、前記第2のキャラクターの顔の特徴を、前記第2のモーションデータストリームで表現される前記第2の個人の顔の特徴のリアルタイムの変化を表現するように変化させるステップと、
    をさらに含む請求項1〜4のいずれか一項に記載の方法。
  6. 前記モーションデータストリームを含むデータを、前記第2の個人によって用いられるコンピューターに対して送信することをさらに含む請求項に記載の方法。
  7. 前記3次元のリグが、骨格の階層的な組を覆う皮膚を含む、請求項1〜6のいずれか一項に記載の方法。
  8. 前記骨格の階層的な組の骨格はそれについての3次元の変形を含み、前記骨格の3次元の変形は、骨格の位置、骨格の大きさ、骨格の方向を含む、請求項7に記載の方法。
  9. 請求項1〜のいずれか一項に記載の方法を実行するためのプログラム。
  10. 請求項1〜のいずれか一項に記載の方法を実行するためのプログラムを記録した記録媒体。
  11. プロセッサーと、
    センサーと、
    前記プロセッサーによって実行可能であるコンポーネントを含むメモリーであって、前記コンポーネントとして、
    前記センサーからモーションデータストリームを受信し、前記モーションデータストリームから、個人の顔の特徴の変化を表現する前記個人の顔の特徴の位置を含むデータを抽出する顔認識コンポーネント、
    前記モーションデータストリームから抽出されたデータに基づき、3次元のリグを駆動する駆動コンポーネントであって、前記個人の顔の特徴の位置を対応する3次元のリグの顔の特徴にリアルタイムでマッピングする駆動コンポーネントと、
    前記個人の顔の特徴を反映するように前記3次元のリグに基づいて、ディスプレイスクリーン上でキャラクターをアニメーションさせるレンダーコンポーネント、
    を含む、メモリーと
    を含むコンピューティング装置であって、
    前記センサーは、深度センサーを含み、
    前記レンダーコンポーネントが、ディスプレイスクリーン上でキャラクターをアニメーションさせることとは、その一部が前記深度センサーの出力に基づく、コンピューティング装置
  12. 前記コンピューティング装置が、ビデオゲームコンソールである、請求項11に記載のコンピューティング装置。
  13. 前記コンピューティング装置が、ポータブルコンピューティングデバイスである、請求項11に記載のコンピューティング装置。
  14. 前記キャラクターに関係する複数の選択可能なスタイルから少なくとも一つのスタイルを選択できるインターフェースコンポーネントと、
    前記少なくとも一つのスタイルを前記3次元のリグの顔の特徴に適用する適用コンポーネントであって、その結果、前記レンダーコンポーネントが、前記キャラクターの前記少なくとも一つのスタイルを、前記モーションデータストリームから抽出したデータの少なくとも一部に基づいてアニメーションさせることとなる適用コンポーネント
    をさらに含む請求項11〜13のいずれか一項に記載のコンピューティング装置。
  15. 計算機読み取り可能なメモリーを含むビデオゲームコンソールであって、
    計算機読み取り可能なメモリーは、プロセッサーで実行可能な命令を含み、
    前記命令は、
    顔の特徴を含む3次元のリグを受け取り、
    アバターに含まれるべき、個人の顔の特徴に関連するスタイルの選択を受けとり、
    前記個人の顔の特徴に対応する3次元のリグの顔の特徴に前記スタイルを適用し、
    センサーから前記個人の顔の特徴の位置を表現するビデオデータを受け取り、
    前記個人の顔の特徴の位置を前記3次元のリグの顔の特徴にリアルタイムでマッピングし、
    前記3次元のリグを、前記個人の顔の特徴の位置と前記3次元のリグの顔の特徴の間のマッピングの少なくとも一部に基づいて駆動し、
    ディスプレイスクリーン上の前記アバターを前記3次元のリグを駆動することによって前記個人の顔の特徴の変化をリアルタイムに反映するようにアニメーションさせることであって、前記スタイルを前記個人の顔の特徴の変化を反映するようにアニメーションさせることによって前記アバターをアニメーションさせる、
    ことを前記プロセッサーに実行させる命令であること、
    を含むビデオゲームコンソールであって、
    前記センサーは、深度センサーを含み、
    前記ディスプレイスクリーン上の前記アバターを前記3次元のリグを駆動することによって前記個人の顔の特徴の変化をリアルタイムに反映するようにアニメーションさせることとは、その一部が前記深度センサーの出力に基づく、ビデオゲームコンソール
  16. 前記3次元のリグが人間の形状であって、皮膚と骨格の階層的な組を含む、請求項15に記載のビデオゲームコンソール。
JP2013514192A 2010-06-09 2011-05-20 顔の表情のリアルタイムアニメーション Expired - Fee Related JP5785254B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/796,682 2010-06-09
US12/796,682 US20110304629A1 (en) 2010-06-09 2010-06-09 Real-time animation of facial expressions
PCT/US2011/037428 WO2011156115A2 (en) 2010-06-09 2011-05-20 Real-time animation of facial expressions

Publications (3)

Publication Number Publication Date
JP2013535051A JP2013535051A (ja) 2013-09-09
JP2013535051A5 JP2013535051A5 (ja) 2014-06-19
JP5785254B2 true JP5785254B2 (ja) 2015-09-24

Family

ID=45095895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013514192A Expired - Fee Related JP5785254B2 (ja) 2010-06-09 2011-05-20 顔の表情のリアルタイムアニメーション

Country Status (6)

Country Link
US (1) US20110304629A1 (ja)
EP (1) EP2580741A2 (ja)
JP (1) JP5785254B2 (ja)
KR (1) KR20130080442A (ja)
CN (1) CN102934144A (ja)
WO (1) WO2011156115A2 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
JP2012181704A (ja) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2013009073A (ja) 2011-06-23 2013-01-10 Sony Corp 情報処理装置、情報処理方法、プログラム、及びサーバ
KR101920473B1 (ko) * 2011-07-27 2018-11-22 삼성전자주식회사 센서 융합 기반으로 3차원 위치와 방향을 추정하는 장치 및 방법
US10748325B2 (en) 2011-11-17 2020-08-18 Adobe Inc. System and method for automatic rigging of three dimensional characters for facial animation
US9990770B2 (en) * 2011-12-20 2018-06-05 Intel Corporation User-to-user communication enhancement with augmented reality
WO2013095400A1 (en) * 2011-12-20 2013-06-27 Intel Corporation Local sensor augmentation of stored content and ar communication
US9398262B2 (en) * 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
US9747495B2 (en) * 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
CN103366782B (zh) * 2012-04-06 2014-09-10 腾讯科技(深圳)有限公司 在虚拟形象上自动播放表情的方法和装置
US9386268B2 (en) * 2012-04-09 2016-07-05 Intel Corporation Communication using interactive avatars
CN104170358B (zh) * 2012-04-09 2016-05-11 英特尔公司 用于化身管理和选择的系统和方法
JP6392497B2 (ja) * 2012-05-22 2018-09-19 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガニゼーション ビデオを生成するためのシステムおよび方法
US9424678B1 (en) * 2012-08-21 2016-08-23 Acronis International Gmbh Method for teleconferencing using 3-D avatar
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
US9721010B2 (en) 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
US9886622B2 (en) * 2013-03-14 2018-02-06 Intel Corporation Adaptive facial expression calibration
WO2014144408A2 (en) 2013-03-15 2014-09-18 Nito, Inc. Systems, methods, and software for detecting an object in an image
CN103198519A (zh) * 2013-03-15 2013-07-10 苏州跨界软件科技有限公司 虚拟人物照相系统系统和方法
CN103218843A (zh) * 2013-03-15 2013-07-24 苏州跨界软件科技有限公司 虚拟人物通讯系统和方法
WO2014153689A1 (en) * 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
US20140300612A1 (en) * 2013-04-03 2014-10-09 Tencent Technology (Shenzhen) Company Limited Methods for avatar configuration and realization, client terminal, server, and system
US10509533B2 (en) * 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
WO2014194439A1 (en) * 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
CN103426194B (zh) * 2013-09-02 2017-09-19 厦门美图网科技有限公司 一种动画表情的制作方法
US9508197B2 (en) 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
CN104680574A (zh) * 2013-11-27 2015-06-03 苏州蜗牛数字科技股份有限公司 一种根据照片自动生成3d人脸的方法
US9817960B2 (en) 2014-03-10 2017-11-14 FaceToFace Biometrics, Inc. Message sender security in messaging system
US10275583B2 (en) * 2014-03-10 2019-04-30 FaceToFace Biometrics, Inc. Expression recognition in messaging systems
CN106104633A (zh) * 2014-03-19 2016-11-09 英特尔公司 面部表情和/或交互驱动的化身装置和方法
CN104050697B (zh) * 2014-06-13 2017-05-10 深圳市宇恒互动科技开发有限公司 收集人体动作及相关信息生成微电影的方法及系统
CN105303998A (zh) * 2014-07-24 2016-02-03 北京三星通信技术研究有限公司 基于观众之间的关联信息播放广告的方法、装置和设备
US9984487B2 (en) * 2014-09-24 2018-05-29 Intel Corporation Facial gesture driven animation communication system
WO2016045005A1 (en) 2014-09-24 2016-03-31 Intel Corporation User gesture driven avatar apparatus and method
EP3216008B1 (en) * 2014-11-05 2020-02-26 Intel Corporation Avatar video apparatus and method
EP3410399A1 (en) 2014-12-23 2018-12-05 Intel Corporation Facial gesture driven animation of non-facial features
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
US9824502B2 (en) 2014-12-23 2017-11-21 Intel Corporation Sketch selection for rendering 3D model avatar
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
WO2017007179A1 (ko) * 2015-07-03 2017-01-12 상명대학교서울산학협력단 심장박동에 따른 얼굴 온도 변화를 이용한 가상-아바타의 사회적 실재감 표현 방법 및 이를 적용하는 시스템
US10176619B2 (en) * 2015-07-30 2019-01-08 Intel Corporation Emotion augmented avatar animation
US10445425B2 (en) 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US10474877B2 (en) * 2015-09-22 2019-11-12 Google Llc Automated effects generation for animated content
US11138207B2 (en) 2015-09-22 2021-10-05 Google Llc Integrated dynamic interface for expression-based retrieval of expressive media content
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
WO2017137948A1 (en) * 2016-02-10 2017-08-17 Vats Nitin Producing realistic body movement using body images
CN105957129B (zh) * 2016-04-27 2019-08-30 上海河马动画设计股份有限公司 一种基于语音驱动及图像识别的影视动画制作方法
CN107341785A (zh) * 2016-04-29 2017-11-10 掌赢信息科技(上海)有限公司 一种基于帧间滤波的表情迁移方法及电子设备
US11580608B2 (en) 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
US10062198B2 (en) 2016-06-23 2018-08-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
US10559111B2 (en) 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
CN106462257A (zh) * 2016-07-07 2017-02-22 深圳狗尾草智能科技有限公司 实时互动动画的全息投影系统、方法及人工智能机器人
US20180300851A1 (en) * 2017-04-14 2018-10-18 Facebook, Inc. Generating a reactive profile portrait
CN107137928A (zh) * 2017-04-27 2017-09-08 杭州哲信信息技术有限公司 实时互动动画三维实现方法及系统
US10510174B2 (en) * 2017-05-08 2019-12-17 Microsoft Technology Licensing, Llc Creating a mixed-reality video based upon tracked skeletal features
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
KR102585858B1 (ko) 2017-05-16 2023-10-11 애플 인크. 이모지 레코딩 및 전송
US10210648B2 (en) * 2017-05-16 2019-02-19 Apple Inc. Emojicon puppeting
EP3462284A4 (en) * 2017-06-12 2019-07-17 Midea Group Co., Ltd. CONTROL METHOD, CONTROL DEVICE, INTELLIGENT MIRROR AND COMPUTER READABLE STORAGE MEDIUM
US11861255B1 (en) 2017-06-16 2024-01-02 Apple Inc. Wearable device for facilitating enhanced interaction
CN107592449B (zh) * 2017-08-09 2020-05-19 Oppo广东移动通信有限公司 三维模型建立方法、装置和移动终端
CN107610209A (zh) * 2017-08-17 2018-01-19 上海交通大学 人脸表情合成方法、装置、存储介质和计算机设备
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US10198845B1 (en) 2018-05-29 2019-02-05 LoomAi, Inc. Methods and systems for animating facial expressions
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
KR102109818B1 (ko) * 2018-07-09 2020-05-13 에스케이텔레콤 주식회사 얼굴 영상 처리 방법 및 장치
KR102082894B1 (ko) * 2018-07-09 2020-02-28 에스케이텔레콤 주식회사 오브젝트 표시 장치, 방법 및 이러한 방법을 수행하는 컴퓨터 판독 가능 매체에 저장된 프로그램
US11982809B2 (en) 2018-09-17 2024-05-14 Apple Inc. Electronic device with inner display and externally accessible input-output device
US10636218B2 (en) 2018-09-24 2020-04-28 Universal City Studios Llc Augmented reality for an amusement ride
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
KR102639725B1 (ko) * 2019-02-18 2024-02-23 삼성전자주식회사 애니메이티드 이미지를 제공하기 위한 전자 장치 및 그에 관한 방법
US10991143B2 (en) * 2019-07-03 2021-04-27 Roblox Corporation Animated faces using texture manipulation
US11551393B2 (en) 2019-07-23 2023-01-10 LoomAi, Inc. Systems and methods for animation generation
CN111028322A (zh) * 2019-12-18 2020-04-17 北京像素软件科技股份有限公司 游戏动画表情生成方法、装置及电子设备
US11540758B2 (en) * 2020-02-06 2023-01-03 Charles Isgar Mood aggregation system
KR102371072B1 (ko) * 2020-06-10 2022-03-10 주식회사 이엠피이모션캡쳐 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법, 장치 및 그 시스템
CN111918106A (zh) * 2020-07-07 2020-11-10 胡飞青 应用场景识别的多媒体播放系统及方法
CN116250012A (zh) * 2020-09-30 2023-06-09 斯纳普公司 用于图像动画的方法、系统和计算机可读存储介质
ES2903244A1 (es) 2020-09-30 2022-03-31 Movum Tech S L Procedimiento para generacion de una cabeza y una dentadura virtuales en cuatro dimensiones
JP7137724B2 (ja) * 2020-12-16 2022-09-14 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
JP7137725B2 (ja) * 2020-12-16 2022-09-14 株式会社あかつき ゲームサーバ、ゲームプログラム、情報処理方法
US20220218438A1 (en) * 2021-01-14 2022-07-14 Orthosnap Corp. Creating three-dimensional (3d) animation
CN116664727B (zh) * 2023-07-27 2023-12-08 深圳市中手游网络科技有限公司 一种游戏动画模型识别方法及处理系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
IL121178A (en) * 1997-06-27 2003-11-23 Nds Ltd Interactive game system
US6545682B1 (en) * 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
US6943794B2 (en) * 2000-06-13 2005-09-13 Minolta Co., Ltd. Communication system and communication method using animation and server as well as terminal device used therefor
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US20040227761A1 (en) * 2003-05-14 2004-11-18 Pixar Statistical dynamic modeling method and apparatus
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR100511210B1 (ko) * 2004-12-27 2005-08-30 주식회사지앤지커머스 의사 쓰리디 이미지 생성기법을 토대로 한 이용자 적응인공지능 토탈 코디네이션 방법과, 이를 이용한 서비스사업방법
US7564476B1 (en) * 2005-05-13 2009-07-21 Avaya Inc. Prevent video calls based on appearance
CA2553546A1 (en) * 2005-07-29 2007-01-29 Avid Technology, Inc. Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
CN101473352A (zh) * 2006-04-24 2009-07-01 索尼株式会社 表演驱动的脸部动画
EP2016562A4 (en) * 2006-05-07 2010-01-06 Sony Computer Entertainment Inc METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME
US8115774B2 (en) * 2006-07-28 2012-02-14 Sony Computer Entertainment America Llc Application of selective regions of a normal map based on joint position in a three-dimensional model
US20080215974A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Interactive user controlled avatar animations
GB2450757A (en) * 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
CN101393599B (zh) * 2007-09-19 2012-02-08 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
JP4886645B2 (ja) * 2007-09-20 2012-02-29 日本放送協会 仮想顔モデル変形装置及び仮想顔モデル変形プログラム
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법
KR100940862B1 (ko) * 2007-12-17 2010-02-09 한국전자통신연구원 3차원 얼굴 애니메이션을 위한 헤드 모션 추적 방법
CN101299227B (zh) * 2008-06-27 2010-06-09 北京中星微电子有限公司 基于三维重构的多人游戏系统及方法
KR101591779B1 (ko) * 2009-03-17 2016-02-05 삼성전자주식회사 모션 데이터 및 영상 데이터를 이용한 골격 모델 생성 장치및 방법

Also Published As

Publication number Publication date
JP2013535051A (ja) 2013-09-09
EP2580741A2 (en) 2013-04-17
US20110304629A1 (en) 2011-12-15
WO2011156115A3 (en) 2012-02-02
KR20130080442A (ko) 2013-07-12
WO2011156115A2 (en) 2011-12-15
CN102934144A (zh) 2013-02-13

Similar Documents

Publication Publication Date Title
JP5785254B2 (ja) 顔の表情のリアルタイムアニメーション
CN107154069B (zh) 一种基于虚拟角色的数据处理方法及系统
US11478709B2 (en) Augmenting virtual reality video games with friend avatars
US10636217B2 (en) Integration of tracked facial features for VR users in virtual reality environments
US11656680B2 (en) Technique for controlling virtual image generation system using emotional states of user
KR102581453B1 (ko) 헤드 마운티드 디스플레이(Head Mounted Display: HMD) 디바이스를 위한 이미지 처리
US20180373413A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US8830244B2 (en) Information processing device capable of displaying a character representing a user, and information processing method thereof
US20080215974A1 (en) Interactive user controlled avatar animations
US20040152512A1 (en) Video game with customizable character appearance
WO2010129721A2 (en) Distributed markerless motion capture
JP2023036740A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP7273752B2 (ja) 表情制御プログラム、記録媒体、表情制御装置、表情制御方法
US20230063681A1 (en) Dynamic augmentation of stimuli based on profile of user
JP7317322B2 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
EP4288173A2 (en) Computer-implemented method for controlling a virtual avatar

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150313

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150723

R150 Certificate of patent or registration of utility model

Ref document number: 5785254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees