JP2003132365A - アニメーション生成装置およびコンピュータプログラム - Google Patents

アニメーション生成装置およびコンピュータプログラム

Info

Publication number
JP2003132365A
JP2003132365A JP2001327413A JP2001327413A JP2003132365A JP 2003132365 A JP2003132365 A JP 2003132365A JP 2001327413 A JP2001327413 A JP 2001327413A JP 2001327413 A JP2001327413 A JP 2001327413A JP 2003132365 A JP2003132365 A JP 2003132365A
Authority
JP
Japan
Prior art keywords
frame
shape
animation
parameter
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001327413A
Other languages
English (en)
Inventor
Shinichi Hotta
伸一 堀田
Osamu Toyama
修 遠山
Hideo Fujii
英郎 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001327413A priority Critical patent/JP2003132365A/ja
Publication of JP2003132365A publication Critical patent/JP2003132365A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】表示速度を維持しつつ従来よりも精細なアニメ
ーションを実現する。 【解決手段】顔モデル3Mを変形してアニメーションを
生成するアニメーション生成装置1に、所定の時間ごと
のフレームにおける顔モデル3Mの形状を定義するパラ
メータを取得する時間配置部103と、パラメータに基
づいて各フレームにおける顔モデル3Mの形状を取得す
る形状取得部105と、あるフレームにおけるパラメー
タおよびその次のフレームにおけるパラメータに基づい
て形状取得部105による顔モデル3Mの形状の取得が
所定の時間内に終了するか否かを判別する速度維持判別
部104とを設け、所定の時間内に終了しないと判別さ
れた場合に、形状取得部105は次のフレームよりも後
のフレームにおけるパラメータに基づいて顔モデル3M
の形状を取得する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、形状を決めるため
のパラメータの値をフレームごとに変化させることによ
って3次元のモデルを変形してアニメーションを生成す
るアニメーション生成方法およびアニメーション生成装
置に関し、特に、アニメーションの表示速度を維持する
ためのアニメーション生成方法およびアニメーション生
成装置に関する。
【0002】
【従来の技術】従来より、アニメーションを生成し表示
する速度(表示速度)を維持するために、フレームを間
引くなどの方法が提案されている。例えば、特開平8−
6494号公報に記載の発明によると、アニメーション
の表示速度が2倍または3倍のように設定されると、そ
の倍率に応じてフレームを削除して(間引いて)アニメ
ーションを生成する。
【0003】また、特開2000−140421号公報
に記載の発明によると、通常よりも速い表示速度(例え
ば倍速表示)が設定された場合に、その表示速度に応じ
てフレームを間引き、または表示するオブジェクト(3
次元モデル)の精細度を落として計算量を軽減してアニ
メーションを生成する。
【0004】
【発明が解決しようとする課題】しかし、表示速度を上
げたからといって、ユーザが予想するほど多くの処理時
間を要するとは限らない。例えば、連続する2つのフレ
ーム間で、アニメーションの基となる3次元モデルのう
ち変化する部位が少なければ、表示速度が高く設定され
ていても、十分にその表示速度を維持することができる
場合がある。逆に、表示速度が高く設定されていなくて
も、3次元モデルのうち変化する部位が多ければ、ユー
ザの予想に反してアニメーションの生成に時間を要し、
表示が遅れる場合がある。
【0005】このように、従来の方法では、アニメーシ
ョン生成装置のパフォーマンス(性能)などに余裕があ
るにも関わらず、設定された表示倍率に応じて一律にフ
レームを間引き、荒いアニメーションを表示してしまう
場合があり得る。また、表示速度が低い場合であって
も、必ずしも表示速度を維持できるとは限らない。
【0006】本発明は、このような問題点に鑑み、設定
された表示速度を維持しつつ従来よりも精細なアニメー
ションを実現するアニメーション生成方法およびアニメ
ーション生成装置を提供することを目的とする。
【0007】
【課題を解決するための手段】本発明に係るアニメーシ
ョン生成装置は、所定の時間ごとに3次元モデルを変形
してアニメーションを生成するアニメーション生成装置
であって、前記所定の時間ごとのフレームにおける前記
3次元モデルの形状を定義するパラメータを入力する入
力手段と、前記パラメータに基づいて前記各フレームに
おける前記形状を算出する第一の演算手段と、第一のフ
レームにおける前記パラメータおよびその次のフレーム
である第二のフレームにおける前記パラメータに基づい
て、前記第一の演算手段による前記形状の算出が前記所
定の時間内に終了するか否かを判別する判別手段と、前
記形状の算出が前記所定の時間内に終了しないと判別さ
れた場合に、前記第二のフレームよりも後のフレームで
ある第三のフレームにおける前記パラメータに基づいて
前記形状を算出する第二の演算手段とを有してなる。
【0008】好ましくは、前記第二の演算手段は、前記
第三のフレームにおける前記形状を算出し、前記第一の
フレームにおける前記形状および前記第三のフレームに
おける前記形状に基づいて前記第二のフレームにおける
前記形状を算出する。または、前記第二の演算手段は、
前記第二のフレームにおける前記形状の算出を省略す
る。または、前記判別手段は、前記第二のフレームにお
いて前記形状の変更が必要である前記パラメータの個数
に基づいて前記形状の算出が前記所定の時間内に終了す
るか否かを判別する。
【0009】または、第一のフレームにおける前記パラ
メータおよびその次のフレームである第二のフレームに
おける前記パラメータに基づいて、前記第二のフレーム
における前記パラメータに基づく前記形状を生成する必
要があるか否かを判別する判別手段と、前記形状の生成
が必要ないと判別された場合に、前記第二のフレームよ
りも後のフレームである第三のフレームにおける前記パ
ラメータに基づいて前記形状を算出する第二の演算手段
とを有してなる。好ましくは、前記判別手段は、前記第
一のフレームにおける前記各パラメータと前記第二のフ
レームにおける前記各パラメータとの差を求め、各差の
うちのいずれかが所定の値よりも大きい場合に必要でな
いと判別する。
【0010】または、第一のフレームの次のフレームで
ある第二のフレームにおける前記形状を、前記第二のフ
レームにおける前記各パラメータのうち前記第一のフレ
ームにおける前記各パラメータとの差が所定の値よりも
大きい前記パラメータのみに基づいて算出する演算手段
とを有してなる。好ましくは、前記第一のフレームにお
ける前記パラメータおよび前記第二のフレームにおける
前記パラメータに基づいて、前記第一の演算手段による
前記形状の算出が前記期間内に終了するか否かを判別す
る判別手段と、前記判別手段による判別の結果に基づい
て前記所定の値を設定する設定手段とを有してなる。
【0011】
【発明の実施の形態】図1は本発明に係るアニメーショ
ン生成装置1の構成を示す図、図2は磁気記憶装置12
に記憶されるプログラムおよびデータの例を示す図、図
3はアニメーション生成装置1の機能的構成を示す図で
ある。
【0012】本発明に係るアニメーション生成装置1
は、図1に示すように、処理装置10、ディスプレイ装
置11、磁気記憶装置12、キーボード13、マウス1
4、マイク15、およびスピーカ16などによって構成
される。
【0013】処理装置10は、CPU10a、RAM1
0b、ROM10c、各種の入出力ポート10d、およ
び各種のコントローラ10eなどによって構成される。
磁気記憶装置12には、図2に示すように、オペレーテ
ィングシステム(OS)12a、顔画像制御プログラム
12b、およびモデリングプログラム12cなどのプロ
グラム、および後に説明する種々の処理に用いられるデ
ータなどが記憶されている。
【0014】磁気記憶装置12に記憶されているプログ
ラムおよびデータは、必要に応じてRAM10bにロー
ドされる。ロードされたプログラムは、CPU10aに
よって実行される。ネットワーク6Nを介してアニメー
ション生成装置1を他のコンピュータに接続し、プログ
ラムまたはデータをダウンロードしてもよい。または、
フロッピディスク19a、CD−ROM19b、または
光磁気ディスク(MO)19cなどの各種リムーバブル
ディスク(記録媒体)からプログラムまたはデータをロ
ードしてもよい。
【0015】ディスプレイ装置11には、処理装置10
による処理結果が表示される。例えば、言葉に合わせて
口が動くように人物の顔画像HFが処理装置10によっ
て制御されると、その制御の結果がリップシンクアニメ
ーションとしてディスプレイ装置11の表示画面HGに
表示される。
【0016】顔画像HFは、人物の3次元形状モデルを
所定の方向から2次元の面に投影することによって得ら
れる。つまり、顔画像HFの動作は、入力された言葉な
どに合わせて3次元形状モデルを変形することによって
制御される。
【0017】スピーカ16は、顔画像HFの動作すなわ
ち顔アニメーションに合わせて言葉を音声として出力す
る。これにより、顔画像HFがその言葉を喋っているか
のようにユーザに認識させることができる。
【0018】アニメーション生成装置1として、例え
ば、ワークステーションまたはパーソナルコンピュータ
などが用いられる。PDA(Personal Digital Assista
nt)または携帯電話端末などを用いてもよい。
【0019】このような構成によって、アニメーション
生成装置1には、図3に示すように、テキストデータ取
得部101、音韻取得部102、時間配置部103、速
度維持判別部104、形状取得部105、精細判別部1
06、動画像生成部107、顔モデル生成部108、音
声出力部109、およびデータ記憶部110などが設け
られる。 〔3次元形状モデル(顔モデル)の生成〕顔モデルデー
タ生成部108は、顔画像HFの基となる3次元形状モ
デルすなわち顔アニメーションとして再現される対象の
人物の3次元形状モデルを生成する。以下、3次元形状
モデルを生成する方法を、フローチャートを参照して説
明する。
【0020】図4は3次元形状モデルの生成の処理の流
れを説明するフローチャート、図5は標準モデルDSの
例を示す図、図6は変形処理の流れを説明するフローチ
ャート、図7は標準モデルDSの面Sと3次元計測デー
タの点Aとを模式的に示す図、図8は標準モデルDSの
異常変形を防ぐための仮想バネを説明するための図であ
る。
【0021】図4において、まず、図5に示す標準モデ
ルDSとアニメーションの対象の人物の3次元計測デー
タとの概略の位置合わせを行う(#101)。標準モデ
ルDSは、標準的な顔のサイズおよび形状を有した、頭
部の全周を構造化した3次元データである。3次元計測
データは、点群からなるその人物の顔の3次元データで
ある。すなわち、ステップ#101では、標準モデルD
Sと3次元計測データとの距離が最小となるように、標
準モデルDSの向き、大きさ、および位置を変更する。
一般に、標準モデルDSおよび3次元計測データとし
て、無表情の状態のものが用いられる。なお、3次元計
測データは、3次元計測装置で対象の人物を撮影するな
どして予め用意されている。
【0022】輪郭および特徴点を抽出する(#10
2)。標準モデルDSについての輪郭RKおよび特徴点
TTと同じ位置に配置されるべき輪郭および特徴点を、
3次元計測データ上に、またはそれに対応する2次元画
像上に配置する。
【0023】特徴点として、例えば、目や口の端部、鼻
の頂部、顎の下端部のように実際に特徴のある部分、ま
たは、それらの中間のようなそれ自体では特徴はないが
位置的に特定し易い部分などが選ばれる。輪郭として、
顎のライン、唇のライン、または瞼のラインなどが選ば
れる。
【0024】計算量および誤差を削減するために、3次
元計測データについてデータの削減を行う(#10
3)。標準モデルDSの変形を行う(#104)。すな
わち、3次元計測データの各点と標準モデルDSの面と
の間の距離に関連して定義されたエネルギー関数、また
は過剰な変形を回避するために定義されたエネルギー関
数などを用い、それらが最小となるように標準モデルD
Sの面を変形させる。
【0025】そして、対象とするエネルギー関数および
制御点を変更し、ステップ#104と同様な変更のため
の処理を繰り返す(#105)。次に、ステップ#10
4の変形処理について説明する。
【0026】図7において、3次元計測データを構成す
る点群の1つが点Akで示されている。標準モデルDS
の面Sにおいて、点Akに最も近い点がQkで示されて
いる。点Qkは、点Akから面Sに垂線を下ろしたとき
の交点である。
【0027】点群に面Sをフィッティングする方法は次
の通りである。ここでは、一般的なフィッティングにつ
いて説明する。点群の中の1つの点Ak、それに対応す
る点Qk、および対応点群T={(Ak,Qk),k=
1…n}について、フィッティングエネルギー(Fittin
g Energy) 関数Ff(U)を、次の式(1)のように設
定する。
【0028】
【数1】
【0029】ただし、Qk(U)は、QkがUの関数で
あることを示す。また、面Sの過度の変形を防ぐため
に、図8に示す仮想バネ(elastic bar) KBを導入す
る。仮想バネKBの制約に基づいて、面Sの形状安定化
のための安定化エネルギー関数を導く。
【0030】すなわち、図8において、フィッティング
対象である標準モデルDSの面(曲面)Sの一部が示さ
れている。面Sは、制御点群U=|ui,i=1…n|
で形成されている。隣接する制御点間には、仮想バネK
Bが配置されている。仮想バネKBは、制御点間に引っ
張り力による拘束を与え、面Sの異常変形を防ぐ働きを
する。
【0031】つまり、隣接する制御点uの間隔が大きく
なった場合に、それに応じて仮想バネKBによる引っ張
り力が大きくなる。例えば、点Qkが点Akに近づく場
合に、その移動にともなって制御点uの間隔が大きくな
ると、仮想バネKBによる引っ張り力が増大する。点Q
kが移動しても制御点uの間隔が変わらなければ、つま
り制御点u間の相対位置関係に変化がなければ、仮想バ
ネKBによる引っ張り力は変化しない。仮想バネKBに
よる引っ張り力を面Sの全体について平均化したもの
を、安定化エネルギーとして定義する。したがって、面
Sの一部が突出して変形した場合に安定化エネルギーは
増大する。面Sの全体が平均して移動すれば安定化エネ
ルギーは零である。
【0032】安定化エネルギー関数Fs(U)は、次の
式(2)で示される。
【0033】
【数2】
【0034】ここで、
【0035】
【数3】
【0036】は、それぞれ、仮想バネKBの初期端点、
変形後の仮想バネKBの端点である。cはバネ係数であ
り、Mは仮想バネKBの本数である。また、次の関係が
成り立つ。
【0037】
【数4】
【0038】したがって、バネ係数cを大きくすると、
仮想バネKBは硬くなって変形し難くなる。このような
安定化エネルギー関数Fs(U)を導入することによ
り、面Sの形状変化に一定の拘束を設けることとなり、
面Sの過度の変形を防ぐことができる。
【0039】上に述べたフィッティングエネルギー関数
Ff(U)、および安定化エネルギー関数Fs(U)を
用い、フィッティングの評価関数F(U)を次の式
(3)のように定義する。
【0040】 F(U)=WfFf(U)+WsFs(U) ……(3) ここで、Wf,Wsは、それぞれ正規化のための重み係
数である。式(3)の評価関数F(U)が十分小さくな
るように、面Sの変形および対応点の探索を繰り返し、
面のフィッティングを行う。例えば、F(U)のUに関
する微分が0に近づく方向にフィッティングを行う。
【0041】図6において、変形処理では、まず、点A
kに対応する点Qkを計算で求め、点Akと点Qkの組
みを作成する(#111)。面Sを変形し(#11
2)、変形後の評価関数F(U)を計算する(#11
3)。評価関数F(U)が収束するまで(#114でY
es)、処理を繰り返す。
【0042】評価関数F(U)の収束を判定する方法と
して、評価関数F(U)が所定の値よりも小さくなった
ときを収束とする方法、前回の計算と比較べた変化の割
合が所定値以下となったときに収束とする方法など、公
知の方法を用いることが可能である。
【0043】このような処理によって標準モデルDSを
変形し、アニメーションの対象の人物の顔の形状をした
3次元形状モデルを生成することができる。生成された
人物の顔の3次元形状モデルは、データ記憶部110に
記憶される。以下、この3次元形状モデルを「顔モデル
3M」と記載する。 〔筋肉の定義〕図9は顔モデル3Mの構成の例を示す
図、図10は筋肉配置データ72の例を示す図、図11
はノード影響データ73の例を示す図、図12はあるノ
ードNの移動による影響が及ぶ範囲の例を説明する図で
ある。
【0044】図9(a)において、複数の細い直線同士
の交点は、顔モデル3Mの構成頂点(Model Vertex)V
を示す。顔の表面すなわち皮膚の位置は、構成頂点Vに
よって決まる。
【0045】太い直線は、顔モデル3Mの筋肉を意味す
るエッジ(Edge)Eを示す。黒い丸印は筋肉の端点を意
味するノード(Node)Nを示す。つまり、筋肉(エッジ
E)の位置は、異なる2つのノードNによって決まる。
ノードN(N1、N2、…)は、顔全体の各筋肉の端点
となる位置に配置されている。なお、エッジEは人間の
実際の筋肉に即して配置されるので、顔の動きをリアル
に再現することができる。図9(b)は、ノードNとエ
ッジEとの関係を分かりやすくするために図9(a)か
ら構成頂点Vを省略して示している。図9(a)(b)
は、顔の右半分のノードNおよびエッジEを省略して示
しているが、実際には、左半分と同様にノードNおよび
エッジEが存在する。
【0046】ノードNの位置は、次に示す式(4)のよ
うに構成頂点Vの相対的位置として表される。
【0047】
【数5】
【0048】図10に示す筋肉配置データ72は、顔モ
デル3Mの各筋肉(エッジE1、E2、…)の構成に関
するデータである。エッジEの第一のパラメータは、そ
のエッジEの端点となる2つのノードNを示す。エッジ
Eの第二のパラメータは、そのエッジE(筋肉)を変位
させた場合に、どちらの端点(ノードN)をどれだけの
割合(ウェイト)で移動させるかを示す。例えば、エッ
ジE3の第二のパラメータ「0.7,0.3」は、ノー
ドN4、N5をそれぞれ7対3の割合で移動させるとい
うことを示している。エッジEの変位量は、筋肉の収縮
の度合によって表される。筋肉が収縮していない状態を
「0」、最も収縮した状態を「20」とする。例えば、
変位量(収縮の度合)が「15.0」であれば、その筋
肉(エッジE)が75%収縮することを示す。つまり、
エッジEの変位量とは、筋肉が収縮していない状態(初
期状態)に対する変位量で示される。
【0049】エッジEが変位するとき、ノードNが移動
する位置は、次に示す式(5)によって求められる。
【0050】
【数6】
【0051】ただし、実際には複数のエッジEに関係す
るノードNが存在するため、収束演算または連立演算に
よってノードNの移動後の位置が求められる。ノード影
響データ73は、図11に示すように、ノードNの移動
に伴って構成頂点Vに及ぼされる影響に関するデータで
ある。ノード影響データ73の第二のパラメータは、各
ノードNが移動したときに影響を受ける構成頂点Vを示
している。つまり、ノードNが移動したときの影響の範
囲を示している。ノードNの移動による影響を受ける構
成頂点Vは、そのノードNの周辺に集中している。例え
ば、図12において、大きい黒丸が示すノードNの移動
による影響を受ける構成頂点Vは、小さい黒丸が示す9
つの構成頂点Vである。
【0052】第一のパラメータは、ノードNが移動した
ときに構成頂点Vに対して与える影響の度合(intensit
y )を示している。この値が大きいと、ノードNの移動
に伴う構成頂点Vの移動量(変位量)が大きくなる。
【0053】ノードNが移動するのに伴って構成頂点V
が移動する位置は、次に示す式(6)によって求められ
る。
【0054】
【数7】
【0055】なお、筋肉配置データ72およびノード影
響データ73は、図3に示すデータ記憶部110に記憶
されている。 〔顔モデルの形状を制御するためのデータ〕図13はア
ニメーションパラメータ群74の例を示す図、図14は
母音を発したときの顔モデル3Mの形状の例を示す図、
図15は各エッジEの変位グラフの例を示す図である。
【0056】上述のように、各エッジEを変化させて各
構成頂点Vの位置を変えることによって、顔モデル3M
を変形させることができる。精細なアニメーションを実
現するのであれば、例えば、アニメーションのフレーム
同士の間隔を1/30秒とする場合は、1/30秒ごと
に各エッジEの変位量を設定することが望ましい。
【0057】しかし、フレームごとに各エッジEに変位
量を設定することは、ユーザにとって大きな負担とな
る。そこで、所定の動作ごとに各エッジEの変位量の変
化をアニメーションパラメータ群74によって予め定義
しておく。例えば、図13に示すアニメーションパラメ
ータ群741は、「あ」という音韻を発する動作を行う
ときの各エッジEの変化を示すデータである。すなわ
ち、無表情の形状(フレーム=1)から図14(a)に
示す「あ」を発した形状になるまで(フレーム=n)の
1/30秒ごとの各エッジEの変位量を示している。
【0058】同様に、図14(b)〜(e)に示す
「え」、「い」、「お」、および「う」の音韻(母音)
を発する動作を行った場合の各エッジEの変化を、アニ
メーションパラメータ群74としてそれぞれ定義してお
く。子音を発する動作についても、子音ごとにアニメー
ションパラメータ群74として定義しておく。なお、子
音を発音するときの口の形状の変化が似ているもの同士
をグループ化し、グループごとにアニメーションパラメ
ータ群74を定義しておいてもよい。その他、笑うとき
の動作、驚くときの動作、およびウィンクをするときの
動作など種々の動作についてアニメーションパラメータ
群74をそれぞれ定義しておいてもよい。これらのアニ
メーションパラメータ群74は、図3に示すデータ記憶
部110に記憶しておく。
【0059】アニメーションパラメータ群74は、次の
式(7)に示すように、行列式で表される。
【0060】
【数8】
【0061】〔顔モデルの形状の取得(アニメーション
のためのデータの取得)〕図3に戻って、テキストデー
タ取得部101は、顔モデル3Mに喋らせる言葉をテキ
ストデータ70として取得する。テキストデータ70
は、「こんばんは」のように言葉を表す文字列からな
る。テキストデータ70を取得する方法として、テキス
トエディタなどのソフトウェアを用いてキーボード13
から入力する方法、他のコンピュータから電子メールと
して受信する方法、またはマイク15から入力される音
声をテキスト変換する方法などが用いられる。
【0062】音韻取得部102は、テキストデータ70
の文字列を音韻ごとに区切る。例えば、「あめ」という
文字列は、「A、M、E」と区切られる。時間配置部1
03は、音韻取得部102によって区切られた各音韻に
対応するアニメーションパラメータ群74をデータ記憶
部110から抽出する。抽出されたアニメーションパラ
メータ群74が示す各エッジEの変位量を時間順に並べ
ると、図15に示す変位グラフのようになる。ただし、
図15の変位グラフは説明の簡単のためエッジE1〜E
3のみを表している。
【0063】形状取得部105は、時間配置部103に
よって得られた各エッジEの1/30秒ごと(フレーム
ごと)の変位量に基づいて顔モデル3Mの形状を変化さ
せる。すなわち、まず、式(5)にフレーム=1に対応
する各エッジEの変位量を代入し、収束演算または連立
演算などによって各ノードNの位置を求める。その各ノ
ードNの位置に基づいて式(6)によって顔モデル3M
の各構成頂点Vの位置を求める。以下、フレーム=2、
3、…について、同様に顔モデル3Mの各構成頂点Vの
位置を求める。これにより、顔モデル3Mの形状を1/
30秒ごとに変化させることができる。
【0064】ただし、エッジEの変位量とその直前の変
位量との差が微小であれば、そのエッジEに対応する筋
肉は変化(更新)しなかったものとみなし、そのエッジ
Eについては直前の変位量をそのまま用いて顔モデル3
Mの各構成頂点Vの位置を求める。つまり、次の式
(8)を満たすエッジEi については、エッジEi-1
変位量がそのまま用いられる。
【0065】
【数9】
【0066】式(8)の閾値δは、0に近い正数であ
り、アニメーション生成装置1の表示性能またはユーザ
の要求する精密度などに応じて設定される。例えば、デ
ィスプレイ装置11の解像度に応じて閾値δが設定され
る。このように、変位量の変化が微小であるエッジEに
ついては直前の時刻(フレーム)の変位量をそのまま用
いることにより、計算量を軽減することができる。以
下、このようにして顔モデル3Mの形状すなわち各構成
頂点Vの位置を取得する方法を「通常の方法」と記載す
る。
【0067】しかし、顔モデル3MのエッジEまたは構
成頂点Vの個数が多ければ、通常の方法により計算量を
軽減してもなお、各フレームにおける顔モデル3Mの形
状を取得する処理に時間が掛かり、アニメーションの生
成が遅れる可能性がある。そこで、速度維持判別部10
4は、形状取得部105において顔モデル3Mの形状を
取得する処理を行う前に、アニメーションの生成が遅れ
ないかどうか、すなわち、アニメーションの生成の速度
を維持することができるか否かを判別する。係る判別
は、次のような方法で行われる。
【0068】例えば、現在、フレーム(i−1)までの
顔モデル3Mの形状を取得しており、これからフレーム
iにおける顔モデル3Mの形状を取得する処理を行うと
ころであるとする。まず、各エッジEについて、式
(8)の条件に該当するか否かを判別し、該当するエッ
ジEの個数σを求める。すなわち、フレーム(i−1)
からフレームiに移る際に変化(更新)する筋肉の個数
を求める。そして、個数σが、次の式(9)の条件に該
当する場合は、更新しなければならないエッジE(筋
肉)の個数が多いために、アニメーション生成装置1の
性能ではアニメーションの生成の速度を維持することが
困難であると判別する。該当しない場合は、アニメーシ
ョンの生成の速度を維持することが可能であると判別す
る。
【0069】σ>θ ……(9) ただし、閾値θは、正の整数である。例えば、図15に
示すフレーム(β−1)〜フレームβ間のように、変化
の大きいエッジEが多い場合は、速度を維持することが
困難であると判別される。フレーム(α−1)〜フレー
ムα間のように、変化の大きいエッジEが少ない場合
は、速度を維持することが可能であると判別される。
【0070】閾値θは、実験的に求めて設定すればよ
い。これによると、アニメーション生成装置1の性能が
高い場合は閾値θが大きく設定され、性能が低い場合は
閾値θが小さく設定される傾向が現れる。または、ある
フレームにおける顔モデル3Mの形状を取得してからそ
のフレームの画像を表示するまでの時間に応じて閾値θ
を設定してもよい。例えば、テレビゲームのアニメーシ
ョンまたはユーザの音声に合わせて変化するアニメーシ
ョンなどのように、ユーザの操作または動作に応じてリ
アルタイムに動くアニメーションを実現する場合は、係
る時間が非常に短いので、閾値θを小さく設定しておく
ことが望ましい。逆に、決められたストーリ(シナリ
オ)に沿って変化するアニメーションを実現する場合
は、前もって顔モデル3Mの形状を取得しメモリなどの
バッファに蓄えておくことができるので、顔モデル3M
の形状の取得から係る形状に基づく画像の表示までの時
間に多少余裕がある。そこで、バッファの性能などに応
じて閾値θを大きく設定しておいてもよい。
【0071】速度維持判別部104による判別結果を受
けて、形状取得部105は、次のようにフレームiにお
ける顔モデル3Mの形状を取得する。アニメーションの
生成の速度の維持が可能であると判別された場合は、通
常の方法により顔モデル3Mの形状を取得する。形状取
得部105は、係る場合に、本発明の第一の演算手段の
役割を果たす。
【0072】アニメーションの生成の速度の維持が困難
であると判別された場合は、通常の方法とは異なる方法
が用いられる。形状取得部105は、係る場合に、本発
明の第二の演算手段の役割を果たす。例えば、次に説明
する第一の方法および第二の方法の2通りの方法のうち
のいずれかによって、顔モデル3Mの形状を取得する。 〔アニメーションの生成の高速化〕図16は通常の方法
および第一の方法による場合の構成頂点Vの位置の変化
を比較する図である。図16の太い点線は、通常の方法
によって、顔モデル3Mの形状をフレームごとに取得し
た場合のある構成頂点Vxの位置の変化を示している。
図中の三角形VxVyVzは、各フレームにおける顔モ
デル3Mのポリゴン(皮膚)を示している。
【0073】第一の方法は、フレームiにおける顔モデ
ル3Mの形状を、演算方法を簡略化して取得する方法で
ある。図16において、現在、フレーム(i−1)まで
の顔モデル3Mの形状を取得しており、ある構成頂点V
xがフレーム(i−1)の時点で点X1に位置している
ものとする。速度維持判別部104によってアニメーシ
ョンの生成の速度の維持が困難であると判別された場合
に、まず、フレームiにおける顔モデル3Mの形状を取
得せずに、それ以降の1つのフレーム(例えばフレーム
(i+3))における顔モデル3Mの形状を取得する。
すると、構成頂点Vxの位置X3が求められる。次に、
太い実線で示すように、両構成頂点Vxの位置を直線近
似し、フレームiにおける構成頂点Vxの位置を補間し
て位置X2' を求める。同様に、他の構成頂点Vについ
てフレームiにおける位置を取得する。これにより、フ
レームiにおける顔モデル3Mの全体の形状を取得する
ことができる。このとき、フレーム(i+1)、フレー
ム(i+2)における形状も取得される。
【0074】前に説明したように、通常の方法すなわち
顔モデル3Mの形状をフレームごとに取得する場合は、
フレームごとにエッジEからノードNを求め、そのノー
ドNから構成頂点Vを求めなければならない。特に、ノ
ードNは、収束演算または連立演算によって求められる
ので、顔モデル3MのエッジEおよび構成頂点Vの個数
が多い場合は、計算量が多くなる。これに対して、第一
の方法すなわち顔モデル3Mの形状を直線近似によって
取得する場合は、フレーム(i−1)およびフレーム
(i+3)についてのみ収束演算等を行えばよく、その
間のフレームについては両端の顔モデル3Mの形状すな
わち各構成頂点Vを直線近似して補間するだけでよいの
で、計算量が少ない。このように、第一の方法による
と、フレームiについての計算には時間を要するが、フ
レーム(i−1)〜フレーム(i+3)の全体の計算量
を軽減して処理時間を減らし、アニメーションの生成の
高速化を図ることができる。
【0075】第二の方法は、アニメーションの表示レー
トを落とす方法である。すなわち、フレームiにおける
顔モデル3Mの形状の取得を省略し、それ以降のフレー
ム(例えばフレーム(i+1))における顔モデル3M
の形状を取得する。省略されたフレームiにおける顔モ
デル3Mの形状は、前のフレームすなわちフレーム(i
−1)のものが引き続いて用いられる。これにより、例
えば、アニメーションの生成を1/30秒ごとに行って
いたのを2/30秒ごとに行うようにして、全体の計算
量を軽減して処理時間を減らし、アニメーションの生成
の高速化を図ることができる。
【0076】第一の方法および第二の方法によると、通
常の方法を用いる場合よりも、アニメーションの変化を
表すパラメータ(エッジE)に対する正確性は欠ける。
しかし、計算量を軽減して処理時間に余裕を持たせるこ
とができるので、アニメーションの生成が遅れてアニメ
ーションの表示が間延びしてしまうことを回避すること
ができる。なお、フレーム(i−1)、i、および(i
+3)は、それぞれ、本発明の第一のフレーム、第二の
フレーム、および第三のフレームに相当する。
【0077】図3に戻って、動画像生成部107は、通
常の方法、第一の方法、または第二の方法により得られ
た顔モデル3Mの形状を所定の方向から2次元投影する
ことによって顔画像HFを動作させ、顔アニメーション
を生成する。音声出力部109は、テキストデータ70
を音声化し、顔アニメーションと同期して音声を出力す
る。例えば、所定の音韻が立ち上がるときに動画像生成
部107から発せられる信号(トリガー)に合わせて順
次音声を出力する。テキストデータを音声化する方法と
して、公知の音声合成技術が用いられる。 〔微妙な動きのアニメーションか否かの判別〕一般に、
アニメーションの表示が遅れると、見る者に間延びした
感じを与えるので好ましくない。そこで、本実施形態で
は、アニメーションの生成の速度を維持することが困難
であると判別した場合に、第一の方法または第二の方法
によって、速度の維持を図った。
【0078】しかし、アニメーションの生成の速度より
も、アニメーションの再現の正確性を重視したい場合が
ある。例えば、微妙(精細)な動きをできるだけ忠実に
再現したい場合である。そこで、アニメーション生成装
置1は、アニメーションが微妙な動きを表現するもので
あるか否かを判別し、判別結果に応じて顔モデル3Mの
形状を取得する機能を備える。
【0079】現在、フレーム(i−1)までの顔モデル
3Mの形状を取得しているものとする。精細判別部10
6は、次の式(10)によって、アニメーションが微妙
な動きであるか否かを判別する。
【0080】
【数10】
【0081】すなわち、フレームiにおける各エッジE
の変位量とフレーム(i−1)における各エッジEの変
位量との差の絶対値を求め、その差の絶対値のうちの最
大値と閾値ξとを比較する。最大値が閾値ξよりも小さ
い場合は、すべてのエッジEの変化が微小であり、フレ
ーム(i−1)〜フレームiのアニメーションが微妙な
動きを表現するものであると判別する。大きい場合は、
微妙な動きを表現するのもではないと判別する。閾値ξ
は、ユーザが要求するアニメーションの精細度などに応
じて設定すればよい。
【0082】形状取得部105は、精細判別部106に
よってアニメーションが微妙な動きを表現するものであ
ると判別された場合は、アニメーションの生成が遅れる
可能性があるか否かに関わらず、フレームごとに顔モデ
ル3Mの形状を取得する。つまり、速度を維持すること
ができるものとして、通常の方法を用いて形状を取得す
る。表示速度の維持よりもアニメーションの正確性を優
先するためである。そうでない場合は、アニメーション
の生成が遅れる可能性があれば、アニメーションに多少
のあらがあっても構わないものとして、第一の方法また
は第二の方法によって計算量を軽減してアニメーション
の生成速度を維持する。
【0083】次に、アニメーション生成装置1の処理の
流れを、フローチャートを参照して説明する。図17は
アニメーション生成装置1の全体の処理の流れを説明す
るフローチャート、図18はアニメーション実行処理の
流れを説明するフローチャートである。
【0084】図17に示すように、まず、顔モデル3M
を生成し、エッジE(筋肉)の位置を設定する(#
1)。ノードNの位置の変化による影響が及ぶ構成頂点
Vの範囲を設定し、顔モデル3Mの筋肉が動いたときの
皮膚への影響について設定する(#2)。音韻ごとにア
ニメーションパラメータ群74を用意する(#3)。ス
テップ#1〜#3は、アニメーションの生成のための準
備なので、既に顔モデル3Mを生成し各設定を行ってい
る場合は省略してもよい。
【0085】テキストデータ70を入力し、テキストデ
ータ70に含まれる言葉を音韻ごとに区切る(#4)。
そして、時刻(フレーム)ごとに顔モデル3Mの形状を
変化させながらアニメーションを生成する(#5)。ア
ニメーションの生成は、図18に示す手順で行われる。
【0086】区切られた各音韻のアニメーションパラメ
ータ群74に基づいて図15の変位グラフに示すように
フレームごとの各エッジEの変位量(アニメーションパ
ラメータ)を取得する(#51)。現在のフレームにお
ける各エッジEの値と次のフレームにおける各エッジE
の値との差を求め(#52)、次のフレームのアニメー
ションの生成の速度の維持が可能であるか否かを判別す
る(#53)。維持が可能であれば(#53でYe
s)、各エッジEの変位量をそのまま用いて通常の方法
によって顔モデル3Mの形状を取得する(#54)。維
持が困難であると判別された場合は(#53でNo)、
直線近似による簡略化した演算方法(第一の方法)に基
づいてまたは表示レートを落として(第二の方法)顔モ
デル3Mの形状を取得する(#55)。ただし、ステッ
プ#53において、微妙な動きのアニメーションである
か否かについても判断する。微妙な動きであると判別さ
れた場合は、アニメーションの再現の正確性を重視する
ため、上記の判別結果に関わらず、速度の維持が可能で
あるものとして通常の方法が用いられる(#54)。
【0087】取得された顔モデル3Mの形状を2次元投
影して顔画像を取得し、ディスプレイ装置11に表示す
る(#56)。そして、すべてのフレームの処理が終わ
っていなければ(#57でNo)、ステップ#51に戻
ってその次のフレームのための処理を継続する。
【0088】本実施形態によると、アニメーションの生
成および表示の速度の維持が困難か否かを判別し、維持
が困難であると判別された場合にのみアニメーションの
生成の計算量を軽減する処理を行うことにより、表示速
度を維持しつつ従来よりも精細なアニメーションを実現
することができる。
【0089】また、微妙な動きのアニメーションである
と判別した場合は、正確性を重視したアニメーションを
生成することができる。本実施形態では、演算方法を簡
略化する第一の方法またはアニメーションの表示レート
を落とす第二の方法のいずれかの方法を用いて計算量を
軽減したが、他の方法を用いてもよい。例えば、式
(8)の閾値δを大きくし、直前の時刻(フレーム)の
変位量がそのまま用いられるエッジEの個数を増やすこ
とによって、計算量を軽減してもよい。
【0090】アニメーションの生成の速度が維持されて
いる間すなわちアニメーション生成装置1の処理に余裕
がある間は、アニメーションの表示のタイミングに関わ
らず顔モデル3Mの形状を前もって次々に取得しておい
てもよい。取得された顔モデル3Mの形状のデータ(各
構成頂点Vの位置)は、メモリに一次的に記憶しておけ
ばよい。
【0091】第二の方法は、直線近似によって顔モデル
3Mの各構成頂点Vの補間を行うものであったが、その
他の近似の方法を用いて補間を行うものであってもよ
い。本実施形態では、アニメーションの対象の人物の3
次元計測データに標準モデルをフィッティングすること
により顔モデル3Mを取得したが、その人物の2次元画
像に標準モデルをフィッティングして顔モデル3Mを取
得してもよい。または、種々のCG(Computer Graphic
s )プログラムを用いて顔モデル3Mを作成してもよ
い。
【0092】その他、アニメーション生成装置1の全体
または各部の構成、処理内容、処理順序などは、本発明
の趣旨に沿って適宜変更することができる。なお、上述
した具体的実施形態には、以下の構成を有する発明が含
まれている。 (1)請求項5の発明において、前記判別手段は、前記
第一のフレームにおける前記各パラメータと前記第二の
フレームにおける前記各パラメータとの差を求め、各差
のうちのいずれかが所定の値よりも大きい場合に必要で
ないと判別する。 (2)請求項6の発明において、前記第一のフレームに
おける前記パラメータおよび前記第二のフレームにおけ
る前記パラメータに基づいて、前記第一の演算手段によ
る前記形状の算出が前記期間内に終了するか否かを判別
する判別手段と、前記判別手段による判別の結果に基づ
いて前記所定の値を設定する設定手段とを有してなる。
【0093】
【発明の効果】本発明によると、表示速度を維持しつつ
従来よりも精細なアニメーションを実現することができ
る。
【図面の簡単な説明】
【図1】本発明に係るアニメーション生成装置の構成を
示す図である。
【図2】磁気記憶装置に記憶されるプログラムおよびデ
ータの例を示す図である。
【図3】アニメーション生成装置の機能的構成を示す図
である。
【図4】3次元形状モデルの生成の処理の流れを説明す
るフローチャートである。
【図5】標準モデルの例を示す図である。
【図6】変形処理の流れを説明するフローチャートであ
る。
【図7】標準モデルの面Sと3次元計測データの点Aと
を模式的に示す図である。
【図8】標準モデルの異常変形を防ぐための仮想バネを
説明するための図である。
【図9】顔モデルの構成の例を示す図である。
【図10】筋肉配置データの例を示す図である。
【図11】ノード影響データの例を示す図である。
【図12】あるノードの移動による影響が及ぶ範囲の例
を説明する図である。
【図13】アニメーションパラメータ群の例を示す図で
ある。
【図14】母音を発したときの顔モデルの形状の例を示
す図である。
【図15】各エッジの変位グラフの例を示す図である。
【図16】通常の方法および第一の方法による場合の構
成頂点の位置の変化を比較する図である。
【図17】アニメーション生成装置の全体の処理の流れ
を説明するフローチャートである。
【図18】アニメーション実行処理の流れを説明するフ
ローチャートである。
【符号の説明】
1 アニメーション生成装置 19a〜19c 記録媒体 3M 顔モデル(3次元モデル) 103 時間配置部(入力手段) 104 速度維持判別部(判別手段) 105 形状取得部(第一の演算手段、第二の演算手
段) 106 精細判別部(判別手段) E エッジ(パラメータ)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤井 英郎 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 5B050 BA08 BA09 BA12 EA13 EA17 EA24 FA02 FA10

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】所定の時間ごとに3次元モデルを変形して
    アニメーションを生成するアニメーション生成装置であ
    って、 前記所定の時間ごとのフレームにおける前記3次元モデ
    ルの形状を定義するパラメータを入力する入力手段と、 前記パラメータに基づいて前記各フレームにおける前記
    形状を算出する第一の演算手段と、 第一のフレームにおける前記パラメータおよびその次の
    フレームである第二のフレームにおける前記パラメータ
    に基づいて、前記第一の演算手段による前記形状の算出
    が前記所定の時間内に終了するか否かを判別する判別手
    段と、 前記形状の算出が前記所定の時間内に終了しないと判別
    された場合に、前記第二のフレームよりも後のフレーム
    である第三のフレームにおける前記パラメータに基づい
    て前記形状を算出する第二の演算手段と、 を有することを特徴とするアニメーション生成装置。
  2. 【請求項2】前記第二の演算手段は、前記第三のフレー
    ムにおける前記形状を算出し、前記第一のフレームにお
    ける前記形状および前記第三のフレームにおける前記形
    状に基づいて前記第二のフレームにおける前記形状を算
    出する、 請求項1記載のアニメーション生成装置。
  3. 【請求項3】前記第二の演算手段は、前記第二のフレー
    ムにおける前記形状の算出を省略する、 請求項1記載のアニメーション生成装置。
  4. 【請求項4】前記判別手段は、前記第二のフレームにお
    いて前記形状の変更が必要である前記パラメータの個数
    に基づいて前記形状の算出が前記所定の時間内に終了す
    るか否かを判別する、 請求項1記載のアニメーション生成装置。
  5. 【請求項5】所定の時間ごとに3次元モデルを変形して
    アニメーションを生成するアニメーション生成装置であ
    って、 前記所定の時間ごとのフレームにおける前記3次元モデ
    ルの形状を定義するパラメータを入力する入力手段と、 前記パラメータに基づいて前記各フレームにおける前記
    形状を算出する第一の演算手段と、 第一のフレームにおける前記パラメータおよびその次の
    フレームである第二のフレームにおける前記パラメータ
    に基づいて、前記第二のフレームにおける前記パラメー
    タに基づく前記形状を生成する必要があるか否かを判別
    する判別手段と、 前記形状の生成が必要ないと判別された場合に、前記第
    二のフレームよりも後のフレームである第三のフレーム
    における前記パラメータに基づいて前記形状を算出する
    第二の演算手段と、 を有することを特徴とするアニメーション生成装置。
  6. 【請求項6】所定の時間ごとに3次元モデルを変形して
    アニメーションを生成するアニメーション生成装置であ
    って、 前記所定の時間ごとのフレームにおける前記3次元モデ
    ルの形状を定義するパラメータを入力する入力手段と、 第一のフレームの次のフレームである第二のフレームに
    おける前記形状を、前記第二のフレームにおける前記各
    パラメータのうち前記第一のフレームにおける前記各パ
    ラメータとの差が所定の値よりも大きい前記パラメータ
    のみに基づいて算出する演算手段と、 を有することを特徴とするアニメーション生成装置。
  7. 【請求項7】所定の時間ごとに3次元モデルを変形して
    アニメーションを生成するコンピュータに用いられるコ
    ンピュータプログラムであって、 前記所定の時間ごとのフレームにおける前記3次元モデ
    ルの形状を定義するパラメータを入力する入力処理と、 前記パラメータに基づいて前記各フレームにおける前記
    形状を算出する第一の演算手段と、 第一のフレームにおける前記パラメータおよびその次の
    フレームである第二のフレームにおける前記パラメータ
    に基づいて、前記第一の演算処理による前記形状の算出
    が前記所定の時間内に終了するか否かを判別する判別処
    理と、 前記形状の算出が前記所定の時間内に終了しないと判別
    された場合に、前記第二のフレームよりも後のフレーム
    である第三のフレームにおける前記パラメータに基づい
    て前記形状を算出する第二の演算処理と、 をコンピュータに実行させるためのコンピュータプログ
    ラム。
  8. 【請求項8】所定の時間ごとに3次元モデルを変形して
    アニメーションを生成するコンピュータに用いられるコ
    ンピュータプログラムであって、 前記所定の時間ごとのフレームにおける前記3次元モデ
    ルの形状を定義するパラメータを入力する入力処理と、 前記パラメータに基づいて前記各フレームにおける前記
    形状を算出する第一の演算処理と、 第一のフレームにおける前記パラメータおよびその次の
    フレームである第二のフレームにおける前記パラメータ
    に基づいて、前記第二のフレームにおける前記パラメー
    タに基づく前記形状を生成する必要があるか否かを判別
    する判別処理と、 前記形状の生成が必要ないと判別された場合に、前記第
    二のフレームよりも後のフレームである第三のフレーム
    における前記パラメータに基づいて前記形状を算出する
    第二の演算処理と、 をコンピュータに実行させるためのコンピュータプログ
    ラム。
  9. 【請求項9】所定の時間ごとに3次元モデルを変形して
    アニメーションを生成するコンピュータに用いられるコ
    ンピュータプログラムであって、 前記所定の時間ごとのフレームにおける前記3次元モデ
    ルの形状を定義するパラメータを入力する入力処理と、 第一のフレームの次のフレームである第二のフレームに
    おける前記形状を、前記第二のフレームにおける前記各
    パラメータのうち前記第一のフレームにおける前記各パ
    ラメータとの差が所定の値よりも大きい前記パラメータ
    のみに基づいて算出する演算処理と、 をコンピュータに実行させるためのコンピュータプログ
    ラム。
  10. 【請求項10】請求項7ないし請求項9のいずれかに記
    載のコンピュータプログラムが記録されたコンピュータ
    読み取り可能な記録媒体。
JP2001327413A 2001-10-25 2001-10-25 アニメーション生成装置およびコンピュータプログラム Pending JP2003132365A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001327413A JP2003132365A (ja) 2001-10-25 2001-10-25 アニメーション生成装置およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001327413A JP2003132365A (ja) 2001-10-25 2001-10-25 アニメーション生成装置およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2003132365A true JP2003132365A (ja) 2003-05-09

Family

ID=19143645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001327413A Pending JP2003132365A (ja) 2001-10-25 2001-10-25 アニメーション生成装置およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2003132365A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101850134B1 (ko) * 2016-11-25 2018-04-20 경북대학교 산학협력단 3차원 동작 모델 생성 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101850134B1 (ko) * 2016-11-25 2018-04-20 경북대학교 산학협력단 3차원 동작 모델 생성 방법 및 장치

Similar Documents

Publication Publication Date Title
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
JP2518683B2 (ja) 画像合成方法及びその装置
US20110115798A1 (en) Methods and systems for creating speech-enabled avatars
JP2002508867A (ja) 2次元および3次元画像の変換制御用の方法および装置
KR102509666B1 (ko) 텍스트 및 오디오 기반 실시간 얼굴 재연
KR20120130627A (ko) 아바타를 이용한 애니메이션 생성 장치 및 방법
CN112734889A (zh) 一种2d角色的口型动画实时驱动方法和系统
CN110910479B (zh) 视频处理方法、装置、电子设备及可读存储介质
Kalberer et al. Face animation based on observed 3d speech dynamics
Kalberer et al. Realistic face animation for speech
JP2015038725A (ja) 発話アニメーション生成装置、方法、及びプログラム
JP2003058908A (ja) 顔画像制御方法および装置、コンピュータプログラム、および記録媒体
Tang et al. Real-time conversion from a single 2D face image to a 3D text-driven emotive audio-visual avatar
CN115311731B (zh) 一种手语数字人的表情生成方法和装置
JP4631077B2 (ja) アニメーション作成装置
JP2003132365A (ja) アニメーション生成装置およびコンピュータプログラム
CN115083371A (zh) 驱动虚拟数字形象唱歌的方法及其装置
JP2003141564A (ja) アニメーション生成装置およびアニメーション生成方法
CN113362432B (zh) 一种面部动画生成方法及装置
Kalberer et al. Lip animation based on observed 3D speech dynamics
Gao et al. HandTalker II: a Chinese sign language recognition and synthesis system
JP2003196678A (ja) 3次元モデルシステムおよびコンピュータプログラム
JP2020006482A (ja) アンドロイドのジェスチャ生成装置及びコンピュータプログラム
Kalberer et al. Speech Animation Using Viseme Space.
JP2003196677A (ja) 3次元モデル変形方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Effective date: 20050613

Free format text: JAPANESE INTERMEDIATE CODE: A712

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A072 Dismissal of procedure

Effective date: 20051018

Free format text: JAPANESE INTERMEDIATE CODE: A072

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20051108