JP2002304638A - 表情アニメーション生成装置および表情アニメーション生成方法 - Google Patents

表情アニメーション生成装置および表情アニメーション生成方法

Info

Publication number
JP2002304638A
JP2002304638A JP2001104665A JP2001104665A JP2002304638A JP 2002304638 A JP2002304638 A JP 2002304638A JP 2001104665 A JP2001104665 A JP 2001104665A JP 2001104665 A JP2001104665 A JP 2001104665A JP 2002304638 A JP2002304638 A JP 2002304638A
Authority
JP
Japan
Prior art keywords
expression
time
texture
facial expression
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001104665A
Other languages
English (en)
Other versions
JP3753625B2 (ja
Inventor
Katsunobu Isono
勝宣 磯野
Masaomi Oda
政臣 尾田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR NINGEN JOHO TSUSHIN KENKYU
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR NINGEN JOHO TSUSHIN KENKYU
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR NINGEN JOHO TSUSHIN KENKYU, ATR Advanced Telecommunications Research Institute International filed Critical ATR NINGEN JOHO TSUSHIN KENKYU
Priority to JP2001104665A priority Critical patent/JP3753625B2/ja
Publication of JP2002304638A publication Critical patent/JP2002304638A/ja
Application granted granted Critical
Publication of JP3753625B2 publication Critical patent/JP3753625B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 簡単に多様な表情アニメーションを作成でき
る表情アニメーション生成装置を提供する。 【解決手段】 表情差分データ抽出部1110は、対象
人物の表情顔サンプルから特徴点を抽出し、特徴点に基
づいて表情顔サンプルを複数のパーツに分割し、指定さ
れた2つの異なる表情間の表情遷移変化に伴う形状およ
びテクスチャの差分を求め、差分形状データと差分テク
スチャを獲得する。動作パターン設定部1120は、各
パーツごとの時間変化を規定するための動作パターン関
数を指定する。時系列表情画像合成処理部1130は、
動作パターン関数と差分形状データおよび差分テクスチ
ャとに基づいて、所定の時間間隔ごとの時系列表情形状
データおよび時系列表情テクスチャを生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、ある人物の任意
の表情に基づいて、多様な表情アニメーションを生成す
る方法および表情アニメーションを生成する表情アニメ
ーション生成装置の構成に関する。
【0002】
【従来の技術】近年、特定の人物の特定の表情データに
基づいて、当該人物の任意表情の合成を行なう研究が行
なわれている。ところで、任意表情の生成は、静止画像
だけでなく動画(アニメーション)の生成を行なうこと
で、より実用的となる。たとえば、最近のテレビコマー
シャルでも見られるように、歴史上の人物のさまざまな
表情アニメーションの生成や、仮想俳優、感性擬人化エ
ージェントなどに応用することが可能となる。
【0003】さらに、心理学的な研究分野においては、
動画を用いた表情認知の研究が、文献1:蒲池みゆき,
吉川左紀子,赤松茂.変化速度は表情認知に影響するか
?−動画刺激を用いた顔表情認知の時間特性の解明−.
信学技報HCS98-34,pp.17-24,1998.に開示されてい
る。
【0004】表情アニメーションは、簡単な方法として
は、初めの表情と終わりの表情の2枚の画像間の対応点
間の座標の位置、および輝度値を時間変化に比例させて
内挿することによって生成し(以下、線形モーフィング
と呼ぶ)連続提示させることで生成することが可能とな
る。
【0005】さらに、表情生成機能を持った専用のソフ
トウェアを用い、顔の表情筋の動きを模倣するなどし
て、細かな動きの指定が可能となる。
【0006】顔全体の線形モーフィングによるアニメー
ション生成の場合、その表情変化は線形となり、目や口
といった顔のパーツは同時に変化する。
【0007】ここで、文献2:内田英子,四倉達夫,森
島繁生,山田寛,大谷淳,赤松茂.高速度カメラを用い
た顔面表情の動的変化に関する分析.信学技報HIP99-7
6,pp.1-6,2000.には、高速カメラを用いた表情の動
的変化の分析を行なうことで、各パーツの変化(動き出
し、変化パターン)は非線形であって、各表情ごと、各
パーツごとに微妙に異なっていること、およびその表情
表出が自発的なものか、または意図的なものかによっ
て、その動作パターンが変化することが開示されてい
る。
【0008】また、文献3:西尾修一,小山謙二.目と
口の動きの時間的差異に基づく笑いの分類基準.信学論
(A),Vol.J80-A,No.8,pp.1316-1318,1997.には、
コンピュータグラフィックス(CG)によって作成され
た顔を用いて、目と口の動き出しのタイミングを変える
ことで、同じ「笑い」であっても、その印象が変化する
ことが開示されている。
【0009】さらに、文献4:T.Ogawa and M. Oda. Ho
w facial parts work in facial-expression judgemen
t. ATR Sympsium on Face and Object Recognition '9
9, pp.109-110, 1999.および文献5:加藤隆,中口
稔,木幡誠治,丸谷真美,赤松茂.表情判断における顔
の部位の役割.第14回ヒューマン・インタフェース・
シンポジウム論文集,pp.71-76,1998.には、静止画を
用いて、表情種の異なるパーツを組合せることで多様な
表情に見えることが示され、かつ表情ごとに重要なパー
ツが存在することが開示されている。
【0010】したがって、上述したような表情アニメー
ションにおいても、表情ごとの重要なパーツの動作パタ
ーンを変化させることによって、多様な表情が生成でき
るものと考えられる。
【0011】
【発明が解決しようとする課題】つまり、より自然な表
情、多様な表情のアニメーションを作成するには、各パ
ーツごとに非線形な動作パターンを指定できることが必
要である。ところが、従来は、細かな動きの指定は、表
情生成機能を持った専用のソフトウェアを用い、しか
も、顔の表情筋の動きを模倣するなどして表情を生成す
るのが一般的であった。
【0012】しかしながら、このような専用のソフトウ
ェアは、その使用に関して、専門的な知識を必要とし、
誰もが簡単に使用できるものではない。
【0013】本発明は、上記のような問題点を解決する
ためになされたものであって、その目的は、専門的な知
識を必要とせず、誰もが簡単に多様な表情アニメーショ
ンを作成できる表情アニメーション生成装置および表情
アニメーション生成方法を提供することである。
【0014】
【課題を解決するための手段】請求項1記載の表情アニ
メーション生成装置は、対象人物の表情顔サンプルから
特徴点を抽出し、特徴点に基づいて表情顔サンプルを複
数のパーツに分割し、各パーツごとに指定された2つの
異なる表情間の表情遷移変化に伴う形状およびテクスチ
ャの差分を求め、差分形状データと差分テクスチャを獲
得する表情差分データ抽出手段と、各パーツごとの時間
変化を規定するための動作パターン関数を指定する動作
パターン設定手段と、動作パターン関数と差分形状デー
タとに基づいて算出された任意時刻における中間差分形
状データと、動作パターン関数と差分テクスチャとに基
づいて算出された任意時刻における中間差分テキスチャ
とを所定の時間間隔で生成し、所定の時間間隔ごとの時
系列表情形状データおよび時系列表情テクスチャを生成
する時系列表情画像合成手段と、時系列表情形状データ
に基づく形状に時系列表情テクスチャをマッピングする
ことで生成された所定の時間間隔ごとに時系列表情画像
を連続表示することによって、表情アニメーションを生
成する表情アニメーション再生手段とを備える。
【0015】請求項2記載の表情アニメーション生成装
置は、請求項1記載の表情アニメーション生成装置の構
成に加えて、対象人物の表情顔サンプルは、対象人物の
異なる2つの表情の顔サンプルを含む。
【0016】請求項3記載の表情アニメーション生成装
置は、請求項1記載の表情アニメーション生成装置の構
成に加えて、動作パターン設定手段は、ユーザとの間の
対話型インターフェースを含む。
【0017】請求項4記載の表情アニメーション生成装
置は、請求項1、2または3記載の表情アニメーション
生成装置の構成に加えて、時系列表情画像合成手段は、
中間差分テキスチャの算出において、特徴点以外の画素
における重みは、当該画素が含まれる三角形パッチの頂
点の動作パターン関数値に基づき、頂点から当該画素ま
での距離の二乗に反比例する重み付き平均により導出す
る。
【0018】請求項5記載の表情アニメーション生成方
法は、対象人物の表情顔サンプルから特徴点を抽出し、
特徴点に基づいて表情顔サンプルを複数のパーツに分割
し、各パーツごとに指定された2つの異なる表情間の表
情遷移変化に伴う形状およびテクスチャの差分を求め、
差分形状データと差分テクスチャを獲得するステップ
と、各パーツごとの時間変化を規定するための動作パタ
ーン関数を指定するステップと、動作パターン関数と差
分形状データとに基づいて算出された任意時刻における
中間差分形状データと、動作パターン関数と差分テクス
チャとに基づいて算出された任意時刻における中間差分
テキスチャとを所定の時間間隔で生成し、所定の時間間
隔ごとの時系列表情形状データおよび時系列表情テクス
チャを生成するステップと、時系列表情形状データに基
づく形状に時系列表情テクスチャをマッピングすること
で生成された所定の時間間隔ごとに時系列表情画像を連
続表示することよって、表情アニメーションを生成する
ステップとを備える。
【0019】請求項6記載の表情アニメーション生成方
法は、請求項5記載の表情アニメーション生成方法の構
成に加えて、対象人物の表情顔サンプルは、対象人物の
異なる2つの表情の顔サンプルを含む。
【0020】請求項7記載の表情アニメーション生成方
法は、請求項5記載の表情アニメーション生成方法の構
成に加えて、動作パターン関数を指定するステップは、
ユーザとの間の対話型インターフェースにより動作パタ
ーン関数を編集するステップを含む。
【0021】請求項8記載の表情アニメーション生成方
法は、請求項5、6または7記載の表情アニメーション
生成方法の構成に加えて、時系列表情形状データおよび
時系列表情テクスチャを生成するステップは、中間差分
テキスチャの算出において、特徴点以外の画素における
重みは、当該画素が含まれる三角形パッチの頂点の動作
パターン関数値に基づき、頂点から当該画素までの距離
の二乗に反比例する重み付き平均により導出するステッ
プを含む。
【0022】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。
【0023】図1は、本発明に係る表情アニメーション
生成装置100の構成を説明するための概略ブロック図
である。
【0024】図1において、特に限定されないが、たと
えば、カメラ104により、同一人物で表情の異なる2
枚の画像からなる入力画像が撮影される。この撮影され
る画像は、表情アニメーション生成装置100のユーザ
2の画像であっても良いし、他の人物の画像であっても
よい。また、同一人物で表情の異なる2枚の画像がデー
タとして与えられるのであれば、表情アニメーション生
成装置100に接続されるカメラ104で撮影された画
像である必要もなく、そのような画像データが記録媒体
として与えられ、表情アニメーション生成装置100に
読み込まれる構成としてもよい。
【0025】ここで、表情アニメーション生成装置10
0は、以下に説明するように、このようにして与えられ
た同一人物で表情の異なる2枚の画像からなる入力画像
データに基づいて、アニメーション画像を生成する。こ
のとき、生成されるアニメーション画像を「時系列表情
画像」と呼ぶことにする。
【0026】表情アニメーション生成装置100は、さ
らに、データ処理部110と、ユーザ2との間で、対話
的なデータ入力を行なうためのデータ入力装置(たとえ
ば、キーボードおよびマウス)120と、ユーザ2に対
して対話的データ入力の際にデータ入力画面を提示し、
かつ最終的に生成された時系列表情画像を出力するため
の表示装置(たとえば、CRT)130とを備える。
【0027】データ処理部110は、データ入出力のイ
ンターフェースとして動作するデータ入出力部1102
と、表情差分データ抽出部1110と、各パーツごとの
動作パターンをユーザ2との間での対話的データ入力に
より設定する動作パターン設定部1120と、時系列表
情画像合成処理部1130と、表情アニメーション再生
部1140と、表情差分データ抽出部1110により抽
出された形状データおよびテクスチャデータを格納する
ための形状データ格納部1150およびテクスチャデー
タ格納部1152と、時系列表情画像合成処理部113
0において、時刻tにおける差分データをもとに算出さ
れた時系列表情形状データおよび時系列表情テクスチャ
データを格納するための時系列表情形状データ格納部1
160および時系列表情テクスチャデータ格納部116
2と、時系列表情画像合成処理部1130により最終的
に生成される時系列表情画像を格納するための時系列表
情画像格納部1170とを備える。
【0028】図2は、図1に示したデータ処理部110
の行なう処理の流れを模式的に示す概念図である。
【0029】以下、図1および図2を参照して、データ
処理部110の各部の動作についてさらに説明する。
【0030】表情差分データ抽出部1110の特徴点抽
出部1112は、表情の異なる2枚の画像(入力画像A
およびB)が与えられると、ユーザ2との間でグラフィ
ックスワークステーションの対話処理機能を用いて、特
徴点のサンプリングを行なう(ステップS100)。サ
ンプリングされたデータは、形状データ格納部1150
およびテクスチャデータ格納部1152にそれぞれ格納
される(ステップS102)。
【0031】さらに、サンプリングデータに基づき、2
枚の入力画像に関する形状データ/テクスチャデータを
獲得し、差分データ算出部1114は、差分形状データ
と差分テクスチャの抽出を行なう(ステップS10
4)。
【0032】一方、動作パターン設定部1120は、表
示装置に提示された関数のメニューの中から、後に説明
するように対話型インターフェースによって、顔の各パ
ーツごとにユーザ2が1つの関数を選択し(ステップS
110)、そのパターン情報が時系列表情画像合成処理
部1130に通知される(ステップS112)。
【0033】ここで、時系列表情画像合成処理部113
0は、このようにして得られた形状データ、テクスチャ
データおよび差分形状データ、差分テクスチャデータに
基づいて、表情画像のアニメーションを合成する。すな
わち、時系列表情画像合成処理部1130では、合成時
間を1秒30フレームとして、フレーム数に換算する。
さらに、時系列表情画像合成処理部1130は、差分デ
ータ抽出部1114から与えられる差分形状データおよ
び差分テクスチャと、動作パターン設定部1120から
与えられる動作パターンに基づいて、合成時間をフレー
ム数で等間隔に分割した各時刻tでの差分データを求
め、その値を表情の合成比率として、時系列表情形状デ
ータおよび時系列表情テクスチャを求め(ステップS1
20)、時系列表情形状データ格納部1160および時
系列表情テクスチャデータ格納部1162に格納する
(ステップS122)。このようにして得られた形状と
テクスチャを用いて、時系列表情画像合成処理部113
0は、表情画像を合成し(ステップS124)、最終的
に合成された時系列の表情画像が時系列表情画像格納部
1170に格納される(ステップS126)。
【0034】表情アニメーション再生部1140は、時
系列表情画像格納部1170に格納されたデータに基づ
いて表情アニメーションの再生を行ない、表示部130
に対して出力する(ステップS130)。
【0035】図3は、入力画像として与えられる同一人
物で表情のみが異なる2枚の画像のうち、無表情(中立
表情)の画像を示す図である。一方、図4は、入力画像
として与えられる同一人物で表情のみが異なる2枚の画
像のうち、笑顔の画像を示す図である。
【0036】図5は、図1に示した表情差分データ抽出
部1120において、顔サンプルの特徴点の抽出を汎用
グラフィックスワークステーションの対話処理機能を利
用して行なった結果を示す図である。すなわち、表示さ
れた入力画像から目視で特徴点を検出し、マウス操作に
よって入力画像表面上を移動するカーソルを用いて特徴
点の位置を特定する。
【0037】ここで、図3に示したような画像データに
基づいて、たとえば、83点の特徴点が規定される。さ
らに、図5においては、このようにして規定された特徴
点に基づいて、画像処理の基本単位である三角パッチの
集合として、画像が分割されている。
【0038】すなわち、画像特徴点を頂点とする三角パ
ッチの集合(形状)と画像の集合(画像そのもの:テク
スチャ)に分けてデータの獲得が行なわれる。
【0039】次に、データ処理部110の処理、特に、
差分データの獲得方法について、さらに詳しく説明す
る。
【0040】データ処理部110は、図3および図4に
おいて説明したように、任意の対象人物についての表情
A(通常は、上述したように「中立表情」)の顔画像
(以下、「表情A画像」)が与えられたとき、同じ人物
の表情B(特に限定されないが、上述した例では「笑
い」)の顔画像(以下、「表情B画像」)まで連続的に
変化する表情アニメーションを生成する。
【0041】表情変化は、形状の変化とそれに伴うテク
スチャの変化として表現されるので、顔画像を顔の特徴
点を頂点として生成される三角形パッチの集合(形状)
と、各画像の輝度値(または、RGB値)の集合、つま
り、画像そのもの(テクスチャ)との2つに分けて考
え、表情変化時の形状とテクスチャを別々に生成する。
【0042】図5に示したように、表情A画像から、表
情Aの形状(表情A形状)とテクスチャ(表情Aテクス
チャ)とが同時に得られる。同様に、表情B画像から、
表情Bの形状(表情B形状)とテクスチャ(表情Bテク
スチャ)とが同時に得られる。
【0043】表情Aと表情Bの間の時刻tにおける表情
Cの形状とテクスチャが得られれば、形状にテクスチャ
をマッピングすることで、対象人物の表情の時間変化を
得ることができる。
【0044】以下では、イメージの生成過程において、
形状とテクスチャを分けて処理する。
【0045】(表情差分形状の獲得)表情Aから表情B
への表情変化を考えたとき、表情変化に合う顔形状の変
化を、表情A画像SAと表情B画像SBの対応している特
徴点の座標の差分として捉える。
【0046】この差分を「差分形状」と呼び、δSで表
わすとすると、表情B形状は、表情A形状と差分形状と
の和で、以下の式(1)のように表わすことができる。
【0047】
【数1】
【0048】(表情テクスチャの生成)表情テクスチャ
の生成のための差分テクスチャについても、上述した表
情形状に対する差分形状と同様に、画素値の差分を求め
ることで、獲得することが可能となる。
【0049】つまり、差分テクスチャは、上述した対象
人物の表情A画像と表情B画像から得られるテクスチャ
の、対応する各画素における輝度値(RGB値)の差分
を取ることによって得られる。
【0050】ところで、表情間の差分テクスチャを得る
には、それぞれのテクスチャの画素同士の対応が取れて
いなければならない。
【0051】しかしながら、顔の形状は個人によって異
なり、また、同一人物の画像であっても、表情Aと表情
Bでは形状が異なるため、テクスチャの画素同士の対応
が取れていない。
【0052】そこで、正面から撮影された多数の人物の
表情Aと表情Bの画像のペアが格納されており、かつ、
両目尻の中点が画像の中心に位置するようにし、両目尻
を結んだ直線が水平になるように回転させて、顔の位置
と方向に関して正規化を行なった「画像サンプルデータ
ベース」を用いて、以下のような処理を行なう。
【0053】すなわち、画素の対応を取るために、画像
サンプルデータベース内の表情Aの平均形状を「基準形
状」とする。それから、表情Aテクスチャと表情Bテク
スチャを基準形状の各三角形パッチごとにマッピングす
る。これにより、画素同士の対応の取れたテクスチャが
得られる。このようにして、画素同士の対応の取れたテ
クスチャの差分をとることで、以下の式(2)で表され
る表情間の差分テクスチャδTを得る。
【0054】
【数2】
【0055】なお、表情形状におけるテクスチャの変化
は顔内部のみで生じるものとし、頭髪や背景のテクスチ
ャは変化しないものとする。
【0056】図6は、動作パターン設定部1120にお
いて、眉、目、鼻、口、輪郭の5つの顔パーツの動作パ
ターン関数の設定を行なうための設定画面の一例を示す
図である。
【0057】図6に示す動作パターン設定ダイアログを
用いて、各パーツごとの動作パターンの設定を行なう。
パターンの設定は、図6に示すように、予め用意された
パターン1〜5、たとえば、線形、三乗根、三乗などの
パターンの他にエルミート曲線を用いて任意のパターン
を編集し設定することもできる。
【0058】曲線の指定は、利用者が2つのコントロー
ルポイントPAおよびPBを操作することで得られる。
システムは利用者によって指定された動作パターンに基
づいて、時刻tにおける表情画像を生成し、それらを連
続表示することで、表情アニメーションを作成する。
【0059】以上のようにして、各パーツごとの動作パ
ターンの設定が行なわれた上で、図1に示した時系列表
情画像合成処理部1130において、形状データと時刻
tにおける表情差分形状データとを用いて、時系列の表
情形状データの生成を行ない、テクスチャデータと時刻
tにおける表情差分テクスチャを用いて、時系列の表情
テクスチャを求める。
【0060】時刻tにおける表情形状は、次のように生
成される。パーツKに設定された動作パターンをf
K(t)(0<fK(t)<1)とすると、パーツKの時
刻tにおける各特徴点座標および時刻tにおけるテクス
チャは、以下の式(3)および(4)によりそれぞれ表
わされる。
【0061】
【数3】
【0062】ここで、式(4)における係数ω(t)は
以下のようにして求められる。図7は、表情テクスチャ
の生成に用いられる三角形パッチP123を示す概念
図である。
【0063】時系列の表情テクスチャの生成は以下のよ
うに行なう。特徴点P1,P2,P3がそれぞれ、パーツ
K,L,Mに属しているものとし、各点の動作パターン
をそれぞれfK(t)、fL(t)、fM(t)で表わす
とする。
【0064】三角形パッチP123内の任意の点Pま
での各点からの距離をr1、r2、r3とすると、点Pに
おける係数ω(t)は、以下の式(5)により表わされ
る。
【0065】
【数4】
【0066】時刻tにおける表情形状に、時刻tにおけ
る表情テクスチャをマッピングすることで、時刻tにお
ける表情画像を合成する。
【0067】表情アニメーション再生部40において、
時系列表情画像合成処理部30で得られた時系列画像を
連続提示することで、アニメーションが再生される。
【0068】すなわち、本発明に係る表情アニメーショ
ン生成装置100おいては、線形モーフィングばかりで
なく、動作パターンの任意指定を可能とするため機能お
よび各パーツごとの動作パターンの任意指定を可能とす
る機能を備えている。
【0069】したがって、任意の2枚の表情顔サンプル
から、表情遷移変化に伴う形状およびテクスチャの差分
を求め、それぞれ、差分形状データと差分テクスチャを
獲得する。その上で、各パーツごとに設定された動作パ
ターンに基づいて、時間tの動作パターン関数を生成
し、その値を重みとして、入力画像形状データに差分形
状データを加えることにより、時刻tにおける表情形状
データを生成する。また、テクスチャにおいても同様
に、動作パターンに基づいて、時間tの動作パターン関
数を生成し、その値を重みとして、入力画像テクスチャ
に差分テクスチャを加えることで、時刻tにおける表情
テクスチャを生成する。
【0070】このとき、特徴点以外の画素における重み
は、その画素が含まれる三角形パッチの頂点の関数値に
基づき、頂点から画素間での距離の二乗に反比例する重
み付き平均により導出する。得られた差分形状に差分テ
クスチャをマッピングすることで、時刻tにおける画像
を生成し、それらを連続表示することで、表情アニメー
ションを生成することが可能となる。
【0071】なお、以上の説明では、本発明について、
任意の対象人物についての表情A画像と表情B画像とが
与えられたとき、表情Aから表情Bまで連続的に変化す
る表情アニメーションを生成する構成として説明した。
しかしながら、本発明はこのような場合に限定されるこ
となく、任意の対象人物についての表情A画像が与えら
れたとき、表情Aから表情Bまで連続的に変化する表情
アニメーションを生成する構成とすることもできる。こ
のときは、差分形状δSや差分テクスチャδTとして
は、上述したような「画像サンプルデータベース」から
得られる平均差分形状や平均差分テクスチャを利用して
生成することが可能である。
【0072】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
【0073】
【発明の効果】以上説明したとおり、本発明に従えば、
2つの表情の画像が与えられれば、各パーツごとに動作
関数を与えることで、同じ表情カテゴリであっても、微
妙に印象の異なる表情の生成が可能となり、仮想俳優
や、感性擬人化エージェントなどに適用することが可能
となる。
【0074】さらに、動作パターンの違いによる印象の
変化など、動画を用いた表情認知の研究といった、心理
学分野の実験刺激としても用いることができる。
【0075】さらに、専用ソフトを用いる場合のよう
な、専門的な知識や経験がなくても、誰もが簡単に多様
な表情アニメーションの生成を行なうことが可能とな
る。
【図面の簡単な説明】
【図1】 本発明に係る表情アニメーション生成装置1
00の構成を説明するための概略ブロック図である。
【図2】 図1に示したデータ処理部110の行なう処
理の流れを模式的に示す概念図である。
【図3】 入力画像として与えられる同一人物で表情の
みが異なる2枚の画像のうち、無表情(中立表情)の画
像を示す図である。
【図4】 入力画像として与えられる同一人物で表情の
みが異なる2枚の画像のうち、笑顔の画像を示す図であ
る。
【図5】 顔サンプルの特徴点の抽出を汎用グラフィッ
クスワークステーションの対話処理機能を利用して行な
った結果を示す図である。
【図6】 眉、目、鼻、口、輪郭の5つの顔パーツの動
作パターン関数の設定を行なうための設定画面の一例を
示す図である。
【図7】 表情テクスチャの生成に用いられる三角形パ
ッチP123を示す概念図である。
【符号の説明】
2 ユーザ、100 表情アニメーション生成装置、1
04 カメラ、110データ処理部、120 データ入
力装置、130 表示装置、1102 データ入出力
部、1110 表情差分データ抽出部、1120 動作
パターン設定部、1130 時系列表情画像合成処理
部、1140 表情アニメーション再生部、1150
形状データ格納部、1152 テクスチャデータ格納
部、1160時系列表情形状データ格納部、1162
時系列表情テクスチャデータ格納部、1170 時系列
表情画像格納部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 尾田 政臣 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール人間情報通信 研究所内 Fターム(参考) 5B050 BA07 BA08 BA09 BA12 DA01 EA04 EA06 EA24 EA28 FA02 GA01 5B057 AA20 BA11 CA12 CB13 CH01 CH08 CH11 DA20 DB02 DC09 DC30 DC32

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 対象人物の表情顔サンプルから特徴点を
    抽出し、前記特徴点に基づいて前記表情顔サンプルを複
    数のパーツに分割し、各パーツごとに指定された2つの
    異なる表情間の表情遷移変化に伴う形状およびテクスチ
    ャの差分を求め、差分形状データと差分テクスチャを獲
    得する表情差分データ抽出手段と、 各前記パーツごとの時間変化を規定するための動作パタ
    ーン関数を指定する動作パターン設定手段と、 前記動作パターン関数と前記差分形状データとに基づい
    て算出された任意時刻における中間差分形状データと、
    前記動作パターン関数と前記差分テクスチャとに基づい
    て算出された前記任意時刻における中間差分テキスチャ
    とを所定の時間間隔で生成し、前記所定の時間間隔ごと
    の時系列表情形状データおよび時系列表情テクスチャを
    生成する時系列表情画像合成手段と、 前記時系列表情形状データに基づく形状に前記時系列表
    情テクスチャをマッピングすることで生成された前記所
    定の時間間隔ごとに時系列表情画像を連続表示すること
    によって、表情アニメーションを生成する表情アニメー
    ション再生手段とを備える、表情アニメーション生成装
    置。
  2. 【請求項2】 前記対象人物の表情顔サンプルは、前記
    対象人物の異なる2つの表情の顔サンプルを含む、請求
    項1記載の表情アニメーション生成装置。
  3. 【請求項3】 前記動作パターン設定手段は、ユーザと
    の間の対話型インターフェースを含む、請求項1記載の
    表情アニメーション生成装置。
  4. 【請求項4】 前記時系列表情画像合成手段は、前記中
    間差分テキスチャの算出において、前記特徴点以外の画
    素における重みは、当該画素が含まれる三角形パッチの
    頂点の前記動作パターン関数値に基づき、前記頂点から
    当該画素までの距離の二乗に反比例する重み付き平均に
    より導出する、請求項1、2または3記載の表情アニメ
    ーション生成装置。
  5. 【請求項5】 対象人物の表情顔サンプルから特徴点を
    抽出し、前記特徴点に基づいて前記表情顔サンプルを複
    数のパーツに分割し、各パーツごとに指定された2つの
    異なる表情間の表情遷移変化に伴う形状およびテクスチ
    ャの差分を求め、差分形状データと差分テクスチャを獲
    得するステップと、 各前記パーツごとの時間変化を規定するための動作パタ
    ーン関数を指定するステップと、 前記動作パターン関数と前記差分形状データとに基づい
    て算出された任意時刻における中間差分形状データと、
    前記動作パターン関数と前記差分テクスチャとに基づい
    て算出された前記任意時刻における中間差分テキスチャ
    とを所定の時間間隔で生成し、前記所定の時間間隔ごと
    の時系列表情形状データおよび時系列表情テクスチャを
    生成するステップと、 前記時系列表情形状データに基づく形状に前記時系列表
    情テクスチャをマッピングすることで生成された前記所
    定の時間間隔ごとに時系列表情画像を連続表示すること
    によって、表情アニメーションを生成するステップとを
    備える、表情アニメーション生成方法。
  6. 【請求項6】 前記対象人物の表情顔サンプルは、前記
    対象人物の異なる2つの表情の顔サンプルを含む、請求
    項5記載の表情アニメーション生成方法。
  7. 【請求項7】 前記動作パターン関数を指定するステッ
    プは、ユーザとの間の対話型インターフェースにより前
    記動作パターン関数を編集するステップを含む、請求項
    5記載の表情アニメーション生成方法。
  8. 【請求項8】 前記時系列表情形状データおよび時系列
    表情テクスチャを生成するステップは、前記中間差分テ
    キスチャの算出において、前記特徴点以外の画素におけ
    る重みは、当該画素が含まれる三角形パッチの頂点の前
    記動作パターン関数値に基づき、前記頂点から当該画素
    までの距離の二乗に反比例する重み付き平均により導出
    するステップを含む、請求項5、6または7記載の表情
    アニメーション生成方法。
JP2001104665A 2001-04-03 2001-04-03 表情アニメーション生成装置および表情アニメーション生成方法 Expired - Fee Related JP3753625B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001104665A JP3753625B2 (ja) 2001-04-03 2001-04-03 表情アニメーション生成装置および表情アニメーション生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001104665A JP3753625B2 (ja) 2001-04-03 2001-04-03 表情アニメーション生成装置および表情アニメーション生成方法

Publications (2)

Publication Number Publication Date
JP2002304638A true JP2002304638A (ja) 2002-10-18
JP3753625B2 JP3753625B2 (ja) 2006-03-08

Family

ID=18957490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001104665A Expired - Fee Related JP3753625B2 (ja) 2001-04-03 2001-04-03 表情アニメーション生成装置および表情アニメーション生成方法

Country Status (1)

Country Link
JP (1) JP3753625B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005024728A1 (ja) * 2003-09-03 2005-03-17 Nec Corporation 形態変形装置、物体動作符号化装置および物体動作復号化装置
JP2007272355A (ja) * 2006-03-30 2007-10-18 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US7924277B2 (en) 2005-04-04 2011-04-12 Toyota Jidosha Kabushiki Kaisha Three-dimensional model deformation system, method and computer readable program, and computer readable storage medium storing that program
JP2011118825A (ja) * 2009-12-07 2011-06-16 Yamazaki Co Ltd モノクロ動画の着色装置及びモノクロ動画の着色方法
JP2013210691A (ja) * 2012-03-30 2013-10-10 Casio Comput Co Ltd 動き情報生成方法、動き情報生成装置及びプログラム
JP2015136377A (ja) * 2014-01-20 2015-07-30 株式会社ニコン 画像処理装置
CN111080754A (zh) * 2019-12-12 2020-04-28 广东智媒云图科技股份有限公司 一种头部肢体特征点连线的人物动画制作方法及装置
CN111768481A (zh) * 2020-05-19 2020-10-13 北京奇艺世纪科技有限公司 一种表情包生成方法及装置
CN111783658A (zh) * 2020-07-01 2020-10-16 河北工业大学 基于双生成对抗网络的两阶段表情动画生成方法
CN111899321A (zh) * 2020-08-26 2020-11-06 网易(杭州)网络有限公司 一种虚拟角色表情展现的方法和装置
JP2021068404A (ja) * 2019-10-17 2021-04-30 未來市股▲ふん▼有限公司 アバターの顔の表情生成システムおよびアバターの顔の表情生成方法
US11087520B2 (en) 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
US11127181B2 (en) 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
CN117974853A (zh) * 2024-03-29 2024-05-03 成都工业学院 同源微表情图像自适应切换生成方法、系统、终端及介质

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891885B1 (ko) * 2003-09-03 2009-04-03 닛본 덴끼 가부시끼가이샤 형태 변형 장치, 물체 동작 부호화 장치 및 물체 동작복호화 장치
US7668401B2 (en) 2003-09-03 2010-02-23 Nec Corporation Form changing device, object action encoding device, and object action decoding device
WO2005024728A1 (ja) * 2003-09-03 2005-03-17 Nec Corporation 形態変形装置、物体動作符号化装置および物体動作復号化装置
US7924277B2 (en) 2005-04-04 2011-04-12 Toyota Jidosha Kabushiki Kaisha Three-dimensional model deformation system, method and computer readable program, and computer readable storage medium storing that program
JP2007272355A (ja) * 2006-03-30 2007-10-18 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2011118825A (ja) * 2009-12-07 2011-06-16 Yamazaki Co Ltd モノクロ動画の着色装置及びモノクロ動画の着色方法
JP2013210691A (ja) * 2012-03-30 2013-10-10 Casio Comput Co Ltd 動き情報生成方法、動き情報生成装置及びプログラム
JP2015136377A (ja) * 2014-01-20 2015-07-30 株式会社ニコン 画像処理装置
US11127181B2 (en) 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
US11087520B2 (en) 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
JP2021068404A (ja) * 2019-10-17 2021-04-30 未來市股▲ふん▼有限公司 アバターの顔の表情生成システムおよびアバターの顔の表情生成方法
CN111080754B (zh) * 2019-12-12 2023-08-11 广东智媒云图科技股份有限公司 一种头部肢体特征点连线的人物动画制作方法及装置
CN111080754A (zh) * 2019-12-12 2020-04-28 广东智媒云图科技股份有限公司 一种头部肢体特征点连线的人物动画制作方法及装置
CN111768481A (zh) * 2020-05-19 2020-10-13 北京奇艺世纪科技有限公司 一种表情包生成方法及装置
CN111783658A (zh) * 2020-07-01 2020-10-16 河北工业大学 基于双生成对抗网络的两阶段表情动画生成方法
CN111783658B (zh) * 2020-07-01 2023-08-25 河北工业大学 基于双生成对抗网络的两阶段表情动画生成方法
CN111899321A (zh) * 2020-08-26 2020-11-06 网易(杭州)网络有限公司 一种虚拟角色表情展现的方法和装置
CN111899321B (zh) * 2020-08-26 2023-09-26 网易(杭州)网络有限公司 一种虚拟角色表情展现的方法和装置
CN117974853A (zh) * 2024-03-29 2024-05-03 成都工业学院 同源微表情图像自适应切换生成方法、系统、终端及介质
CN117974853B (zh) * 2024-03-29 2024-06-11 成都工业学院 同源微表情图像自适应切换生成方法、系统、终端及介质

Also Published As

Publication number Publication date
JP3753625B2 (ja) 2006-03-08

Similar Documents

Publication Publication Date Title
Sifakis et al. Simulating speech with a physics-based facial muscle model
Liao et al. Automatic caricature generation by analyzing facial features
Pighin et al. Synthesizing realistic facial expressions from photographs
Pighin et al. Modeling and animating realistic faces from images
KR100720309B1 (ko) 자동 3차원 모델링 시스템 및 방법
US6919892B1 (en) Photo realistic talking head creation system and method
JP3779570B2 (ja) 化粧シミュレーション装置、化粧シミュレーション制御方法、化粧シミュレーションプログラムを記録したコンピュータ読み取り可能な記録媒体
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
CN108564641B (zh) 基于ue引擎的表情捕捉方法及装置
JP3753625B2 (ja) 表情アニメーション生成装置および表情アニメーション生成方法
WO2001099048A2 (en) Non-linear morphing of faces and their dynamics
US20120139899A1 (en) Semantic Rigging of Avatars
JP2001109913A (ja) 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
JP2011159329A (ja) 自動3dモデリングシステム及び方法
Patel et al. 3D facial model construction and expressions synthesis using a single frontal face image
JPH10240908A (ja) 映像合成方法
Ekmen et al. From 2D to 3D real-time expression transfer for facial animation
KR20010084996A (ko) 단일 이미지를 이용한 3차원 아바타 제작 방법 및 이를이용한 자판기
US20210158565A1 (en) Pose selection and animation of characters using video data and training techniques
KR101780496B1 (ko) 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법
JP2002083286A (ja) アバタ生成方法、装置及びそのプログラムを記録した記録媒体
Yang et al. An interactive facial expression generation system
JPH11175765A (ja) 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体
JP2843262B2 (ja) 表情再現装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees