JPH06162166A - 画像作成装置 - Google Patents

画像作成装置

Info

Publication number
JPH06162166A
JPH06162166A JP30642292A JP30642292A JPH06162166A JP H06162166 A JPH06162166 A JP H06162166A JP 30642292 A JP30642292 A JP 30642292A JP 30642292 A JP30642292 A JP 30642292A JP H06162166 A JPH06162166 A JP H06162166A
Authority
JP
Japan
Prior art keywords
time series
animation
weighted parameter
mouth shape
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30642292A
Other languages
English (en)
Other versions
JP3298076B2 (ja
Inventor
Tomoo Mitsunaga
知生 光永
Hisashi Miura
恒 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP30642292A priority Critical patent/JP3298076B2/ja
Publication of JPH06162166A publication Critical patent/JPH06162166A/ja
Application granted granted Critical
Publication of JP3298076B2 publication Critical patent/JP3298076B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】本発明は、コンピユータグラフイツクスの手法
を適用したアニメーシヨン作成装置等の画像作成装置に
関し、多重内挿法アニメーシヨンの利点を活かし、オブ
ジエクトモデルに依存しない表現豊かなリツプシンクア
ニメーシヨンを簡単に生成し得るようにする。 【構成】本発明は、発音情報より得られる発音のタイミ
ングを基準にして加重パラメータ時系列を生成し、この
加重パラメータ時系列で多重内挿して口形状の変化する
アニメーシヨンを生成する。

Description

【発明の詳細な説明】
【0001】
【目次】以下の順序で本発明を説明する。 産業上の利用分野 従来の技術(図48) 発明が解決しようとする課題(図48) 課題を解決するための手段(図39及び図46) 作用(図39及び図46) 実施例 (1)第1の実施例 (1−1)全体構成(図1及び図2) (1−2)口形状パラメータ(図3) (1−3)加重パラメータ(図4〜図38) (1−4)加重パラメータの生成(図39〜図42) (1−5)実施例の効果 (2)第2の実施例 (2−1)全体構成(図43〜図45) (2−2)合成バランスパラメータ(図46) (2−3)第2の実施例の効果 (3)他の実施例(図47) 発明の効果
【0002】
【産業上の利用分野】本発明は画像作成装置に関し、例
えばコンピユータグラフイツクスの手法を適用したアニ
メーシヨン作成装置に適用し得る。
【0003】
【従来の技術】従来、この種のアニメーシヨン作成装置
においては、加重パラメータ時系列を用いて複数個の内
挿ベクトルを多重内挿し、このようにして生成した内挿
ベクトルを用いてアニメーシヨンを作成するようになさ
れたものが提案されている(特願平2-256415号)。
【0004】すなわち多重内挿法においては、それぞれ
m個のパラメータ要素を持つ内挿パラメータベクトルp
(t)について、各パラメータ要素の基本値を要素とす
る基本ベクトルp0を設定し、n個の内挿パラメータベ
クトルpi(i=1...n)からそれぞれ基本ベクト
ルp0を減算してm*nの内挿パラメータ行列P(t)
を形成する。
【0005】さらに多重内挿法においては、n個のパラ
メータ要素を持つ加重パラメータベクトルw(t)を設
定し、内挿パラメータ行列P(t)、基本ベクトルp0
から、次式
【数1】 で示されるm個の要素を持つベクトルa(t)を新たに
生成する。
【0006】これにより図48に示すようにアニメーシ
ヨン作成装置においては、1つの動きの対象となる物体
(以下オブジエクトと呼ぶ)の動きを複数のオブジエク
ト形状と加重パラメータ時系列との多重内挿によつて生
成する。
【0007】すなわちアニメーシヨン作成装置において
は、動作を与えるオブジエクトと同じ定義のオブジエク
トN1、N2、N3を複数個用意し、それぞれに違つた
姿勢を与える(以下内挿オブジエクトと呼ぶ)。
【0008】さらにアニメーシヨン作成装置において
は、基本ベクトルp0に対応して内挿オブジエクトの基
本姿勢でなる基本オブジエクトKを与え、これにより内
挿オブジエクトN1、N2、N3を定義する。さらにn
個の内挿パラメータベクトルp(t)から基本オブジエ
クトKを定義する基本ベクトルp0を減算し、加重パラ
メータベクトルw1、w2、w3で加重混合する。
【0009】これによりアニメーシヨン作成装置におい
ては、(1)式の演算処理を実行して各時刻のオブジエ
クトの姿勢を表す時系列ベクトルw(t)を生成すれ
ば、内挿オブジエクトの姿勢情報を内挿パラメータベク
トルとした多重内挿法を用いて生成することができ、こ
れによりこのベクトルw(t)に基づいてアニメーシヨ
ンAを作成することができる。
【0010】これにより多重内挿法を適用したアニメー
シヨン作成装置においては、コンピユータグラフイツク
アニメーシヨンの最も一般的な手法であるキーフレーム
法を適用した場合に比して、少ないデータ量でアニメー
シヨンを作成し得、また自由度の高い、表現豊かなアニ
メーシヨンを作成し得る特徴がある。
【0011】
【発明が解決しようとする課題】ところで人が登場する
アニメーシヨンにおいては、話す言葉に合わせて口を動
かすアニメーシヨン(以下リツプシンクアニメーシヨン
と呼ぶ)が不可欠である。
【0012】ところが従来のリツプシンクアニメーシヨ
ンにおいては、殆どが発声している間、単に口の開閉を
繰り返しているだけの単純なものである。このリツプシ
ンクアニメーシヨンを実際の口の動きに近づけるために
は、従来のアニメーシヨン作成装置においては、緻密な
オブジエクトモデルを設定し、オブジエクトモデルが持
つパラメータを駆動する必要がある。
【0013】すなわち得られたアニメーシヨンの動き
は、オブジエクトモデルがどんなパラメータを持つかに
よつて左右され、例えリアルな動きを実現し得たとして
も、そのアニメーシヨンデータを別のオブジエクトモデ
ルに適用することが困難な特徴がある。
【0014】このためリツプシンクアニメーシヨンを作
成する場合、従来のアニメーシヨン作成装置において
は、簡単にしかも表現豊かに作成することが困難な問題
があり、また一旦作成しても種々のオブジエクトに適用
し得ない問題があつた。これに対して多重内挿法を適用
したアニメーシヨン作成装置においては、基本的に動き
が加重パラメータの時系列として記述されるので、加重
パラメータを自動的に生成することができれば、効率良
くアニメーシヨンを作成することができる。
【0015】本発明は以上の点を考慮してなされたもの
で、多重内挿法アニメーシヨンの利点を活かし、オブジ
エクトモデルに依存しない表現豊かなリツプシンクアニ
メーシヨンを簡単に生成することができる画像作成装置
を提案しようとするものである。
【0016】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、多重内挿法によるアニメーシヨン
データを作成する画像作成装置1において、予め設定し
た口形状に対して、発音情報12に基づいて内挿パラメ
ータW0〜W5を生成した後、発音情報12により発音
のタイミングを基準にして加重パラメータ時系列W6、
W7を生成し、加重パラメータ時系列W6、W7で多重
内挿することにより、発音情報12に応じて口形状の変
化するアニメーシヨンU3を作成する。
【0017】さらに本発明において、予め設定した口形
状は、「あ」を発音する口形状、「い」を発音する口形
状及び「う」を発音する口形状でなる。
【0018】さらに本発明においては、発生する音声の
すべての母音と子音に対して、加重パラメータ時系列W
6、W7を形成する加重パラメータの要素データを設定
する。
【0019】さらに本発明においては、発音情報12に
よる子音の種類及び又は無音の頻度に応じて、口形状に
表れる子音の強さが変化するように、加重パラメータ時
系列W6、W7を生成する。
【0020】さらに本発明においては、加重パラメータ
時系列W6、W7は、母音及び特殊音の加重パラメータ
時系列W6と、子音の加重パラメータ時系列W7を形成
した後、母音及び特殊音の加重パラメータ時系列W6と
子音の加重パラメータ時系列W7とを合成して形成す
る。
【0021】さらに本発明において、加重パラメータ時
系列W8、W9は、母音の動きと子音の動きとの比率を
適切な値に保持するように、発音情報12、母音発音情
報及び子音発音情報に基づいて値が時系列で変化する。
【0022】
【作用】発音情報12により発音のタイミングを基準に
して加重パラメータ時系列W6、W7を生成し、加重パ
ラメータ時系列W6、W7で多重内挿して口形状の変化
するアニメーシヨンU3を作成すれば、多重内挿法アニ
メーシヨンの利点を活かし、オブジエクトモデルに依存
しない表現豊かなリツプシンクアニメーシヨンを簡単に
生成することができる。
【0023】
【実施例】以下図面について、本発明の一実施例を詳述
する。
【0024】(1)第1の実施例 (1−1)全体構成 図1において、1は全体としてリツプシンクアニメーシ
ヨンを生成するアニメーシヨン作成装置の全体構成を示
し、この実施例の場合、規則合成法で作成した音声と同
期するリツプシンクアニメーシヨンを生成する。
【0025】すなわちこの実施例においてアニメーシヨ
ン作成装置1は、複素ケプストラム規則音声合成システ
ムを用いて音声規則合成部2で音声を合成するようにな
され、ここで複素ケプストラム規則音声合成システムに
おいては、発音記号とアクセント位置情報を記述した発
音テキストに基づいて音声を合成する。
【0026】ここで図2に示すように発音情報は、音韻
情報及び発音タイミング情報で形成され、音韻情報は、
例えばローマ字、その他の記号で表すことができ、発音
タイミング情報は、各音韻が発音される時刻を所定の数
字データで表し得るようになされている。
【0027】アニメーシヨン作成装置1においては、こ
の発音タイミング情報を基準にして加重パラメータ合成
部4で音韻情報から加重パラメータを生成する。さらに
アニメーシヨン作成装置1においては、この加重パラメ
ータに基づいてMIMeアニメーシヨン生成部6で口形
状モデルからアニメーシヨンを作成する。
【0028】これによりアニメーシヨン作成装置1にお
いては、4つの静止パターン(内挿、基本オブジエク
ト)と3つの加重パラメータ時系列から動パターンを生
成するようになされている。
【0029】(1−2)口形状パラメータ この実施例においてアニメーシヨン作成装置1は、口の
形状を表現する内挿オブジエクトとして3パターンの口
形状オブジエクトが予め設定されるようになされてい
る。
【0030】ここで図3に示すように第1の口形状オブ
ジエクトは、下顎をおろして口を開いた「あ」の音声を
発生する口形状で(図3(A))、第2の口形状オブジ
エクトは、歯を剥いて唇を横に引つ張つた「い」の音声
を発生する口形状(図3(B))、第3の口形状オブジ
エクトは、唇を窄めた「う」の音声を発生する口形状
(図3(C))が選定されるようになされている。
【0031】これにより「え」の音声を発生する口形状
は、「あ」の音声を発生する口形状と「い」の音声を発
生する口形状との中間の口形状で表現し得、「お」の音
声を発生する口形状は、「あ」の音声を発生する口形状
と「う」の音声を発生する口形状との中間の口形状で表
現し得、これによりアニメーシヨン作成装置1は、母音
についての口形状オブジエクトを自由に選定及び作成し
得るようになされている。
【0032】さらにこの実施例においてアニメーシヨン
作成装置1は、基本の口形状オブジエクトとして口を自
然に閉じた基本パターンが用意され(図3(D))、こ
れによりこの4つのパターンを用いてほぼ全ての口形状
を表現し得るようになされている。なおこのように3つ
の内挿オブジエクトに3種類の母音の口形状を選定すれ
ば、この3つの内挿オブジエクトをパラメータを設定す
る際の座標軸に選定した際、種々の口形状を直感的に把
握し得、その分全体の使い勝手を向上することができ
る。
【0033】かくしてこの実施例においては、「あ」、
「い」、「う」に対応する形状と基本形の4パターンに
よつて日本語の発音形状を表現することにより、規則合
成法で作成した音声と同期するリツプシンクアニメーシ
ヨンを生成するようになされている。
【0034】(1−3)加重パラメータ ここで日本語の音要素は、母音、子音、特殊音に分けら
れ、この実施例の場合それぞれに加重パラメータ要素を
選定する。ここで加重パラメータは、それぞれ内挿オブ
ジエクトで表現される3つの口形状パターンの内挿比を
決める3次元のベクトルで、この実施例の場合、この加
重パラメータ要素で加重パラメータの時系列を生成し、
この時系列を用いて一連のアニメーシヨンを作成する。
【0035】この場合日本語の母音の発音における口形
状は、それぞれ内挿オブジエクトで表現される3つの口
形状パターンで表現できることにより、子音の発音にお
ける口形状も口形状パターンの時系列で表現し得るよう
にする。このためこの実施例においてアニメーシヨン作
成装置1は、母音について加重パラメータ要素を所定の
ベクトルパターンで定義し、子音については同様のベク
トルパターンを用いてこのベクトルパターンを変化させ
て表現する。
【0036】すなわち図4に加重パラメータ要素を示す
ように、母音においては、「あ」、「い」、「う」の口
形状を3次元の座標軸上に取つて、それぞれの口形状を
1つの点として表現することができる。
【0037】これに対して図5に示すように、子音にお
いては、「あ」、「い」、「う」の口形状でなる3次元
の座標軸に対して、軌跡として示すことができる。これ
により母音の口形状においては、所定のベクトルパター
ンで定義し得、また子音についても同様のベクトルパタ
ーンで表現することができる。
【0038】これに対して長音、促音、無音でなる特殊
音について、アニメーシヨン作成装置1は、決まつた加
重パラメータ要素を設定せず、これに代えて加重パラメ
ータ時系列を生成する際、特殊音の前後関係に応じて前
後の加重パラメータ時系列から生成する。
【0039】ところでアニメーシヨン作成装置1でリア
ルなリツプシングアニメーシヨンを作成するためには、
各音要素の口形状をうまく表現できるように各要素デー
タを設定する必要がある。このためこの実施例において
は、図5〜図38に示すように、各子音に加重パラメー
タ要素データを割当て、これによりリアルなリツプシン
グアニメーシヨンを作成し得るようにした。なおここで
横軸は、子音の発音タイミング時刻を0として時間(m
s)を表し、縦軸は加重の強さを表す。さらに記号
「@」は無音化した子音を表し、記号「q」は鼻濁音の
「g」を、記号「x」は「ん」を表す。
【0040】従つて図6においては、発音記号「k」で
表される音声を発音した際の加重パラメータ要素データ
を、図7はその無音化した際の加重パラメータ要素デー
タを表す。さらに図8は、発音記号「s」で表される音
声を発生した際の加重パラメータ要素データを表し、図
9はその無音化した際の加重パラメータ要素データを、
図10は発音記号「sh」で表される音声の加重パラメ
ータ要素データを、図11はその無音化した際の加重パ
ラメータ要素データを表す。
【0041】さらに図12は発音記号「t」で表される
音声の加重パラメータ要素データを、図13は発音記号
「ch」で表される音声の加重パラメータ要素データ
を、図14はその無音化した際の加重パラメータ要素デ
ータを表す。さらに図15は発音記号「ts」で表され
る音声の加重パラメータ要素データを、図16はその無
音化した際の加重パラメータ要素データを、図17は発
音記号「n」で表される音声の加重パラメータ要素デー
タ、図18は発音記号「h」で表される音声の加重パラ
メータ要素データを表す。
【0042】さらに図19〜図30は、それぞれ発音記
号「f」、「m」、「y」、「r」、「w」、「g」、
「q」、「z」、「j」、「d」、「b」、「p」で表
される音声の加重パラメータ要素データを、図31〜図
38は、それぞれ発音記号「ky」、「ny」、「h
y」、「my」、「ry」、「gy」、「by」、
「x」で表される音声の加重パラメータ要素データを表
す。
【0043】(1−4)加重パラメータの生成 図39に示すようにアニメーシヨン作成装置1において
は、予め準備した口形状パターンと加重パラメータ要素
を用いて、発音情報に基づいて加重パラメータ時系列を
自動的に生成し、これによりリツプシングアニメーシヨ
ンを自動的に生成する。
【0044】すなわちアニメーシヨン作成装置1におい
ては、子音だけの口の動きを記述する加重パラメータ時
系列W1、W3、W5(以下子音加重パラメータ時系列
と呼ぶ)と母音及び特殊音の口の動きを記述する加重パ
ラメータ時系列W0、W2、W4(以下母音加重パラメ
ータ時系列と呼ぶ)の2つの時系列を生成し、各加重パ
ラメータ時系列と「あ」、「い」、「う」の内挿オブジ
エクトとの間で多重内挿法を適用して2種類の口の動き
U1及びU2を生成する。
【0045】続いてアニメーシヨン作成装置1において
は、多重内挿法を適用することにより、この2種類の口
の動きU1及びU2を所定の混合加重パラメータW6、
W7を用いてバランスよく混合し、これにより最終的な
リツプシングアニメーシヨンU3を生成する。ここでア
ニメーシヨン作成装置1は、各子音に対応する加重パラ
メータ要素を発音タイミングに従つて時間軸上に離散的
に並べた後、各要素の終端と次の要素の始端を補間する
ことにより、子音加重パラメータ時系列を生成する。
【0046】このとき前後の子音の加重パラメータ要素
が時間軸上で重なる場合、アニメーシヨン作成装置1
は、内挿の手法を適用して子音加重パラメータ時系列を
生成することにより、連続的に変化するように子音加重
パラメータ時系列を生成する。
【0047】これに対してアニメーシヨン作成装置1
は、各音の発音タイミング時刻について、加重パラメー
タを決定することにより、同様に加重パラメータ要素を
時間軸上に離散的に並べた後、補間処理によりこの間を
順次埋めるように加重パラメータ要素を設定し、これに
より母音加重パラメータ時系列を生成する。
【0048】このときある発音タイミング時刻の音要素
が母音である場合、アニメーシヨン作成装置1は、その
時刻の加重パラメータ値をその母音の加重パラメータ要
素に設定するのに対し、ある発音タイミング時刻の音要
素が長音である場合、その直前の発音タイミング時刻の
加重パラメータ値をその時刻の加重パラメータ値に設定
する。
【0049】さらにアニメーシヨン作成装置1において
は、ある発音タイミング時刻の音要素が促音である場合
は、その時刻の加重パラメータ値を0ベクトル(すなわ
ち3パラメータがすべて値0でなる)に設定するのに対
し、ある発音タイミング時刻の音要素が無音である場合
は、その直前の発音タイミング時刻の加重パラメータ値
から一定の減衰比を乗じた値をその時刻の加重パラメー
タ値に設定する。
【0050】これにより規則合成法を適用して作成した
音声と同期するリツプシンクアニメーシヨンをリアルタ
イムで生成することができる。
【0051】ところでこのようにして生成した母音加重
パラメータ時系列だけで口の動きを表現する場合、実際
の動きに対して違和感のある動きにしか表現し得ない。
このためこの実施例においては、2種類の口の動きU1
及びU2を所定の混合加重パラメータW6、W7を用い
てバランスよく混合し、これによりリアルで表情の豊か
な動きを実現する。
【0052】このためには、混合の割合を決める加重パ
ラメータW6、W7(以下混合加重パラメータ時系列と
呼ぶ)の設定が重要になる。ここで混合加重パラメータ
時系列は、母音、子音両者の混合比を決める2次元のベ
クトルで、この実施例の場合、発音タイミング情報に基
づいて、発音のタイミングを中心にしてそれぞれ母音、
子音が相手を引き合うように混合加重パラメータ時系列
を生成し、これにより母音と子音の動きをなめらかに表
現する。
【0053】このときアニメーシヨン作成装置1におい
ては、子音の音要素の種類に応じて、相手を引き合う強
さが切り換わるように、混合加重パラメータ時系列を切
り換えて生成するようになされ、これによりはつきりし
た口の形状として現われる例えば「ま」、「ぱ」、
「ば」などの子音を発音する口形状と、はつきりした口
の形状として現われない例えば「か」、「は」などの子
音について、この子音を発音する口形状の違いを表現す
るようになされている。
【0054】これによりアニメーシヨン作成装置1にお
いては、リアルで表情の豊かなリツプシングアニメーシ
ヨンU3を生成することができた。さらに2つの動きの
混合とすることにより、母音と子音の前後関係による相
互作用も表現できる。
【0055】具体的には、単音として「く」と発音した
場合、「う」に比べて口の動きがはつきり現われるのに
対し、一連の発音の中の「く」は母音を発音するために
口の動きためにはつきりと現われない特徴があり、この
ような表情も表現することができた。
【0056】さらに図40及び図41に示すように、実
際に人が話すように、話す速度によつても口形状が変化
することを確認し得た。この場合「あいうえお」と「か
きくけこ」の違いは子音[k]によるものであるが、ゆ
つくり話たときと、はやく話したときとで[k]の表れ
かたが違うことがわかる。
【0057】さらに図42に示すように、このように2
種類の口の動きU1及びU2を所定の混合加重パラメー
タで混合することにより、このバランスを調整して特徴
のある話かたを作ることができる。すなわち図42にお
いては、母音の口の動きU2と子音の口の動きU1の混
合比を可変した場合の口形状で、右側に行く程母音の混
合比大きくした場合を表す。
【0058】これにより実際の口の動きを反映するよう
に加重パラメータ時系列を自動的に生成することがで
き、これにより多重内挿法を適用して予め設定された口
形状パターンを用いてリアルタイムで自動的にアニメー
シヨンを作成することができる。さらにこのとき日本語
の発音情報(すなわち音要素とタイミングでなる)を入
力するだけで簡易にリツプシンクアニメーシヨンを作る
ことができ、さらに各子音による口形状の違いが表現で
きることにより、リアルなアニメーシヨンを作成するこ
とができる。
【0059】また音声合成システムとの併用により、日
本語のテキスト情報を読み上げるアニメーシヨンを自動
的に作成することもできる。さらに同じ動きデータを違
う口(オブジエクトモデル)で共有することができ、こ
れにより動きデータをライブラリ化するもできる。
【0060】すなわち多重内挿法アニメーシヨンの加重
パラメータは、オブジエクトモデルに依存しない特徴が
ある。従つて通常のアニメーシヨン作成装置において、
例えばいくつかの代表点で構成されているオブジエクト
について、このオブジエクトの動きを各代表点の動きの
時系列として表現し、このとき対象となるオブジエクト
の代表点数を変更して元の動きデータを適用し得なくな
つた場合でも多重内挿法アニメーシヨンにおいては、代
表点数を変更しても元の動きデータを適用し得ることに
よりアニメーシヨンデータのライブラリ化を図ることが
できる。
【0061】従つてこの実施例によれば、動きのデータ
としての加重パラメータ時系列を種々のオブジエクトに
共通に使用することができる。また内挿オブジエクトモ
デルの設定を変更すれば、同じ動きデータで口以外のオ
ブジエクトを言葉に同期して動かすこともできる。
【0062】(1−5)実施例の効果 以上の構成によれば、多重内挿法を適用して口形状のア
ニメーシヨンを作成する際に、発音のタイミングに基づ
いて加重パラメータ時系列を生成することにより、話す
言葉に合わせて口を動かすことができるオブジエクトモ
デルに依存しない表現豊かなリツプシンクアニメーシヨ
ンを簡単に生成することができる。
【0063】(2)第2の実施例 (2−1)全体構成 図43においては、10は全体として第2の実施例によ
るアニメーシヨン作成装置を示し、第1の実施例と同様
に発音情報を使用して加重パラメータ時系列を自動的に
生成する。
【0064】アニメーシヨン作成装置10においては、
この発音情報12を発音情報分離部14に与え、ここで
テキスト処理を実行して母音及び子音の発音情報に分離
し、それぞれ母音発音情報及び子音発音情報として動き
情報生成部16及び18に出力する。
【0065】動き情報生成部16及び18は、それぞれ
母音発音情報及び子音発音情報に基づいて口形状の変化
を表すパラメータ時系列を生成する。すなわち図44に
示すように動き情報生成部16及び18は、母音発音情
報及び子音発音情報でなる発音情報を発音情報入力部2
0に入力し、この発音情報を発音情報メモリ22に格納
する。
【0066】動き情報生成部16及び18は、予め設定
した口形状パラメータを口形状データメモリ24に格納
するようになされ、演算装置26は、発音情報メモリ2
2に格納した発音情報を順次読み出し、この発音情報に
基づいて口形状データメモリ24に格納した口形状パラ
メータについて対応する口形状パラメータを順次選択す
る。
【0067】さらに演算装置26は、選択した口形状パ
ラメータを動き情報時系列メモリ28に格納し、このと
き発音タイミング情報から得られる発音のタイミングに
応じて所定のアドレスを選択して口形状パラメータを格
納する。これに対して動き情報出力部30は、アドレス
順に情報時系列メモリ28の内容を読み出して出力し、
これにより口形状パラメータの時系列でなる動き情報時
系列を動き情報合成部32に出力する。
【0068】これにより動き情報生成部16及び18
は、第1の実施例と同様の手法を適用して口形状パラメ
ータの時系列でなる動き情報時系列を母音動き情報及び
子音動き情報として出力する。
【0069】動き情報合成部32は、この母音動き情報
及び子音動き情報と合成バランスパラメータを使用して
1つの動き情報を生成する。すなわち図45に示すよう
に動き情報合成部32は、動き入力部34を介して母音
動き情報及び子音動き情報を入力するのに対し、合成バ
ランスパラメータ入力部36を介して合成バランスパラ
メータを入力し、順次演算装置38で演算処理する。
【0070】このとき演算装置38においては、順次所
定の時間間隔で多重内挿演算処理を実行することによ
り、時系列データでなる動き情報を生成し、この動き情
報を動き情報出力部40を介して画像生成装置42に出
力する。ここで画像生成装置42は、この動き情報に基
づいてリツプシングアニメーシヨンを作成し、モニタ装
置44に表示する。
【0071】ここで合成バランスパラメータは、母音及
び子音でなる2つの口形状パラメータを内挿するための
加重パラメータで、この実施例においては、この合成バ
ランスパラメータを用いることにより、表情の豊かなリ
ツプシングアニメーシヨンを作成する。
【0072】(2−2)合成バランスパラメータ ここで図46に示すように、合成バランスパラメータに
おいては、合成バランスパラメータ生成部46で発音情
報12、母音発音情報及び子音発音情報に基づいて生成
され、母音動き情報及び子音動き情報に対して第1の実
施例の混合加重パラメータW6、W7(図39)と同一
の関係にある。
【0073】この実施例においては、この合成バランス
パラメータを合成バランスパラメータ時系列W7、W8
として使用し、これにより母音の動きと子音の動きとの
比率を適切な関係に保持し、表情の豊かなリツプシング
アニメーシヨンを作成する。
【0074】すなわち合成バランスパラメータ生成部4
6においては、各発音のタイミングで値が最大になり、
この最大値のタイミングから遠ざかるに従つて値が除々
に小さくなるように合成バランスパラメータを生成す
る。これによりアニメーシヨン作成装置10において
は、母音の動きと子音の動きとが、互いに相手の動きを
妨害するような動きを未然に防止し得、リアルなリツプ
シングアニメーシヨンを作成することができる。
【0075】さらに合成バランスパラメータ生成部46
においては、発音のタイミングを順次検出することによ
り、各音韻の時間間隔を検出し、これにより発音の速度
情報を検出する。
【0076】さらに合成バランスパラメータ生成部46
においては、この速度情報に基づいて発音の速度が大き
いとき、母音、子音の何れかの動きが小さくなるよう
に、または双方の動きが小さくなるように合成バランス
パラメータを生成する。これによりアニメーシヨン作成
装置10においては、発音の速度が大きいときでも滑ら
かさを失わないリアルなリツプシングアニメーシヨンを
作成することができる。
【0077】さらに合成バランスパラメータ生成部46
においては、音韻固有の情報を所定のメモリ回路に格納
し、これにより子音の音韻に応じて、その口形状に表れ
る重要度を重み情報値として格納する。これによりアニ
メーシヨン作成装置10においては、この値に基づいて
合成バランスパラメータを補正し、かくしてよりリアル
なリツプシングアニメーシヨンを作成することができ
る。
【0078】(2−3)第2の実施例の効果 図43の構成によれば、発音情報、母音発音情報及び子
音発音情報に基づいて合成バランスパラメータを生成
し、これにより母音の動きと子音の動きとの比率を適切
な関係に保持することにより、表情の豊かなリツプシン
グアニメーシヨンを作成することができる。
【0079】(3)他の実施例 なお上述の第2の実施例においては、口形状パラメータ
の時系列として動き情報時系列を動き情報生成部から出
力する場合について述べたが、本発明はこれに限らず、
図47に示すように加重パラメータ要素を格納する加重
パラメータ要素メモリ48と、この加重パラメータ要素
で生成した加重パラメータ時系列を格納する加重パラメ
ータ時系列データメモリ50を動き情報生成部に加え、
これにより動き情報出力部30から直接加重パラメータ
時系列を出力するようにしてもよい。
【0080】さらに上述の実施例においては、音声合成
システムから発音情報を入力する場合について述べた
が、本発明はこれに限らず、例えば肉声から発音情報を
検出し、この発音情報を用いるようにしてもよい。
【0081】さらに上述の実施例においては、ゆつくり
話す場合と速く話す場合とで加重パラメータを切り換え
る場合について述べたが、本発明はこれに限らず、発音
タイミング情報だけでなく他の情報を併せて用いて加重
パラメータを切り換えるようにしてもよい。すなわち母
音加重パラメータ時系列の振幅は、口の開け方の大きさ
と関係がある。これに対して子音加重パラメータ時系列
の振幅は、口の動きの派手さに関係している。従つて例
えば、音声の音量や声の調子などの情報を検出し、この
検出結果に基づいて混合加重パラメータを変調すれば、
音声のイメージにより近いアニメーシヨンを生成するこ
とができる。
【0082】
【発明の効果】上述のように本発明によれば、発音情報
より得られる発音のタイミングを基準にして加重パラメ
ータ時系列を生成し、この加重パラメータ時系列で多重
内挿して口形状の変化するアニメーシヨンを生成するこ
とにより、多重内挿法アニメーシヨンの利点を活かし、
オブジエクトモデルに依存しない表現豊かなリツプシン
クアニメーシヨンを簡単に生成することができる画像作
成装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の一実施例によるアニメーシヨン作成装
置の全体構成を示す略線図である。
【図2】発音情報を示す略線図である。
【図3】口形状オブジエクトを示す略線図である。
【図4】母音の加重パラメータ要素を示す特性曲線図で
ある。
【図5】子音の加重パラメータ要素を示す特性曲線図で
ある。
【図6】発音記号「k」で表される音声の加重パラメー
タ要素データを表す特性曲線図である。
【図7】その無音化した際の加重パラメータ要素データ
を表す特性曲線図である。
【図8】発音記号「s」で表される音声の加重パラメー
タ要素データを表す特性曲線図である。
【図9】その無音化した際の加重パラメータ要素データ
を表す特性曲線図である。
【図10】発音記号「sh」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図11】その無音化した際の加重パラメータ要素デー
タを表す特性曲線図である。
【図12】発音記号「t」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図13】発音記号「ch」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図14】その無音化した際の加重パラメータ要素デー
タを表す特性曲線図である。
【図15】発音記号「ts」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図16】その無音化した際の加重パラメータ要素デー
タを表す特性曲線図である。
【図17】発音記号「n」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図18】発音記号「h」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図19】発音記号「f」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図20】発音記号「m」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図21】発音記号「y」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図22】発音記号「r」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図23】発音記号「w」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図24】発音記号「g」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図25】発音記号「q」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図26】発音記号「z」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図27】発音記号「j」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図28】発音記号「d」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図29】発音記号「b」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図30】発音記号「p」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図31】発音記号「ky」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図32】発音記号「ny」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図33】発音記号「hy」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図34】発音記号「my」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図35】発音記号「ry」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図36】発音記号「gy」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図37】発音記号「by」で表される音声の加重パラ
メータ要素データを表す特性曲線図である。
【図38】発音記号「x」で表される音声の加重パラメ
ータ要素データを表す特性曲線図である。
【図39】リツプシングアニメーシヨンの自動生成の説
明に供する略線図である。
【図40】ゆつくり話した場合の口の動きを示す特性曲
線図である。
【図41】速く話した場合の口の動きを示す特性曲線図
である。
【図42】実際の口の動きを示す略線図である。
【図43】第2の実施例によるアニメーシヨン作成装置
を示すブロツク図である。
【図44】動き情報生成部を示すブロツク図である。
【図45】動き情報合成部を示すブロツク図である。
【図46】合成バランスパラメータの説明に供する略線
図である。
【図47】動き情報生成部の他の実施例を示すブロツク
図である。
【図48】多重内挿法を適用したアニメーシヨン作成の
説明に供する略線図である。
【符号の説明】
1、10……アニメーシヨン作成装置、2……音声規則
合成部、4……加重パラメータ生成部、6……MIMe
アニメーシヨン生成部、12……発音情報、14……発
音情報分離部、16、18……動き情報生成部、32…
…動き情報合成部。

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】多重内挿法によるアニメーシヨンデータを
    作成する画像作成装置において、 予め設定した口形状に対して、発音情報に基づいて内挿
    パラメータを生成した後、上記発音情報により発音のタ
    イミングを基準にして加重パラメータ時系列を生成し、
    上記加重パラメータ時系列で多重内挿することにより、
    上記発音情報に応じて口形状の変化するアニメーシヨン
    を作成することを特徴とする画像作成装置。
  2. 【請求項2】上記予め設定した口形状は、「あ」を発音
    する口形状、「い」を発音する口形状及び「う」を発音
    する口形状でなることを特徴とする請求項1に記載の画
    像作成装置。
  3. 【請求項3】発生する音声のすべての母音と子音に対し
    て、上記加重パラメータ時系列を形成する加重パラメー
    タの要素データを設定したことを特徴とする請求項1又
    は請求項2に記載の画像作成装置。
  4. 【請求項4】上記発音情報による子音の種類及び又は無
    音の頻度に応じて、口形状に表れる子音の強さが変化す
    るように、上記加重パラメータ時系列を生成することを
    特徴とする請求項1、請求項2又は請求項3に記載の画
    像作成装置。
  5. 【請求項5】上記加重パラメータ時系列は、母音及び特
    殊音の加重パラメータ時系列と、子音の加重パラメータ
    時系列を形成した後、上記母音及び特殊音の加重パラメ
    ータ時系列と上記子音の加重パラメータ時系列とを合成
    して形成することを特徴とする請求項1、請求項2、請
    求項3又は請求項4に記載の画像作成装置。
  6. 【請求項6】上記加重パラメータ時系列は、母音の動き
    と子音の動きとの比率を適切な値に保持するように、発
    音情報、母音発音情報及び子音発音情報に基づいて値が
    時系列で変化するように生成されることを特徴とする請
    求項5に記載の画像作成装置。
JP30642292A 1992-10-20 1992-10-20 画像作成装置 Expired - Fee Related JP3298076B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30642292A JP3298076B2 (ja) 1992-10-20 1992-10-20 画像作成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30642292A JP3298076B2 (ja) 1992-10-20 1992-10-20 画像作成装置

Publications (2)

Publication Number Publication Date
JPH06162166A true JPH06162166A (ja) 1994-06-10
JP3298076B2 JP3298076B2 (ja) 2002-07-02

Family

ID=17956834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30642292A Expired - Fee Related JP3298076B2 (ja) 1992-10-20 1992-10-20 画像作成装置

Country Status (1)

Country Link
JP (1) JP3298076B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997036297A1 (en) * 1996-03-25 1997-10-02 Interval Research Corporation Automated synchronization of video image sequences to new soundtracks
JP2002133445A (ja) * 2000-10-30 2002-05-10 Namco Ltd 画像処理装置、画像処理方法および情報記憶媒体
CN110149548A (zh) * 2018-09-26 2019-08-20 腾讯科技(深圳)有限公司 视频配音方法、电子装置和可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997036297A1 (en) * 1996-03-25 1997-10-02 Interval Research Corporation Automated synchronization of video image sequences to new soundtracks
US5880788A (en) * 1996-03-25 1999-03-09 Interval Research Corporation Automated synchronization of video image sequences to new soundtracks
JP2002133445A (ja) * 2000-10-30 2002-05-10 Namco Ltd 画像処理装置、画像処理方法および情報記憶媒体
CN110149548A (zh) * 2018-09-26 2019-08-20 腾讯科技(深圳)有限公司 视频配音方法、电子装置和可读存储介质

Also Published As

Publication number Publication date
JP3298076B2 (ja) 2002-07-02

Similar Documents

Publication Publication Date Title
Hill et al. Animating speech: an automated approach using speech synthesised by rules
US5657426A (en) Method and apparatus for producing audio-visual synthetic speech
KR102116309B1 (ko) 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템
JP2518683B2 (ja) 画像合成方法及びその装置
JP2001209820A (ja) 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP4037455B2 (ja) 画像合成
Waters et al. An automatic lip-synchronization algorithm for synthetic faces
KR100300962B1 (ko) 음성합성을위한립싱크방법및그장치
WO2011083978A2 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
Breazeal Emotive qualities in lip-synchronized robot speech
JP5531654B2 (ja) 制御情報生成装置および形状制御装置
Waters et al. DECface: A system for synthetic face applications
JP3298076B2 (ja) 画像作成装置
JP3755503B2 (ja) アニメーション制作システム
JPH06162167A (ja) 合成画像表示システム
JPH1165597A (ja) 音声合成装置、音声合成及びcg合成出力装置、ならびに対話装置
KR100317036B1 (ko) 음성과 얼굴 애니메이션 통합 시스템에서 음성지속시간을 이용한 동영상 프레임의 자동 적응동기방법
JP2003296753A (ja) 聴覚障害者用対話システム
US6408274B2 (en) Method and apparatus for synchronizing a computer-animated model with an audio wave output
JP2573586B2 (ja) 規則型音声合成装置
JPH07244496A (ja) テキスト朗読装置
GB2346526A (en) System for providing virtual actors using neural network and text-to-linguistics
JPH11282484A (ja) 音声合成装置
JP2001265374A (ja) 音声合成装置及び記録媒体
Safabakhsh et al. AUT-Talk: a farsi talking head

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080419

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090419

Year of fee payment: 7

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100419

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110419

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120419

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees