JPH06162166A - 画像作成装置 - Google Patents
画像作成装置Info
- Publication number
- JPH06162166A JPH06162166A JP30642292A JP30642292A JPH06162166A JP H06162166 A JPH06162166 A JP H06162166A JP 30642292 A JP30642292 A JP 30642292A JP 30642292 A JP30642292 A JP 30642292A JP H06162166 A JPH06162166 A JP H06162166A
- Authority
- JP
- Japan
- Prior art keywords
- time series
- animation
- weighted parameter
- mouth shape
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
を適用したアニメーシヨン作成装置等の画像作成装置に
関し、多重内挿法アニメーシヨンの利点を活かし、オブ
ジエクトモデルに依存しない表現豊かなリツプシンクア
ニメーシヨンを簡単に生成し得るようにする。 【構成】本発明は、発音情報より得られる発音のタイミ
ングを基準にして加重パラメータ時系列を生成し、この
加重パラメータ時系列で多重内挿して口形状の変化する
アニメーシヨンを生成する。
Description
えばコンピユータグラフイツクスの手法を適用したアニ
メーシヨン作成装置に適用し得る。
においては、加重パラメータ時系列を用いて複数個の内
挿ベクトルを多重内挿し、このようにして生成した内挿
ベクトルを用いてアニメーシヨンを作成するようになさ
れたものが提案されている(特願平2-256415号)。
m個のパラメータ要素を持つ内挿パラメータベクトルp
(t)について、各パラメータ要素の基本値を要素とす
る基本ベクトルp0を設定し、n個の内挿パラメータベ
クトルpi(i=1...n)からそれぞれ基本ベクト
ルp0を減算してm*nの内挿パラメータ行列P(t)
を形成する。
メータ要素を持つ加重パラメータベクトルw(t)を設
定し、内挿パラメータ行列P(t)、基本ベクトルp0
から、次式
生成する。
ヨン作成装置においては、1つの動きの対象となる物体
(以下オブジエクトと呼ぶ)の動きを複数のオブジエク
ト形状と加重パラメータ時系列との多重内挿によつて生
成する。
は、動作を与えるオブジエクトと同じ定義のオブジエク
トN1、N2、N3を複数個用意し、それぞれに違つた
姿勢を与える(以下内挿オブジエクトと呼ぶ)。
は、基本ベクトルp0に対応して内挿オブジエクトの基
本姿勢でなる基本オブジエクトKを与え、これにより内
挿オブジエクトN1、N2、N3を定義する。さらにn
個の内挿パラメータベクトルp(t)から基本オブジエ
クトKを定義する基本ベクトルp0を減算し、加重パラ
メータベクトルw1、w2、w3で加重混合する。
ては、(1)式の演算処理を実行して各時刻のオブジエ
クトの姿勢を表す時系列ベクトルw(t)を生成すれ
ば、内挿オブジエクトの姿勢情報を内挿パラメータベク
トルとした多重内挿法を用いて生成することができ、こ
れによりこのベクトルw(t)に基づいてアニメーシヨ
ンAを作成することができる。
シヨン作成装置においては、コンピユータグラフイツク
アニメーシヨンの最も一般的な手法であるキーフレーム
法を適用した場合に比して、少ないデータ量でアニメー
シヨンを作成し得、また自由度の高い、表現豊かなアニ
メーシヨンを作成し得る特徴がある。
アニメーシヨンにおいては、話す言葉に合わせて口を動
かすアニメーシヨン(以下リツプシンクアニメーシヨン
と呼ぶ)が不可欠である。
ンにおいては、殆どが発声している間、単に口の開閉を
繰り返しているだけの単純なものである。このリツプシ
ンクアニメーシヨンを実際の口の動きに近づけるために
は、従来のアニメーシヨン作成装置においては、緻密な
オブジエクトモデルを設定し、オブジエクトモデルが持
つパラメータを駆動する必要がある。
は、オブジエクトモデルがどんなパラメータを持つかに
よつて左右され、例えリアルな動きを実現し得たとして
も、そのアニメーシヨンデータを別のオブジエクトモデ
ルに適用することが困難な特徴がある。
成する場合、従来のアニメーシヨン作成装置において
は、簡単にしかも表現豊かに作成することが困難な問題
があり、また一旦作成しても種々のオブジエクトに適用
し得ない問題があつた。これに対して多重内挿法を適用
したアニメーシヨン作成装置においては、基本的に動き
が加重パラメータの時系列として記述されるので、加重
パラメータを自動的に生成することができれば、効率良
くアニメーシヨンを作成することができる。
で、多重内挿法アニメーシヨンの利点を活かし、オブジ
エクトモデルに依存しない表現豊かなリツプシンクアニ
メーシヨンを簡単に生成することができる画像作成装置
を提案しようとするものである。
め本発明においては、多重内挿法によるアニメーシヨン
データを作成する画像作成装置1において、予め設定し
た口形状に対して、発音情報12に基づいて内挿パラメ
ータW0〜W5を生成した後、発音情報12により発音
のタイミングを基準にして加重パラメータ時系列W6、
W7を生成し、加重パラメータ時系列W6、W7で多重
内挿することにより、発音情報12に応じて口形状の変
化するアニメーシヨンU3を作成する。
状は、「あ」を発音する口形状、「い」を発音する口形
状及び「う」を発音する口形状でなる。
すべての母音と子音に対して、加重パラメータ時系列W
6、W7を形成する加重パラメータの要素データを設定
する。
よる子音の種類及び又は無音の頻度に応じて、口形状に
表れる子音の強さが変化するように、加重パラメータ時
系列W6、W7を生成する。
時系列W6、W7は、母音及び特殊音の加重パラメータ
時系列W6と、子音の加重パラメータ時系列W7を形成
した後、母音及び特殊音の加重パラメータ時系列W6と
子音の加重パラメータ時系列W7とを合成して形成す
る。
系列W8、W9は、母音の動きと子音の動きとの比率を
適切な値に保持するように、発音情報12、母音発音情
報及び子音発音情報に基づいて値が時系列で変化する。
して加重パラメータ時系列W6、W7を生成し、加重パ
ラメータ時系列W6、W7で多重内挿して口形状の変化
するアニメーシヨンU3を作成すれば、多重内挿法アニ
メーシヨンの利点を活かし、オブジエクトモデルに依存
しない表現豊かなリツプシンクアニメーシヨンを簡単に
生成することができる。
する。
ヨンを生成するアニメーシヨン作成装置の全体構成を示
し、この実施例の場合、規則合成法で作成した音声と同
期するリツプシンクアニメーシヨンを生成する。
ン作成装置1は、複素ケプストラム規則音声合成システ
ムを用いて音声規則合成部2で音声を合成するようにな
され、ここで複素ケプストラム規則音声合成システムに
おいては、発音記号とアクセント位置情報を記述した発
音テキストに基づいて音声を合成する。
情報及び発音タイミング情報で形成され、音韻情報は、
例えばローマ字、その他の記号で表すことができ、発音
タイミング情報は、各音韻が発音される時刻を所定の数
字データで表し得るようになされている。
の発音タイミング情報を基準にして加重パラメータ合成
部4で音韻情報から加重パラメータを生成する。さらに
アニメーシヨン作成装置1においては、この加重パラメ
ータに基づいてMIMeアニメーシヨン生成部6で口形
状モデルからアニメーシヨンを作成する。
いては、4つの静止パターン(内挿、基本オブジエク
ト)と3つの加重パラメータ時系列から動パターンを生
成するようになされている。
形状を表現する内挿オブジエクトとして3パターンの口
形状オブジエクトが予め設定されるようになされてい
る。
ジエクトは、下顎をおろして口を開いた「あ」の音声を
発生する口形状で(図3(A))、第2の口形状オブジ
エクトは、歯を剥いて唇を横に引つ張つた「い」の音声
を発生する口形状(図3(B))、第3の口形状オブジ
エクトは、唇を窄めた「う」の音声を発生する口形状
(図3(C))が選定されるようになされている。
は、「あ」の音声を発生する口形状と「い」の音声を発
生する口形状との中間の口形状で表現し得、「お」の音
声を発生する口形状は、「あ」の音声を発生する口形状
と「う」の音声を発生する口形状との中間の口形状で表
現し得、これによりアニメーシヨン作成装置1は、母音
についての口形状オブジエクトを自由に選定及び作成し
得るようになされている。
作成装置1は、基本の口形状オブジエクトとして口を自
然に閉じた基本パターンが用意され(図3(D))、こ
れによりこの4つのパターンを用いてほぼ全ての口形状
を表現し得るようになされている。なおこのように3つ
の内挿オブジエクトに3種類の母音の口形状を選定すれ
ば、この3つの内挿オブジエクトをパラメータを設定す
る際の座標軸に選定した際、種々の口形状を直感的に把
握し得、その分全体の使い勝手を向上することができ
る。
「い」、「う」に対応する形状と基本形の4パターンに
よつて日本語の発音形状を表現することにより、規則合
成法で作成した音声と同期するリツプシンクアニメーシ
ヨンを生成するようになされている。
れ、この実施例の場合それぞれに加重パラメータ要素を
選定する。ここで加重パラメータは、それぞれ内挿オブ
ジエクトで表現される3つの口形状パターンの内挿比を
決める3次元のベクトルで、この実施例の場合、この加
重パラメータ要素で加重パラメータの時系列を生成し、
この時系列を用いて一連のアニメーシヨンを作成する。
状は、それぞれ内挿オブジエクトで表現される3つの口
形状パターンで表現できることにより、子音の発音にお
ける口形状も口形状パターンの時系列で表現し得るよう
にする。このためこの実施例においてアニメーシヨン作
成装置1は、母音について加重パラメータ要素を所定の
ベクトルパターンで定義し、子音については同様のベク
トルパターンを用いてこのベクトルパターンを変化させ
て表現する。
ように、母音においては、「あ」、「い」、「う」の口
形状を3次元の座標軸上に取つて、それぞれの口形状を
1つの点として表現することができる。
いては、「あ」、「い」、「う」の口形状でなる3次元
の座標軸に対して、軌跡として示すことができる。これ
により母音の口形状においては、所定のベクトルパター
ンで定義し得、また子音についても同様のベクトルパタ
ーンで表現することができる。
音について、アニメーシヨン作成装置1は、決まつた加
重パラメータ要素を設定せず、これに代えて加重パラメ
ータ時系列を生成する際、特殊音の前後関係に応じて前
後の加重パラメータ時系列から生成する。
ルなリツプシングアニメーシヨンを作成するためには、
各音要素の口形状をうまく表現できるように各要素デー
タを設定する必要がある。このためこの実施例において
は、図5〜図38に示すように、各子音に加重パラメー
タ要素データを割当て、これによりリアルなリツプシン
グアニメーシヨンを作成し得るようにした。なおここで
横軸は、子音の発音タイミング時刻を0として時間(m
s)を表し、縦軸は加重の強さを表す。さらに記号
「@」は無音化した子音を表し、記号「q」は鼻濁音の
「g」を、記号「x」は「ん」を表す。
表される音声を発音した際の加重パラメータ要素データ
を、図7はその無音化した際の加重パラメータ要素デー
タを表す。さらに図8は、発音記号「s」で表される音
声を発生した際の加重パラメータ要素データを表し、図
9はその無音化した際の加重パラメータ要素データを、
図10は発音記号「sh」で表される音声の加重パラメ
ータ要素データを、図11はその無音化した際の加重パ
ラメータ要素データを表す。
音声の加重パラメータ要素データを、図13は発音記号
「ch」で表される音声の加重パラメータ要素データ
を、図14はその無音化した際の加重パラメータ要素デ
ータを表す。さらに図15は発音記号「ts」で表され
る音声の加重パラメータ要素データを、図16はその無
音化した際の加重パラメータ要素データを、図17は発
音記号「n」で表される音声の加重パラメータ要素デー
タ、図18は発音記号「h」で表される音声の加重パラ
メータ要素データを表す。
号「f」、「m」、「y」、「r」、「w」、「g」、
「q」、「z」、「j」、「d」、「b」、「p」で表
される音声の加重パラメータ要素データを、図31〜図
38は、それぞれ発音記号「ky」、「ny」、「h
y」、「my」、「ry」、「gy」、「by」、
「x」で表される音声の加重パラメータ要素データを表
す。
は、予め準備した口形状パターンと加重パラメータ要素
を用いて、発音情報に基づいて加重パラメータ時系列を
自動的に生成し、これによりリツプシングアニメーシヨ
ンを自動的に生成する。
ては、子音だけの口の動きを記述する加重パラメータ時
系列W1、W3、W5(以下子音加重パラメータ時系列
と呼ぶ)と母音及び特殊音の口の動きを記述する加重パ
ラメータ時系列W0、W2、W4(以下母音加重パラメ
ータ時系列と呼ぶ)の2つの時系列を生成し、各加重パ
ラメータ時系列と「あ」、「い」、「う」の内挿オブジ
エクトとの間で多重内挿法を適用して2種類の口の動き
U1及びU2を生成する。
は、多重内挿法を適用することにより、この2種類の口
の動きU1及びU2を所定の混合加重パラメータW6、
W7を用いてバランスよく混合し、これにより最終的な
リツプシングアニメーシヨンU3を生成する。ここでア
ニメーシヨン作成装置1は、各子音に対応する加重パラ
メータ要素を発音タイミングに従つて時間軸上に離散的
に並べた後、各要素の終端と次の要素の始端を補間する
ことにより、子音加重パラメータ時系列を生成する。
が時間軸上で重なる場合、アニメーシヨン作成装置1
は、内挿の手法を適用して子音加重パラメータ時系列を
生成することにより、連続的に変化するように子音加重
パラメータ時系列を生成する。
は、各音の発音タイミング時刻について、加重パラメー
タを決定することにより、同様に加重パラメータ要素を
時間軸上に離散的に並べた後、補間処理によりこの間を
順次埋めるように加重パラメータ要素を設定し、これに
より母音加重パラメータ時系列を生成する。
が母音である場合、アニメーシヨン作成装置1は、その
時刻の加重パラメータ値をその母音の加重パラメータ要
素に設定するのに対し、ある発音タイミング時刻の音要
素が長音である場合、その直前の発音タイミング時刻の
加重パラメータ値をその時刻の加重パラメータ値に設定
する。
は、ある発音タイミング時刻の音要素が促音である場合
は、その時刻の加重パラメータ値を0ベクトル(すなわ
ち3パラメータがすべて値0でなる)に設定するのに対
し、ある発音タイミング時刻の音要素が無音である場合
は、その直前の発音タイミング時刻の加重パラメータ値
から一定の減衰比を乗じた値をその時刻の加重パラメー
タ値に設定する。
音声と同期するリツプシンクアニメーシヨンをリアルタ
イムで生成することができる。
パラメータ時系列だけで口の動きを表現する場合、実際
の動きに対して違和感のある動きにしか表現し得ない。
このためこの実施例においては、2種類の口の動きU1
及びU2を所定の混合加重パラメータW6、W7を用い
てバランスよく混合し、これによりリアルで表情の豊か
な動きを実現する。
ラメータW6、W7(以下混合加重パラメータ時系列と
呼ぶ)の設定が重要になる。ここで混合加重パラメータ
時系列は、母音、子音両者の混合比を決める2次元のベ
クトルで、この実施例の場合、発音タイミング情報に基
づいて、発音のタイミングを中心にしてそれぞれ母音、
子音が相手を引き合うように混合加重パラメータ時系列
を生成し、これにより母音と子音の動きをなめらかに表
現する。
ては、子音の音要素の種類に応じて、相手を引き合う強
さが切り換わるように、混合加重パラメータ時系列を切
り換えて生成するようになされ、これによりはつきりし
た口の形状として現われる例えば「ま」、「ぱ」、
「ば」などの子音を発音する口形状と、はつきりした口
の形状として現われない例えば「か」、「は」などの子
音について、この子音を発音する口形状の違いを表現す
るようになされている。
いては、リアルで表情の豊かなリツプシングアニメーシ
ヨンU3を生成することができた。さらに2つの動きの
混合とすることにより、母音と子音の前後関係による相
互作用も表現できる。
場合、「う」に比べて口の動きがはつきり現われるのに
対し、一連の発音の中の「く」は母音を発音するために
口の動きためにはつきりと現われない特徴があり、この
ような表情も表現することができた。
際に人が話すように、話す速度によつても口形状が変化
することを確認し得た。この場合「あいうえお」と「か
きくけこ」の違いは子音[k]によるものであるが、ゆ
つくり話たときと、はやく話したときとで[k]の表れ
かたが違うことがわかる。
種類の口の動きU1及びU2を所定の混合加重パラメー
タで混合することにより、このバランスを調整して特徴
のある話かたを作ることができる。すなわち図42にお
いては、母音の口の動きU2と子音の口の動きU1の混
合比を可変した場合の口形状で、右側に行く程母音の混
合比大きくした場合を表す。
に加重パラメータ時系列を自動的に生成することがで
き、これにより多重内挿法を適用して予め設定された口
形状パターンを用いてリアルタイムで自動的にアニメー
シヨンを作成することができる。さらにこのとき日本語
の発音情報(すなわち音要素とタイミングでなる)を入
力するだけで簡易にリツプシンクアニメーシヨンを作る
ことができ、さらに各子音による口形状の違いが表現で
きることにより、リアルなアニメーシヨンを作成するこ
とができる。
本語のテキスト情報を読み上げるアニメーシヨンを自動
的に作成することもできる。さらに同じ動きデータを違
う口(オブジエクトモデル)で共有することができ、こ
れにより動きデータをライブラリ化するもできる。
パラメータは、オブジエクトモデルに依存しない特徴が
ある。従つて通常のアニメーシヨン作成装置において、
例えばいくつかの代表点で構成されているオブジエクト
について、このオブジエクトの動きを各代表点の動きの
時系列として表現し、このとき対象となるオブジエクト
の代表点数を変更して元の動きデータを適用し得なくな
つた場合でも多重内挿法アニメーシヨンにおいては、代
表点数を変更しても元の動きデータを適用し得ることに
よりアニメーシヨンデータのライブラリ化を図ることが
できる。
としての加重パラメータ時系列を種々のオブジエクトに
共通に使用することができる。また内挿オブジエクトモ
デルの設定を変更すれば、同じ動きデータで口以外のオ
ブジエクトを言葉に同期して動かすこともできる。
ニメーシヨンを作成する際に、発音のタイミングに基づ
いて加重パラメータ時系列を生成することにより、話す
言葉に合わせて口を動かすことができるオブジエクトモ
デルに依存しない表現豊かなリツプシンクアニメーシヨ
ンを簡単に生成することができる。
るアニメーシヨン作成装置を示し、第1の実施例と同様
に発音情報を使用して加重パラメータ時系列を自動的に
生成する。
この発音情報12を発音情報分離部14に与え、ここで
テキスト処理を実行して母音及び子音の発音情報に分離
し、それぞれ母音発音情報及び子音発音情報として動き
情報生成部16及び18に出力する。
母音発音情報及び子音発音情報に基づいて口形状の変化
を表すパラメータ時系列を生成する。すなわち図44に
示すように動き情報生成部16及び18は、母音発音情
報及び子音発音情報でなる発音情報を発音情報入力部2
0に入力し、この発音情報を発音情報メモリ22に格納
する。
した口形状パラメータを口形状データメモリ24に格納
するようになされ、演算装置26は、発音情報メモリ2
2に格納した発音情報を順次読み出し、この発音情報に
基づいて口形状データメモリ24に格納した口形状パラ
メータについて対応する口形状パラメータを順次選択す
る。
ラメータを動き情報時系列メモリ28に格納し、このと
き発音タイミング情報から得られる発音のタイミングに
応じて所定のアドレスを選択して口形状パラメータを格
納する。これに対して動き情報出力部30は、アドレス
順に情報時系列メモリ28の内容を読み出して出力し、
これにより口形状パラメータの時系列でなる動き情報時
系列を動き情報合成部32に出力する。
は、第1の実施例と同様の手法を適用して口形状パラメ
ータの時系列でなる動き情報時系列を母音動き情報及び
子音動き情報として出力する。
及び子音動き情報と合成バランスパラメータを使用して
1つの動き情報を生成する。すなわち図45に示すよう
に動き情報合成部32は、動き入力部34を介して母音
動き情報及び子音動き情報を入力するのに対し、合成バ
ランスパラメータ入力部36を介して合成バランスパラ
メータを入力し、順次演算装置38で演算処理する。
定の時間間隔で多重内挿演算処理を実行することによ
り、時系列データでなる動き情報を生成し、この動き情
報を動き情報出力部40を介して画像生成装置42に出
力する。ここで画像生成装置42は、この動き情報に基
づいてリツプシングアニメーシヨンを作成し、モニタ装
置44に表示する。
び子音でなる2つの口形状パラメータを内挿するための
加重パラメータで、この実施例においては、この合成バ
ランスパラメータを用いることにより、表情の豊かなリ
ツプシングアニメーシヨンを作成する。
おいては、合成バランスパラメータ生成部46で発音情
報12、母音発音情報及び子音発音情報に基づいて生成
され、母音動き情報及び子音動き情報に対して第1の実
施例の混合加重パラメータW6、W7(図39)と同一
の関係にある。
パラメータを合成バランスパラメータ時系列W7、W8
として使用し、これにより母音の動きと子音の動きとの
比率を適切な関係に保持し、表情の豊かなリツプシング
アニメーシヨンを作成する。
6においては、各発音のタイミングで値が最大になり、
この最大値のタイミングから遠ざかるに従つて値が除々
に小さくなるように合成バランスパラメータを生成す
る。これによりアニメーシヨン作成装置10において
は、母音の動きと子音の動きとが、互いに相手の動きを
妨害するような動きを未然に防止し得、リアルなリツプ
シングアニメーシヨンを作成することができる。
においては、発音のタイミングを順次検出することによ
り、各音韻の時間間隔を検出し、これにより発音の速度
情報を検出する。
においては、この速度情報に基づいて発音の速度が大き
いとき、母音、子音の何れかの動きが小さくなるよう
に、または双方の動きが小さくなるように合成バランス
パラメータを生成する。これによりアニメーシヨン作成
装置10においては、発音の速度が大きいときでも滑ら
かさを失わないリアルなリツプシングアニメーシヨンを
作成することができる。
においては、音韻固有の情報を所定のメモリ回路に格納
し、これにより子音の音韻に応じて、その口形状に表れ
る重要度を重み情報値として格納する。これによりアニ
メーシヨン作成装置10においては、この値に基づいて
合成バランスパラメータを補正し、かくしてよりリアル
なリツプシングアニメーシヨンを作成することができ
る。
音発音情報に基づいて合成バランスパラメータを生成
し、これにより母音の動きと子音の動きとの比率を適切
な関係に保持することにより、表情の豊かなリツプシン
グアニメーシヨンを作成することができる。
の時系列として動き情報時系列を動き情報生成部から出
力する場合について述べたが、本発明はこれに限らず、
図47に示すように加重パラメータ要素を格納する加重
パラメータ要素メモリ48と、この加重パラメータ要素
で生成した加重パラメータ時系列を格納する加重パラメ
ータ時系列データメモリ50を動き情報生成部に加え、
これにより動き情報出力部30から直接加重パラメータ
時系列を出力するようにしてもよい。
システムから発音情報を入力する場合について述べた
が、本発明はこれに限らず、例えば肉声から発音情報を
検出し、この発音情報を用いるようにしてもよい。
話す場合と速く話す場合とで加重パラメータを切り換え
る場合について述べたが、本発明はこれに限らず、発音
タイミング情報だけでなく他の情報を併せて用いて加重
パラメータを切り換えるようにしてもよい。すなわち母
音加重パラメータ時系列の振幅は、口の開け方の大きさ
と関係がある。これに対して子音加重パラメータ時系列
の振幅は、口の動きの派手さに関係している。従つて例
えば、音声の音量や声の調子などの情報を検出し、この
検出結果に基づいて混合加重パラメータを変調すれば、
音声のイメージにより近いアニメーシヨンを生成するこ
とができる。
より得られる発音のタイミングを基準にして加重パラメ
ータ時系列を生成し、この加重パラメータ時系列で多重
内挿して口形状の変化するアニメーシヨンを生成するこ
とにより、多重内挿法アニメーシヨンの利点を活かし、
オブジエクトモデルに依存しない表現豊かなリツプシン
クアニメーシヨンを簡単に生成することができる画像作
成装置を得ることができる。
置の全体構成を示す略線図である。
ある。
ある。
タ要素データを表す特性曲線図である。
を表す特性曲線図である。
タ要素データを表す特性曲線図である。
を表す特性曲線図である。
メータ要素データを表す特性曲線図である。
タを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
タを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
タを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
メータ要素データを表す特性曲線図である。
ータ要素データを表す特性曲線図である。
明に供する略線図である。
線図である。
である。
を示すブロツク図である。
図である。
図である。
説明に供する略線図である。
合成部、4……加重パラメータ生成部、6……MIMe
アニメーシヨン生成部、12……発音情報、14……発
音情報分離部、16、18……動き情報生成部、32…
…動き情報合成部。
Claims (6)
- 【請求項1】多重内挿法によるアニメーシヨンデータを
作成する画像作成装置において、 予め設定した口形状に対して、発音情報に基づいて内挿
パラメータを生成した後、上記発音情報により発音のタ
イミングを基準にして加重パラメータ時系列を生成し、
上記加重パラメータ時系列で多重内挿することにより、
上記発音情報に応じて口形状の変化するアニメーシヨン
を作成することを特徴とする画像作成装置。 - 【請求項2】上記予め設定した口形状は、「あ」を発音
する口形状、「い」を発音する口形状及び「う」を発音
する口形状でなることを特徴とする請求項1に記載の画
像作成装置。 - 【請求項3】発生する音声のすべての母音と子音に対し
て、上記加重パラメータ時系列を形成する加重パラメー
タの要素データを設定したことを特徴とする請求項1又
は請求項2に記載の画像作成装置。 - 【請求項4】上記発音情報による子音の種類及び又は無
音の頻度に応じて、口形状に表れる子音の強さが変化す
るように、上記加重パラメータ時系列を生成することを
特徴とする請求項1、請求項2又は請求項3に記載の画
像作成装置。 - 【請求項5】上記加重パラメータ時系列は、母音及び特
殊音の加重パラメータ時系列と、子音の加重パラメータ
時系列を形成した後、上記母音及び特殊音の加重パラメ
ータ時系列と上記子音の加重パラメータ時系列とを合成
して形成することを特徴とする請求項1、請求項2、請
求項3又は請求項4に記載の画像作成装置。 - 【請求項6】上記加重パラメータ時系列は、母音の動き
と子音の動きとの比率を適切な値に保持するように、発
音情報、母音発音情報及び子音発音情報に基づいて値が
時系列で変化するように生成されることを特徴とする請
求項5に記載の画像作成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30642292A JP3298076B2 (ja) | 1992-10-20 | 1992-10-20 | 画像作成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30642292A JP3298076B2 (ja) | 1992-10-20 | 1992-10-20 | 画像作成装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06162166A true JPH06162166A (ja) | 1994-06-10 |
JP3298076B2 JP3298076B2 (ja) | 2002-07-02 |
Family
ID=17956834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30642292A Expired - Fee Related JP3298076B2 (ja) | 1992-10-20 | 1992-10-20 | 画像作成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3298076B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997036297A1 (en) * | 1996-03-25 | 1997-10-02 | Interval Research Corporation | Automated synchronization of video image sequences to new soundtracks |
JP2002133445A (ja) * | 2000-10-30 | 2002-05-10 | Namco Ltd | 画像処理装置、画像処理方法および情報記憶媒体 |
CN110149548A (zh) * | 2018-09-26 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 视频配音方法、电子装置和可读存储介质 |
-
1992
- 1992-10-20 JP JP30642292A patent/JP3298076B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997036297A1 (en) * | 1996-03-25 | 1997-10-02 | Interval Research Corporation | Automated synchronization of video image sequences to new soundtracks |
US5880788A (en) * | 1996-03-25 | 1999-03-09 | Interval Research Corporation | Automated synchronization of video image sequences to new soundtracks |
JP2002133445A (ja) * | 2000-10-30 | 2002-05-10 | Namco Ltd | 画像処理装置、画像処理方法および情報記憶媒体 |
CN110149548A (zh) * | 2018-09-26 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 视频配音方法、电子装置和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP3298076B2 (ja) | 2002-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hill et al. | Animating speech: an automated approach using speech synthesised by rules | |
US5657426A (en) | Method and apparatus for producing audio-visual synthetic speech | |
KR102116309B1 (ko) | 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템 | |
JP2518683B2 (ja) | 画像合成方法及びその装置 | |
JP2001209820A (ja) | 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体 | |
JP4037455B2 (ja) | 画像合成 | |
Waters et al. | An automatic lip-synchronization algorithm for synthetic faces | |
KR100300962B1 (ko) | 음성합성을위한립싱크방법및그장치 | |
WO2011083978A2 (ko) | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 | |
Breazeal | Emotive qualities in lip-synchronized robot speech | |
JP5531654B2 (ja) | 制御情報生成装置および形状制御装置 | |
Waters et al. | DECface: A system for synthetic face applications | |
JP3298076B2 (ja) | 画像作成装置 | |
JP3755503B2 (ja) | アニメーション制作システム | |
JPH06162167A (ja) | 合成画像表示システム | |
JPH1165597A (ja) | 音声合成装置、音声合成及びcg合成出力装置、ならびに対話装置 | |
KR100317036B1 (ko) | 음성과 얼굴 애니메이션 통합 시스템에서 음성지속시간을 이용한 동영상 프레임의 자동 적응동기방법 | |
JP2003296753A (ja) | 聴覚障害者用対話システム | |
US6408274B2 (en) | Method and apparatus for synchronizing a computer-animated model with an audio wave output | |
JP2573586B2 (ja) | 規則型音声合成装置 | |
JPH07244496A (ja) | テキスト朗読装置 | |
GB2346526A (en) | System for providing virtual actors using neural network and text-to-linguistics | |
JPH11282484A (ja) | 音声合成装置 | |
JP2001265374A (ja) | 音声合成装置及び記録媒体 | |
Safabakhsh et al. | AUT-Talk: a farsi talking head |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080419 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090419 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090419 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100419 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100419 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110419 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110419 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120419 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |