JPH08123977A - アニメーションシステム - Google Patents

アニメーションシステム

Info

Publication number
JPH08123977A
JPH08123977A JP25857094A JP25857094A JPH08123977A JP H08123977 A JPH08123977 A JP H08123977A JP 25857094 A JP25857094 A JP 25857094A JP 25857094 A JP25857094 A JP 25857094A JP H08123977 A JPH08123977 A JP H08123977A
Authority
JP
Japan
Prior art keywords
animation
parameter
voice
image information
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25857094A
Other languages
English (en)
Other versions
JP3674875B2 (ja
Inventor
Minoru Yamamoto
実 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IMEEJI RINKU KK
Original Assignee
IMEEJI RINKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IMEEJI RINKU KK filed Critical IMEEJI RINKU KK
Priority to JP25857094A priority Critical patent/JP3674875B2/ja
Publication of JPH08123977A publication Critical patent/JPH08123977A/ja
Application granted granted Critical
Publication of JP3674875B2 publication Critical patent/JP3674875B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【目的】 本発明はアニメーションシステムに関し、音
声に応じてキャラクターの口をリアルタイムで細かに動
かすことができ、キャラクターがときおり細かな仕草を
行って生命感を持った動作を行い、表現が豊かなリアル
タイムキャラクターアニメーションを行うことのできる
ことを目的とする。 【構成】 音声分析手段M1は、供給される音声を分析
して音声パラメータを得る。アニメーションデータベー
スM2は、アニメーションを構成するキャラクターの画
像情報を予め格納している。画像情報取得手段M3は、
音声パラメータに基づき上記アニメーションデータベー
スから画像情報を取得する。映像信号生成手段M4は、
画像情報取得手段で取得した画像情報からアニメーショ
ン表示用の映像信号を生成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はアニメーションシステム
に関し、特にキャラクターアニメーションをリアルタイ
ムに行うアニメーションシステムに関する。
【0002】
【従来の技術】従来より、コンピュータグラフィックス
でキャラクターが話をするときの動作(トーキングアニ
メーション)を人間の音声でコントロールするシステム
がある。従来のトーキングアニメーションは、例えば音
声を検出したときに、口を閉じたキャラクターの画像
と、口を開けたキャラクターの画像とを交互に表示し、
音声に同期した口の動きを表現している。
【0003】
【発明が解決しようとする課題】従来のトーキングアニ
メーションは単に音声が発せられたとき、これに同期し
てキャラクターの口がパクパク動くだけであり、この音
声の大きさや音質に従ったアニメーションを行うことは
できず、また、音声が発せられてないときはキャラクタ
ーは動きがなく静止してしまい、表現が乏しいという問
題があった。
【0004】本発明は上記の点に鑑みなされたもので、
音声に応じてキャラクターの口をリアルタイムで細かに
動かすことができ、キャラクターがときおり細かな仕草
を行って生命感を持った動作を行い、表現が豊かなリア
ルタイムキャラクターアニメーションを行うことのでき
るアニメーションシステムを提供することを目的とす
る。
【0005】
【課題を解決するための手段】請求項1に記載の発明
は、図1の原理図に示す如く、供給される音声を分析し
て音声パラメータを得る音声分析手段M1と、アニメー
ションを構成するキャラクターの画像情報を予め格納し
たアニメーションデータベースM2と、上記音声パラメ
ータに基づき上記アニメーションデータベースから画像
情報を取得する画像情報取得手段M3と、上記画像情報
取得手段で取得した画像情報からアニメーション表示用
の映像信号を生成する映像信号生成手段M4とを有す
る。
【0006】請求項2に記載の発明は、前記音声パラメ
ータに対応するアニメーションデータベース内の複数の
画像情報のうちどの画像情報を取得するかを決定するた
めのアニメーションパラメータを、上記音声パラメータ
と同一音声パラメータの継続時間とに基づき生成するア
ニメーションパラメータ生成手段を有し、前記画像情報
取得手段は上記音声パラメータとアニメーションパラメ
ータとに基づき画像情報を取得する。
【0007】請求項3に記載の発明は、キャラクターの
動作と表情との少なくとも一方を選択する選択スイッチ
を有し、前記画像情報取得手段は、上記選択スイッチで
選択された動作又は表情で、前記音声パラメータに基づ
くリップパターンのキャラクターの画像情報を取得す
る。
【0008】請求項4に記載の発明では、前記画像情報
取得手段は、前記音声パラメータに基づきキャラクター
の表情とリップパターンとを選択して画像情報を取得す
る。
【0009】
【作用】請求項1に記載の発明においては、音声を分析
した音声パラメータに基づきキャラクターの画像情報を
取得してアニメーション表示用の映像信号を生成するた
め、音声に応じてキャラクターの口をリアルタイムで動
かすことができる。請求項2に記載の発明においては、
音声パラメータとアニメーションパラメータとに基づい
て画像情報を取得するため、同一音声パラメータの継続
時間が長くなるとキャラクターがときおり細かな仕草を
行って生命感のある豊かなキャラクター表現を行うこと
ができる。
【0010】請求項3に記載の発明においては、キャラ
クターの動作や表情を選択スイッチで選択し、リップパ
ターンを音声パラメータから選択するため、キャラクタ
ーは音声に応じた口の動きの他に動作や表情を自由に変
えることができ、表現が豊かになる。請求項4に記載の
発明においては、キャラクターの表情及びリップパター
ンを音声パラメータに応じて選択するため、キャラクタ
ーは音声に応じて表情及び口の動きを自動的に変化する
ことができ、選択スイッチの数を減らすことができ、簡
単な操作で豊かな表現のアニメーションが可能となる。
【0011】
【実施例】図2は本発明システムの一実施例の機能構成
図を示す。同図中、入力装置10は例えばマイクロホン
又はライン入力端子であり、この入力装置10で得られ
た音声信号はアンプ及びフィルタ11において増幅さ
れ、かつ不要周波数成分を除去されて音声分析部12に
供給される。音声分析手段M1である音声分析部12
は、アニメーションジェネレータ15から音声パラメー
タ取得トリガ信号を供給されると、音声信号のレベル
(音圧)及び周波数(音高)を解析して音圧パラメー
タ、音高パラメータ、音圧変化パラメータ、音高変化パ
ラメータ夫々を得て、これらのパラメータを用いて音声
パラメータファイル16を参照して音声パラメータを得
る。音声パラメータファイル16は例えば男性と女性と
で別々に設けられてており、入力音声が男性か女性かに
よって選択して使用する。
【0012】アニメーションパラメータ生成手段である
アニメーションパラメータ生成部17は、上記の音声パ
ラメータを用いてアニメーションパラメータファイル1
8を参照してアニメーションパラメータを得る。このア
ニメーションパラメータは音声パラメータと共にアニメ
ーションジェネレータ15に供給される。選択スイッチ
20は会話アクションや表情の切換えを指示するもの
で、選択したキーの情報つまりキーステータスはアニメ
ーションジェネレータ15に供給される。
【0013】画像情報取得手段M3であるアニメーショ
ンジェネレータ15は選択スイッチ20からのキーステ
ータスと、音声分析部12からの音声パラメータとによ
ってアニメーションデータグループを選択し、更にアニ
メーションパラメータ生成部17からのアニメーション
パラメータによってキャラクターの顔の向き等の動作、
表情、及び口の形状であるリップパターンを選択し、こ
れらにアニメーションパラメータ生成部17からのアニ
メーションパラメータを加えてアニメーションデータベ
ース21(M2)を参照してパターンデータを取得して
画像表示装置22に供給する。映像信号生成手段M4で
ある画像表示装置22はこのパターンデータを背景画デ
ータと合成して画像メモリ23に書き込み、この画像メ
モリ23から順次画像データを読み出して映像信号を生
成し、これをディスプレイ装置24に供給してアニメー
ションの表示を行う。
【0014】なお、アニメーションパラメータファイル
18及びアニメーションデータベース21はキャラクタ
毎に設けられており、使用するキャラクタに合わせて選
択し使用する。図3は音声分析部12が実行する音声分
析処理のフローチャートを示す。この処理はアニメーシ
ョンジェネレータ15より音声パラメータ取得トリガが
供給されることにより開始される。同図中、ステップS
10ではアンプ及びフィルタ11から供給される音声信
号のピッチシフト処理を行う。この加工処理としては、
入来する音声が男声の声の場合には例えば周波数200
〜4000Hzの帯域を周波数250〜5000Hzの
帯域に周波数シフトを行う。これは音圧検知を容易とす
るために行われるもので必ずしも必要ではない。
【0015】次にステップS12では加工処理された音
声信号のレベルをA/D変換して例えば8ビットの音声
データ即ち音圧パラメータとする。ステップS14では
前回取得音圧パラメータと今回取得した音圧パラメータ
との差を算出して音圧変化パラメータを得る。この後、
ステップS16で今回取得した音圧パラメータを前回取
得音圧パラメータとして保存する。
【0016】次にステップS20でアンプ及びフィルタ
11から供給される音声信号の不要周波数帯域をカット
する。ここでは人間の音声の主な帯域である周波数20
0〜4000Hzの帯域を残し、200Hz未満の帯域
及び4000Hzを越える帯域をカットする。次にステ
ップS22で上記周波数200〜4000Hzの帯域を
例えば10分割し、各帯域毎に音声信号レベルをA/D
変換する。この後、ステップS24で10分割された帯
域の中でレベルが最大の帯域の中心周波数を音高パラメ
ータとする。なお音圧パラメータとしては音声の基音の
周波数を用いても良い。
【0017】次にステップS26では前回取得音高パラ
メータと今回取得した音高パラメータとの差を算出して
音高変化パラメータを得る。この後、ステップS28で
今回取得した音高パラメータを前回取得音高パラメータ
として保存する。この後、ステップS30では今回取得
した音圧パラメータ、音圧変化パラメータ、音高パラメ
ータ、音高変化パラメータを用いて音声パラメータファ
イル16を参照し音声パラメータを得る。この音声パラ
メータとは上記音圧パラメータ、音圧変化パラメータ、
音高パラメータ、音高変化パラメータをコード化したも
ので、アニメーションパターンを決定するための条件デ
ータである。上記ステップS30で取得した音声パラメ
ータはステップS32で出力され、処理が終了する。
【0018】図4はアニメーションパラメータ生成部1
7が実行するアニメーションパラメータ生成処理のフロ
ーチャートを示す。同図中、ステップS40では音声分
析部12から供給される音声パラメータを取り込み、ス
テップS42で前回取り込み保存されている音声パラメ
ータと比較し、ステップS44でその比較結果が一致し
たかどうかを判別する。
【0019】ここで、不一致の場合はステップS46に
進み、タイマをリセットする。この後、ステップS48
で今回取り込んだ音声パラメータからアニメーションパ
ラメータファイル18を参照してアニメーションパラメ
ータを生成するための条件データ、つまりアニメーショ
ンキャラクターに対応したパターンバリエーションと夫
々の出現頻度のデータを得て、この条件データとタイマ
で計測した継続時間とに基づきアニメーションパラメー
タを決定する。次にステップS50で今回取り込んだ音
声パラメータを保存する。
【0020】一方、ステップS44で今回取り込んだ音
声パラメータが保存されている前回のパラメータと一致
する場合はステップS52でタイマで計測されている継
続時間を取り込む。次にステップS54で音声パラメー
タが口閉じ状態を指示し、かつ継続時間が一定時間を越
えているかどうかを判別する。ここで、口開き状態又は
口閉じ状態で一定時間経過してない場合はステップS5
6に進んで音声パラメータからアニメーションパラメー
タファイル18を参照して条件データを得て、この条件
データと継続時間保存された前回のアニメーションパラ
メータとに基づきアニメーションパラメータを決定す
る。また、口閉じ状態で一定時間を越えている場合はス
テップS58で音声パラメータからアニメーションパラ
メータファイル18を参照して条件データを得、この条
件データと継続時間保存された前回のアニメーションパ
ラメータとに基づき、アイドルモードのアニメーション
パラメータを決定する。次にステップS60でタイマを
リセットする。
【0021】次に、ステップS62では上記のステップ
S50,S56,S60のいずれかで決定されたアニメ
ーションパラメータを保存し、ステップS64では決定
されたアニメーションパラメータをアニメーションジェ
ネレータ15に供給して、処理を終了する。アニメーシ
ョンジェネレータ15は図5の機能ブロック図に示す如
く、アニメーションデータグループ選択部15aとパタ
ーンデータ決定取得部15bとより構成されている。ア
ニメーションデータグループ選択部15aは選択スイッ
チ20のキーステータスを読取り、音声分析部16の出
力する音声パラメータを取込んでアニメーションデータ
グループを選択する。パターンデータ取得部15bはア
ニメーションデータグループ選択部15aで選択された
アニメーションデータグループとアニメーションパラメ
ータ生成部17から供給されるアニメーションパラメー
タとによってアニメーションデータベース21を参照し
てパターンデータを取得し、画像表示制御部22へ供給
する。
【0022】図6はアニメーションデータグループ選択
部15aによる顔向き選択処理のフローチャートを示
す。この処理は所定時間毎に実行される。同図中、ステ
ップS70では選択スイッチ20にキーステータスを要
求し、ステップS72でキーステータスを取得する。次
にステップS74でこのキーステータスから向き選択キ
ーが押されているか否かを判別し、押されていない場合
はステップS76で正面向きを選択して処理を終了す
る。押されている場合はステップS78で押されている
向き選択キーに対応して左向き又は右向きを選択して処
理を終了する。
【0023】ここで、キャラクターの顔向き等の動作は
例えば図7に示す如く、正面向き、右向き、左向きの3
種類であり、選択スイッチ20の顔向きのキーステータ
スが無い場合は正面向きが指定されたものとみなされ
る。3種類の顔向きは相互に制限なく移行することがで
き、例えば、正面向きの状態で右向きのキーステータス
が指示されれば、キャラクターの顔向きはキーステータ
スで指示された右向きに変わる。
【0024】図8はアニメーションデータグループ選択
部15aによる表情選択処理のフローチャートを示す。
この処理は所定時間毎に実行される。同図中、ステップ
S80では選択スイッチ20にキーステータスを要求
し、ステップS82でキーステータスを取得する。次に
ステップS84でこのキーステータスから表情選択キー
が押されているか否かを判別し、押されていない場合は
ステップS86でノーマルの表情を選択して処理を終了
する。押されている場合はステップS78で押されてい
る表情選択キーに対応して喜び又は怒り又は驚き又は哀
みいずれかの表情を選択して処理を終了する。
【0025】ここで、キャラクターの表情は例えば図9
に示す如く、ノーマル、喜び、怒り、驚き、哀みの5種
類であり、選択スイッチ20の表情のキーステータスが
無い場合はノーマルが指定されたものとみなされる。5
種類の表情は相互に制限なく移行することができ、例え
ば、ノーマルの状態で驚きのキーステータスが指示され
れば、キャラクターの表情はキーステータスで指示され
た驚きに変わる。なお、上記5種類の表情は、正面向
き、右向き、左向き夫々毎に用意されている。
【0026】図10はアニメーションデータグループ選
択部15aによるリップパターン選択処理のフローチャ
ートを示す。この処理は所定時間毎に実行される。同図
中、ステップS90で音声分析部16に音声パラメータ
取得トリガーを供給し、ステップS92で音声パラメー
タを取得する。次にステップS94でこの音声パラメー
タが口開きを指示しているか否かを判別し、口開きを指
示していない場合はステップS96で口閉じリップパタ
ーンを選択して処理を終了する。口開きを指示している
場合はステップS98で音声パラメータで指示されてい
る小さな口開き又は中ぐらいの口開き又は大きな口開き
のリップパターンを選択して処理を終了する。
【0027】ここで、キャラクターのリップパターンは
例えば図11に示す如く、口閉じ、口開き(小)、口開
き(中)、口開き(大)の4種類である。なお、口閉じ
は音声入力がないことに対応している。3種類のリップ
パターンは相互に制限なく移行することができ、例え
ば、口閉じの状態で口開き(大)の音声パラメータが取
得されれば、キャラクターのリップパターンは音声パラ
メータで指示された口開き(大)に変わる。なお、上記
4種類のリップパターンはノーマル、喜び、怒り、驚
き、哀み夫々毎に用意されている。
【0028】上記の顔向きと表情とリップパターンとの
組合せによりアニメーションデータグループが指定さ
れ、これにアニメーションパラメータを加えることによ
りアニメーションデータベース21を参照するキーが得
られる。アニメーションデータベースは例えば図12に
示す如く、3種類の顔向きの下層に5種類の表情が連な
り、表情の下層に4種類のリップパターンが連なり、リ
ップパターンの下層にアニメーションパラメータが連な
る階層構造である。アニメーションパラメータは基本形
正面パターン、基本形左傾パターン、基本形右傾パター
ンと、複数のゆらぎパターンと複数のアイドルパターン
とを区別するためのものである。なお、アイドルパター
ンは口閉じのリップパターンに対してのみ設けられ、口
開きのリップパターンに対しては設けられていない。
【0029】ここで、顔向きが正面向き、表情がノーマ
ル、リップパターンが口閉じのアニメーションデータグ
ループには例えば図13に示す如く、基本形正面パター
ンP 1 と基本形左傾パターンP2 と、基本形右傾パター
ンP3 と、ゆらぎパターン群FP1 と、アイドルパター
ン群IP1 が含まれる。ゆらぎパターン群FP1 は例え
ば図14に示す如く、正面の瞬き、眉動き、耳動き夫々
のパターンP11,P12,P13と、左傾の瞬き、眉動き、
耳動き夫々のパターンP14,P15,P16と、右傾の瞬
き、眉動き、耳動き夫々のパターンP17,P18,P19
含む。
【0030】また、アイドルパターン群IP1 は例えば
図15に示す如く、目左向きのパターンP21、瞬きのパ
ターンP22、目右向きのパターンP23、左上向きのパタ
ーンP24、頬膨らみのパターンP25、右上向きのパター
ンP26、眉動きのパターンP 27、耳動きのパターン
28、及び足踏みの連続パターンP30,P31,P32を含
む。
【0031】アニメーションパラメータ生成部17は図
4に示す処理によって、図13乃至図15に示す各種パ
ターンの中から表示しようとするパターンのアニメーシ
ョンパラメータを決定している。例えばステップS48
では基本形パターンP1 〜PP3 のいずれかのアニメー
ションパラメータの指示を決定する。ステップS56で
は基本形パターンP1 〜P3 とゆらぎパターン群FP1
の各パターンP11〜P17のいずれかのアニメーションパ
ラメータの指示を決定する。このとき継続時間と前回の
アニメーションパラメータに基づいて決定が行われるた
め、例えは基本形パターンP1 を数秒連続して表示した
後、ゆらぎパターン群FP1 の基本形P1 と同形のパタ
ーンP11〜P13内の例えばパターンP11を表示し、その
後基本形パターンP1 を表示することにより、キャラク
ターが瞬きする動作を表現ができる。
【0032】ステップS58ではアイドルパターン群I
1 の各パターンP21〜P32のいずれかのアニメーショ
ンパラメータの指示を決定する。例えば基本形パターン
1をゆらぎパターンを挿入しつつ一定時間表示した
後、アイドルパターン群IP1の例えばパターンP24
表示し、その後基本形パターンP1 を表示することによ
りキャラクターが左上向き動作を表現できる。またパタ
ーンP24の代りに連続パターンP30,P31,P32を表示
することによりキャラクターが足踏みする動作を表現で
きる。
【0033】このように口閉じのリップパターンを持つ
アニメーションデータグループでアイドルパターン群が
設定されているのは音声入力がないためにリップパター
ンが変化せずキャラクターの動きが少なくなるので、こ
のような状態で少しでもキャラクターを動作させるため
である。また、顔向きが正面向き、表情がノーマル、リ
ップパターンが口開き(中)のアニメーションデータグ
ループには例えば図16に示す如く、基本形正面パター
ンP41と基本形左傾パターンP42と、基本形右傾パター
ンP43と、ゆらぎパターン群FP2 が含まれる。
【0034】ゆらぎパターン群FP2 は例えば図17に
示す如く、正面の上向き、下向き、瞬き、眉動き夫々の
パターンP51,P52,P53,P54と、左傾の上向き、下
向き、瞬き、眉動き夫々のパターンP55,P56,P57
58と、右傾の上向き、下向き、瞬き、眉動き夫々のパ
ターンP59,P60,P61,P62を含む。アニメーション
パラメータ生成部17は図4に示す処理によって、図1
6及び図17に示す各種パターンの中から表示しようと
するパターンのアニメーションパラメータを決定してい
る。例えばステップS48では基本形パターンP41〜P
43のいずれかのアニメーションパラメータの指示を決定
する。
【0035】ステップS56では基本形パターンP41
43とゆらぎパターン群FP2 の各パターンP51〜P62
のいずれかのアニメーションパラメータの指示を決定す
る。このとき連続時間と前回のアニメーションパラメー
タに基づいて決定が行われるため、例えば基本形パター
ンP41を数秒連続して表示した後、ゆらぎパターン群F
2 の基本形P41と同形のパターンP51〜P54内の例え
ばパターンP51を表示し、その後基本形パターンP41
表示することにより、キャラクターが下向く動作を表現
ができる。
【0036】このように、音声信号を分析して音圧、音
圧変化、音高、音高変化に基きリップパターンを決定し
ているため、音声に応じてキャラクター口が音声に応じ
てリアルタイムできめ細かに動き表現が豊かになる。ま
た音声が同一の状態が連続するときは、ゆらぎパターン
を挿入しており、更に無音状態が連続するときはアイド
ルパターンを挿入しているため、キャラクターが長時間
同じ姿勢を続ける間にときおり細かな仕草を行い、キャ
ラクターが生命感を持った動きを行い、表現が豊かにな
る。
【0037】このため、歌に合わせてキャラクターが動
くカラオケや、ニュースや天気予報の音声に合わせてキ
ャラクターが動く放送支援システム、製品説明の音声に
合わせてキャラクターが動くトークパフォーマンス等の
利用が好適である。なお、図3の処理では音圧パラメー
タ、音圧変化パラメータ、音高パラメータ、音高変化パ
ラメータによって音声パラメータを取得しているが、音
圧パラメータ又はこれと音圧変化パラメータだけで音声
パラメータを取得することも可能である。
【0038】更に、図3のステップS10のピッチシフ
ト処理において、供給された音声信号の周波数200〜
4000Hzの帯域を周波数250〜5000Hzの帯
域に周波数シフトした第1の信号と、供給された音声信
号の周波数200〜4000Hzの帯域を周波数350
〜7200Hzの帯域に周波数シフトした第2の信号と
を加算し、次のステップS12に進んでも良い。この場
合は2種類のピッチの異なる音声信号を混合することに
より音の干渉が起き、これによって生じる音圧パラメー
タのゆらぎによって、キャラクターの口の動きが自然な
ゆらめきを持つ。
【0039】更に、図3の代りに図18に示す音声分析
処理を行っても良い。図18において図3と同一部分に
は同一符号を付し、その説明を省略する。図18におい
て、ステップS28を実行した後、ステップS102に
進み、アンプ及びフィルタ11から供給される音声信号
をA/D変換する。この後、ステップS104で高速フ
ーリエ解析を行って音声信号の周波数分布データを得
る。次のステップS106では全てのリップ形状につい
ての周波数分布データが登録されたリップパラメータフ
ァイルを参照して音声の発声時のリップ形状を表わすリ
ップパラメータを得る。
【0040】この後、ステップS108では今回取得し
た音圧パラメータ、音圧変化パラメータ、音高パラメー
タ、音高変化パラメータ、リップパラメータを用いて音
声パラメータファイル16を参照し音声パラメータを得
る。ここでは音声パラメータとは上記音圧パラメータ、
音圧変化パラメータ、音高パラメータ、音高変化パラメ
ータ及びリップパラメータをコード化したものである。
上記ステップS108で取得した音声パラメータはステ
ップS110で出力され、処理が終了する。
【0041】なお、この場合は図2の音声分析部12に
はリップファイルを接続し、音声パラメータファイルは
キーの一部としてリップパラメータを有してなければな
らない。ところで、図5に示すアニメーションジェネレ
ータ15は選択スイッチ20からキーステータスを取得
して顔の向き及び表情のアニメーションデータグループ
を選択しているが、図19に示す如く、アニメーション
データグループ選択部15cで取得した音声パラメータ
からアニメーションデータグループを選択しても良い。
この場合は例えば音高パラメータから音高が低いとき哀
み、音高パラメータから音高が高いとき喜び、音圧パラ
メータから音圧が大なるとき怒り、音圧変化パラメータ
から音圧が増大したとき驚き等の表情を選択する。
【0042】上記実施例では、アニメーションデータベ
ース21にビットマップ形式のパターンデータが格納さ
れているとして説明をしたが、アニメーションデータベ
ース21に3次元画像生成用データが格納されている場
合は、図20に示す如く、アニメーションジェネレータ
15内に画像生成部15dを設け、この画像生成部15
dにおいてアニメーションデータベース21から取得し
た3次元画像生成用データを用いてレンダリングを行
い、3次元画像のパターンデータを生成して出力する構
成とすれば良い。
【0043】なお、選択スイッチ20として話者の手足
の動きを検出するセンサを設け、このセンサ出力に応じ
てキャラクタの手足の動きを変化させても良い。更に入
力音声として、音楽を用い、この音楽に合わせてキャラ
クタがピアノ,ギター,ドラムス等の楽器を演奏するよ
うに動作,表情を変化させるようにしても良く、上記実
施例に限定されない。
【0044】
【発明の効果】上述の如く、請求項1に記載の発明によ
れば、音声を分析した音声パラメータに基づきキャラク
ターの画像情報を取得してアニメーション表示用の映像
信号を生成するため、音声に応じてキャラクターの口を
リアルタイムで動かすことができる。
【0045】請求項2に記載の発明によれば、音声パラ
メータとアニメーションパラメータとに基づいて画像情
報を取得するため、同一音声パラメータの継続時間が長
くなるとキャラクターがときおり細かな仕草を行って生
命感のある豊かなキャラクター表現を行うことができ
る。請求項3に記載の発明によれば、キャラクターの動
作や表情を選択スイッチで選択し、リップパターンを音
声パラメータから選択するため、キャラクターは音声に
応じた口の動きの他に動作や表情を自由に変えることが
でき、表現が豊かになる。
【0046】請求項4に記載の発明によれば、キャラク
ターの表情及びリップパターンを音声パラメータに応じ
て選択するため、キャラクターは音声に応じて表情及び
口の動きを自動的に変化することができ、選択スイッチ
の数を減らすことができ、簡単な操作で豊かな表現が可
能となり、リアルタイムのキャラクターアニメーション
を行うことができ、実用上きわめて有用である。
【図面の簡単な説明】
【図1】本発明の原理図である。
【図2】本発明の機能構成図である。
【図3】音声分析処理のフローチャートである。
【図4】アニメーションパラメータ処理のフローチャー
トである。
【図5】アニメーションジェネレータの機能ブロック図
である。
【図6】顔向き選択処理のフローチャートである。
【図7】顔向き選択を説明するための図である。
【図8】表情選択処理のフローチャートである。
【図9】表情選択を説明するための図である。
【図10】リップパターン選択処理のフローチャートで
ある。
【図11】リップパターン選択を説明するための図であ
る。
【図12】アニメーションデータベースの楮をを示す図
である。
【図13】パターンデータ決定を説明するための図であ
る。
【図14】パターンデータ決定を説明するための図であ
る。
【図15】パターンデータ決定を説明するための図であ
る。
【図16】パターンデータ決定を説明するための図であ
る。
【図17】パターンデータ決定を説明するための図であ
る。
【図18】音声分析処理のフローチャートである。
【図19】アニメーションジェネレータの機能ブロック
図である。
【図20】アニメーションジェネレータの機能ブロック
図である。
【符号の説明】
10 入力装置 12 音声分析部 15 アニメーションジェネレータ 16 音声パラメータファイル 17 アニメーションパラメータ生成部 18 アニメーションファイル 20 選択スイッチ 21,M2 アニメーションデータベース 22 画像表示制御部 23 画像メモリ 24 ディスプレイ装置 M1 音声分析手段 M3 画像情報取得手段 M4 映像信号生成部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 供給される音声を分析して音声パラメー
    タを得る音声分析手段と、 アニメーションを構成するキャラクターの画像情報を予
    め格納したアニメーションデータベースと、 上記音声パラメータに基づき上記アニメーションデータ
    ベースから画像情報を取得する画像情報取得手段と、 上記画像情報取得手段で取得した画像情報からアニメー
    ション表示用の映像信号を生成する映像信号生成手段と
    を有することを特徴とするアニメーションシステム。
  2. 【請求項2】 前記音声パラメータに対応するアニメー
    ションデータベース内の複数の画像情報のうちどの画像
    情報を取得するかを決定するためのアニメーションパラ
    メータを、上記音声パラメータと同一音声パラメータの
    継続時間とに基づき生成するアニメーションパラメータ
    生成手段を有し、 前記画像情報取得手段は上記音声パラメータとアニメー
    ションパラメータとに基づき画像情報を取得することを
    特徴とする請求項1記載のアニメーションシステム。
  3. 【請求項3】 キャラクターの動作と表情との少なくと
    も一方を選択する選択スイッチを有し、 前記画像情報取得手段は、上記選択スイッチで選択され
    た動作又は表情で、前記音声パラメータに基づくリップ
    パターンのキャラクターの画像情報を取得することを特
    徴とする請求項1又は2記載のアニメーションシステ
    ム。
  4. 【請求項4】 前記画像情報取得手段は、前記音声パラ
    メータに基づきキャラクターの表情とリップパターンと
    を選択して画像情報を取得することを特徴とする請求項
    1又は2記載のアニメーションシステム。
JP25857094A 1994-10-24 1994-10-24 アニメーションシステム Expired - Fee Related JP3674875B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25857094A JP3674875B2 (ja) 1994-10-24 1994-10-24 アニメーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25857094A JP3674875B2 (ja) 1994-10-24 1994-10-24 アニメーションシステム

Publications (2)

Publication Number Publication Date
JPH08123977A true JPH08123977A (ja) 1996-05-17
JP3674875B2 JP3674875B2 (ja) 2005-07-27

Family

ID=17322084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25857094A Expired - Fee Related JP3674875B2 (ja) 1994-10-24 1994-10-24 アニメーションシステム

Country Status (1)

Country Link
JP (1) JP3674875B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6313864B1 (en) 1997-03-24 2001-11-06 Olympus Optical Co., Ltd. Image and voice communication system and videophone transfer method
JP2002133445A (ja) * 2000-10-30 2002-05-10 Namco Ltd 画像処理装置、画像処理方法および情報記憶媒体
JP2003529863A (ja) * 2000-03-30 2003-10-07 ブイアールティービー ステューディオズ テキスト・メッセージおよび外部イベントから、仮想音声映像シーケンスをリアルタイムで自動的に作成し、このようなシーケンスを放送する方法および装置
JP2007299300A (ja) * 2006-05-02 2007-11-15 Advanced Telecommunication Research Institute International アニメーション作成装置
US8306824B2 (en) 2008-10-14 2012-11-06 Samsung Electronics Co., Ltd. Method and apparatus for creating face character based on voice
JP2014147650A (ja) * 2013-02-04 2014-08-21 Nintendo Co Ltd ゲームシステム、ゲーム装置、ゲーム処理方法及びゲームプログラム
JP2016080908A (ja) * 2014-10-17 2016-05-16 ヤマハ株式会社 信号加工装置
CN109801349A (zh) * 2018-12-19 2019-05-24 武汉西山艺创文化有限公司 一种声音驱动的三维动画角色实时表情生成方法和系统
CN112188304A (zh) * 2020-09-28 2021-01-05 广州酷狗计算机科技有限公司 视频生成方法、装置、终端及存储介质
CN113672194A (zh) * 2020-03-31 2021-11-19 北京市商汤科技开发有限公司 声学特征样本的获取方法、装置、设备以及存储介质

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6313864B1 (en) 1997-03-24 2001-11-06 Olympus Optical Co., Ltd. Image and voice communication system and videophone transfer method
JP2003529863A (ja) * 2000-03-30 2003-10-07 ブイアールティービー ステューディオズ テキスト・メッセージおよび外部イベントから、仮想音声映像シーケンスをリアルタイムで自動的に作成し、このようなシーケンスを放送する方法および装置
JP2002133445A (ja) * 2000-10-30 2002-05-10 Namco Ltd 画像処理装置、画像処理方法および情報記憶媒体
JP2007299300A (ja) * 2006-05-02 2007-11-15 Advanced Telecommunication Research Institute International アニメーション作成装置
JP4631077B2 (ja) * 2006-05-02 2011-02-16 株式会社国際電気通信基礎技術研究所 アニメーション作成装置
US8306824B2 (en) 2008-10-14 2012-11-06 Samsung Electronics Co., Ltd. Method and apparatus for creating face character based on voice
JP2014147650A (ja) * 2013-02-04 2014-08-21 Nintendo Co Ltd ゲームシステム、ゲーム装置、ゲーム処理方法及びゲームプログラム
JP2016080908A (ja) * 2014-10-17 2016-05-16 ヤマハ株式会社 信号加工装置
CN109801349A (zh) * 2018-12-19 2019-05-24 武汉西山艺创文化有限公司 一种声音驱动的三维动画角色实时表情生成方法和系统
CN113672194A (zh) * 2020-03-31 2021-11-19 北京市商汤科技开发有限公司 声学特征样本的获取方法、装置、设备以及存储介质
JP2022530726A (ja) * 2020-03-31 2022-07-01 北京市商▲湯▼科技▲開▼▲發▼有限公司 インタラクティブ対象駆動方法、装置、デバイス、及び記録媒体
CN112188304A (zh) * 2020-09-28 2021-01-05 广州酷狗计算机科技有限公司 视频生成方法、装置、终端及存储介质
CN112188304B (zh) * 2020-09-28 2022-11-15 广州酷狗计算机科技有限公司 视频生成方法、装置、终端及存储介质

Also Published As

Publication number Publication date
JP3674875B2 (ja) 2005-07-27

Similar Documents

Publication Publication Date Title
EP0829847B1 (en) Conduct-along system
JP6942300B2 (ja) コンピュータグラフィックスのプログラム、表示装置、送信装置、受信装置、動画生成装置、データ変換装置、データ生成装置、情報処理方法及び情報処理システム
KR100874176B1 (ko) 오디오 신호 출력 방법 및 배경 음악 발생 방법
US10290291B2 (en) Information processing apparatus, method, and program for controlling output of a processing pattern in association with reproduced content
CN110322861B (zh) 运指显示装置以及存储介质
JP3674875B2 (ja) アニメーションシステム
Fels et al. Musikalscope: A graphical musical instrument
CN113538628A (zh) 表情包生成方法、装置、电子设备及计算机可读存储介质
JP4757704B2 (ja) 音楽再生プログラム、音楽再生装置、音楽再生方法及び音楽再生システム
JP2010049406A (ja) 絵本画像再生装置、絵本画像再生方法、絵本画像再生プログラム及び記録媒体
JPH10143151A (ja) 指揮装置
JP2011206267A (ja) ゲーム装置、ゲームの進行方法、及びゲーム進行プログラム
JP2003216173A (ja) 合成音声及び映像の同期制御方法、装置及びプログラム
JP4254400B2 (ja) 画像生成装置およびその画像生成方法、ならびにコンピュータ読み取り可能な記録媒体
JP4720974B2 (ja) 音声発生装置およびそのためのコンピュータプログラム
JPH08318053A (ja) 観客情報から多様な対応をするロボットシステム
JP2006106334A (ja) 歌詞表示方法および装置
JPH06130981A (ja) 音楽再生装置
JP2005321514A (ja) ゲーム装置および音程付効果音生成プログラムならびに方法
Bresin et al. Expressive musical icons
JP2006064973A (ja) 制御システム
WO2024122322A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4580812B2 (ja) 映像生成方法、スタンドアロン型映像再生装置及びネットワーク配信型映像再生システム
Lin et al. Intuitive, Interactive Training System for the Sense of Sound Using Portable Theremin Device
JP4173475B2 (ja) 歌詞表示方法および装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040826

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050422

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080513

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080513

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees