JP3755503B2 - アニメーション制作システム - Google Patents

アニメーション制作システム Download PDF

Info

Publication number
JP3755503B2
JP3755503B2 JP2002267444A JP2002267444A JP3755503B2 JP 3755503 B2 JP3755503 B2 JP 3755503B2 JP 2002267444 A JP2002267444 A JP 2002267444A JP 2002267444 A JP2002267444 A JP 2002267444A JP 3755503 B2 JP3755503 B2 JP 3755503B2
Authority
JP
Japan
Prior art keywords
data
motion
animation
segment
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002267444A
Other languages
English (en)
Other versions
JP2003132363A (ja
Inventor
純一 横里
肇 吉川
聡 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002267444A priority Critical patent/JP3755503B2/ja
Publication of JP2003132363A publication Critical patent/JP2003132363A/ja
Application granted granted Critical
Publication of JP3755503B2 publication Critical patent/JP3755503B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明はコンピュータを使用したアニメーション制作システムに関するものである。
【0002】
【従来の技術】
従来、コンピュータを用いてアニメーションを制作する場合には、アニメーションに登場する物体の形状を作成し、その物体の形状に動作を付与し、これらの物体の形状を、あらかじめ記述済みのシナリオを用いて組み合わせてアニメーションを作成していた(以下、従来例1とする)。
【0003】
また、コンピュータグラフィクスで作成した口形状と音声とを同期させるリップシンク技術については、従来、音声として発音テキスト文をユーザーが手動で作成し、それに合わせて合成音声を発声し、それに対して口形状のアニメーションを同期させていた(以下、従来例2とする)。
【0004】
さらに、アニメーション作成の過程において、物体の形状に付与する動作をデータベースとして保存する方式がある(以下、従来例3とする)。
【0005】
従来例1として、特願平3−218752号公報に記載された方式がある。
図37はこの従来例1のアニメーション制作システムを示す構成図である。この方式では、アニメーションに登場する物体の形状の作成(形状作成手段1)、その物体の形状への動作の付与(動作作成手段2)、これらの物体の形状の組み合わせによるアニメーションの作成の過程(演出作成手段3)を持つ。
【0006】
物体の形状の組み合わせは、動作を行う物体名、動作の内容、動作を行う位置及び時間等からなる動作列からなるシナリオを作成することによって行われる。そして、シナリオ作成時に、形状あるいは動作を変更する場合は、シナリオ作成作業を中断し、データ変更手段を介して形状あるいは動作作成手段を制御して変更処理を行うことができる。
【0007】
従来例2として、特願平4−306422号公報に記載された方式がある。
図38はこの従来例2のアニメーション制作システムを示す構成図である。この方式では、発音情報より得られる発音のタイミングを基準にして加重パラメータ時系列を生成し、この加重パラメータ時系列で多重内挿して口形状が変化するアニメーションを生成している。この方式では、入力として発音テキスト文を用いており、発音テキスト文の示す文章を、発音情報にあわせて出力する。さらに、その発音情報に合わせて、上記の多重内挿法によって作成された口形状のアニメーションを同期して表示している。
【0008】
従来例3として、特願平5−24910号公報に記載された方式がある。
図39はこの従来例3のアニメーション制作システムを示す構成図である。この方式では、蓄積したアニメーションデータを用いて形状の異なる他の物体のアニメーションを簡易に作成し、データベースの大型化を未然に防止得るようにしている。
【0009】
【発明が解決しようとする課題】
このように従来の方式では、アニメーション制作の過程を統合してはいるが、アニメーションを構成する要素の組み合わせにおいて、あらかじめ記述済みのシナリオもしくは手動によって、これらが行われている。この方法では、これらの要素を組み合わせてアニメーションを作成する場合に、そのうちの一つが変更されると、他の全てに影響が及び修正を加えなければならないという問題がある。そこで、この修正を簡単に行なえることが必要となる。
【0010】
また、リップシンクにおける従来の手法では、テキスト文やテキストの発音情報を入力し、それらの情報に従って、合成音声を発声させ、発声情報に基づいて口形状等を作成することで、音声と口形状との同期を行なっていた。この場合、テキスト文やテキストの発声情報をあらかじめ用意する必要があり、実際に声優を使い、その音声に対応したコンピュータグラフィクスの口形状を同期させるといった目的には使用できない。そこで、実際の音声データから、音声データ中の文字発音タイミング等の特徴を抽出し、その特徴からリップシンクを行なえる手法が必要となる。
【0011】
さらに、物体の形状や動作を組み合わせ作成したアニメーションデータを、蓄積するための方法については述べられているが、蓄積したアニメーションデータを有効に利用するための検索手段が用意されていない。また蓄積されているモーションデータの合成については述べられているが、モーションの強調を行ないよりアニメーションらしいモーションを作成する方法については言及されていない。
【0012】
この発明に係るアニメーション制作システムは上記のような問題点を解決することを目的とするものである。
【0013】
【課題を解決するための手段】
第1の発明に係るアニメーション制作システムは、アニメーションの構成に使用する少なくとも第1のアニメーション構成データ及び第2のアニメーション構成データを有するアニメーション構成データを用いてアニメーションの制作を行なうものであって、前記第1のアニメーション構成データ及び前記第2のアニメーション構成データの各々に対し、同期設定のための同期制御データを付加するとともに、当該付加された同期制御データを用いて、前記第1のアニメーション構成データと前記第2のアニメーション構成データの同期を制御する同期制御手段を備えたものである。
【0014】
第2の発明に係るアニメーション制作システムは、第1の発明における同期制御手段を前記第1のアニメーション構成データ及び第2のアニメーション構成データを部分的に伸長又は縮退することにより同期を制御することとしたものである。
【0015】
第3の発明に係るアニメーション制作システムは、アニメーションのモデルの形状を作成する形状作成手段と、前記形状作成手段において作成された前記モデルのモーションデータを入力しモーションを作成するモーション作成手段と、前記モーション作成手段に入力されたモーションデータに対して強調計算を行ない、強調されたモーションデータを出力するモーション強調手段とを備えたものである。
【0016】
第4の発明に係るアニメーション制作システムは、第3の発明におけるモーション強調手段をモーションデータに対し強調係数を乗算するとともに、当該乗算されたモーションデータに対し、当該モデルの関節間の長さが一定になるよう補正することとしたものである。
【0017】
第5の発明に係るアニメーション制作システムは、第3の発明におけるモーション強調手段にさらに強調方向を入力する強調方向入力部と、前記強調方向入力部に入力された強調方向に対し、モーションの強調を行なう分解モーション強調計算手段を備えたものである。
【0018】
第6の発明に係るアニメーション制作システムは、アニメーションのモデルのモーションを入力し、モーションデータを出力するモーション入力手段と、予め複数のモーションデータが記憶されたモーションデータ記憶手段と、前記モーション入力手段より出力されたモーションデータと前記モーションデータ記憶手段に記憶されたモーションデータとを比較し、その比較結果に基づいて前記モーションデータ記憶手段に記憶されたモーションデータより選択し、出力するモーションデータ検索手段とを備えたものである。
【0019】
第7の発明に係るアニメーション制作システムは、音声信号を入力する音信号入力手段と、母音情報に対応した口形状モデルを記憶する口形状モデル記憶手段と、前記音信号入力手段に入力された音声信号の母音情報に基づいて前記口形状モデル記憶手段より口形状モデルを選択し画像出力する画像出力手段とを備えたものである。
【0020】
第8の発明に係るアニメーション制作システムは、音声信号を入力する音信号入力手段と、母音情報及び音声レベルに対応した口形状モデルを記憶する口形状モデル記憶手段と、前記音信号入力手段に入力された音声信号の母音情報及び音声レベルに基づいて前記口形状モデル記憶手段より口形状モデルを選択し画像出力する画像出力手段とを備えたものである。
【0021】
第9の発明に係るアニメーション制作システムは、音声信号を入力する音信号入力手段と、前記音信号入力手段に入力された音声信号の母音情報に基づいてセグメント処理を行いセグメント情報を生成するセグメント手段と、前記音声信号に対応した口形状データを生成する口形状データ生成手段と、前記セグメント手段により生成したセグメント情報に基づいて前記口形状データ生成手段により生成した口形状データと前記音声信号とを同期させる同期手段とを備えたものである。
【0022】
第10の発明に係るアニメーション制作システムは、第9の発明における同期手段が前記セグメント情報よりセグメント中の始点線分、終点線分、最大量子化値部分を抽出し、各段階において前記口形状モデルのキーフレームを割り当てるものである。
【0023】
第11の発明に係るアニメーション制作システムは、第9の発明においてさらに文字データを入力する文字入力手段を有し、セグメント手段が前記文字入力手段に入力された文字データの個々の文字に対してセグメントを割り当てるものである。
【0024】
第12の発明に係るアニメーション制作システムは、アニメーションのモデルの部分のモーションを示す第1の部分モーションデータ及び第2の部分モーションデータを記憶する部分モーション記憶手段と、前記部分モーション記憶手段に記憶された第1の部分モーションデータと第2の部分モーションデータのそれぞれが同一関節を持っており、この同一関節を基準に、同期制御手段を用いて同期させた前記第1の部分モーションデータと前記第2の部分モーションデータとを組み合わせる組み合わせ手段を有するものである。
【0025】
【発明の実施の形態】
実施の形態1.
図1はこの実施の形態1に係るアニメーション制作システムのシステム構成図である。
図において1は形状作成手段であり、アニメーションの登場人物であるキャラクタモデルや、背景画像を作成し、アニメーション構成データ保存手段9に保存する。2はモーション作成手段であり、形状作成手段1で作成した形状に対してアニメーションのモーションデータを作成し、アニメーション構成データ保存手段9に保存する。
【0026】
3は音入力手段であり、アニメーションキャラクタのセリフ音声やキャラクタの発する音(拍手や楽器)を入力し、アニメーション構成データ保存手段9に保存する。4は文字入力手段である。9はアニメーション構成データ保存手段であり、アニメーションを作成するために必要な形状情報やモーション情報、音情報、文字情報を蓄積する。
【0027】
5はレンダリング手段であり、レンダリング手段5はアニメーション構成データ保存手段9に蓄積されているアニメーション構成要素の中でアニメーション画像を生成するために必要なキャラクタ情報、モーション情報を読み込み、陰影をつけるレンダリングを実行し、アニメーション画像を制作する。6は同期制御手段であり、アニメーション構成データ保存手段からモーションデータ、音データ、文字データを呼びだし、データ同士の同期をとる。
11は音出力手段であり、アニメーション構成データ保存手段9に保存されているセリフ音声や音データを音として出力する。
【0028】
図2に実施の形態1のシステム構成図を示す。
101は同期制御表示部、114はスケルトンデータ、116はモーションデータ、118はセリフ音声データ、120は音データである。
同期制御表示部101はアニメーション構成データ保存手段9に蓄積されているスケルトンデータ114、モーションデータ116、セリフ音声データ118、音データ120を読み出す。115はスケルトン入力部である。
【0029】
スケルトンデータ114はスケルトン入力部115により作成され、保存される。117はモーション入力部である。モーションデータ116はモーション入力部117により作成され、保存される。119は音入力部である。セリフ音声データ118はキャラクタのセリフ音声をデジタル化したものであり、音入力部119から入力され、保存される。音データ120はアニメーションで使用する音声以外の音情報であり、これも同様に音入力部119から入力される。
【0030】
112はセグメント情報である。読み込まれたアニメーション構成データは同期制御手段6において、セグメント分けされる。セグメントはアニメーション構成データにユーザによって設定されるセグメント情報112により表される。
【0031】
102は音表示部である。セリフ音声データ118と音データ120は同期制御表示部101に読み込まれ、セグメント情報104を入力するために音表示部102に渡される。音表示部102は渡されたセリフ音声データもしくは音データの波形情報と周波数スペクトログラムを表示する。103は音出力部である。セリフ音声データと音データは音表示部102から音出力部103へ渡され、音出力部103から音として出力される。セリフ音声データ118、音データ120は音表示部102から音声セグメント入力部104に渡され、そこでユーザによりセグメント情報を入力され、セグメント情報112に登録される。
【0032】
105はモーション表示部である。モーションデータ116は対応するスケルトンデータ114と共に同期制御表示部101に読み込まれ、モーション表示部105に渡される。モーション表示部105では同期制御表示部101より渡されたモーションデータ116とそれに対応するスケルトンデータを表示する。106はモーションセグメント入力部である。モーションデータはモーション表示部105からモーションセグメント入力部106に渡されユーザによりセグメント情報が入力され、セグメント情報112に登録される。
【0033】
123はセグメント情報対応づけ部であり、113は同期制御データである。セグメント情報112を使用してセグメント情報対応付け部123において同期制御データが設定され、同期制御表示部101を通じて同期制御データ113に保存される。
【0034】
110はデータ再計算部である。同期付けられた複数のアニメーション構成データのうち一つのデータのセグメント情報112の位置が変更された場合には、データ再計算部110により同期付けられているアニメーション構成データの時間が変更され、同期制御表示部101に戻す。同期制御表示部101は同期づけして時間が変更されたアニメーション構成データをアニメーション構成データ保存手段9に保存する。
【0035】
次に本実施の形態1について詳細に説明を行なう。
コンピュータアニメーションは、基本的にはアニメーションに登場するキャラクタモデルの動きとセリフで構成されている。各データは一般的な入力部により入力され、デジタルデータとしてディスクに蓄積されている。
この実施の形態に記載された発明の特徴となる同期制御手段6は、これらのデータ同士の指定したポイントを同一時間に再生できるように変更するものである。
【0036】
まず始めに本実施の形態で説明を行なうアニメーション構成データについて説明を行なう。
アニメーション構成データはアニメーションに登場するキャラクタを構成するデータであり、スケルトンデータ114、モーションデータ116、セリフ音声データ118、音データ120がある。モーションデータ116はキャラクタの各関節のモーションを表現するものである。
【0037】
以下、これらのデータにつき詳述する。
図7は、モーションデータの構成を示す図である。図7に示すように、先頭に毎秒のフレーム数が入っており、各フレームの各関節毎にフレーム番号f、関節番号jf、位置変化情報(dxf,dyf,dzf),回転変化情報drfが繰り返される。
【0038】
図8に示すように、位置変化情報、回転変化情報は前フレームとの差分を情報として持っている。この情報により、キャラクタの各関節の動きを表現する。回転情報は後述する子供関節から親関節に向かう直線を軸に対する回転を表現するパラメータである。最上位の親には回転情報は存在しない。
【0039】
次にスケルトンデータについて説明する。
各モーションデータ116には必ず対応するスケルトンデータ114が存在する。モーションデータ116の先頭フレームの位置変化情報と回転変化情報はスケルトンデータ114の初期位置情報からの差分である。
【0040】
図9にスケルトンデータの構造を示す。スケルトンデータ114は関節番号jnum 、初期位置情報(sx,sy,sz)、初期回転情報sr、親関節Jp、兄弟関節Jb、子関節Jcの情報を持っている。
親関節、兄弟関節、子関節のデータは、関節同士の連結情報である。親子関係は、子関節が親関節の動きに影響されている関節であり、足であれば腿に近い方が親関節になり、爪先に近い方の関節が子供関節になる。腕であれば肩に近い方の関節が親になり、手に近い方の関節が子関節になる。各パーツ同士、例えば腕と体の場合には、どちらを親にするかはスケルトン設計時による。
【0041】
兄弟関係は親が同じ関節であることを示し、親関節に対してデータ上は子関節が1つのみの設定になるため、残りの子関節は、既に親関節に対して子関節と定義された関節に対して、兄弟関節として表現する。
【0042】
さらに、音声データおよび音データについて説明する。
セリフ音声データ118、音データ120は一般的なデジタル音データとし、アナログ音を音入力部119から入力し、量子化、標本化を行ない、音声データはセリフ音声データ118へ、それ以外は音データ120へ保存される。
【0043】
同期制御手段6は上記のアニメーション構成データを読み込み、同期を制御する。同期制御手段6の役割は主に次の3つのフェイズからなっている。
1.アニメーション構成データを読み込み、セグメント情報を設定する。
2.アニメーション構成データへ設定されたセグメント同士を同期制御データで同期する。
3.アニメーション構成データへ設定されたセグメント情報の変更により、そのデータへ同期されているアニメーション構成データの時間方向再計算を行なう。
【0044】
この同期制御手段6の役割の中ではじめにアニメーション構成データを読み込み、セグメント情報112を設定する部分についての説明を行なう。
図10は、セグメント情報とセグメントを示す図である。図上でセグメント情報1と2によってはさまれているアニメーション構成データの部分がセグメントAとなる。
セグメント情報112は各アニメーション構成データに区切りを与える情報であり、各アニメーション構成データのファイル毎に用意されている。セグメント情報の構成は、1つ前のセグメントからの時間を表す情報とセグメントラベル番号を持っている。このセグメント情報112は各アニメーション構成データ毎にそれぞれのセグメント情報入力部から入力する。
【0045】
アニメーション構成データはファイルの開始と終了に始めからセグメント情報が設定されている。新しいセグメント情報を入力すると、入力したセグメント情報よりも時間的に1つ前に設定されているセグメント情報と一つ後ろのセグメント情報との間に前後2つのセグメント領域を作成することになる。ここで使用したセグメントという言葉は、2つのセグメント情報に囲まれたアニメーション構成データの部分である。
【0046】
次に同期制御表示につき図11、図12及び図13を参照して説明する。図11は同期制御表示部の表示イメージ図、図12は音表示部の表示イメージ図、図13はモーション表示部の表示イメージである。同期制御表示部101はアニメーションを構成するアニメーション構成データであるモーションデータ116、セリフ音声データ118、音データ120を読み込み、データ毎のフォーマットによってブラウジング表示する。
【0047】
各アニメーション構成データはアニメーション構成データブラウザ上にブラウジング表示される。時間のスケーリングは表示部上側に用意されている時間スケールに従って表示される。
【0048】
同期制御表示部101のアニメーション構成データブラウザ上ではセリフ音声データ118、音データ120はデータ音波形としてブラウジング表示する。
ユーザによる音声データ118、音データ120の表示の指示で図12に示す音表示部102が起動され、同期制御表示部101に読み込まれているセリフ音声データ、音データが同期制御表示部101から渡される。
【0049】
図12に示した音表示部102では画面に3つのデータが表示される。上段の表示部に音波形が表示され、その音波形中で選択された部分の波形のみが中段の表示部に表示される。中段の表示部の波形の周波数成分がスペクトログラムとして下段の表示部に表示される。音表示部102は音出力部103に対して、表示しているセリフ音声データ118、音データ120の一部分を渡すことにより、音声再生を行なう。音表示部102の表示、音出力部103の再生情報からユーザはセリフ音声データ、音データに対してセグメント情報を入力する。セグメント情報118は音表示部102の中段の音波形表示部と下段のスペクトログラム表示部で入力場所を指定することで入力を行ない、保存される。
【0050】
次にモーションデータ表示部につき図13を用いて説明する。
同期制御表示部101でモーションデータ116は、対応しているスケルトンデータ114と共に表示できる単位のフレーム毎にモーションの形が表示される。
【0051】
同期制御表示部101において、ユーザによるモーションデータ表示の指示でモーション表示部105が起動され、同期制御表示部101に読み込まれているモーションデータ116とスケルトンデータ114がモーション表示部116に引き渡される。図13にモーションデータ表示部105を示す。
【0052】
図13中の表示操作部によりモーション表示用ウインドウ上にモーションデータの再生が行なわれる。
モーションデータへのセグメント情報設定は、このモーション表示部105からモーションセグメント入力部を呼び出すことにより行なわれる。モーション表示部105からモーションセグメント入力部106へは図13中のセグメント入力ボタンが押された時点で表示されているモーションデータのファイル名と時間情報が渡される。モーションセグメント入力部106は受けとった情報からモーションに対するセグメント情報112を設定し、保存する。
【0053】
図13におけるアニメーション構成データブラウザのブラウジングされて表示されているアニメーション構成データの下側にはそのアニメーション構成データに 入力されているセグメント情報が対応位置にマークとして表示される。
【0054】
次にアニメーション構成データへ設定されたセグメント同士を同期制御データで同期する部分の説明を行なう。
同期制御表示部101は異なるアニメーション構成データに設定されているセグメント情報112同士を同期制御データ113を使用して対応付けることによりアニメーション構成データ同士を同期付ける。
【0055】
ユーザは対応付けるセグメント情報112同士を選択するために同期制御表示部110上かもしくは各アニメーション構成データの表示部により、対応づけを行なうセグメントの選択を行なう。選択された2つのセグメント情報は同期制御表示部110からセグメント情報対応付け部123に引き渡される。
ここで選択された2つのセグメント情報の対応づけを行ない、同期制御データ113を生成し、同期制御表示部101を通じて保存する。
【0056】
図14に同期制御データ113の構成を図示する。
同期制御データ113は同期付けた2つのアニメーション構成データのセグメント情報のファイル名称と、セグメントラベル名、同期制御データ上での種類(マスタ側かスレイブ側)からなる。
【0057】
同期制御データ113の構成は、2つの同期付けたアニメーション構成データのうち、一方のアニメーション構成データをアニメーション構成データ1、他方のアニメーション構成データをアニメーション構成データ2とすると、同期制御データはアニメーション構成データ1のセグメントファイル名Sf1、セグメントラベル名Sl1、種類Sk1、アニメーション構成データ2のセグメントファイル名Sf2、セグメントラベル名Sl2、種類Sk2、時間変更の方法Sm で構成される。
【0058】
同期制御データ113中の同期制御データ上での種類にはマスタとスレイブがある。ここでは同期づけを行なう2つのセグメント情報に対して、2つの組合せがある。
【0059】
同期付ける2つのセグメント情報112において、マスタとスレイブの組で同期制御データを設定した場合には、マスタに設定したアニメーション構成データのセグメントの時間にスレイブのアニメーション構成データのセグメント情報が設定されている部分を同期させ、同期制御表示部101に返され、アニメーション構成データ保存手段9に保存される。
【0060】
図15にセグメント情報の同期付けの図を示す。図上のアニメーション構成データ1のセグメント情報1とアニメーション構成データ2のセグメント情報2を同期付けた場合、下図に示すようにアニメーション構成データ2のセグメント情報2の前のセグメントと後ろのセグメントが再計算される。
【0061】
同期付ける2つのセグメント情報がマスタとマスタの組の場合、同期制御データを割り付けた瞬間には、アニメーション構成データ1に設定したセグメント情報が設定されている時間へ、アニメーション構成データ2のセグメント情報の前後のセグメント(実際にはここで同期付けされた2つのアニメーション構成データ同士でその前後に同期付けされているまでの間に存在する全セグメント、他に同じアニメーション構成データが同期付けられていない場合にはファイルの先頭とファイルの終了部分まで)に存在する部分をデータ再計算部110で再計算し、同期付けられたセグメントの位置を時間軸上であわせる。
【0062】
データ再計算部110で行なう再計算方法は同期制御データ113で指定する時間方向変更方法で指定する。ここには「延長」と「引き延ばし」の二つの方法のどちらかが入力される。
【0063】
図16に同期制御データ113によるアニメーション構成データの時間変更について示す。
「延長」を選択した場合、マスタが長くなるとスレーブの最終値をそのまま連続してデータとし、短くなった場合には短くなった分のデータの切りとりを行なう。図16において元データを「延長」の方法で再計算すると、中央の延長の項目に書かれたデータとなる。
「引き延ばし」を選択した場合には、同期付けられている部分のデータを再計算し、自動的に全データをその時間に実行できるデータに変更する(モーションデータは変化値であるので、この変化値から計算された位置情報について再計算を行なう)。図16において元データを「引き延ばし」の方法で延長させると下側に示す引き延ばしの項目に書かれたデータとなる。
【0064】
もともとX時間であった各フレーム毎のデータが入っているモーションデータについて考える。このデータが同期付けされている他のデータの変更によりY時間に変更された場合、モーションをY/X倍だけ引き延ばさなければならない。この場合には、元のモーションのX/Y時間毎の値を補間計算してやることによりモーションの引き延ばしを行なう。
【0065】
アニメーション構成データへ設定されたセグメント情報の変更により、そのデータへ同期されているアニメーション構成データの時間方向再計算を行なう部分の説明を行なう。
【0066】
図17に同期制御手段7のフロー図を示す。
例えばセリフ音声データ118中のセリフ音声データとモーションデータ116中のモーションデータが同期づけられている。ここで、セリフ音声データが再録音されて、時間が変わる。ユーザは同期制御表示部101から音表示部102を経て、音セグメント入力部104を呼びだし、音声のセグメントを新しいデータのセグメント位置に移動させる。
【0067】
移動させたセグメント情報に同期付けられている他のセグメント情報があり(S102)、かつその時の同期制御データ上で移動させたセグメント情報がマスタである場合には(S103)、その音声に同期制御データにより同期付けられているモーションデータのセグメント情報の前後のセグメントのモーションデータを再計算し(ここで、モーションデータは変化値であるため、位置情報を計算し、この位置情報を使用して再計算を行なう)、モーションデータのセグメント情報が同期付けられている音声のセグメント情報と同一の時間位置に変更する(S104〜S108)。
【0068】
時間変更の方法が延長の場合には、以前に同一データと同期付けられている部分までを延長により再計算する(S105)。さらに以後に同一データと同期付けられている部分までを延長により再計算する(S106)。マスター要素の時間の長さが変更されるとそれにともないスレーブ要素の同期付けられている部分の時間の長さも同期され、変更される。
【0069】
図18において同期制御データによるアニメーション構成データの時間変更に関する図を示す。図18においては、上側のアニメーション構成データ1 をマスタ、下側のアニメーション構成データ2をスレイブとする。マスタのセグメント情報1とスレーブのセグメント情報7が同期制御データ1で同期付けられており、マスタのセグメント情報2がスレイブのセグメント情報8と同期制御データ2で同期付けられており、マスタのセグメント情報4とスレイブのセグメント情報9が同期制御データ3で同期付けられており、マスタのセグメント情報6がスレイブのセグメント情報10と同期制御データ4で同期付けられている。
【0070】
ここでマスタのセグメント情報4を移動する。セグメント情報4は同期制御データ3でセグメント情報9に同期付けられており、セグメント情報9もセグメント情報4に同期して移動する。その時セグメント情報8とセグメント情報9で囲まれたセグメント2−2のアニメーション構成データは時間的に伸長し、セグメント情報9とセグメント情報10に囲まれたセグメント2−3に存在するアニメーション構成データは時間的に縮退する。
【0071】
このように発明の実施の形態1に記載された発明に係るアニメーション制作システムは、アニメーションの構成に使用する少なくとも第1のアニメーション構成データ及び第2のアニメーション構成データを有するアニメーション構成データを用いてアニメーションの制作を行なうものであって、前記第1のアニメーション構成データ及び前記第2のアニメーション構成データの各々に対し、同期設定のための同期制御データを付加するとともに、当該付加された同期制御データを用いて、前記第1のアニメーション構成データと前記第2のアニメーション構成データの同期を制御する同期制御手段を備えているので、人手を介することなく変化したアニメーション構成データに同期したアニメーション構成データの変更を実行することができる。
【0072】
また、同期制御手段において第1のアニメーション構成データ及び第2のアニメーション構成データを部分的に伸長又は縮退することにより同期を制御するので、情報全体に亘って同期をとることができる。
【0073】
実施の形態2.
この実施の形態はモーションデータの強調に関するものである。
図1において、7はモーション強調手段である。アニメーション構成データ保存手段9に保存されているモーションデータをモーション強調手段7に読み出しし、モーションの強調を行ない、アニメーション構成データ保存手段9に保存する。
【0074】
図3は実施の形態2のシステム構成図を示す図である。図3において、202はモーション強調計算部、205は基本モーションデータである。モーション入力部117で作成されたモーションデータは基本モーションデータ205、もしくはモーションデータ116に保存される。モーションデータ116は制作するアニメーションに直接使用するモーションデータ、基本モーションデータ205は直接制作するアニメーションに使用しないが、基本的なモーションが蓄積されている。
【0075】
モーション強調計算部202は基本モーションデータ205を読み込み、強調処理を行ないモーションの変更を行なう。モーションデータ116と基本モーションデータ205は関節の動きの情報で表されており、その関節間の関係をスケルトンデータ114で表す。201は関節距離計算部である。モーション強調計算部202で計算されたモーションの関節間距離を関節距離計算部201でスケルトンデータ114と同一に修正する。修正されたモーションはモーション強調計算部202に戻されて、モーションデータ116に保存される。
【0076】
モーション強調手段7は基本モーションデータ205に蓄積されているモーションデータの強調を行なう。モーションデータ中のf フレーム目のある関節に着目すると、モーションデータは上記に記述したように位置変化情報(dxf,dyf,dzf)、回転変化情報drfを持っている。回転変化情報は子関節から親関節に向かって時計回りの方向の回転で表す。これらの位置変化情報、回転変化情報は前フレームからの差分情報である。
図8に位置変化情報と回転変化情報を示す。図8に示すように、位置変化情報は移動した関節m の移動ベクトルとなる。回転変化情報は親関節に向かっての回転のフレーム間の変化である。
【0077】
モーション強調手段7では基本モーションデータ205から読み込んだモーションデータを強調し、蓄積されている基本モーションデータを変更し、モーションデータ116に保存する。モーション強調の単位はスケルトンデータ116で結合されている一つのアニメーション登場キャラクタである。
【0078】
図19にモーション強調のフロー図を示す。
モーション強調計算部202で、処理を行なうモーションに対して強調係数を設定する。強調係数は位置変化情報、回転変化情報それぞれに対して別々に設定することができる。位置変化情報に対する強調係数をkt 、回転変化情報に対する強調係数をkr とする(S201)。
モーション強調計算部202において、モーションを構成する関節情報の中で、基本関節をユーザが設定する。この基本関節はモーション強調計算時の基本位置関節となる。
【0079】
まず強調を行なうモーションのスケルトンデータ114から、全関節間の長さを計算する。(S202)
【0080】
初フレーム(1フレーム目)は基本位置となるため、各関節のデータは強調せずに基本モーションデータ205のままとする(S203)。ここで1フレーム目のa関節に着目して位置情報変数motion_x,motion_y,motion_z を
motion_x1,a = a の初期位置x座標 + dx1,a
motion_y1,a = a の初期位置y座標 + dy1,a
motion_z1,a = a の初期位置z座標 + dz1,a
(式2ー1)とする。1フレーム目の強調された回転情報はdr1,a とする(S204)。
【0081】
2フレーム目以降(fフレーム目)は始めにそのフレーム中の全関節の強調された位置情報を求める。各変数は次のように計算される。
motion_xf,a = motion_xf-1,a + kt × dxf,a
motion_yf,a = motion_yf-1,a + kt × dyf,a
motion_zf,a = motion_zf-1,a + kt × dzf,a
drf,a = drf,a × kr
ここで(motion_x f-1,a ,motion_y f-1,a ,motion_z f-1,a)はフレームfより1フレーム前の強調処理を終了し、関節間の長さ変更も行われた関節位置である。
【0082】
全ての関節について計算をし終えたら(S207〜S208)、スケルトンデータ114でつながっている関節同士の位置座標(motion_x, motion_y, motion_z) を通る全直線(直線2−1)の式を求める(S209)。
次に関節距離計算部201を使用して、各関節間のスケルトン情報114の長さに合わせて関節間の距離の変換を行なう。
【0083】
関節距離計算部201の役割を図20のモーション強調説明図に示す。位置変化情報を強調係数で強調すると、図20の下図のように関節間の長さが元のスケルトン情報の長さから変化してしまう。そこで接続している関節との3次元的な傾きを保ったままその関節間の長さをスケルトンの関節間の長さへ変換する。
【0084】
図19のフロー図において、強調された関節位置データとそのモーションに対応するスケルトンデータ、基本関節データはモーション強調計算部202から関節距離計算部201へ引き渡される。基本関節は各フレーム毎の強調したモーションを作成する場合の基本点の役割をする関節である。距離の変換はまずこの基本関節から始め、基本関節を現関節にする。基本関節は(motion_xf,kihon,motion_yf,kihon,motion_zf,kihon)がそのまま強調されたモーションの位置情報となる(S211〜S216)。
【0085】
ここで、(motion_x1, motion_y1, motion_z1)に(motion_xf,kihon, motion_yf,kihon, motion_zf,kihon)を代入しておく。
基本関節から後述する方法を使用して次に計算する関節を探索する。
【0086】
次に計算する関節の探索終了後、基本関節を第一関節、次に計算を行なう関節を第二関節とする(S217)。上記で求めた直線2−1のうち第一関節と第二関節を通る直線を選択する。この直線に平行で第一関節の位置情報(motion_x1,motion_y1,motion_z1)を通る直線(直線2−2)を求める(S218)。直線2−2上で、第一関節と第二関節のスケルトンの距離だけ離れた点を第2関節の位置情報(motion_x2,motion_y2,motion_z2)とする(S219)。
【0087】
距離の条件を満足する点は2点あるが、第一関節の元位置(S207で求めた第1関節の位置)から現在の位置への移動と同一分の移動を第二関節に行ない、その点に近い方を第二関節の位置情報とし、(motion_x2,motion_y2,motion_z2)にその位置情報を代入する。位置変化情報は前フレームとの減算で求める(S211〜S217)。この処理を全フレーム、全関節に対して行ない、位置変化情報をモーション強調計算部202へ戻す。ここでモーション強調検索部203は位置変化情報と回転変化情報をモーションデータ116へ保存する。
【0088】
計算終了後はスケルトンデータ114を使用して、基本関節の未計算の子供関節を検索する。未計算の子供関節がない場合には未計算の兄弟関節を、未計算の兄弟関節がない場合には未計算の親関節を検索する。未計算の親関節もなくなった場合には自分を呼び出した関節に戻り、同様に次の関節を検索する。最終的に一番上位の親の関節で親検索に行きついた時点で終了し、そのフレームのモーション強調を終了して、次フレームに進む。ここで関節距離計算部201は関節間の距離変換を行なったモーションデータをモーション強調計算部202に返し、モーション強調計算部202は次フレームのモーションの強調を行なう。
【0089】
探索している関節が見つかった場合にはその時に元にした関節を第一関節にして、今回探索された関節を第二関節として位置の計算を行なう。
【0090】
例えばこのモーション強調手段7により、実際の人間の動きをデータ化し、モーションデータを作成するモーションキャプチャシステムをモーション入力部117として使用した場合に得られる基本モーションデータ205を強調する事により、アニメーションらしいモーションを作成する。
【0091】
この実施の形態に記載された発明に係るアニメーション制作システムは、アニメーションのモデルの形状を作成する形状作成手段と、前記形状作成手段において作成された前記モデルのモーションデータを入力しモーションを作成するモーション作成手段と、前記モーション作成手段に入力されたモーションデータに対して強調計算を行ない、強調されたモーションデータを出力するモーション強調手段とを備えているので、強調されたモーションを得ることができる。
【0092】
また、モーション強調手段をモーションデータに対し強調係数を乗算するとともに、当該乗算されたモーションデータに対し、当該モデルの関節間の長さが一定になるよう補正することとしたので、モーションを強調させた場合であっても関節の長さが一定であり、モーションが不自然とならない。
【0093】
実施の形態3.
図1において、10はモーション検索手段である。モーション検索手段10はアニメーション構成データ保存手段9からモーションデータを検索するための手段を提供する。
図3は実施の形態3のシステム構成図である。203はモーション検索部であり、204はモーションキーワードデータである。モーション検索部203は基本モーションデータ205からモーションキーワードデータ204を使用してモーションの検索を行なう。その検索したモーションの中からモーション入力部により入力されたモーションデータと照合を行ない、モーションデータの絞り込みを行なう。ここで検索するために入力したモーションデータは、例えば人の動きなどを特定するものであり、あらかじめ人の動きとして違和感のないデータである。
【0094】
基本モーションデータ205は一般的なデータベースの構造をしており、モーション検索部203によって検索される。基本モーションデータ205にはキーワードを設定することができ、その情報はモーションキーワードデータ205に入力されている。
【0095】
図21にモーションキーワードデータ205の構成を示す。
モーションキーワードデータ204は管理番号、モーションデータ名、キーワード、所在ディレクトリで管理されている。
基本モーションデータ205はモーション入力時に入力したキーワードによって検索することができる。さらに基本モーションデータ205はキーワードで検索したデータ集合からモーション入力部117で入力されるモーションデータと照合を行うことにより、検索候補の絞り込みを行うことができる。ここでこのモーション入力部117は、例えば人間の形をした人形であり、各関節にセンサーが設けられ、この人形を動かすことにより各関節の情報がモーションとして入力される。例えばあやつり人形のような形状を有する。
【0096】
図22にモーション検索のフロー図を示す。
例えば複数の歩行するモーションの中から、指定した速さで歩行する様なモーションを検索する場合について考える。ユーザはキーワード「歩行」を入力し(S301)モーションデータを検索する(S302)。検索してきたデータの中からユーザの検索したい歩行速度のモーションを指定するために、人間の形をし、各関節を曲げることでモーションを入力するモーション入力部117により、希望の歩行速度を入力し(S303)、その関節のモーションデータを入力しモーション検索部203へ引き渡す。モーション検索部にユーザは照合に使用する関節番号を入力する。ここでは歩く速度であるため、どちらか一方の足首の関節を指定する(S305)。モーション検索部203では入力されてきたモーションから足の動きの速度を計算する。
【0097】
モーション検索部203は入力されたモーションの照合に使用する関節の位置変化情報を計算する。歩行の場合には、位置変化情報をベクトルと考えると、その大きさは、足を上げている時には値を持ち、地面に着いている時には0となる。これが交互に繰り返される。これをグラフにすると図23に示す様に歩数に合わせて波が現れる。この波の数をカウントし、その歩数を算出する(S306)。
【0098】
この計算結果を用いて、キーワード検索を行なったモーションと照合し、ある範囲でマッチングしたものは検索結果として、ユーザに提示される(S308〜S310)。
【0099】
このように、モーションを直接シミュレートすることにより、モーションを入力し、予め蓄積されていたデータと照合し、入力されたモーションデータと近いデータを選択し、出力するものである。従って、検索キーワードで表現しづらいモーションの特徴や検索したいイメージのみが存在する場合でもモーションの検索を行なうことができる。
【0100】
以上のようにこの実施の形態に記載された発明に係るアニメーション制作システムは、アニメーションのモデルのモーションを入力し、モーションデータを出力するモーション入力部117と、予め複数のモーションデータが記憶された基本モーションデータ205と、前記モーション入力部117より出力されたモーションデータと前記基本モーションデータ205に記憶されたモーションデータとを比較し、その比較結果に基づいて前記基本モーションデータ205に記憶されたモーションデータより選択し、出力するモーションデータ検索部203とを備えているので、入力されたモーションに近いモーションで、既に登録されているモーションデータを検索することができる。
【0101】
実施の形態4.
実施の形態4に係るアニメーション制作システムについて図4を用いて説明する。
音入力部119から出力されたセリフ音声データ118を音声セグメント処理部302に入力する。音声セグメント処理部302では、音出力部103を使用して確認しながら、セリフ音声データ118を1語毎にセグメンテーションする、セグメントの結果をセグメント情報112に出力し、また各セグメント毎に対応する文字をセリフ文字データ313に出力する。
【0102】
また、音声自動セグメント部301では辞書パターンデータ312を入力する。この音声自動セグメント部301を用いることで、音声セグメント処理部302に入力されたセリフ音声データ118の母音とその発声タイミングを自動認識し、母音をセリフ文字として、また、その発声タイミングをセグメント情報として、音声セグメント処理部302に返す。音声セグメント処理部302はセグメント情報112とセリフ音声データ118とセリフ文字データ313を用いて、口形状キーフレームタイミングデータ303を出力する。
【0103】
口形状モーション作成部304は、口形状タイミングデータ303を入力し、モーションデータ116を出力する。レンダリング部305は、モーションデータ116とモデル入力部309によって出力されたモデルデータ308を入力し、レンダリングを行ない、その結果を画像データ306に出力する。画像出力部307では、画像データ306を入力する。また、音出力部103ではセリフ音声データ118を入力する。画像出力部307では画像を再生する。またその画像と同期させて音出力部103から音声を出力する。
【0104】
アニメーション制作システムを用いてリップシンクアニメーションを実現する。リップシンクアニメーションとは、口形状のモデルデータ308をセリフ音声データ118に同期させるアニメーションのことである。本アニメーション制作システムでは、口形状のモデルデータ308の口形状モデルの形状として(「あ」/「い」/「う」/「え」/「お」/「ん」)、口形状モデルの大きさとして(「大」/「中」/「小」、ただし「ん」については「中」のみ)の組み合わせの合計16種類を用いている。
【0105】
これは、日本語の発声における口形状が基本的に(「あ」/「い」/「う」/「え」/「お」/「ん」)という母音のバリエーションにより表現できると考えられるからである。また、後述するキーフレームアニメーションの手法を用いてアニメーションを作成するために、口形状の大きさを、必要十分であると考えられる3 段階分だけ用意した。この16種類の口形状のモデルデータ308を、セリフ音声データ118に対して適切なタイミングで対応させることによりリップシンクアニメーションの制作を実現する。
【0106】
まず、セリフ音声入力部119で、アナログ音声を標本化及び量子化の処理によってデジタル音声としたセリフ音声データ118を出力する。音声セグメント処理部302では、このセリフ音声データ118を入力し、周波数成分に変換するためにFFT (高速フーリエ変換)し、スペクトログラムを表示する。スペクトログラム中には、母音の特徴を示すホルマントを見い出すことができる。
【0107】
次に、このホルマントを参考にして、セリフ音声データ118を発声した一語一語についてセグメンテーションする。ここでの目的は、セリフ音声データ118を母音や空白などの特徴に着目してセグメンテーションして、セグメント情報112をつくり出すことである。セグメント情報112は開始線分及び終了線分によって示される。またそのセグメント情報に対して、セリフ音声データ118の内容をテキストにし、さらに無音の部分が空白記号で表記されるセリフ文字データ313が一対一で設定される。セリフ文字データ313は、日本語文字についてのヘボン式ローマ字表記によって表され、空白記号については [pau] という文字によって表記される。
【0108】
図24に、セリフ文字データ313と、その設定例を示す。図25に、音声セグメント処理部302のユーザーインターフェースを示す。図中A がスペクトログラム、B がセグメント情報112、C がセリフ文字データ313を表す。音声セグメント処理部302でのセグメンテーションの方法には、マウスもしくはキーボードを用いて、セリフ音声データ118上にセグメント情報112を手動設定する方法と、音声自動セグメント部301を音声セグメント処理部302から呼び出すことで、セグメント情報112を自動設定する方法がある。
【0109】
マウスもしくはキーボードによるセグメント情報112の手動設定では、母音の特徴を示すホルマントを参考にして、マウスにより開始線分及び終了線分を作成する。実際には、あるセグメントの終了線分が、次のセグメントの開始線分になっている。線分を移動したり削除したりすることで、セグメント情報112の変更修正を行なう。また、音声セグメント処理部302から、音出力部103を呼び出して、音声を全体再生、部分再生などにより確認する。次に、それぞれのセグメントに対応する適切なセリフ文字データ313を手動により設定する。セリフ文字データ313に対しては任意に変更修正を行なう。
【0110】
セグメント情報112の自動設定では、音声セグメント処理部302から音声自動セグメント部301を呼び出すことによって、セリフ音声データ118中の母音及び空白とその位置を自動認識する。セリフ音声データ118の自動認識は、あらかじめ作成済みの比較用のセリフ音声データの母音、「ん」の音声、空白の部分(「あ」/「い」/「う」/「え」/「お」/「ん」、空白)をFFT した結果を数値化した辞書パターンデータ312を入力し、セリフ音声データ118を音声セグメント処理部302内部でFFT したテストパターンとをパターンマッチングによって比較することで行なわれる。
【0111】
図26に、パターンマッチングのフローチャートを示す。最初に、辞書パターンデータ312とテストパターンを設定する(S401)(S402)。パターンマッチングの方法は、まずポインタをテストパターンの始点位置に設定する(S403)。次に辞書パターンとの比較を行なう。このときポインタからのマッチング幅を一定の範囲内で変化させて、最もマッチング率が高くなるマッチングの幅と母音との組み合わせを一つ求める(S404)。
【0112】
一部分についてパターンマッチングを行なったら、次のポインタを、マッチングした幅の分だけ進めて、次のマッチングを行なうことを繰り返す(S406)。ポインタの位置が、テストパターンの最大値を越えてしまった時点で終了となる(S405)。パターンマッチングの結果、マッチングされた辞書パターンデータ312の文字列が生じるが、最後にこれをフィルターによって重みづけし、ノイズとみなされる成分を除去し、定常的な成分を際だたせる事で、最終的なパターンマッチングの結果を出力する(S407)。
【0113】
セグメントは認識を行なった母音が変化する部分に設定される。この結果を用いることで、元のセリフ音声データ118に対して、セグメント情報112、セリフ文字データ313を自動的に設定することができる。セグメント情報112の自動設定終了後、上記の手動設定手段で修正することで、さらに正確なセグメンテーションを行なう。
【0114】
音声セグメント処理部302は、セグメント情報112、セリフ文字データ313及びセリフ音声データ118の内容から、口形状のモデルデータ308中の口形状モデルに対応する記号と、時間軸上へ口形状をあてはめるタイミング(以下、キーフレームタイミングとする)を設定して口形状キーフレームタイミングデータ303を作成する。
【0115】
図27に、口形状キーフレームタイミングデータ303の作成方法のフロチャートを示す。
図28に、口形状キーフレームタイミングデータ303の作成方法のイメージを示す。
まず、セグメント情報112で示されるそれぞれのセグメントごとにセリフ文字データ313を参照し(ただし空白記号[pau] は除く)、セリフ文字データ313の母音が(「あ」/「い」/「う」/「え」/「お」/「ん」)のいずれに対応するかを判断し分類する(S501)(たとえば、[ka (か)] なら、母音は「あ」となる)。
【0116】
この時、セリフ音声データ118について、セグメント情報112の始点線分、終点線分及びセグメント中でセリフ音声データ118の量子化値が最大になる点をそれぞれ、口形状のモデルデータ308中の口形状モデルのキーフレームタイミングとする(S502)。そして、それぞれのキーフレームタイミングの位置での量子化値を参照する(S503)。
【0117】
ここで、量子化値Ftの最大値が1.0 になるようにセリフ音声データ118の全体を正規化し、このときのキーフレームタイミングの位置での量子化値の値に応じて口形状モデルの大きさを決定する(S504)。たとえば、0.66〜1.00までは(「大」)の口形状モデルの大きさ(S507)を、0.33〜0.66までは(「中」)の口形状モデルの大きさ(S506)を、0.00〜0.33までは(「小」)の口形状モデルの大きさ(S505)を設定する。口形状のモデルデータ308中のどの口形状モデルをキーフレームにするかは、上記の口形状モデルの母音と口形状の大きさの組み合わせによって決定される(S508)。
【0118】
口形状モデルの母音が「あ」で、口形状モデルの大きさが「大」ならば、口形状モデルは(「あ・大」)になる。このような口形状は前記した16通りの形状のうちのいずれかになる。また、セグメント情報112と対応するセリフ文字データ313が、「[ma](ま)」「[mi](み)」「[mu](む)」「[me](め)」「[mo](も)」などの様に、一旦口を閉じてから発音をはじめる文字の場合については(S509)、セグメントの始点線分位置に、「ん」のキーフレームを付け加えることにする(S510)。これらは、口形状キーフレームタイミングデータ303として出力される。口形状キーフレームタイミングデータ303の構成図を図29に示す。口形状キーフレームタイミングデータ303は、口形状のキーフレームをあてはめるタイミングを示すフレーム番号とそのときの口形状モデル対応記号との対によって示される。
【0119】
口形状モーション作成部304では、口形状キーフレームタイミングデータ303を読み込み、前述した16通りの口形状モデル、及びそれらのキーフレームタイミングからキーフレームアニメーションを作成する。キーフレームアニメーションとは、アニメーション作成の手法として、アニメーションの中心となるフレーム(以下 キーフレーム)だけを用意し、それらの間をインビートウイーンにより補間することによって完全なアニメーションを作成する手法である。
【0120】
口形状モーション作成部304では、キーフレームタイミングデータ303中の口形状モデルの対応記号に従った、口形状のモデルデータ308中の口形状モデルをキーフレームタイミングのフレーム番号の通りに並べ、それらの口形状モデルの間を補間することで、口形状のモーションデータ116を出力する。
【0121】
レンダリング部305では、口形状のモーションデータ116及び口形状のモデルデータ308を入力し、レンダリングを行ないアニメーション画像を作成することができる。レンダリング部305で作成されたアニメーション画像は、画像データ306として出力される。
【0122】
画像出力部307では、画像データ306を入力する。また、音出力部103では、セリフ音声データ118を入力する。画像出力部307では、画像データの再生時に、音出力部103でのセリフ音声データ118の出力を同時に行なうことで、セリフ音声データ118と口形状のアニメーションが同期したリップシンクアニメーションを作成する。
この発明の実施の形態に記載された発明に係るアニメーション制作システムは、音声を入力する音入力手段3と、母音の情報に対応した口形状モデルをモデルデータ308に保存するアニメーションデータ保存手段9と、前記音入力手段3に入力された音声の母音の情報に基づいて前記モデルデータ308より口形状モデルを選択し、音声に同期した口形状のモーションデータ116を作成する音声同期口形状作成手段と、前記口形状のモーションデータ116に従い口形状を選択し画像出力するレンダリング手段5を備えているので、母音情報に基づいて口形状を特定するため簡易な構成で口形状のアニメーションを作成することができる。
【0123】
また、音声を入力する音入力手段3と、母音の情報及び音声レベルに対応した口形状モデルをモデルデータ308に保存するアニメーション保存手段9と、前記音入力手段に入力された音声の母音の情報及び音声レベルに基づいて前記モデルデータ308より口形状モデルを選択し、音声に同期した口形状のモーションデータ116を作成する音声同期口形状作成手段8と、前記口形状のモーションデータに従い口形状を選択し画像出力するレンダリング手段5を備えているので、母音の情報のみならず、音声レベルに基づいた口形状を出力することができるので、簡易な構成で、より正確に口形状のアニメーションを制作することができる。
【0124】
さらに、音声を入力する音入力手段3と、前記音入力手段3に入力された音声の母音の情報に基づいてセグメント処理を行いセグメント情報112を生成する音声セグメント処理部302と、前記音声に対応した口形状のモーションデータ116を生成する口形状モーション作成部304と、前記口形状のモーションデータ116を用いて画像データ306を出力するレンダリング部305と、前記画像データ306と音声とを同期して出力する画像出力部307を備えているため、簡単な構成で口形状と音声が同期した口形状のアニメーションを制作することができる。
【0125】
さらにまた、同期手段が前記セグメント情報よりセグメント中の始点線分、終点線分、最大量子化値部分を抽出し、各段階において前記口形状モデルのキーフレームを割り当てるものなので、簡易な構成により口形状のモーションをより自然にすることができる。
【0126】
なお、この発明の画像出力手段は、上記実施の形態では音声同期口形状作成手段8及びレンダリング手段5により構成されている。
【0127】
実施の形態5.
アニメーション制作システムにおいて、音声セグメント処理部302からセグメント均等割り付け部310を呼び出し、また、セリフ文字データ313を、あらかじめ作成するためのセリフ文字入力部311を付け加えることで、実施の形態4で前述した、セリフ音声データ118からのリップシンクの他に、セリフ文字データ313からのリップシンク、セリフ音声データ118及びセリフ文字データ313双方からのリップシンクを行なう。
【0128】
図30には、音声セグメント処理部302に入力されているデータの種類によって、口形状キーフレームデータ303を出力するまでの過程がどのように変わるかを示す。
音声セグメント処理部302では、入力されているデータが、セリフ音声データ118だけの場合、セリフ文字データ313だけの場合、セリフ音声データ118及びセリフ文字データ313の両方の場合のいずれかであるかによって処理が異なる(S901)。
【0129】
セリフ音声データ118だけが、音声セグメント処理部302に与えられている場合は、音声自動セグメント部301を呼びだして、セリフ音声データ118を自動分析し(S902)、セグメント情報112を作成し(S903)、セリフ文字データを作成(S904)した上で、口形状キーフレームタイミングデータを出力する(S911)。
以下、セリフ文字データ313によってリップシンクを行なう場合、及びセリフ音声データ118とセリフ文字データ313の両方からリップシンクを行なう場合について説明する。
【0130】
セリフ文字データ313を元にして、リップシンクを行なう、セリフ文字データ313を、セリフ文字入力部311によって、あらかじめ作成する。セリフ文字データ313は、セリフ音声データの内容を文字として表したものである。音声セグメント処理部302では、セリフ文字データ313を入力する。音声セグメント処理部302では、セリフ文字データ313について、自動的にセグメント均等割り付け部310を呼び出し、文字のセグメンテーションを行なう(S908)。
セグメント均等割り付け部310では、セリフ文字データ313の文字列(空白記号[pau] も含む)に対して、その総文字数分のセグメント区間を作成し、セグメント情報112として出力する。これによりセリフ文字データ313中のすべての文字について、均等な任意の幅のセグメント情報112を作成する(S909)。音声セグメント処理部302では、セリフ文字データ313及びセグメント情報112を用いて、口形状キーフレームタイミングデータ303を作成する。
【0131】
口形状キーフレームタイミングデータ303の作成方法については、前述の通りである。ただし、この場合では、セリフ音声データ118を用いないため、セグメント中で最大の量子化値を持つキーフレームタイミングの値、及びセグメントの開始線分、終了線分、及び最大の量子化値のキーフレームタイミングにおけるそれぞれの量子化値の値を自動的に作成する必要がある。そのために、セグメント中で最大の量子化値を持つキーフレームタイミングの値については、開始線分と終了線分の中央値を用いることにする。また、それぞれのキーフレームタイミングでの量子化値はデフォルトの値(0.5) を用いることにする(S910)。セリフ音声データ118及びセリフ文字データ313の双方を用いてリップシンクを行なう。セリフ文字入力部311で作成されたセリフ文字データ313と、音入力部119で入力されたセリフ音声データ118を、音声セグメント処理部302で入力する。ここで、セリフ文字データ313はセリフ音声データの内容を文字で表したものであるとする。セグメント処理部302では、セグメント均等割り付け部310を呼びだし、文字のセグメンテーションを行なう(S905)。セグメント均等割り付け部310では、前述の方法で、セリフ文字データ313中のすべての文字について、均等な任意の幅のセグメント情報112を作成する(S906)。
【0132】
次に、音声セグメント処理部302では、音声自動セグメント部301に、セリフ音声データ118と、セグメント情報112から獲得されるセリフ文字データ313の文字数を送る。音声自動セグメント部301では、前述のパターンマッチングの手法により、セリフ音声データ118の自動セグメンテーションを行なうにあたり、そのセグメント数をセリフ文字データ313の文字数に調整する。また、セグメント情報112における、セグメント線分の位置を修正する(S907)。
【0133】
さらに、前述のパターンマッチングの結果、獲得されるセリフ文字データ313については棄却する。音声セグメント処理部302では、新しく修正されたセグメント情報112を出力する。音声セグメント処理部302は、セリフ音声データ118、セリフ文字データ313及びセグメント情報112を用いて、口形状キーフレームタイミングデータ303を作成する(S911)。口形状キーフレームタイミングデータ303の設定方法については、前述の通りである。
【0134】
この実施の形態に記載された発明に係るアニメーション制作システムは、セリフ文字データ313を入力する文字入力手段4を有し、セグメント均等割り付け部310が前記文字入力手段に入力されたセリフ文字データ313の個々の文字に対してセグメント情報112を割り当てるので、文字毎に口形状を対応させることができる。
【0135】
実施の形態6.
実施の形態6は、モーション強調手段7に強調方向面を指定するための機能を加えたものである。図5は実施の形態6のシステム構成図である。モーション入力部117で作成されたモーションデータを基本モーションデータ205、もしくはモーションデータ116に保存する。モーションデータ116は制作するアニメーションに直接使用するモーションデータ、基本モーションデータ205は直接制作するアニメーションに使用しないが、基本的なモーションが蓄積されている。504は分解モーション強調計算部である。
分解モーション強調計算部504は基本モーションデータ205を読みだす。501は強調方向面入力部である。ユーザは強調方向面入力部501から強調を行ないたい面を構成する座標点を指定し、この座標により構成される面を求める。502は面位置変化情報分解部である。面位置変化情報分解部502は強調方向面入力部501で計算された面を使用して、位置変化情報を分解する。
【0136】
面位置変化情報分解部502で分解した位置変化情報を分解モーション強調計算部504へ引き渡し、面情報に対してユーザの指定した方向(例えば水平か垂直か)に分解した位置変化情報に強調処理を行なう。
モーションデータ116と基本モーションデータ205は関節の動きの情報で表されており、その関節間の関係をスケルトンデータ114で表す。分解モーション強調計算部504で計算されたモーションの関節位置を関節距離計算部201でスケルトンデータ114の関節間の長さと同一に修正する。修正されたモーションは分解モーション強調計算部504に戻されて、モーションデータ116に保存される。
図31に強調方向面入力部501を用いたモーション強調のフロー図を示す。このフロー図は「Aに挿入」の部分を図19のモーション強調フロー中Aと示された部分に挿入し、「Bを変更」の部分を図19のモーション強調フロー中Bと示された部分をおき換える。
【0137】
はじめに「Aに挿入」の部分の説明を行なう。
ユーザは強調方向面入力部501で、モーションデータを構成する複数の関節から3点の関節、もしくは座標点を選択し、これを強調方向面入力部501から入力し、強調する方向をその面に水平か、垂直かを指定する。(S601〜S602)入力された3点に関節が含まれていない場合(S603)、強調方向面入力部501は入力された座標により構成される面(面10−1)の式を計算し(S604)、面10−1に平行で原点を通る面の式(面10−2)を計算する(S605)。
分解モーション強調計算部504はモーションデータを基本モーションデータ205から、スケルトンデータをスケルトンデータ114から読み込む。1フレーム目のモーションデータは実施の形態2に示したように基本フレームとするため、読み込んだ位置変化情報はそのまま変更しない。ここで位置情報(motion_x,motion_y,motion_z) を式(2−1)で求めておく。
【0138】
次に「Bに変更」の部分の説明を行なう。
2フレーム目以降はスケルトンデータと処理フレームの位置変化情報を分解モーション強調計算部504から面位置変化情報分解部502へ引き渡す。強調方向面入力部501で指定された座標が関節を含んでいた場合には(S606)、各関節の前フレームの位置情報を計算し、面位置変化情報分解部からこの位置情報とスケルトン情報を強調方向面入力部501に渡す。
【0139】
強調方向面入力部501は指定された関節を通るの面(面10−1)(S607)の式の計算を行ない、面10−1に平行で原点を通る面の式(面10−2)(S608)を計算し、面位置変化情報分解部へ戻す。
面位置変化情報分解部502では、強調方向面入力部で求めた面10−2の式を用いて、各関節のモーションデータのうち、位置変化情報(dxf,dyf,dzf)を位置変化ベクトルと考え(S610)、面10−2上に位置変化情報を垂直に射影する。これにより、位置変化情報は上記面上に垂直に射影されたベクトルと、その面に垂直なベクトルとの和で表される(S611)。図32に位置変化ベクトル強調面による分解の様子を示す。図32に示すように位置変化ベクトルが強調方向面上のベクトルと、強調方向面に垂直なベクトルに分解される。
【0140】
この分解された位置変化ベクトルと面に対して水平に強調するか、垂直に強調するかを面位置変化情報分解部502は分解モーション強調計算部504に返す。分解モーション強調計算部504では強調方向に垂直方向を指定したときは面10−2に垂直な成分に対して強調係数ktをかける。逆に平行成分を指定した場合には面に射影された成分のみに強調係数ktをかける(S612)。この後に面に射影されたベクトルと、面に垂直なベクトルを加えることによって、指定した強調方向のみのモーションの強調を行うことができる(S613)。前フレームの位置情報に強調した位置情報位置情報ベクトルを加え、今回フレームの位置情報を作成する。
次に分解モーション強調計算部504から関節距離計算部へ上記計算を行なった強調されたモーションデータとスケルトンを引き渡す。実施の形態2で述べた方法で、関節の強調位置の調整処理を行う。
実施の形態2と同じ方法で、この処理を全フレームに対して行ない、指定した面に対する強調を行なう。
【0141】
この実施の形態に記載された発明に係るアニメーション制作システムは、モーション強調手段にさらに強調方向を入力する強調方向面入力部501と、前記強調方向入力手段に入力された強調方向に対し、モーションの強調を行なう分解モーション強調計算部504を備えているので、指定した方向にのみモーションの強調を行なうことができる。
【0142】
実施の形態7.
実施の形態7は、図1におけるモーション強調手段7へ指定した線方向に対するモーションの強調機能を付加したものである。
図5は実施の形態7のシステム構成図である。モーション入力部117で作成されたモーションデータを基本モーションデータ205、もしくはモーションデータ116に保存する。モーションデータ116は制作するアニメーションに直接使用するモーションデータ、基本モーションデータ205は直接制作するアニメーションに使用しないが、基本的なモーションが蓄積されている。
【0143】
504は分解モーション強調計算部である。分解モーション強調計算部504は基本モーションデータ205を読みだす。503は強調方向線入力部である。ユーザは強調方向線入力部503から強調を行ないたい線を構成する座標点を指定し、この座標により構成される線の式を求める。505は線位置変化情報分解部である。線位置変化情報分解部505は強調方向線入力部503で計算された線を使用して、位置変化情報を分解する。
線位置変化情報分解部505で分解した位置変化情報を分解モーション強調計算部504へ引き渡し、入力された線情報に対して分解した位置情報の平行成分のみに強調処理を行なう。
モーションデータ106と基本モーションデータ205は関節の動きの情報で表されており、その関節間の関係をスケルトンデータ114で表す。分解モーション強調計算部504で計算されたモーションの関節位置を関節距離計算部201でスケルトンデータ114と同一に修正する。修正されたモーションは分解モーション強調計算部504に戻されて、モーションデータ116に保存される。
【0144】
図33に強調方向線入力部503を用いたモーション強調のフロー図を示す。このフロー図はAに挿入の部分を図19のモーション強調フロー中Aと示された部分に挿入し、B を変更と書かれた部分を図19のモーション強調フロー中B と示された部分とおき換える。
「Aに挿入」の部分から説明を行なう。強調方向線入力部503から、ユーザはモーションデータを構成する関節もしくは任意の座標点から2点を選択する(S701)。
【0145】
指定された2点に関節が含まれていない場合には(S702)、強調方向線入力部503で、この2点から計算される直線の式を求め(直線11−1)、この直線に平行で原点を通る直線の位置を計算し(直線11−2)、線位置変化情報分解部505へ直線11−2の式を引き渡す(S703〜S704)。
分解モーション強調計算部504はモーションデータを基本モーションデータ205から、スケルトンデータをスケルトンデータ114から読み込む。1フレーム目のモーションデータは実施の形態2に示したように基本フレームとするため、読み込んだ位置変化情報をそのまま変更しない。式(2−1)で位置情報を求めておく。
【0146】
2フレーム目以降はスケルトンデータと処理フレームの位置変化情報を分解モーション強調計算部504から線位置変化情報分解部505へ引き渡す。
「Bに挿入」の部分の説明を行なう。
強調方向線入力部503で指定された座標が関節を含んでいた場合には(S705)、線位置変化情報分解部505から各関節の前フレームの位置座標情報と位置情報とスケルトン情報を強調方向線入力部501に渡す。強調方向線入力部503で、指定された2点から計算される直線の式を求め(直線11−1)、この直線に平行で原点を通る直線の位置を計算する(直線11−2)。直線11−2を線位置変化情報分解部505へ戻す(S706)。
【0147】
全関節について次の処理を行なう。
強調しようとする関節の位置変化情報を位置変化ベクトルと呼び、(dx,dy,dz)とする。直線11−2と(dx,dy,dz)を通る面の式を求める。(面11−1)(S708)
面11−1上で原点を通り、直線11−2に垂直な直線11−3を求める(S709)。位置変化ベクトル(dx,dy,dz)を直線11−2と直線11−3に平行なベクトルに分解する(直線11−2に対してベクトル11−2、直線11−3に対してベクトル11−3とする)(S710)。
【0148】
図34に位置変化ベクトル強調線による分解の様子を示す。位置変化ベクトルを直線11−2に平行なベクトル11−2と直線11−3に平行なベクトル11−3に分解する。この分解した位置変化ベクトル11−2と11−3を分解モーション強調計算部504へ戻す。
【0149】
分解モーション強調計算部504で、直線11−2に平行なベクトル11−2に強調係数ktをかける(S711)。強調された直線11−2に平行なベクトル11−2と、もう一方の直線11−3に平行なベクトル11−3を加えることにより、指定した直線方向に強調したモーション強調を行なう(S712)。全フレームの位置情報に強調したい位置変化情報を加えて、現フレームの位置情報を作成しておく。この処理を処理フレームの全関節について行なう(S714、S715)。分解モーション計算部504は強調された位置変化情報から位置情報を計算し、この位置情報とスケルトン情報を関節距離計算部201に引き渡す。
【0150】
関節距離計算部201により関節の調整処理は実施の形態2で述べた方法で行なうことができる。これを全フレームに対して行なう。
この実施の形態に記載されたアニメーション制作システムは、モーション強調手段にさらに強調方向を入力する強調方向入力手段と、前記強調方向入力手段に入力された強調方向に対し、モーションの強調を行なう分解モーション強調計算手段を備えているので、指定した方向にのみモーションの強調を行なうことができる。
特に上記方法により、ユーザは指定した方向、例えば体の上向きの方向成分のみを強調させることができる。
【0151】
図1において、12はモーション組合せ手段である。モーション組合せ手段12はアニメーション構成データ保存手段9の複数の部分モーションデータを同期制御手段6により同期づけし、1つのモーションへ組合わせる。
【0152】
図6は実施の形態8のシステム構成図である。
602は部分モーションであり、アニメーションキャラクタの体の位置部分のモーションのみが蓄積されている。
【0153】
モーション入力部117により作成された部分モーション602は該当するスケルトンデータ114中のスケルトンデータと共に同期制御表示部101に読み込まれる。部分モーション602はモーション表示部105に渡され、ユーザはモーションを表示しながらモーションセグメント入力部106によりセグメント情報を入力し、セグメント情報112に保存する。セグメントはこれから組合せを行なう2つのモーションデータで同じ時間に合わせたい部分に入力を行なう。組合わせるモーションは必ず1つの関節を共有する。
【0154】
部分モーションに同期制御表示部101で同期制御データ113を作成する。データ再計算部110へ同期付けたモーションを渡し再計算し、同期されたセグメント部分が同時間に実行されるように同期され、部分モーション602へ保存される。601はモーション組合せ部である。モーション組合せ部601は部分毎に別々に入力されている部分モーション602を組合わせて一つのアニメーションキャラクタのモーションを作成し、基本モーションデータ205もしくはモーションデータ116へ保存する。
【0155】
図35にモーション組合せ部601のフロー図を示す。
モーション入力部602によって別々に入力された同一キャラクタの各部分のモーションデータが存在した時に、その別々のモーションを同期制御表示部101に読み込む(S801)。同期制御表示部101を使用するのは組合わせるモーションデータは組合わせるために入力したものであるため、時間的にほぼ同期はとれているはずであるが、実際には若干組合わせる部分モーション同士の同期がずれているからである。
【0156】
同期制御手段6では実施の形態1に示した方法で、組合せを行なう同期をとるタイミングに対して同期制御データ113でモーション同士を同期させる(S802)。同期制御手段6で同期をとられたモーションは部分モーションデータ602に保存される。この部分モーションデータ602からモーション組合せ部601が上記で同期づけされたモーションをとり出す。
同期制御手段6で同期させられた組合せを行なう各モーションで同一である関節を持っており、これを同一関節と呼ぶ。
図36にモーション組合せ部601の説明図を示す。この図では組合せを行なうモーション1とモーション2において関節Aが同一関節となっている。
【0157】
ユーザはモーション組合せ部601を使用して、この同一関節の情報(関節A)を入力し(S803)、部分モーションから読み込む、組合わせる部分モーションうち、どちらか一方を基モーションとし、基モーションでないモーションを組合せモーションとする。またモーション組合せ部には基モーションのスケルトン情報、組合せモーションのスケルトン情報も読み込んでおく。
【0158】
モーション組合せ部601では基モーションのスケルトンの同一関節の初期位置1フレーム目の位置の差はスケルトン情報に登録されている初期位置情報から基モーションの1フレーム目の位置変化情報、回転変化情報をたして1フレーム目の位置情報を算出する。同様に組合せフレームについても1フレーム目の位置情報を算出する。
【0159】
具体的には、基本モーション1フレーム目の同一関節の位置情報を(xb,yb,zb),rb、位置変化情報を(dxb,dyb,dzb),drb、組合せモーションの1フレーム目の同一関節の位置情報を(xa,ya,za),ra、位置変化情報を(dxa,dya,dza),draとする。基本モーションスケルトンデータの同一関節の初期位置情報を(sxb,syb,szb),srb、組合せモーションスケルトンデータの同一関節の初期位置情報を(sxa,sya,sza),sraとする。
【0160】
基モーションが、
xb=sxb+dxb
yb=syb+dyb
zb=szb+dzb
rb=srb+drb
【0161】
組合せモーションが、
xa=sxa+dxa
ya=sya+dya
za=sza+dza
ra=sra+dra
となる(S804)。
【0162】
1フレーム目の基本モーションと組合せモーションの同一関節における位置情報の差を求める。基本モーションと組合せモーションの位置情報の差を(mxba,myba,mzba),mrbaとすると、
mxba=xb-xa
myba=yb-ya
mzba=zb-za
mrba=rb-ra
で求める(S805)。
【0163】
この差を組合せモーションの1フレーム目の全関節の位置変化情報、回転変化情報から減算する(S806)。
この後、基モーションの同一関節部分と組合せモーションで基モーションの同一関節を親関節、組合せモーションの同一関節につながっている関節を子関節とし、一つのモーションデータへ変換し、モーションデータ116もしくは基本モーションデータ205へ保存する(S807)。
【0164】
これにより例えばモーション入力部1として光学式モーションキャプチャシステムを使用する場合、体の一部により隠れてしまう関節部分のモーションをその部分のみ別にとりこみ、組合せを行なうことで、一つのモーションを制作することができる。
【0165】
【発明の効果】
第1の発明に係るアニメーション制作システムは、アニメーションの構成に使用する少なくとも第1のアニメーション構成データ及び第2のアニメーション構成データを有するアニメーション構成データを用いてアニメーションの制作を行なうものであって、前記第1のアニメーション構成データ及び前記第2のアニメーション構成データの各々に対し、同期設定のための同期制御データを付加するとともに、当該付加された同期制御データを用いて、前記第1のアニメーション構成データと前記第2のアニメーション構成データの同期を制御する同期制御手段を備えているので、人手を介することなくアニメーションを構成するデータの同期を確立することができる。
【0166】
第2の発明に係るアニメーション制作システムは、第1の発明における同期制御手段において前記第1のアニメーション構成データ及び第2のアニメーション構成データを部分的に伸長又は縮退することにより同期を制御するので、情報全体に亘って同期をとることができる。
【0167】
第3の発明に係るアニメーション制作システムは、アニメーションのモデルの形状を作成する形状作成手段と、前記形状作成手段において作成された前記モデルのモーションデータを入力しモーションを作成するモーション作成手段と、前記モーション作成手段に入力されたモーションデータに対して強調計算を行ない、強調されたモーションデータを出力するモーション強調手段とを備えているので、強調されたモーションを得ることができる。
【0168】
第4の発明に係るアニメーション制作システムは、第3の発明におけるモーション強調手段をモーションデータに対し強調係数を乗算するとともに、当該乗算されたモーションデータに対し、当該モデルの関節間の長さが一定になるよう補正することとしたので、モーションを強調させた場合であっても関節の長さが一定であり、動作が不自然とならない。
【0169】
第5の発明に係るアニメーション制作システムは、第3の発明におけるモーション強調手段にさらに強調方向を入力する強調方向入力部と、前記強調方向入力手段に入力された強調方向に対し、モーションの強調を行なう分解モーション強調計算部を備えているので、指定した方向にのみモーションの強調を行なうことができる。
【0170】
第6の発明に係るアニメーション制作システムは、アニメーションのモデルのモーションを入力し、モーションデータを出力するモーション入力手段と、予め複数のモーションデータが記憶されたモーションデータ記憶手段と、前記モーション入力手段より出力されたモーションデータと前記モーションデータ記憶手段に記憶されたモーションデータとを比較し、その比較結果に基づいて前記モーションデータ記憶手段に記憶されたモーションデータより選択し、出力するモーションデータ検索手段とを備えているので、入力されたモーションが不自然なものであってもモーション記憶手段に自然なモーションを記憶させておけば、自然なモーションを出力することができる。
【0171】
第7の発明に係るアニメーション制作システムは、音声信号を入力する音信号入力手段と、母音情報に対応した口形状モデルを記憶する口形状モデル記憶手段と、前記音信号入力手段に入力された音声信号の母音情報に基づいて前記口形状モデル記憶手段より口形状モデルを選択し画像出力する画像出力手段とを備えているので、母音情報に基づいて口形状を特定するため簡易な構成で口形状のアニメーションを作成することができる。
【0172】
第8の発明に係るアニメーション制作システムは、音声信号を入力する音信号入力手段と、母音情報及び音声レベルに対応した口形状モデルを記憶する口形状モデル記憶手段と、前記音信号入力手段に入力された音声信号の母音情報及び音声レベルに基づいて前記口形状モデル記憶手段より口形状モデルを選択し画像出力する画像出力手段とを備えているので、母音情報のみならず、音声レベルに応じた口形状モデルを出力することができるので、簡易な構成で、より正確に口形状のアニメーションを制作することができる。
【0173】
第9の発明に係るアニメーション制作システムは、音声信号を入力する音信号入力手段と、前記音信号入力手段に入力された音声信号の母音情報に基づいてセグメント処理を行いセグメント情報を生成するセグメント手段と、前記音声信号に対応した口形状データを生成する口形状データ生成手段と、前記セグメント手段により生成したセグメント情報に基づいて前記口形状データ生成手段により生成した口形状データと前記音声信号とを同期させる同期手段とを備えているので、簡易な構成で口形状と音声信号とが同期した口形状のアニメーションを制作することができる。
【0174】
第10の発明に係るアニメーション制作システムは、第9の発明における同期手段が前記セグメント情報よりセグメント中の始点線分、終点線分、最大量子化値部分を抽出し、各段階において前記口形状モデルのキーフレームを割り当てるものなので、簡易な構成により口形状のモーションをより自然にすることができる。
【0175】
第11の発明に係るアニメーション制作システムは、第9の発明においてさらに文字データを入力する文字入力手段を有し、セグメント手段が前記文字入力手段に入力された文字データの個々の文字に対してセグメントを割り当てるので、文字毎に口形状を対応させることができる。
【0176】
第12の発明に係るアニメーション制作システムは、アニメーションのモデルの部分のモーションを示す第1の部分モーションデータ及び第2の部分モーションデータを記憶する部分モーション記憶手段と、前記部分モーション記憶手段に記憶された第1の部分モーションデータと第2の部分モーションデータのそれぞれが同一関節を持っており、この同一関節を基準に、同期制御手段を用いて同期させた前記第1の部分モーションデータと前記第2の部分モーションデータとを組み合わせる組み合わせ手段を有するので、例えば単一のモーションの入力手段では、モーションが捉えきれない場合に複数の入力手段によりモーションを制作することができる。
【図面の簡単な説明】
【図1】 本アニメーション制作システムのシステム構成図である。
【図2】 実施の形態1のシステム構成図である。
【図3】 実施の形態2、3のシステム構成図である。
【図4】 実施の形態4、5のシステム構成図である。
【図5】 実施の形態6、7のシステム構成図である。
【図6】 実施の形態8のシステム構成図である。
【図7】 モーションデータ116の構成である。
【図8】 位置変化情報、回転変化情報である。
【図9】 スケルトンデータ114の構成である。
【図10】 セグメント情報113とセグメントである。
【図11】 同期制御表示部101の表示イメージ図である。
【図12】 音表示部102である。
【図13】 モーション表示部105である。
【図14】 同期制御データ113である。
【図15】 セグメント情報112の同期付けである。
【図16】 同期制御データ113設定によるアニメーション構成データの時間変更である。
【図17】 同期制御手段7のフロー図である。
【図18】 同期制御データ113によるキャラクタモデル構成データの時間変更である。
【図19】 モーション強調のフロー図である。
【図20】 モーション強調説明図である。
【図21】 モーションキーワードデータ205の構成である。
【図22】 モーション検索のフロー図である。
【図23】 モーション検索部203である。
【図24】 セリフ文字データ313と、その設定例である。
【図25】 音声セグメント処理部302のユーザーインターフェースである。
【図26】 パターンマッチングのフローチャートである。
【図27】 口形状キーフレームタイミングデータ303の作成方法のフロチャートである。
【図28】 口形状キーフレームタイミングデータ303の作成方法のイメージである。
【図29】 口形状キーフレームタイミングデータの構成である。
【図30】 音声セグメント処理部302に入力されているデータの種類による口形状キーフレームデータ303の出力フローである。
【図31】 強調方向面入力部501を用いたモーション強調のフロー図である。
【図32】 位置変化ベクトル強調面による分解の様子である。
【図33】 強調方向線入力部503を用いたモーション強調のフロー図である。
【図34】 位置変化ベクトル強調線による分解の様子である。
【図35】 ョン組合せ部601のフロー図である。
【図36】 モーション組合せ部601の説明図である。
【図37】 従来例(1)の説明図である。
【図38】 従来例(2)の説明図である。
【図39】 従来例(3)の説明図である。
【符号の説明】
1 形状作成手段、2 モーション作成手段、3 音入力手段、4 文字入力手段、5 レンダリング手段、6 同期制御手段、7 モーション強調手段、8 音声同期口形状作成手段、9 アニメーション構成データ保存手段、10 モーション検索手段、11 音出力手段、12 モーション組合せ手段、101 同期制御表示部、102 音表示部、103 音出力部、104 音声セグメント入力部、105 モーション表示部、106 モーションセグメント入力部、110、データ再計算部、112 セグメント情報、113 同期制御データ、114 スケルトンデータ、115 スケルトン入力部、116 モーションデータ、117 モーション入力部、118 セリフ音声データ、119 音入力部、120 音データ、123 セグメント情報対応付け部、201 関節距離計算部、202 モーション強調計算部、203 モーション検索部、204 モーションキーワードデータ、205 基本モーションデータ、301 音声自動セグメント部、302 音声セグメント処理部、303 口形状キーフレームタイミングデータ、304 口形状モーション作成部、305 レンダリング部、306 画像データ、307 画像出力部、308 モデルデータ、309 モデル入力部、310 セグメント均等割り付け部、311 セリフ文字入力部、312 辞書パターンデータ、501 強調方向入力部、502 面位置変化情報分解部、503 強調方向入力部、504 分解モーション強調計算部、505 線位置変化情報分解部、601 モーション組み合わせ部、602 部分モーションデータ。

Claims (2)

  1. アニメーションのモデルの形状を作成する形状作成手段と、
    前記形状作成手段において作成された前記モデルのモーションデータを入力しモーションを作成するモーション作成手段と、
    前記モーション作成手段に入力されたモーションデータに対し強調係数を乗算するとともに、当該乗算されたモーションデータに対し、当該モデルの関節間の長さが一定になるよう補正したモーションデータを出力するモーション強調手段とを備えたアニメーション制作システム。
  2. 前記モーション強調手段は、
    強調方向を入力する強調方向入力部と、
    前記強調方向入力部に入力された強調方向に対し、モーションの強調を行なう分解モーション強調計算部とを有することを特徴とする請求項1記載のアニメーション制作システム。
JP2002267444A 2002-09-12 2002-09-12 アニメーション制作システム Expired - Fee Related JP3755503B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002267444A JP3755503B2 (ja) 2002-09-12 2002-09-12 アニメーション制作システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002267444A JP3755503B2 (ja) 2002-09-12 2002-09-12 アニメーション制作システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP00850496A Division JP3368739B2 (ja) 1996-01-22 1996-01-22 アニメーション制作システム

Publications (2)

Publication Number Publication Date
JP2003132363A JP2003132363A (ja) 2003-05-09
JP3755503B2 true JP3755503B2 (ja) 2006-03-15

Family

ID=19196851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002267444A Expired - Fee Related JP3755503B2 (ja) 2002-09-12 2002-09-12 アニメーション制作システム

Country Status (1)

Country Link
JP (1) JP3755503B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593015B2 (en) * 2003-11-14 2009-09-22 Kyocera Wireless Corp. System and method for sequencing media objects
JP4631077B2 (ja) * 2006-05-02 2011-02-16 株式会社国際電気通信基礎技術研究所 アニメーション作成装置
WO2007138885A1 (ja) * 2006-05-26 2007-12-06 The University Of Tokyo 運動データのデータベースの構造および設計法、データベースシステム
JP4617500B2 (ja) * 2006-07-24 2011-01-26 株式会社国際電気通信基礎技術研究所 リップシンクアニメーション作成装置、コンピュータプログラム及び顔モデル生成装置
JP5641922B2 (ja) * 2010-12-21 2014-12-17 三菱プレシジョン株式会社 3次元コンピュータグラフィックスの物体の動作を補正する方法、そのような方法を用いる装置及びそのような方法をコンピュータに実行させるプログラム
JP5210401B2 (ja) * 2011-01-17 2013-06-12 株式会社スクウェア・エニックス 用例に基づく効率的なモーションデータベースのスタイリング
JP5906897B2 (ja) * 2012-03-30 2016-04-20 カシオ計算機株式会社 動き情報生成方法、動き情報生成装置及びプログラム
CN110211210B (zh) * 2019-04-24 2023-09-26 深圳点猫科技有限公司 一种用于龙骨动画的组件嵌入实现方法及装置

Also Published As

Publication number Publication date
JP2003132363A (ja) 2003-05-09

Similar Documents

Publication Publication Date Title
US7571099B2 (en) Voice synthesis device
JP2003530654A (ja) キャラクタのアニメ化
JP3215823B2 (ja) 人間の顔の合成モデルの音声信号駆動アニメーションの方法及び装置
JP2518683B2 (ja) 画像合成方法及びその装置
CN110880315A (zh) 一种基于音素后验概率的个性化语音和视频生成系统
KR101492816B1 (ko) 애니메이션 립싱크 자동화 장치 및 방법
KR101153736B1 (ko) 발음기관 애니메이션 생성 장치 및 방법
CN113383384A (zh) 语音动画的实时生成
KR101089184B1 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
JP2003186379A (ja) 音声可視化処理のためのプログラム、音声可視化図形表示と音声及び動画像の再生処理のためのプログラム、及び訓練結果表示のためのプログラム、並びに発声発話訓練装置及びコンピュータ・システム
KR100300962B1 (ko) 음성합성을위한립싱크방법및그장치
JP2008052628A (ja) アニメーションデータ作成装置及びアニメーションデータ作成プログラム
JP2000507377A (ja) 画像合成
KR20080018408A (ko) 음성 사운드 소스를 이용한 얼굴 표정 변화 프로그램을기록한 컴퓨터에서 읽을 수 있는 기록매체
JP3755503B2 (ja) アニメーション制作システム
JP3368739B2 (ja) アニメーション制作システム
US20200211248A1 (en) Method of Converting Phoneme Transcription Data Into Lip Sync Animation Data for 3D Animation Software
CN115311731B (zh) 一种手语数字人的表情生成方法和装置
JP2002108382A (ja) リップシンクを行うアニメーション方法および装置
JP4631077B2 (ja) アニメーション作成装置
EP0982684A1 (en) Moving picture generating device and image control network learning device
JP4617500B2 (ja) リップシンクアニメーション作成装置、コンピュータプログラム及び顔モデル生成装置
CN112750184A (zh) 数据处理、动作驱动与人机交互方法及设备
Barve et al. Synchronized Speech and Video Synthesis
Wang et al. A real-time Cantonese text-to-audiovisual speech synthesizer

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050802

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051212

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees