JP2006155494A - アニメーション作成装置およびアニメーション作成方法 - Google Patents

アニメーション作成装置およびアニメーション作成方法 Download PDF

Info

Publication number
JP2006155494A
JP2006155494A JP2004348700A JP2004348700A JP2006155494A JP 2006155494 A JP2006155494 A JP 2006155494A JP 2004348700 A JP2004348700 A JP 2004348700A JP 2004348700 A JP2004348700 A JP 2004348700A JP 2006155494 A JP2006155494 A JP 2006155494A
Authority
JP
Japan
Prior art keywords
verb
basic
animation
motion
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004348700A
Other languages
English (en)
Inventor
Koichi Emura
恒一 江村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004348700A priority Critical patent/JP2006155494A/ja
Publication of JP2006155494A publication Critical patent/JP2006155494A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 入力されたシナリオに含まれる動詞に対応する複数の基本モーションデータを適切に同期させることにより、ユーザの所望する動作を行うアニメーションを作成するアニメーション作成装置およびアニメーション作成方法を提供すること。
【解決手段】 本発明は、入力されたシナリオに含まれる動詞に対応する複数の基本モーションデータを、テキストに含まれる動詞修飾語の修飾度合いに応じて同期させ合成することによりテキストに含まれる動詞および動詞修飾語に対応する合成モーションを生成し、この合成モーションを用いてアニメーションを作成するようにした。
【選択図】 図1

Description

本発明は、自然文からコンピュータグラフィックスのアニメーションを作成するアニメーション作成装置およびアニメーション作成方法に関する。
従来より、自然文を解析して、自然文に対応したアニメーションを作成する方法が提案されている(例えば、特許文献1)。
この方法は、自然文として入力される発話内容に対して、図13に示すような、動作パターンと、動作の意味、動作の部位とその動きを対応付けた対応表を参照し、発話内容に対応する動作パターンを検索する。そして、検索した動作パターンに対応する動作の意味、動作の部位と動作の動きを抽出し、これらの情報を用いてアニメーションを作る。
特開平10−134202号公報
しかしながら、上述したアニメーション作成方法は、予め格納されているひとつの基本モーションデータ、例えば「頭を下げる」という基本モーションデータ用いてアニメーションを作成するものであって、複数の基本モーションデータを時間軸上に並列に組み合わせた合成モーションデータに関するアニメーションを作成するものではない。このため、ユーザが自分の思い通りのモーションを用いたアニメーションを作ることができないという課題がある。
また、複数の基本モーションデータを組み合わせるとしても、基本モーションデータの同期の取り方によって、全く違う印象のモーションになる。このため、基本モーションデータを組み合わせることは一般的なユーザには非常に難しく、所望するアニメーションを作成することが困難であるという課題がある。
本発明は、かかる点に鑑みて為されたものであり、入力された自然文に含まれる動詞に対応する複数の基本モーションデータを適切に取得および同期させることにより、ユーザの所望する動作を行うアニメーションを作成するアニメーション作成装置およびアニメーション作成方法を提供することを目的とする。
本発明は、自然文に含まれる動詞に対応する複数の基本モーションデータを、同様に自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより自然文に含まれる動詞および動詞修飾語に対応する合成モーションデータを生成し、この合成モーションデータを用いてアニメーションを作成するようにした。
本発明によれば、自然文に含まれる動詞修飾語の修飾度合いに応じて基本モーションデータを合成することにより、基本モーションデータを適切に同期させ、ユーザの所望する動作を行うアニメーションを作成することができる。
本発明の第1の態様にかかるアニメーション作成装置は、自然文に含まれる動詞を構成する複数の基本動作を解析する動詞動作変換部と、前記複数の基本動作に対する基本モーションデータを前記自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより合成モーションを生成するモーション合成部と、前記合成モーションを用いて前記自然文に対するアニメーションを生成するアニメーション生成部と、を具備した構成を採る。
このように、自然文に含まれる動詞修飾語の修飾度合いに応じて基本モーションデータを合成することにより、基本モーションデータを動詞修飾語の意味度合いにあわせて適切に同期させことができ、ユーザの所望する動作を行うアニメーションを作成することができる。
本発明の第2の態様は、第1の態様にかかるアニメーション作成装置において、前記同期を前記動詞修飾語の感情の興奮度合いを示す覚醒度を用いて求める。
これにより、同期を覚醒度へ依存させることができるので、覚醒度に応じた適切な動作を行うアニメーションを作成することができる。
本発明の第3の態様は、第1の態様にかかるアニメーション作成装置において、前記動詞修飾語の修飾度合いから、感情の興奮度合いを示す覚醒度と感情の積極性の度合いを示す誘意度を解析する感情パラメータ解析部を具備し、前記基本モーションデータは前記基本動作、前記覚醒度、および前記誘意度をパラメータとして管理され、前記モーション合成部は、前記動詞動作変換部が解析した基本動作と、前記感情パラメータ解析部が解析した覚醒度および誘意度と、を用いて前記基本モーションデータを取得する。
これにより、感情を伴う動作を構成する、覚醒度、誘意度に対応した、基本モーションデータを備えることができる。また、覚醒度、誘意度を指示することで、覚醒度、誘意度に対応した基本モーションデータを取得できる。
本発明の第4の態様は、第3の態様にかかるアニメーション作成装置において、前記動詞修飾語の表示形態から動作の強調度を解析する強調パラメータ解析部を具備し、前記基本モーションデータは前記基本動作毎に、前記覚醒度、前記誘意度、前記強調度をパラメータとして管理され、前記モーション合成部は、前記動詞動作変換部が解析した基本動作と、前記感情パラメータ解析部が解析した覚醒度および誘意度と、前記強調パラメータ解析部が解析した前記強調度を用いて前記基本モーションデータを取得する。
これにより、感情を伴う動作毎に複数の強調や誇張表現された動作を構成する、覚醒度、誘意度に加え強調度に対応した、基本モーションデータを備えることができる。また、覚醒度、誘意度に加え強調度を指示することで、覚醒度、誘意度、強調度に対応した基本モーションデータを取得できる。
本発明の第5の態様は、第4の態様にかかるアニメーション作成装置において、前記強調度は前記動詞修飾語の表示形態に対応付けられ、前記強調パラメータ解析部は前記自然文に含まれる前記動詞修飾語の表示形態から前記強調度を解析する。
これにより、動詞修飾語の表示形態を変えるという簡単な操作により、動詞修飾語から抽出する感情を強調した動作のアニメーションを作成できる。これにより、動作の編集をユーザが直感的に即時に制御することができる。
本発明の第6の態様は、第5の態様にかかるアニメーション作成装置において、前記表示形態は、文字フォントの種類、スタイル、サイズ、色や、影付き、中抜き、浮き出し、浮き彫りの一つまたは二つ以上の組合せである。
これにより、強調度を容易に変更できる。
本発明の第7の態様は、第1の態様から第6の態様のいずれかにかかるアニメーション作成装置において、前記自然文に含まれる動詞と動詞修飾語を解析する自然言語解析部を具備した。
これにより、ユーザが自然文から動詞と動詞修飾語を抽出しなくても、自動的に動詞と動詞修飾語を抽出できる。
本発明の第8の態様は、自然文に含まれる動詞を構成する複数の基本動作を解析するステップと、前記複数の基本動作に対する基本モーションデータを前記自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより合成モーションを生成するステップと、前記合成モーションを用いて前記自然文に対するアニメーションを生成するステップと、を具備したことを特徴とするアニメーション作成方法である。
本発明の第9の態様は、コンピュータに、自然文に含まれる動詞を構成する複数の基本動作を解析するステップと、前記複数の基本動作に対する基本モーションデータを前記自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより合成モーションを生成するステップと、前記合成モーションを用いて前記自然文に対するアニメーションを生成するステップと、を行わせることを特徴とするプログラムである。
以下、本発明の一実施の形態にかかるアニメーション作成装置について、添付図面を用いて説明する。まず、上記実施の形態にかかるアニメーション作成装置の構成について図1を用いて説明する。図1は、上記実施の形態にかかるアニメーション作成装置のブロック図である。
本実施の形態のアニメーション作成装置100には、各種処理部を制御するCPU101が設けられている。CPU101は、ハードディスク102に記憶されたプログラムを実行することで所定の動作をする。また、RAM103は、CPU101のワークメモリである。
また、アニメーション作成装置100には、ユーザが自然文などの各種情報を入力する入力部104と、各種情報を表示する表示部105が設けられている。入力部104は、キーボードやマウス、テンキー、十字キーなどの一般的な入力装置である。また、表示部105は一般的なモニタなどである。
また、アニメーション作成装置100には、自然言語解析部106が設けられている。自然言語解析部106は、入力部104から入力された自然文から主語と動詞と動詞修飾語からなる動詞句を抽出する。これにより、ユーザが自然文から主語と、動詞と動詞修飾語からなる動詞句を抽出しなくても、自動的に主語と、動詞と動詞修飾語からなる動詞句を抽出できる。
また、アニメーション作成装置100には、自然言語解析部106が抽出した動詞から複数の基本動作に変換する動詞動作変換部107が設けられている。動詞動作変換部107は、図2に示す基本動作テーブル108を用いて、合成動作に関する動詞を複数の基本動作に変換する。
図2に示すように、基本動作テーブル108は、合成動作を示す動詞201と、動詞201を構成する基本動作202a、202bと、基本動作202a、202bを行う部位203a、203bと、の組を複数格納している。
動詞動作変換部107は、基本動作テーブル108を参照し、自然文から抽出された動詞に対応する動詞201を検索し、動詞201に対応する基本動作202a、202bを抽出する。
また、アニメーション作成装置100には、感情分類テーブル110を用いて、自然言語解析部106が抽出した動詞修飾語を解析し、動詞修飾語の修飾度合いを示す感情パラメータを抽出する感情パラメータ解析部109が設けられている。
図3に示すように、感情分類テーブル110は、動詞修飾語301と感情分類302と、の組を複数格納している。
感情パラメータ解析部109は、感情分類テーブル110を参照し、自然文から抽出された動詞修飾語に対応する動詞修飾語301を検索し、動詞修飾語301に対応する感情分類302を抽出する。
また、感情パラメータ解析部109は、感情パラメータテーブル111を用いて、抽出した感情分類に対応する覚醒度と誘意度を抽出する。覚醒度は感情の興奮度合い、誘意度は感情の積極的/消極的の度合い、つまり積極性の度合いを示す。
図4に示すように、感情パラメータテーブル111は、感情分類302と、感情分類302に対する覚醒度401および誘意度402との組を複数格納している。
感情パラメータ解析部109は、感情パラメータテーブル111を参照し、抽出した感情分類302に対応する覚醒度401および誘意度402を抽出する。
また、アニメーション作成装置100には、動詞修飾語の覚醒度に応じて複数の基本動作の時間同期を制御するモーション合成制御部112が設けられている。モーション合成制御部112は、同期関数記憶部113に格納された同期関数を用いて、基本動作間の開始時間の相対時間tstartを計算する。
尚、本実施の形態におけるモーション合成制御部が行う時間同期は、繰り返し頻度、終了時間、ある動作との相対開始時間など、本実施の形態における開始時間に限定されない。
同期関数記憶部113に格納された同期関数f()は、相対時間tstart、つまり同期情報が感情パラメータの覚醒度への依存が大きいことに着目したものであり、
相対時間tstart=f(arousal,tinitial
という覚醒度の値arousalと初期値tinitialとの関数で相対時間tstartを定義している。
例えば、同期関数が、図5に示すように、相対時間tstart=tinitial×(1.0−Arousal)という関数の場合、逃げるという合成動作を構成する、振り返る(lookback)と走る(run)とは、振り返るという動作が走るという動作よりtstart遅れて開始することを示している。例えば、図5に示す関数において、arousalが0の場合には、振り返るという動作が走り出して1秒後に開始することになり、arousalが1.0つまり非常に興奮している感情においては、走り出すと同時に振り返ることになる。
なお、同期関数は本実施の形態に限定されない。また、同期関数を、覚醒度、誘意度、強調度の一つまたは少なくとも一つ以上の組合せで構成してもよい。
図6に示す基本動作記述600は、図2に示す基本動作テーブル108の詳細をXML表記した例であり、図中601に示すように、「逃げる」という動詞に関する基本動作に関する記述をしている。具体的には、「逃げる」という動詞は、図中602、603に示すように、「lookback(振り返る)」「run(走る)」という基本動作からなり、「lookback(振り返る)」は図中606に示すように「node01」という部位に関する動作であり、「run(走る)」は図中604に示すように「node02」という部位に関する動作であると記述している。また、図中605に示すように、「lookback(振り返る)」という動作は「run(走る)」という動作の1秒後に開始するという同期初期値を示している。
これにより、同期を覚醒度へ依存させることができるので、覚醒度に応じた適切なものにできる。
なお、基本動作記述の記載方法はこれ以外であっても良い。
また、アニメーション作成装置100には、入力部104から入力された自然文の動詞修飾語のフォントサイズを解析し、強調パラメータテーブル116を参照することで、動作の強調パラメータを解析する強調パラメータ解析部115が設けられている。
図7に示すように強調パラメータテーブル116は、動詞修飾語のフォント(文字)サイズ701と強調度を示す値である強調値702との組を複数格納している。
なお、動詞修飾語のフォントサイズに応じて、強調度が決まる形態で説明したが、明朝、ゴシックなどのフォントの種類や、ボールド、イタリックなどのスタイルや、文字色や、影付き、中抜き、浮き出し、浮き彫りなどの文字飾り、などの一つまたは少なくとも一つ以上の組合せに応じて強調度を決めても良い。また、感情パラメータ解析部109が、明朝、ゴシックなどのフォントの種類や、ボールド、イタリックなどのスタイルや、文字サイズや、文字色や、影付き、中抜き、浮き出し、浮き彫りなどの文字飾り、などの一つまたは少なくとも一つ以上の組合せに応じて覚醒度と誘意度の一つまたは両方の値を編集する形態であってもよい。
また、アニメーション作成装置100には、アニメーションで使用するモデルデータを記憶するモデルデータ記憶部117が設けられている。モデルデータは、キャラクタの骨格および形状データである。
また、アニメーション作成装置100には、基本動作に対応する基本モーションデータを格納した基本モーションデータ記憶部118が設けられている。基本モーションデータは、基本動作に対応するモデルデータの各部位の移動、回転および拡大縮小に関する数値データからなる。
基本モーションデータ格納部118は、図8に示すように、基本動作毎に、覚醒度(Arousal)、誘意度(Valence)、強調度(Emphasis)を軸に持つ拡張感情空間上に、基本モーションデータを複数管理している。つまり、言い換えると、基本モーションデータは、覚醒度、誘意度、強調度をパラメータとして管理される。
これにより、感情を伴う動作毎に複数の強調や誇張表現された動作を構成する、覚醒度、誘意度、強調度に対応した基本モーションデータを備えることができる。また、覚醒度、誘意度、強調度を指示することで、覚醒度、誘意度、強調度に対応した基本モーションデータ(あるいは最も近い基本モーションデータ)を選択、取得できる。
また、基本モーションデータ記憶部118に格納された基本モーションデータは、基本モーションデータ記述を参照することにより、容易に把握できるようになっている。基本モーションデータ記述は基本モーションデータ記述格納部119に格納されている。
図9に示すように、基本モーションデータ記述900は、基本動作名901a、901bと、基本動作名901a、901bに対する感情分類902a、902bが記述されている。また、基本モーションデータ記述900には、感情分類902a、902bに対する覚醒度903a〜903e、誘意度904a〜904e、および強調度905a〜905eが記述されている。さらに、基本モーションデータ記述900には、基本動作名901a、901b、感情分類902a、902b、および、覚醒度903a〜903e、誘意度904a〜904e、および強調度905a〜905eで特定される基本モーションデータへのリンク情報906a〜906eが記述されている。
このような基本モーションデータ記述900を参照することにより、容易に所望の基本モーションデータを取得できる。
なお、基本モーションデータ記述900の記述方法は、これ以外であっても良い。
また、アニメーション作成装置100には、モーション合成部120が設けられている。モーション合成部120は、基本動作記述格納部114に格納された基本動作記述600を参照し、動詞601に対応する複数の基本動作602、603を認識し、基本動作602、603に対応する基本モーションデータを合成した合成モーションデータを作成する。この際、モーション合成部120は、基本動作記述600に記述された同期の初期値605を抽出し、初期値605を用いて図5に示す同期関数から同期時間を算出し、基本モーションデータを同期させた合成モーションデータを作成する。また、モーション合成部120は、基本動作に対応する基本モーションデータを基本モーションデータ記憶部118から取得する。この際、モーション合成部120は、基本モーションデータ記述900を参照することで、入力部104から入力された動詞修飾語に対する、覚醒度、誘意度、強調度に対応する基本モーションデータの格納先を把握し、取得する。
また、アニメーション作成装置100には、アニメーション生成部121が設けられている。アニメーション生成部121は、モーション合成部120が作成した合成モーションデータを、入力部104から入力された主語に対応するモデルデータに適応することにより、アニメーションを生成する。
また、アニメーション作成装置100には、図10に示すようなGUI1000を生成し、表示部105に表示するGUI処理部122が設けられている。
図10に示すように、GUI1000の中ほどには、自然文を入力する入力領域1001が設けられている。また、GUI1000の上部には、アニメーション生成部121が生成したアニメーションを表示する表示領域1002が設けられている。
また、GUI1000には、図中1004に示すように、自然文に含まれる動詞修飾語が他の語句と識別できるように表示される。また、GUI1000には、動詞修飾語のフォントサイズを変更するフォントサイズ変更ボタン1003が設けられている。
ユーザは、GUI1000を用いて、入力領域1001に自然文を入力し、表示領域1002において自然文に応じたアニメーションを確認できる。さらに、ユーザは、GUI1000を用いて動詞修飾語の強調度を変更するなどの処理を行う。
なお、GUIは本実施例に限定されない。また、動詞修飾語のフォントサイズに応じて、強調度が決まる形態で説明したが、明朝、ゴシックなどのフォントの種類や、ボールド、イタリックなどのスタイルや、文字色や、影付き、中抜き、浮き出し、浮き彫りなどの文字飾り、などの文字修飾の一つまたは少なくとも一つ以上の組合せに応じて強調度を決めてもよく、そのためのボタン等のインタフェースを持ってもよい。また、感情パラメータ解析部109が、明朝、ゴシックなどのフォントの種類や、ボールド、イタリックなどのスタイルや、文字サイズや、文字色や、影付き、中抜き、浮き出し、浮き彫りなどの文字飾り、などの文字修飾の一つまたは少なくとも一つ以上の組合せに応じて覚醒度と誘意度の一つまたは両方の値を編集する形態であってもよく、そのためのボタン等のインタフェースを持ってもよい。更に、動詞修飾語以外の主語や動詞が他の語句と識別できる形態であってもよく、主語の文字修飾を変えることによってモデルデータを変更し、動詞の文字修飾を変えることによって基本モーションデータを変更してもよい。また、主語、動詞、動詞修飾語の二つ以上の識別を行うように、識別表示がボタンの押下回数や矢印キーなどの押下により移動してもよい。
このように、アニメーション作成装置100は構成されている。
次に、アニメーション作成装置100の、アニメーション作成処理について、図11のフローチャートを用いて詳細に説明する。
ユーザが入力部104を操作し、図12に示すように、GUI1000の入力領域1001に自然文を入力すると、CPU101はこの自然文を自然言語解析部106に入力する(ステップST1100(以下、ステップSTを単にSTとする))。
次に、自然言語解析部106は、入力された自然文を解析し、動詞と動詞修飾語を抽出し(ST1101)、動詞修飾語を感情パラメータ解析部109に送る。また、自然言語解析部106は、抽出した動詞を動詞動作変換部107に送る。図12に示す自然文入力があった場合は、自然言語解析部106は、動詞として「逃げる」、動詞修飾語として「ビックリ」を抽出する。
次に、感情パラメータ解析部109は、入力された自然文に動詞修飾語がある場合は(ST1102)、感情分類テーブル110を参照し、入力された動詞修飾語に対する動詞修飾語301を参照し、この動詞修飾語301に対応する感情分類302を抽出する。次に、感情パラメータ解析部109は、感情パラメータテーブル111を参照し、抽出した感情分類302に対応する覚醒度401および誘意度402を抽出する(ST1103)。図12の例では、動詞修飾語が「ビックリ」であるので、感情分類302は「Surprise」になり、覚醒度401は1.0、誘意度402は0になる。
一方、ST1102において入力された自然文に動詞修飾語がない場合は、感情パラメータ解析部109は、覚醒度および誘意度をそれぞれデフォルト値0に設定する(ST1104)。
次に、動詞動作変換部107が、基本動作テーブル108を参照し、自然文に含まれる動詞に対応する動詞201を参照し、この動詞201に対応する基本動作202を抽出する(ST1105)。図12の例では、動詞が「逃げる」であるので、基本動作202は「走る」202aと「振り返る」202bになる。
次に、モーション合成制御部112が、基本モーションデータ記述900を参照し、ST1103もしくはST1104で抽出した覚醒度401、および誘意度402を用いて、ST1105で抽出した基本動作202a、202bに対応する基本モーションデータへのリンク情報を抽出する。次に、モーション合成制御部112は、抽出したリンク情報に対応する基本モーションデータを基本モーションデータ記憶部118から抽出する(ST1106)。
図12の例では、感情分類302は「Surprise」になり、覚醒度401は1.0、誘意度402は0、基本動作は「走る」202aと「振り返る」202bなので、モーション合成制御部112は、基本モーションデータ記述900を参照し、「lookback01.m3g」906aと「run01.m3g」906dのファイル名の基本モーションデータを抽出する。
なお、「lookback02.m3g」906bと「run02.m3g」906eを抽出しないのは、この段階では、強調値がデフォルト値0であるからである。
次に、モーション合成制御部112は、感情分類302に対応する覚醒度401を同期関数記憶部113に記憶された同期関数に適応することで、ST1106で抽出した基本モーションデータの開始時刻の差、つまり相対開始時間を計算する。次に、モーション合成制御部112は、計算した相対開始時間を用いて、ST1106で抽出した基本モーションデータの同期を制御する(ST1107)。
図12の例の場合は、同期修飾語の覚醒度が1.0であるので、これを図5に示す式に適応すると、「振り返る」202bという基本動作が、「走る」202aという動作と同時に開始するようになる。
次に、モーション合成部120は、ST1106で抽出した基本モーションデータに、ST1107で計算した開始相対時間を加味し、抽出した基本モーションデータの合成を行い、合成モーションデータを生成する(ST1108)。
次に、アニメーション生成部121が、モデルデータ記憶部117を参照しST1100において入力された自然文の主語に対応するモデルデータを抽出する。次に、アニメーション生成部121は、抽出したモデルデータにST1108において合成した合成モーションデータを適用し、アニメーションを生成し、GUI1000の表示領域1002に表示する(ST1109)。
次に、ユーザが、アニメーションの動作を強調し(もしくは弱め)ようとして、図10に示すように、フォントサイズ変更ボタン1003を操作し、動詞修飾語のフォントサイズを変更した場合(ST1110)、GUI処理部122は、入力領域1001の動詞修飾語の部分を文字修飾して表示し(ST1111)、変更されたフォントサイズを強調パラメータ解析部115に送る。
これに対して、強調パラメータ解析部115は、強調パラメータテーブル116を参照し、変更になった動詞修飾語のフォントサイズ701に対応する強調値702を抽出する(ST1112)。そして、強調パラメータ解析部115は、抽出した強調値702をモーション合成制御部112に送る。
そして、モーション合成制御部112は、基本モーションデータ記述900を参照し、ST1103もしくはST1104で抽出した覚醒度401、および誘意度402と、ST1105で抽出した基本動作202と、ST1112において抽出した強調値702に対応する基本モーションデータのリンク情報906を抽出し、抽出したリンク情報906に対応する基本モーションデータを基本モーションデータ記憶部118から抽出する(ST1106)。そして、アニメーション作成装置100は、ST1106〜ST1112の処理を動詞修飾語の文字修飾変更が発生する度に(ST1110)、繰り返す。
以上説明したように、本実施の形態によれば、入力された自然文に含まれる動詞に対応する複数の基本モーションデータを合成し、動詞修飾語の修飾度合いによって合成する基本モーションデータの時間軸上の同期を制御することができる。これにより、少ない基本モーションデータを用いて、様々な合成モーションデータを生成することができる。
また、本実施の形態によれば、動詞修飾語のパラメータを用いて同期時間を計算することにより、動詞修飾語の修飾度合い、つまり意味の度合いにあわせた適切な同期で基本モーションデータを合成することができる。これにより、アニメーション作成に精通していないユーザであっても、所望の動詞修飾語を入力するだけで、入力した動詞修飾語の意味を適切に示すように同期がとられた合成モーションデータを用いたアニメーションを生成できる。この結果、ユーザの所望する動作を行うアニメーションを作成できる。
また、本実施の形態によれば、動詞修飾語の表示形態(フォントの大きさ)を変えるという簡単な操作により、動詞修飾語から抽出する感情を強調した動作のアニメーションを作成できる。これにより、動作の編集をユーザが直感的に即時に制御することができる。
また、本実施の形態によれば、予め多数の合成モーションデータを生成し格納しておく必要がないので、記憶手段の小型化が図れる。
なお、基本動作テーブル108、感情分類テーブル110、感情パラメータテーブル111、同期関数記憶部113、基本動作記述格納部114、強調パラメータテーブル116、モデルデータ記憶部117、基本モーションデータ記憶部118、および、基本モーションデータ記述格納部119をアニメーション作成装置100の外部に備え、ネットワークを介して接続する形態であっても良い。この際、ネットワークに無線通信網を使用することにより、本アニメーション作成装置100を携帯電話に適用することが可能になる。
また、自然文を音声で入力し、この音声を音声認識し、自然言語解析し、動詞と動詞修飾語、および主語を抽出する形態であっても良い。
また、例えば、送り手側で自然文から感情パラメータを抽出して、感情パラメータを相手に送り、受信側でその感情パラメータを使ってアニメーションを作るような使い方が考えられる。
また、アニメーション作成装置100の動作をプログラムにし、汎用のコンピュータに実行させる形態であっても良い。
本発明によれば、基本モーションデータを組み合わせた複雑で多様な動作を行うアニメーションを作成することができる。本発明は、アニメーション作成専用の装置だけでなく、汎用のPCや携帯電話などの入力部および画像表示部を備えた如何なる装置にも適用できる。
本発明の一実施の形態にかかるアニメーション作成装置のブロック図 上記実施の形態にかかる基本動作テーブルの構成図 上記実施の形態にかかる感情分類テーブルの構成図 上記実施の形態にかかる感情パラメータテーブルの構成図 上記実施の形態にかかる同期関数を説明するための図 上記実施の形態にかかる基本動作記述を示す図 上記実施の形態にかかる強調パラメータテーブルの構成図 上記実施の形態にかかる基本モーションデータ記憶部のイメージ図 上記実施の形態にかかる基本モーションデータ記述を示す図 上記実施の形態にかかるGUIを説明するための図 上記実施の形態にかかるアニメーション作成装置のアニメーション作成処理のフローチャート 上記実施の形態にかかるGUIの初期の状態を示す図 従来のアニメーション作成方法を説明するための図
符号の説明
100 アニメーション作成装置
106 自然言語解析部
107 動詞動作変換部
108 基本動作テーブル
109 感情パラメータ解析部
110 感情分類テーブル
111 感情パラメータテーブル
112 モーション合成制御部
115 強調パラメータ解析部
116 強調パラメータテーブル
117 モデルデータ記憶部
118 基本モーションデータ記憶部
120 モーション合成部
121 アニメーション生成部
122 GUI処理部

Claims (9)

  1. 自然文に含まれる動詞を構成する複数の基本動作を解析する動詞動作変換部と、前記複数の基本動作に対する基本モーションデータを前記自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより合成モーションを生成するモーション合成部と、前記合成モーションを用いて前記自然文に対するアニメーションを生成するアニメーション生成部と、を具備したことを特徴とするアニメーション作成装置。
  2. 前記同期を前記動詞修飾語の感情の興奮度合いを示す覚醒度を用いて求めることを特徴とする請求項1記載のアニメーション作成装置。
  3. 前記動詞修飾語の修飾度合いから、感情の興奮度合いを示す覚醒度と感情の積極性の度合いを示す誘意度を解析する感情パラメータ解析部を具備し、
    前記基本モーションデータは前記基本動作、前記覚醒度、および前記誘意度をパラメータとして管理され、
    前記モーション合成部は、前記動詞動作変換部が解析した基本動作と、前記感情パラメータ解析部が解析した覚醒度および誘意度と、を用いて前記基本モーションデータを取得することを特徴とする請求項1記載のアニメーション作成装置。
  4. 前記動詞修飾語の表示形態から動作の強調度を解析する強調パラメータ解析部を具備し、
    前記基本モーションデータは前記基本動作毎に、前記覚醒度、前記誘意度、前記強調度をパラメータとして管理され、
    前記モーション合成部は、前記動詞動作変換部が解析した基本動作と、前記感情パラメータ解析部が解析した覚醒度および誘意度と、前記強調パラメータ解析部が解析した前記強調度を用いて前記基本モーションデータを取得することを特徴とする請求項3記載のアニメーション作成装置。
  5. 前記強調度は前記動詞修飾語の表示形態に対応付けられ、
    前記強調パラメータ解析部は前記自然文に含まれる前記動詞修飾語の表示形態から前記強調度を解析することを特徴とする請求項4記載のアニメーション作成装置。
  6. 前記表示形態は、文字フォントの種類、スタイル、サイズ、色や、影付き、中抜き、浮き出し、浮き彫りの一つまたは二つ以上の組合せであることを特徴とする請求項5記載のアニメーション作成装置。
  7. 前記自然文に含まれる動詞と動詞修飾語を解析する自然言語解析部を具備したことを特徴とする請求項1から請求項6のいずれかに記載のアニメーション作成装置。
  8. 自然文に含まれる動詞を構成する複数の基本動作を解析するステップと、前記複数の基本動作に対する基本モーションデータを前記自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより合成モーションを生成するステップと、前記合成モーションを用いて前記自然文に対するアニメーションを生成するステップと、を具備したことを特徴とするアニメーション作成方法。
  9. コンピュータに、自然文に含まれる動詞を構成する複数の基本動作を解析するステップと、前記複数の基本動作に対する基本モーションデータを前記自然文に含まれる動詞修飾語の修飾度合いに応じて同期させ合成することにより合成モーションを生成するステップと、前記合成モーションを用いて前記自然文に対するアニメーションを生成するステップと、を行わせることを特徴とするプログラム。
JP2004348700A 2004-12-01 2004-12-01 アニメーション作成装置およびアニメーション作成方法 Pending JP2006155494A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004348700A JP2006155494A (ja) 2004-12-01 2004-12-01 アニメーション作成装置およびアニメーション作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004348700A JP2006155494A (ja) 2004-12-01 2004-12-01 アニメーション作成装置およびアニメーション作成方法

Publications (1)

Publication Number Publication Date
JP2006155494A true JP2006155494A (ja) 2006-06-15

Family

ID=36633674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004348700A Pending JP2006155494A (ja) 2004-12-01 2004-12-01 アニメーション作成装置およびアニメーション作成方法

Country Status (1)

Country Link
JP (1) JP2006155494A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100302254A1 (en) * 2009-05-28 2010-12-02 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
KR20100129122A (ko) * 2009-05-28 2010-12-08 삼성전자주식회사 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템
JP2014167737A (ja) * 2013-02-28 2014-09-11 Kddi Corp 仕草生成装置およびプログラム
CN108986186A (zh) * 2018-08-14 2018-12-11 山东师范大学 文字转化视频的方法和系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100302254A1 (en) * 2009-05-28 2010-12-02 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
KR20100129122A (ko) * 2009-05-28 2010-12-08 삼성전자주식회사 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템
EP2256642A3 (en) * 2009-05-28 2011-05-04 Samsung Electronics Co., Ltd. Animation system for generating animation based on text-based data and user information
KR101628050B1 (ko) 2009-05-28 2016-06-22 삼성전자주식회사 텍스트 기반 데이터를 애니메이션으로 재생하는 애니메이션 시스템
US9665563B2 (en) * 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
JP2014167737A (ja) * 2013-02-28 2014-09-11 Kddi Corp 仕草生成装置およびプログラム
CN108986186A (zh) * 2018-08-14 2018-12-11 山东师范大学 文字转化视频的方法和系统

Similar Documents

Publication Publication Date Title
CN110688911B (zh) 视频处理方法、装置、系统、终端设备及存储介质
US10528801B2 (en) Method and system for incorporating contextual and emotional visualization into electronic communications
Hartmann et al. Implementing expressive gesture synthesis for embodied conversational agents
CN103218842B (zh) 一种语音同步驱动三维人脸口型与面部姿势动画的方法
CN105513125B (zh) 合成图像生成装置及方法、用于执行该方法的记录介质
US9431027B2 (en) Synchronized gesture and speech production for humanoid robots using random numbers
JP2009538462A (ja) テキスト形式の文書に絵的人工物を挿入する装置および方法
CN108492817A (zh) 一种基于虚拟偶像的歌曲数据处理方法及演唱交互系统
JP6711044B2 (ja) 画像処理装置、表示装置、アニメーション生成方法及びプログラム
CN109801349B (zh) 一种声音驱动的三维动画角色实时表情生成方法和系统
KR101089184B1 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
Gu et al. Shape grammars: A key generative design algorithm
JP6201212B2 (ja) キャラクタ生成装置およびプログラム
JP2014109988A (ja) モーション映像生成装置及びモーション映像生成プログラム
JP5877418B2 (ja) シナリオ生成装置およびシナリオ生成方法
JP2005004543A (ja) ユーザインターフェース方法および装置、ならびにコンピュータ・プログラム
CN117032453A (zh) 一种实现互识功能的虚拟现实交互系统
JP2006155494A (ja) アニメーション作成装置およびアニメーション作成方法
KR20010025161A (ko) 감정 처리가 가능한 아바타 메이커 구현 방법
Xiao et al. TypeDance: Creating semantic typographic logos from image through personalized generation
JP4831788B2 (ja) 概念モデル可視化システムとプログラムと記録媒体
JP2015176592A (ja) アニメーション生成装置、アニメーション生成方法およびプログラム
Lin et al. Jigsaw: Supporting Designers in Prototyping Multimodal Applications by Assembling AI Foundation Models
KR100343006B1 (ko) 언어 입력형 얼굴 표정 제어방법
Lin et al. Jigsaw: Supporting Designers to Prototype Multimodal Applications by Chaining AI Foundation Models