JPH10228548A - Animation production system - Google Patents
Animation production systemInfo
- Publication number
- JPH10228548A JPH10228548A JP9031520A JP3152097A JPH10228548A JP H10228548 A JPH10228548 A JP H10228548A JP 9031520 A JP9031520 A JP 9031520A JP 3152097 A JP3152097 A JP 3152097A JP H10228548 A JPH10228548 A JP H10228548A
- Authority
- JP
- Japan
- Prior art keywords
- animation
- timing
- image
- input
- creating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、複数の画像を合成
してアニメーション(動画)を作成するアニメーション
作成システムに関し、特に自然言語により入力されたシ
ナリオを解析してアニメーションを作成するアニメーシ
ョン作成システムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an animation creating system for creating an animation (moving image) by combining a plurality of images, and more particularly to an animation creating system for analyzing a scenario input in a natural language to create an animation. .
【0002】[0002]
【従来の技術】従来のアニメーション作成システムとし
ては、例えば特開昭60−171572号公報に開示さ
れているように、キーボード等の入力手段によりアニメ
ーションのシナリオを文章で入力し、入力された文章シ
ナリオを解析して、目的とするアニメーションを作成す
るものが知られている。2. Description of the Related Art As a conventional animation creation system, for example, as disclosed in Japanese Patent Application Laid-Open No. Sho 60-171572, an animation scenario is input as text by input means such as a keyboard, and the input text scenario is input. Is known to analyze the data and create a desired animation.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記従
来の技術においては、アニメーションのシナリオをキー
ボードやマウス等によって文章で入力する必要があっ
た。そのため、キーボードやマウス等に不慣れなユーザ
にとっては、アニメーションを作成するのに非常に時間
がかかるという問題があった。However, in the above-mentioned prior art, it was necessary to input an animation scenario in a sentence using a keyboard, a mouse or the like. Therefore, there is a problem that it takes a very long time to create an animation for a user unfamiliar with a keyboard, a mouse, and the like.
【0004】また、アニメーション上の人物や物体(以
下、キャラクタ画像)の動作タイミングも言葉によって
入力していたため、ユーザが表現したいスピードを適切
に表現することができなかった。例えば、「ボールがゆ
っくりはねる」という動作を表現するアニメーションを
作成したい場合、「ゆっくり」という言葉に対応するキ
ャラクタ画像の動作速度が予め決められていたため、ユ
ーザの表現したい速度でキャラクタ画像を動作させるア
ニメーションを作成することができないという問題があ
った。In addition, since the operation timing of a person or an object (hereinafter referred to as a character image) on an animation is also input in words, it is not possible to appropriately express the speed desired by the user. For example, when it is desired to create an animation that expresses the motion of “the ball slowly bounces”, since the motion speed of the character image corresponding to the word “slow” is predetermined, the character image is moved at the speed desired by the user. There was a problem that animation could not be created.
【0005】本発明は、上記のような問題を解決するた
めになされたものであり、その第1の目的は、アニメー
ションのシナリオをキーボード等を使用することなく入
力し、キーボードやマウス等に不慣れなユーザであって
も容易に目的とするアニメーションを作成することがで
きるアニメーション作成システムを提供することにあ
る。SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. A first object of the present invention is to input an animation scenario without using a keyboard or the like, and to become unfamiliar with a keyboard or a mouse. An object of the present invention is to provide an animation creating system that enables even a simple user to easily create a desired animation.
【0006】また、本発明の第2の目的は、アニメーシ
ョン上のキャラクタの動作のタイミングの微妙なタイミ
ングを容易に指定することができるアニメーション作成
システムを提供することにある。A second object of the present invention is to provide an animation creating system capable of easily specifying a delicate timing of a motion of a character on an animation.
【0007】[0007]
【課題を解決するための手段】上記第1の目的を達成す
るために、本発明は、作成しようとするアニメーション
のシナリオを音声により入力する音声入力手段と、この
音声入力手段によって入力された音声を認識し、文章シ
ナリオに変換する音声認識手段と、この音声認識手段で
認識した文章シナリオを構成する形態素を解析する文章
解析手段と、この文章解析手段で解析した形態素に対応
する画像を画像データベースから読出し、この読出した
画像によってアニメーションを作成するアニメーション
作成手段とを備えたことを特徴とする。In order to achieve the first object, the present invention provides a voice input means for inputting an animation scenario to be created by voice, and a voice input by the voice input means. Speech recognition means for recognizing a sentence and converting it into a sentence scenario, a sentence analysis means for analyzing morphemes constituting the sentence scenario recognized by the speech recognition means, and an image database corresponding to the morpheme analyzed by the sentence analysis means And an animation creating means for creating an animation based on the read image.
【0008】また、アニメーション上のキャラクタ画像
の動作タイミングを入力する入力手段と、この入力手段
より入力されるタイミングを解析し、キャラクタ画像の
動作タイミングとして設定する手段とを備え、前記アニ
メーション作成手段は、設定されたタイミングに基づい
たアニメーションを作成することを特徴とする。[0008] Further, there is provided input means for inputting the operation timing of the character image on the animation, and means for analyzing the timing input from the input means and setting the timing as the operation timing of the character image. And an animation is created based on the set timing.
【0009】さらに、前記音声入力手段から入力される
断続的な音声の発音タイミングを解析し、キャラクタ画
像の動作のタイミングとして設定する動作タイミング設
定手段とを備え、前記アニメーション作成手段は、設定
された動作タイミングでキャラクタ画像が動作するアニ
メーションを作成することを特徴とする。The apparatus further comprises operation timing setting means for analyzing the timing of intermittent sound input from the sound input means and setting the timing as the operation timing of the character image. An animation in which the character image moves at the movement timing is created.
【0010】また、上記第2の目的を達成するために、
本発明は、作成しようとするアニメーション上のキャラ
クタ画像の動作タイミングを入力する入力手段と、この
記入力手段から入力されるタイミングを解析し、キャラ
クタ画像の動作のタイミングとして設定する動作タイミ
ング設定手段と、設定された動作タイミングでキャラク
タ画像が動作するアニメーションを作成するアニメーシ
ョン作成手段とを有することを特徴とする。In order to achieve the second object,
The present invention provides an input unit for inputting the operation timing of a character image on an animation to be created, an operation timing setting unit for analyzing the timing input from the input unit, and setting the timing as the operation timing of the character image. And animation creating means for creating an animation in which the character image moves at the set operation timing.
【0011】[0011]
【発明の実施の形態】以下、この発明を図示する実施の
形態を参照して詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.
【0012】図1は、本発明を適用したアニメーション
作成システムの実施形態を示すシステム構成図であり、
データ処理装置10、マイクロホンなどの音声を入力す
る装置である音声入力装置20、補助記憶装置30、デ
ィスプレイ装置40、キーボード50、マウス60から
構成される。FIG. 1 is a system configuration diagram showing an embodiment of an animation creation system to which the present invention is applied.
It comprises a data processing device 10, a voice input device 20, which is a device for inputting voice such as a microphone, an auxiliary storage device 30, a display device 40, a keyboard 50, and a mouse 60.
【0013】データ処理装置10は、CPU11及びメ
モリ12から成る。メモリ12には入力された音声シナ
リオを受け付ける音声入力部13、入力された音声シナ
リオを認識し、文章シナリオに変換する音声認識部1
4、認識した文章シナリオを解析し、その文章シナリオ
を構成する形態素に分解する文章解析部15、アニメー
ション中の対象物(キャラクタ画像)の速度を設定する
タイミング設定部16、解析した文章シナリオの形態素
に対応する画像を画像データベース31から読出し、ア
ニメーションを作成するアニメーション作成部17、作
成したアニメーションをディスプレイ装置40に表示す
るアニメーション表示部18を実現するためのプログラ
ムが記憶されている。The data processing device 10 comprises a CPU 11 and a memory 12. The memory 12 has a voice input unit 13 for receiving an input voice scenario, and a voice recognition unit 1 for recognizing the input voice scenario and converting it into a sentence scenario.
4. A sentence analysis unit 15 that analyzes the recognized sentence scenario and decomposes the sentence scenario into morphemes, a timing setting unit 16 that sets the speed of an object (character image) in the animation, a morpheme of the analyzed sentence scenario Are stored from the image database 31 to store an animation creating unit 17 for creating an animation and an animation display unit 18 for displaying the created animation on the display device 40.
【0014】補助記憶装置30には、アニメーションの
作成に使用する各種のキャラクタ画像を記憶している画
像データベース31が格納されている。The auxiliary storage device 30 stores an image database 31 storing various character images used for creating animations.
【0015】次に、図1、図2を用いて本発明の具体的
な処理の流れを説明する。図2は、本発明を適用したア
ニメーション作成システムの処理の流れを表したフロー
チャートである。Next, a specific processing flow of the present invention will be described with reference to FIGS. FIG. 2 is a flowchart showing the flow of processing of the animation creation system to which the present invention is applied.
【0016】まず、ユーザが音声入力装置20より入力
した音声を音声入力部13によりデータ処理装置10に
取り込む(ステップ201)。ここで、ユーザが「ボー
ルが左からゆっくりと跳ねていく。」というシナリオを
音声で入力した場合を例に挙げて説明する。First, the voice input by the user from the voice input device 20 is taken into the data processing device 10 by the voice input unit 13 (step 201). Here, a case where the user inputs a scenario “the ball slowly bounces from the left” by voice will be described as an example.
【0017】まず、ユーザから入力された音声「ボール
が左からゆっくりと跳ねていく。」を音声認識部14に
より認識し、文章シナリオに変換する(ステップ20
2)。音声認識に関しては、公知の技術を利用するの
で、説明を省略する。次に、認識された文章シナリオの
形態素の解析を行ない、複数の形態素に分解する(ステ
ップ203)。形態素解析についても、公知の技術であ
るので、ここでは説明を省略する。First, the voice "ball slowly bounces from the left" input by the user is recognized by the voice recognition unit 14 and converted into a sentence scenario (step 20).
2). Since a known technique is used for speech recognition, the description is omitted. Next, the morpheme of the recognized sentence scenario is analyzed and decomposed into a plurality of morphemes (step 203). Since the morphological analysis is also a known technique, its description is omitted here.
【0018】次に、分解された形態素のうち、名詞と判
定された語(あるいは語句)に対応する画像を画像デー
タベース31より抽出する(ステップ204)。ここで
は、「ボール」が名詞であるので、これに対応する画像
を画像データベース31より抽出する。Next, from the decomposed morphemes, an image corresponding to the word (or phrase) determined to be a noun is extracted from the image database 31 (step 204). Here, since “ball” is a noun, an image corresponding to this is extracted from the image database 31.
【0019】次に、ステップ203で解析した文章シナ
リオ中に、対象画像の初期位置を決定できる語(あるい
は語句)が有るかを判定する(ステップ205)。この
処理を図3を用いて説明する。Next, it is determined whether there is a word (or phrase) that can determine the initial position of the target image in the sentence scenario analyzed in step 203 (step 205). This processing will be described with reference to FIG.
【0020】図3は、語(語句)とその語に対応するキ
ャラクタの初期位置を定義した初期位置定義テーブル3
00を示した図である。この初期位置定義テーブル30
0は、「左から」,「右から」,「上から」などの語3
01に対し、その語301に対応した画像の初期位置座
標302が定義されている。FIG. 3 shows an initial position definition table 3 defining words (phrases) and initial positions of characters corresponding to the words.
FIG. This initial position definition table 30
0 is a word 3 such as "from left", "from right", "from above"
For 01, an initial position coordinate 302 of the image corresponding to the word 301 is defined.
【0021】例えば、「左から」という語については、
初期位置座標(x,y)が(0,0)で示される位置を
初期位置として対象画像を動かすようにする座標値が定
義されている。For example, for the word "from left",
Coordinate values are defined so that the target image is moved with the position where the initial position coordinates (x, y) are indicated by (0, 0) as the initial position.
【0022】ステップ205の処理は、具体的には、こ
の初期位置定義テーブル300に登録された語301に
該当する語が解析した文章シナリオ中にあるかを判定す
る。ここで、初期位置定義テーブル300に登録された
語301に該当する語が、解析した文章シナリオ中にあ
る場合は、その語301に対応する初期位置座標302
を取り出し、対象とするキャラクタ画像の初期位置を決
定する(ステップ206)。Specifically, the process of step 205 determines whether a word corresponding to the word 301 registered in the initial position definition table 300 exists in the analyzed text scenario. Here, when a word corresponding to the word 301 registered in the initial position definition table 300 is present in the analyzed sentence scenario, the initial position coordinates 302 corresponding to the word 301
Is taken out, and the initial position of the target character image is determined (step 206).
【0023】例えば、「ボールが左からゆっくりと跳ね
ていく。」という文章シナリオ中には、「左から」とい
う初期位置を決定する語が含まれているので、この語に
対応する初期位置(0,0)を初期位置定義テーブル3
00から取り出し、対象画像「ボール」の初期位置とし
て決定する。For example, in the sentence scenario "the ball slowly bounces from the left.", A word that determines the initial position "from the left" is included. (0,0) is the initial position definition table 3
00 and is determined as the initial position of the target image “ball”.
【0024】ステップ205で、初期位置を決定する語
句が無いと判定した場合には、ユーザに入力を促し、初
期位置をキーボード50またはマウス60から入力させ
て決定する(ステップ207)。If it is determined in step 205 that there is no word for determining the initial position, the user is prompted to input, and the initial position is input from the keyboard 50 or the mouse 60 to determine (step 207).
【0025】次に、「跳ねて」に対応するキャラクタ画
像の移動座標を、図4に示す動作401を表す語とその
語に対応する初期位置からのキャラクタ画像の移動座標
402を定義した移動座標テーブル400から検索した
後、動作のタイミングを入力するか否かを決める動作タ
イミング設定コマンドを入力する(ステップ208)。Next, the moving coordinates of the character image corresponding to "bounce" are defined by the words representing the operation 401 shown in FIG. 4 and the moving coordinates 402 of the character image from the initial position corresponding to the word. After searching the table 400, an operation timing setting command for determining whether or not to input an operation timing is input (step 208).
【0026】次に、タイミングの入力モードを決定する
(ステップ209)。ここで、モードが音声入力の場合
は、動作タイミングをユーザが音声入力装置20より音
声により入力し(ステップ210)、その入力された音
声の間隔を音声認識部14が解析してタイミング設定部
16が記憶する(ステップ211)。記憶されたタイミ
ングとキャラクタ画像の動作とをアニメーション作成部
17が対応づける(ステップ212)。ステップ209
で、キー入力が選択された場合は、ユーザはキーボード
50のキーを叩くかマウス60をクリックすることによ
り、キャラクタ画像の動作タイミングを入力する。Next, a timing input mode is determined (step 209). Here, when the mode is voice input, the user inputs the operation timing by voice from the voice input device 20 (step 210), and the voice recognition unit analyzes the interval between the input voices and analyzes the timing. Is stored (step 211). The animation creating unit 17 associates the stored timing with the motion of the character image (step 212). Step 209
When the key input is selected, the user inputs the operation timing of the character image by hitting a key on the keyboard 50 or clicking the mouse 60.
【0027】ステップ210から212の処理のイメー
ジを図5を用いて説明する。図5は、アニメーション上
のキャラクタ画像とユーザにより入力された動作タイミ
ングの対応づけの概念を示した図である。An image of the processing of steps 210 to 212 will be described with reference to FIG. FIG. 5 is a diagram illustrating a concept of associating a character image on an animation with a motion timing input by a user.
【0028】図5に示すように、例えば「トン、トン、
トン」のように、ユーザが音声入力すると、その各「ト
ン」の発音の間隔t1,t2,……を音声認識部14が
解析し、タイミング設定部16に記憶させる。こうし
て、図5の501から506のようにキーとなる「ボー
ル」画像とその表示タイミングが確定する。ステップ2
09で、キー入力が選択された場合は、ユーザはキーボ
ード50のキーを叩くかマウス60をクリックすること
により、キャラクタ画像の動作タイミングを入力する。As shown in FIG. 5, for example, "ton, ton,
When the user inputs a voice such as "ton", the voice recognition unit 14 analyzes the pronunciation intervals t1, t2,... Of each "ton", and stores it in the timing setting unit 16. In this way, the “ball” image serving as a key and its display timing are determined as indicated by 501 to 506 in FIG. Step 2
If the key input is selected in step 09, the user inputs the operation timing of the character image by hitting a key on the keyboard 50 or clicking the mouse 60.
【0029】アニメーションのキーとなるキャラクタ画
像とそのキャラクタ画像を表示するタイミングが確定す
ると、アニメーション作成部17は、タイミング設定部
16に記憶された「トン」の発音タイミングに合わせて
図4の移動座標テーブル400から検索した移動座標4
02で示される座標に「ボール」の画像を順次移動させ
て表示するアニメーションデータを作成する(ステップ
214)。When the character image serving as the key of the animation and the timing for displaying the character image are determined, the animation creating unit 17 adjusts the moving coordinates shown in FIG. Moving coordinates 4 retrieved from table 400
Animation data for displaying the image of the "ball" sequentially moved to the coordinates indicated by 02 is created (step 214).
【0030】アニメーション表示部18は、アニメーシ
ョン作成部17により作成されたアニメーションデータ
に基づくアニメーション画像をディスプレイ40に表示
する(ステップ215)。The animation display unit 18 displays an animation image based on the animation data created by the animation creation unit 17 on the display 40 (step 215).
【0031】このようにして、キーボードなどから文章
シナリオを入力することなしに、シナリオに対応するア
ニメーションの作成が可能となり、また、アニメーショ
ン上のキャラクタの動作タイミングの微妙な設定も容易
に行うことが可能となる。これらの組み合わせによっ
て、キーボード等の操作に不慣れなユーザであっても、
ストーリーのあるアニメーションを容易に作成できる。In this manner, an animation corresponding to a scenario can be created without inputting a sentence scenario from a keyboard or the like, and delicate setting of the motion timing of a character on the animation can be easily performed. It becomes possible. With these combinations, even users who are unfamiliar with keyboard and other operations,
You can easily create an animation with a story.
【0032】なお、上記実施形態において、アニメーシ
ョンを構成するキャラクタ画像が既に作成されている場
合、その動作タイミングを音声入力またはキー入力する
のみで、微妙な動きのアニメーションを作成することが
できる。In the above embodiment, if a character image constituting an animation has already been created, a delicate motion animation can be created only by inputting a voice or a key at the operation timing.
【0033】[0033]
【発明の効果】以上説明したように、本発明において
は、マイクロフォンなどの音声入力手段により入力され
た音声によるアニメーションのシナリオを認識し、その
認識した文章シナリオの形態素を解析し、アニメーショ
ンを作成するようにしたため、キーボード等の操作に不
慣れなユーザであっても、マウスやキーボードによって
ストーリーを文章で入力することなく、ストーリーを有
するアニメーションを簡単に作成することができる。As described above, according to the present invention, an animation scenario by voice input by voice input means such as a microphone is recognized, a morpheme of the recognized text scenario is analyzed, and an animation is created. Thus, even a user who is unfamiliar with the operation of a keyboard or the like can easily create an animation having a story without inputting the story with a mouse or a keyboard.
【0034】また、アニメーション上のキャラクタ画像
の動作タイミングを音声やキーボード等の入力デバイス
から入力するように構成したので、微妙なキャラクタの
動作タイミングを表現するアニメーションの作成が可能
になるなどの効果がある。Further, since the operation timing of the character image on the animation is input from an input device such as a voice or a keyboard, it is possible to create an animation expressing the subtle character operation timing. is there.
【図1】本発明を適用したアニメーション作成システム
の実施形態を示すシステム構成図である。FIG. 1 is a system configuration diagram showing an embodiment of an animation creation system to which the present invention is applied.
【図2】本発明を適用したアニメーション作成システム
の処理の流れを示したフローチャートである。FIG. 2 is a flowchart showing a processing flow of an animation creating system to which the present invention is applied.
【図3】位置を示す語とそれに対応する初期位置座標を
定義したテーブルの構成図である。FIG. 3 is a configuration diagram of a table defining words indicating positions and initial position coordinates corresponding to the words;
【図4】キャラクタ画像の動作と対応移動座標を定義し
たテーブルの構成図である。FIG. 4 is a configuration diagram of a table that defines a motion of a character image and corresponding movement coordinates.
【図5】キャラクタ画像の動作タイミングの設定の概念
を示した概念図である。FIG. 5 is a conceptual diagram showing the concept of setting the operation timing of a character image.
10…データ処理装置、11…CPU、12…メモリ、
13…音声入力部、14…音声認識部、15…文章解析
部、16…タイミング設定部、17…アニメーション作
成部、18…アニメーション表示部、20…音声入力装
置、30…補助記憶装置、31…画像データベース、4
0…ディスプレイ装置、50…キーボード、60…マウ
ス。10 data processing device, 11 CPU, 12 memory
13 voice input unit, 14 voice recognition unit, 15 text analysis unit, 16 timing setting unit, 17 animation creation unit, 18 animation display unit, 20 voice input device, 30 auxiliary storage device, 31 Image database, 4
0: display device, 50: keyboard, 60: mouse.
Claims (4)
用してアニメーションを作成するアニメーションシステ
ムであって、 作成しようとするアニメーションのシナリオを音声によ
り入力する音声入力手段と、この音声入力手段によって
入力された音声を認識し、文章シナリオに変換する音声
認識手段と、この音声認識手段で認識した文章シナリオ
を構成する形態素を解析する文章解析手段と、この文章
解析手段で解析した形態素に対応する画像を前記画像デ
ータベースから読出し、この読出した画像によってアニ
メーションを作成するアニメーション作成手段と、を備
えたことを特徴とするアニメーション作成システム。1. An animation system for creating an animation using an image stored in an image database, comprising: a voice input unit for inputting an animation scenario to be generated by voice; Speech recognition means for recognizing the speech and converting it to a sentence scenario, a sentence analysis means for analyzing the morphemes constituting the sentence scenario recognized by the speech recognition means, and an image corresponding to the morpheme analyzed by the sentence analysis means. Animation creating means for reading from the image database and creating an animation based on the read image.
作タイミングを入力する入力手段と、この入力手段より
入力されるタイミングを解析し、キャラクタ画像の動作
タイミングとして設定する手段とをさらに備え、前記ア
ニメーション作成手段は、設定されたタイミングに基づ
いたアニメーションを作成することを特徴とする請求項
1記載のアニメーション作成システム。2. An animation creating means further comprising: input means for inputting a motion timing of a character image on an animation; and means for analyzing a timing input from the input means and setting the timing as a motion timing of the character image. 2. The animation creating system according to claim 1, wherein the creates an animation based on the set timing.
な音声の発音タイミングを解析し、キャラクタ画像の動
作のタイミングとして設定する動作タイミング設定手段
とをさらに備え、前記アニメーション作成手段は、設定
された動作タイミングでキャラクタ画像が動作するアニ
メーションを作成することを特徴とする請求項1記載の
アニメーション作成システム。3. An operation timing setting means for analyzing timing of intermittent sound input from the sound input means and setting the timing as a movement timing of a character image, wherein the animation creating means comprises 2. The animation creating system according to claim 1, wherein an animation in which the character image moves at the set movement timing is created.
用してアニメーションを作成するアニメーション作成シ
ステムであって、 作成しようとするアニメーション上のキャラクタの動作
タイミングを入力する入力手段と、この入力手段から入
力されるタイミングを解析し、キャラクタ画像の動作の
タイミングとして設定する動作タイミング設定手段と、
設定された動作タイミングでキャラクタ画像が動作する
アニメーションを作成するアニメーション作成手段と、
を備えることを特徴とするアニメーション作成システ
ム。4. An animation creation system for creating an animation using an image stored in an image database, comprising: input means for inputting a motion timing of a character on an animation to be created; and input from the input means. Operation timing setting means for analyzing the timing to be performed and setting the timing as the operation timing of the character image;
Animation creating means for creating an animation in which the character image operates at the set operation timing,
An animation creation system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9031520A JPH10228548A (en) | 1997-02-17 | 1997-02-17 | Animation production system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9031520A JPH10228548A (en) | 1997-02-17 | 1997-02-17 | Animation production system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH10228548A true JPH10228548A (en) | 1998-08-25 |
Family
ID=12333478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9031520A Pending JPH10228548A (en) | 1997-02-17 | 1997-02-17 | Animation production system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH10228548A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1211905A3 (en) * | 2000-12-04 | 2003-05-07 | Hudson Soft Co., Ltd. | Picture book production system, server for producing picture book and recording medium |
-
1997
- 1997-02-17 JP JP9031520A patent/JPH10228548A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1211905A3 (en) * | 2000-12-04 | 2003-05-07 | Hudson Soft Co., Ltd. | Picture book production system, server for producing picture book and recording medium |
US7162197B2 (en) | 2000-12-04 | 2007-01-09 | Hudson Soft Co., Ltd. | Picture book production system, server for producing picture book, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115082602B (en) | Method for generating digital person, training method, training device, training equipment and training medium for model | |
CN112650831A (en) | Virtual image generation method and device, storage medium and electronic equipment | |
JP3581881B2 (en) | Voice complement method, apparatus and recording medium | |
JP4729902B2 (en) | Spoken dialogue system | |
JPS63225875A (en) | Speech synthesization animation | |
JP2002116796A (en) | Voice processor and method for voice processing and storage medium | |
Delgado et al. | Spoken, multilingual and multimodal dialogue systems: development and assessment | |
JP3992348B2 (en) | Morphological analysis method and apparatus, and Japanese morphological analysis method and apparatus | |
WO2024114389A1 (en) | Interaction method and apparatus, device, and storage medium | |
US11176943B2 (en) | Voice recognition device, voice recognition method, and computer program product | |
JP2006236037A (en) | Voice interaction content creation method, device, program and recording medium | |
JP2005031259A (en) | Natural language processing method | |
Androutsopoulos et al. | Generating multilingual personalized descriptions of museum exhibits-The M-PIRO project | |
JPH10228548A (en) | Animation production system | |
JP7363107B2 (en) | Idea support devices, idea support systems and programs | |
JP3762300B2 (en) | Text input processing apparatus and method, and program | |
JPS6180362A (en) | Translation system | |
JP2002268667A (en) | Presentation system and control method therefor | |
CN110782514A (en) | Mouth shape switching rendering system and method based on unreal engine | |
JPH08272388A (en) | Device and method for synthesizing voice | |
JP2007122510A (en) | Presenting device and presenting program | |
JP2003288098A (en) | Device, method and program of dictation | |
JPH08194494A (en) | Sentence analyzing method and device | |
JP2022169012A (en) | Editing device, voice synthesis device and program | |
JP4797307B2 (en) | Speech recognition apparatus and speech recognition method |