JPH08123976A - Animation generating device - Google Patents

Animation generating device

Info

Publication number
JPH08123976A
JPH08123976A JP26532394A JP26532394A JPH08123976A JP H08123976 A JPH08123976 A JP H08123976A JP 26532394 A JP26532394 A JP 26532394A JP 26532394 A JP26532394 A JP 26532394A JP H08123976 A JPH08123976 A JP H08123976A
Authority
JP
Japan
Prior art keywords
animation
information
foreground
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26532394A
Other languages
Japanese (ja)
Inventor
Shusaku Okamoto
修作 岡本
Toshiyuki Maeda
利之 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP26532394A priority Critical patent/JPH08123976A/en
Publication of JPH08123976A publication Critical patent/JPH08123976A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: To save the trouble to edit an animation by acquiring information, required to edit the animation, from a scenario wherein the contents of the animation are described automatically to some extent. CONSTITUTION: This device is equipped with a scenario analysis part 113 which analyzes the structure of scenario sentences by using the knowledge of a scenario analytic dictionary 112, an animation information extraction part 115 which extracts animation information from the analytic result and stores it in an animation information storage part 114, an animation editing part 120 which performs the necessary editing of the animation information stored in the animation information storage part 114 and the addition of new information, and an animation control part 121 which sends sound information to a voice synthesis part 109 and image information to an image display part 108 while controlling a voice signal processing part 110 on the basis of the stored animation information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、コンピュータを用いて
アニメーションを作成する装置に関し、特にシナリオと
いう言葉で書かれた情報を入力とし、前記シナリオ情報
をもとに、アニメーションの作成作業の一部を自動化す
ることにより、効率良くアニメーションを作成できるア
ニメーション作成装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for creating animation using a computer, and in particular, a part of an animation creating work based on the scenario information, using information written in the word scenario as input. The present invention relates to an animation creating device capable of efficiently creating an animation by automating.

【0002】[0002]

【従来の技術】アニメーションは、マルチメディアを駆
使したアプリケーションの一つとして古くから人々に親
しまれている。ところが、一コマ毎に少しずつ異なる絵
を描くという特殊な能力を必要とすること、大量のセル
画(1秒で16コマ程度)を描く必要があるため作成に
膨大な手間を要すること、のため、誰でも容易に作るこ
とができないことが問題であった。
2. Description of the Related Art Animation has long been popular with people as one of applications that make full use of multimedia. However, it requires a special ability to draw a slightly different picture for each frame, and it requires enormous effort to create a large number of cel images (about 16 frames per second). Therefore, the problem was that no one could easily make it.

【0003】しかしながら、近年、コンピュータの処理
能力の飛躍的な向上により、文字情報のみでなく、音
声、静止画、動画などのさまざまな情報メディアをコン
ピュータで扱うことが可能になってきた。これに伴い、
コンピュータを使ってアニメーションを作成する方法が
種々開発されており、代表的なものとしてセル画を単位
としたフィルムモデルに基づくアニメーション作成装置
がある。
However, in recent years, due to the dramatic improvement in the processing capability of computers, it has become possible for computers to handle not only character information but also various information media such as voices, still images, and moving images. With this,
Various methods of creating animation using a computer have been developed, and a representative one is an animation creating apparatus based on a film model in which a cel image is a unit.

【0004】フィルムモデルに基づくアニメーション作
成装置は、アニメーションを構成するフィルムの一コマ
毎に少しずつ異なる絵を描くという従来の机上で行なっ
ていたアニメーション作成の環境をコンピュータ上に実
現したものである。即ち、まずシナリオを書き、そのシ
ナリオを参照しながらアニメーションの内容を頭に思い
浮かべ、それを1コマずつコンピュータの画面に表示さ
れたセルに描き込んでゆくものである。
An animation creating apparatus based on a film model realizes on a computer an environment for creating an animation, which is performed on a conventional desk, in which a slightly different picture is drawn for each frame of a film forming an animation. That is, first, a scenario is written, the content of the animation is thought in mind while referring to the scenario, and the frame is drawn frame by frame in a cell displayed on the computer screen.

【0005】この方法は非常に単純であり、作成したセ
ル画をすぐにアニメーションとして再生しその内容を確
認できること、セル画の修正が描画ツールを用いること
で容易であること、特に連続するコマの間に新たにコマ
を挿入する場合、画像処理の技術を駆使することによ
り、挿入するコマの絵を半自動で生成することができる
ことなど、コンピュータの持つ能力を生かしてアニメー
ション作成を効率化することができる。かくのごとく、
従来開発されてきたフィルムモデルに基づいたアニメー
ション作成システムでは、アニメーションを構成する各
セルの描画の効率については、従来の手描きの場合と比
較すると向上した。
This method is very simple, and it is possible to immediately reproduce the created cel image as an animation and check its contents. It is easy to correct the cel image by using a drawing tool, especially for consecutive frames. When inserting a new frame in between, by making full use of image processing technology, it is possible to semi-automatically generate a picture of the frame to be inserted, and it is possible to make animation creation more efficient by utilizing the power of the computer. it can. Like this,
In the conventionally developed animation creation system based on the film model, the efficiency of drawing each cell that composes the animation is improved as compared with the conventional handwriting.

【0006】しかしながらアニメーション作成の手順
は、基本的に手描きの場合と同様にシナリオに基づいて
一コマずつ描いていくことに変わりはない。すなわち、
最初に言語で記述されたシナリオから、アニメーション
に必要となる登場人物の動画像や背景画像の描画、それ
らの画像のアニメーション上で登場させる順序の編集な
どをすべて人手によって行なわねばならない。またアニ
メーションに使用する、素材としての画像がデータベー
スに蓄えられている場合もあるが、その場合でも従来の
アニメーション作成システムは、前記画像を再利用する
際に、各々のデータに対応したファイル名によって元の
データを得る方法しか与えられておらず、データのファ
イル数が増加するに従って、所望のデータの検索にかか
る手間も増加するという問題が生じる。すなわち、従来
のシステムを用いて作成されたアニメーションの一部を
別のアニメーションの作成において再利用できるように
し、さらにアニメーション作成の効率化を図ることまで
は考慮されていない。
However, the procedure for creating an animation is basically the same as in the case of hand-drawing, in which each frame is drawn based on a scenario. That is,
From the scenario first described in the language, it is necessary to manually draw the moving images and background images of the characters required for animation, and edit the order in which those images appear in the animation. In some cases, images used as materials for animation are stored in the database, but even in that case, the conventional animation creation system uses the file name corresponding to each data when reusing the images. Only the method of obtaining the original data is provided, and as the number of data files increases, there is a problem that the time and effort required to search for desired data also increase. That is, it is not taken into consideration that a part of the animation created using the conventional system can be reused in the creation of another animation and the efficiency of the animation creation is further improved.

【0007】上記のフィルムモデルとは全く異なる観点
で開発された方法として、オブジェクトモデルに基づく
アニメーション作成装置がある。この方法は、アニメー
ションに登場する個々の登場物に知識を与え、この知識
を用いて登場物の振舞いを推論することで、アニメーシ
ョンを自動的に再生させようとするものである。具体的
には、登場物のそれぞれについて振舞い方を、それを決
めるいくつかのパラメータによって定義する。アニメー
ションの作成者は、登場物のそれぞれについてこれらの
パラメータに適当な初期値を設定する。パラメータが設
定されると、後は、各々の登場物が周囲の状況を認知
し、状況と自分自身に設定されたパラメータの値に応じ
て振舞い方を推論し、自動で振舞いを生成する。かくの
ごとく、この方法ではそれぞれの登場物の振舞い方を決
めるパラメータ設定だけでアニメーションが生成できる
という利点がある。
An animation creating apparatus based on an object model is a method developed from the viewpoint completely different from the above film model. This method attempts to automatically reproduce an animation by giving knowledge to each of the appearances in the animation and inferring the behavior of the appearance using this knowledge. Specifically, the behavior of each appearance is defined by some parameters that determine it. The animation creator sets appropriate initial values for these parameters for each appearance. After the parameters are set, each appearance recognizes the surrounding situation, infers the behavior according to the situation and the value of the parameter set for itself, and automatically generates the behavior. As described above, this method has an advantage that an animation can be generated only by setting parameters that determine the behavior of each appearance thing.

【0008】しかしながら、この方法でアニメーション
を作成する場合、前記パラメータをどのような値に設定
するかが問題となる。即ち、ある初期値を与えておい
て、あとは登場物が勝手に周りの状況を判断しつつ適当
に進行していくアニメーションを作るには、上記の方法
は適当であるが、すでにアニメーションのシナリオが確
定しており、それに基づいてアニメーションを作成する
場合、前記シナリオの内容に一致するように前記それぞ
れの登場物のパラメータの設定をすることが困難となる
ため、シナリオに基づいてアニメーションを作成する場
合には、本方法を適用することは適当でない。
However, when an animation is created by this method, there is a problem in what value the parameter is set to. That is, the above method is suitable for creating an animation in which an initial object is given a certain initial value, and then the appearance object arbitrarily decides the surrounding situation, but the animation scenario is already used. Has been decided, and when creating an animation based on it, it is difficult to set the parameters of each of the appearance items so as to match the contents of the scenario, so create an animation based on the scenario. In some cases, it is not appropriate to apply this method.

【0009】尚、上記フィルムモデルに基づくアニメー
ション作成システムの従来の開発例として、マクロマイ
ンド(MacriMind)社の「マクロマインドディレクター
(MacriMind Director)」が、また、上記オブジェク
トモデルに基づくアニメーション作成方法として、例え
ば、文献[坂本、浜田、John Z.、''インタラクティブア
ニメーション記述言語とその処理系「AV-Script」''、
情報処理学会研究報告、92-IM-6, Vol.92、No.34、pp.2
5-32、1992年5月]に開示の方法がある。
As a conventional development example of the animation creating system based on the film model, "MacriMind Director" of Macromind (MacriMind) Co., Ltd., and as an animation creating method based on the object model, For example, refer to [Sakamoto, Hamada, John Z., "Interactive animation description language and its processing system" AV-Script "",
IPSJ Research Report, 92-IM-6, Vol.92, No.34, pp.2
5-32, May 1992].

【0010】[0010]

【発明が解決しようとする課題】シナリオの内容に沿っ
てアニメーションを作成する場合、前記作成作業のさら
なる効率化を図るためには、従来のシステムにおいて人
手で行なっていた作業の一部を自動化することが課題と
なる。具体的には、言語で記述されたシナリオからアニ
メーションのもとになる各セルの描画を、すべて人手に
よって行なうのではなく、自然言語で記述されたシナリ
オを自然言語処理技術を用いて解析し、前記解析結果を
参照して、アニメーションの背景などで用いられる静止
画及び登場人物などとして用いられる動画の検索、前記
検索された画像をアニメーション上で登場させる順番、
前記登場人物のセリフの抽出など自動化することで、ア
ニメーション作成作業の効率化を図ることが課題とな
る。
When an animation is created according to the contents of a scenario, in order to further improve the efficiency of the creation work, a part of the work manually performed in the conventional system is automated. That is a challenge. Specifically, instead of manually drawing each cell that is the source of the animation from the scenario described in the language, the scenario described in the natural language is analyzed using natural language processing technology, Referring to the analysis result, search for a still image used as a background of animation and a moving image used as a character, the order in which the searched image appears in the animation,
By automating the lines of the characters, it is an issue to improve the efficiency of the animation creation work.

【0011】また、通常、アニメーションは登場人物の
動きを表す画像を背景画像に重ね合わせて作成するの
で、舞台背景としての背景画像、舞台の小道具として静
止した状態で使われる前景画像、動きを伴う登場人物画
像をデータ化し、ファイルとしてディスクに保存してお
き、前記ファイルを再利用することは有効である。従っ
て、データベースに前記ファイルを格納する際に格納ス
ペースの効率化を図ること、及びデータベースに格納さ
れた前記ファイルの検索を容易にすることが課題とな
る。
In addition, since an animation is usually created by superimposing an image showing the movement of a character on a background image, a background image as a stage background, a foreground image used as a stationary prop for the stage, and movement are involved. It is effective to convert the character image into data, save it in a disk as a file, and reuse the file. Therefore, it is an object to make the storage space efficient when storing the file in the database and to facilitate the search of the file stored in the database.

【0012】本発明は上記課題を解決するもので、アニ
メーションの内容を記述したシナリオから、アニメーシ
ョンの編集に必要となる情報をある程度自動で獲得する
ことにより、アニメーションの編集の手間を軽減させる
ようにするアニメーション作成装置を提供することを目
的とする。
The present invention solves the above-mentioned problems, and reduces the trouble of editing animation by automatically obtaining the information necessary for editing the animation to some extent from the scenario describing the contents of the animation. It is an object of the present invention to provide an animation creating device that does.

【0013】[0013]

【課題を解決するための手段】本発明は上記目的を達成
するため、自然言語を解析するために必要な情報を記憶
する言語辞書と、前記言語辞書に記憶されている情報を
用いて自然言語を解析する自然言語処理部と、アニメー
ションに使用する画像を蓄積する画像データベースと、
アニメーションに使用する画像の画像データベースへの
登録及び画像データベースからの検索を行なう画像デー
タベース管理部と、前記画像データを表示する画像表示
部と、自然言語を入力し前記自然言語を音声信号に変換
する音声合成部と、音声信号に処理を施す音声信号処理
部と、シナリオ文を入力するシナリオ入力部と、シナリ
オ文の構造を解析するために必要な知識を記憶するシナ
リオ解析辞書と、前記シナリオ解析辞書に記憶されてい
る知識を用いてシナリオ文の構造を解析するシナリオ解
析部と、アニメーションの再生に必要な情報であるアニ
メーション情報を記憶するアニメーション情報記憶部
と、シナリオ文の構造の解析結果から前記アニメーショ
ン情報を抽出し、前記アニメーション情報記憶部に記憶
するアニメーション情報抽出部と、アニメーション情報
記憶部に記憶されているアニメーション情報に、必要で
あれば、編集を加えまた新たな情報の追加を行なうアニ
メーション編集部と、アニメーション情報記憶部に記憶
されているアニメーション情報に基づいて前記音声信号
処理部を制御しつつ、アニメーションの再生に必要な情
報として、音声情報を前記音声合成部へまた画像情報を
画像表示部へそれぞれ送るアニメーション制御部とから
なる構成を有する。
In order to achieve the above object, the present invention uses a language dictionary for storing information necessary for analyzing a natural language and a natural language using the information stored in the language dictionary. A natural language processing unit that analyzes the image, an image database that stores the images used for animation,
An image database management unit that registers an image used for animation in the image database and searches from the image database, an image display unit that displays the image data, and inputs a natural language to convert the natural language into a voice signal. A voice synthesis unit, a voice signal processing unit that processes a voice signal, a scenario input unit that inputs a scenario sentence, a scenario analysis dictionary that stores knowledge necessary for analyzing the structure of the scenario sentence, and the scenario analysis unit. From the scenario analysis unit that analyzes the structure of the scenario sentence using the knowledge stored in the dictionary, the animation information storage unit that stores the animation information that is the information necessary for playing the animation, and the analysis result of the structure of the scenario sentence. Animation for extracting the animation information and storing it in the animation information storage unit The information extraction unit and the animation information stored in the animation information storage unit and the animation editing unit that edits the animation information stored in the animation information storage unit if necessary and adds new information. While controlling the audio signal processing unit based on the above, as an information necessary for reproducing the animation, an audio control unit for sending audio information to the audio synthesis unit and image information to the image display unit, respectively.

【0014】[0014]

【作用】アニメーションの作成者は、作成したいアニメ
ーションの内容を書いたシナリオをシナリオ入力部に入
力する。入力されたシナリオは、シナリオ解析部に送ら
れ、シナリオの構造が解析される。続いてアニメーショ
ン情報抽出部で、解析されたシナリオの構造からアニメ
ーションの再生に必要なアニメーション情報を抽出す
る。さらに、アニメーションの作成者は、前記抽出され
たアニメーション情報を参照しつつ、アニメーションの
再生に不足している情報を追加し、また、前記情報に変
更を加え、アニメーション情報を完成させる。
Operation: The creator of the animation inputs the scenario in which the contents of the animation to be created are written in the scenario input section. The input scenario is sent to the scenario analysis section, and the structure of the scenario is analyzed. Subsequently, the animation information extraction unit extracts animation information necessary for reproducing the animation from the analyzed scenario structure. Further, the creator of the animation adds the information that is insufficient for the reproduction of the animation while referring to the extracted animation information, and changes the information to complete the animation information.

【0015】最後に、前記アニメーション情報をアニメ
ーション制御部に送り、アニメーション制御部で、アニ
メーション情報記憶部のアニメーション情報に基き、音
声信号処理部を制御しつつ、アニメーションを再生する
ために必要な情報として、音声情報を音声合成部へ、ま
た、画像情報を画像表示部へそれぞれ送る。音声合成部
では入力文字列を音声信号に変換し、さらに音声信号処
理部で前記音声信号に変換を施して音声出力部で前記変
換した音声を出力する。画像表示部では、再生速度に応
じて背景画像と前景画像を合成し出力する。
Finally, the animation information is sent to the animation control unit, and the animation control unit controls the audio signal processing unit on the basis of the animation information in the animation information storage unit to obtain the information necessary for reproducing the animation. , Voice information to the voice synthesizer and image information to the image display unit. The voice synthesis unit converts the input character string into a voice signal, the voice signal processing unit converts the voice signal, and the voice output unit outputs the converted voice. In the image display unit, the background image and the foreground image are combined and output according to the reproduction speed.

【0016】[0016]

【実施例】以下、本発明によるアニメーション作成装置
の一実施例を図面を用いて説明する。図1は、本発明の
一実施例におけるアニメーション作成装置の構成を示し
たブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of an animation creating apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of an animation creating apparatus according to an embodiment of the present invention.

【0017】本実施例のアニメーション作成装置は、言
語辞書101、自然言語処理部102、画像データ記憶部10
3、アニメブラシデータ記憶部104、画像検索テーブル10
5 からなる画像データベース106、画像データベース管
理部107、画像表示部108 、音声合成部109、音声信号処
理部110、シナリオ入力部111と、シナリオ解析辞書11
2、シナリオ解析部113と、アニメーション情報記憶部11
4、アニメーション情報抽出部115、アニメーション編集
部120、アニメーション制御部121、画像入力部122、特
徴抽出部123、画像切り出し編集部124、音声出力部125
から構成される。
The animation creating apparatus of this embodiment comprises a language dictionary 101, a natural language processing section 102, and an image data storage section 10.
3, anime brush data storage unit 104, image search table 10
5, an image database 106, an image database management unit 107, an image display unit 108, a voice synthesis unit 109, a voice signal processing unit 110, a scenario input unit 111, and a scenario analysis dictionary 11
2. Scenario analysis unit 113 and animation information storage unit 11
4, animation information extraction unit 115, animation editing unit 120, animation control unit 121, image input unit 122, feature extraction unit 123, image cutout editing unit 124, audio output unit 125
Consists of

【0018】また図13に示してあるように、アニメー
ション編集部120 は、対象移動経路編集部116 、対象移
動距離演算部117 、対象移動速度編集部118 、対象移動
速度演算部119から構成される。
As shown in FIG. 13, the animation editing unit 120 is composed of a target moving route editing unit 116, a target moving distance calculating unit 117, a target moving speed editing unit 118, and a target moving speed calculating unit 119. .

【0019】次に、アニメーション作成装置を構成する
上記各部での処理の内容について説明する。まず、アニ
メーション作成装置画像データベース106 は、画像デー
タ記憶部103、アニメブラシデータ記憶部104及び画像検
索テーブル105 から構成される。図2は画像データベー
ス106 の構成例を示したもので、図2(a)、図2(b)、図
2(d),(e)は、それぞれこの順序で、画像データ記憶部1
03に記憶されている画像データの内容を示した概念図、
アニメブラシデータ記憶部104 の記述例を示した図、画
像検索テーブル105 の記述例を示した図である。
Next, the contents of the processing in each of the above-mentioned parts constituting the animation creating apparatus will be described. First, the animation creating device image database 106 includes an image data storage unit 103, an animation brush data storage unit 104, and an image search table 105. FIG. 2 shows an example of the configuration of the image database 106. FIGS. 2A, 2B, 2D, and 2E show the image data storage unit 1 in this order.
A conceptual diagram showing the contents of the image data stored in 03,
4A and 4B are diagrams showing a description example of an animation brush data storage unit 104 and a description example of an image search table 105.

【0020】以下、画像データベース106 の上記3つの
構成要素について説明する。画像データは、各画素の情
報を記述する画素データと、画像内容に関する情報とし
て対象属性とファイル名とを記述する属性情報とからな
るデータのことで、画像データ記憶部103 は画像データ
を記憶する。
The above-mentioned three components of the image database 106 will be described below. The image data is data that includes pixel data that describes information about each pixel and attribute information that describes a target attribute and a file name as information about image content. The image data storage unit 103 stores the image data. .

【0021】例えば図2(a)の例では3つの画像データ
が示されているが、対象属性はいずれも「Parts」と、
また、ファイル名は左から順に「Kenchan-1.img, Kench
an-2.img, Kenchan-3.img」と記されている。前記の「P
arts」とは 該画像データが前景対象を表したものであ
ることを示しており、もし背景対象を表す画像データで
あれば、対象属性として「BackGround」などと記述して
前景対象と区別できるようにすればよい。前記前景対象
ならびに背景対象の意味については、後のアニメーショ
ン情報抽出部115 の説明において説明する。なお、前記
画像データの前記属性情報並びに画素データの記録方法
は公知の技術であるので、前記記録方法の説明について
は省略する。
For example, in the example of FIG. 2A, three image data are shown, but the target attributes are all "Parts",
Also, the file names are from the left in order `` Kenchan-1.img, Kench
an-2.img, Kenchan-3.img ”. The above "P
“Arts” indicates that the image data represents a foreground target, and if the image data represents a background target, it can be distinguished from the foreground target by describing “BackGround” as a target attribute. You can do this. The meanings of the foreground object and the background object will be described later in the explanation of the animation information extracting unit 115. Since the method of recording the attribute information of the image data and the pixel data is a known technique, the description of the recording method will be omitted.

【0022】ここでアニメブラシデータとは、アニメー
ションを構成する画像データの組を順序を付けて一つに
まとめたデータ、もしくは、アニメーションを構成する
画像データへのポインタの組を順序を付けて一つにまと
めたデータのことで、アニメブラシデータ記憶部104 で
は前記アニメブラシデータを記憶する。
Here, the animation brush data is data in which a set of image data forming an animation is ordered and put together, or a set of pointers to image data forming an animation is set in order. The data collected as one is stored in the anime brush data storage unit 104.

【0023】例えば図2(b)の例では、図の第1番めの
カラムはアニメブラシデータの名前であり、第2番めの
カラムはアニメブラシデータを構成する一連の画像デー
タへのポインタである。これは、画像データ Kenchan-
1.img, Kenchan-2.img, Kenchan-3.img, Kenchan-2.img
をこの順序で表示することにより、対象「ネズミのけ
んちゃんが走る」様子をアニメ化することができる。図
2(c)にアニメブラシの内容を描写した概念図を示す。
For example, in the example of FIG. 2B, the first column in the figure is the name of the animation brush data, and the second column is a pointer to a series of image data constituting the animation brush data. Is. This is the image data Kenchan-
1.img, Kenchan-2.img, Kenchan-3.img, Kenchan-2.img
By displaying in this order, it is possible to animate the subject "Ken no Ken-chan runs". FIG. 2C shows a conceptual diagram depicting the contents of the animation brush.

【0024】なお、以下では、上記のアニメブラシデー
タと画像データとの両方を合わせて画像と呼ぶ。
In the following, both the above-mentioned anime brush data and image data will be collectively referred to as an image.

【0025】画像検索テーブル105 は、検索用キーワー
ド、アニメブラシデータ名、画像データ名、のそれぞれ
の記述部からなる。例えば、図2(d)の例の1行目で
は、左のカラムから順に、「けんちゃん」「Kenchan-ru
n-1.mv,...」「Kenchan-1.img, Kenchan-2.img, Kencha
n-3.img, Kenchan-4.img,...」と記述されている。これ
は、検索用キーワード「けんちゃん」が付与されている
画像データとして、アニメブラシデータでは、Kenchan-
run-1.mvなどが、また、画像データでは、Kenchan-1.im
g, Kenchan-2.img, Kenchan-3.img, Kenchan-4.img な
どがあることを意味している。
The image search table 105 is composed of description parts of a search keyword, an animation brush data name, and an image data name. For example, in the first line of the example shown in FIG. 2D, "Kenchan" and "Kenchan-ru" are displayed in order from the left column.
n-1.mv, ... '' `` Kenchan-1.img, Kenchan-2.img, Kencha
n-3.img, Kenchan-4.img, ... ". This is the image data to which the search keyword "Ken-chan" is added.
run-1.mv etc. Also, in the image data, Kenchan-1.im
g, Kenchan-2.img, Kenchan-3.img, Kenchan-4.img, etc. are meant.

【0026】また、画像検索テーブル105 では、「アニ
メブラシデータ記述部に記述されているアニメブラシデ
ータを構成する画像データについては、画像データ記述
部には記述しない」という規則に基づいて、図2(d)に
示した画像検索テーブル105に記述すべきデータの量を
減らすことが可能となる。
Further, in the image search table 105, based on the rule that "the image data that constitutes the animation brush data described in the animation brush data description section is not described in the image data description section", FIG. It is possible to reduce the amount of data to be described in the image search table 105 shown in (d).

【0027】図2(e)に記述量を減らした画像検索テー
ブル105 の例を示す。図2(d)と図2(e)はいずれも画
像検索テーブル105 の例であるが、これらの相違点は画
像データ記憶部の記述内容である。即ち、両図の1行目
の画像データ記憶部を比較すると、図2(d)の場合「Ke
nchan-1.img, Kenchan-2.img, Kenchan-3.img, Kenchan
-4.img,...」、図2(e)の場合「Kenchan-4.img,... 」
と記述されており、図2(d)に比べて図2(e)は Kenc
han-1.img, Kenchan-2.img, Kenchan-3.img の3つの画
像データが省略されている。これは前記3つの画像デー
タが図2(e)のアニメブラシデータ Kenchan-run-1.mv
の画像データ記述部を参照することによって得られるか
らである。
FIG. 2 (e) shows an example of the image search table 105 in which the description amount is reduced. 2D and 2E are examples of the image search table 105, the difference between them is the description content of the image data storage unit. That is, comparing the image data storage units in the first row of both figures, in the case of FIG.
nchan-1.img, Kenchan-2.img, Kenchan-3.img, Kenchan
-4.img, ... ", in the case of Fig. 2 (e)" Kenchan-4.img, ... "
2c is compared with FIG. 2d, and Kenc is shown in FIG. 2e.
The three image data of han-1.img, Kenchan-2.img, Kenchan-3.img are omitted. This is the anime brush data Kenchan-run-1.mv of the above 3 image data in Fig. 2 (e).
This is because it can be obtained by referring to the image data description part of.

【0028】画像データベース管理部107 は、アニメー
ション編集部120 からの画像の検索要求に応じてアニメ
ーション作成の際に必要な画像を検索し、検索結果をア
ニメーション編集部120 に送る処理を行なう。また、画
像切り出し編集部124 からデータ登録の依頼があった場
合には、前記データの登録処理を行なう。
The image database management unit 107 searches for an image necessary for creating an animation in response to an image search request from the animation editing unit 120, and sends the search result to the animation editing unit 120. Further, when a request for data registration is made by the image cutout editing unit 124, the data registration process is performed.

【0029】以下で画像の検索及び登録の処理の流れ
を、それぞれ図3、図4を用いて説明する。
The flow of image retrieval and registration processing will be described below with reference to FIGS. 3 and 4, respectively.

【0030】<1. 画像の検索>図3は、画像データベ
ース管理部107 で画像を検索する処理の流れを示すフロ
ーチャートである。
<1. Image Retrieval> FIG. 3 is a flow chart showing the flow of processing for retrieving an image in the image database management unit 107.

【0031】(301) 検索したい画像の内容を自然言語で
記述した問い合わせ文、前記画像の対象属性(すなわち
前景対象か背景対象か)、及び、前記画像の動作属性を
画像データベース管理部107 に入力する。但し、動作属
性とは、検索結果としてアニメブラシデータと画像デー
タのどちらを所望しているかを画像データベース管理部
107 に知らせるための属性値である。
(301) Input an inquiry sentence in which the content of the image to be searched is described in natural language, the target attribute of the image (ie, foreground target or background target), and the operation attribute of the image to the image database management unit 107. To do. However, the action attribute is the image database management unit that indicates which animation brush data or image data is desired as a search result.
This is an attribute value for notifying 107.

【0032】(302) 前記入力問い合わせ文を自然言語処
理部102 に送り、前記入力文の形態素解析を行ない、前
記入力文を形態素に分割する。
(302) The input inquiry sentence is sent to the natural language processing unit 102, the input sentence is morphologically analyzed, and the input sentence is divided into morphemes.

【0033】(303) 前記分割された形態素のうち、画像
検索キーワードとなる形態素のみを抽出する。ある形態
素が画像検索キーワードとなるかどうかは、前記形態素
が、画像検索テーブル105 に検索用キーワードとして登
録されているかどうかを調べることによって判断でき
る。
(303) Of the divided morphemes, only the morphemes to be the image search keyword are extracted. Whether a certain morpheme becomes an image search keyword can be determined by checking whether the morpheme is registered in the image search table 105 as a search keyword.

【0034】(304) 前記キーワードに関連する画像を検
索する。キーワードを用いた画像検索方法に関しては、
例えば、文献 [柴田、井上、''画像データベース106 の
連想検索方式''、電子情報通信学会論文誌、Vol.J73-D-
II、No.4、pp.526-534、1990年4月]に開示の方法などを
利用すればよい。
(304) An image related to the keyword is searched. Regarding the image search method using keywords,
For example, reference [Shibata, Inoue, "Associative search method for image database 106", IEICE Transactions, Vol.J73-D-
II, No. 4, pp. 526-534, April 1990].

【0035】(305,306) 検索の結果、前記入力問い合わ
せ文の内容を表した画像が画像データ記憶部103 に無い
場合は処理を終了する。検索画像がある場合は、前記検
索された画像のうち、前記入力された対象属性及び動作
属性と一致する画像のみを選択し、前記選択された画像
を本画像検索処理の結果とする。
(305, 306) As a result of the search, if there is no image representing the contents of the input inquiry sentence in the image data storage unit 103, the process is terminated. When there is a search image, only the image that matches the input target attribute and motion attribute is selected from the searched images, and the selected image is set as the result of the main image search process.

【0036】<2. 画像の登録>図4は、画像データベ
ース管理部107 で画像を登録する処理の流れを示すフロ
ーチャートである。
<2. Image Registration> FIG. 4 is a flow chart showing the flow of processing for registering an image in the image database management unit 107.

【0037】(401) 登録画像、前記登録画像の内容を自
然言語で描写した文、前記画像の対象属性及び動作属性
を画像データベース管理部107 に入力する。
(401) A registered image, a sentence describing the contents of the registered image in natural language, and a target attribute and a motion attribute of the image are input to the image database management unit 107.

【0038】(402) 前記像の内容を自然言語で描写した
文を自然言語処理部102 に送り、前記文の形態素解析を
行ない、前記文を形態素に分割する。
(402) A sentence describing the contents of the image in natural language is sent to the natural language processing unit 102, and morphological analysis of the sentence is performed to divide the sentence into morphemes.

【0039】(403) 前記分割された形態素のうち、画像
検索キーワードとなる形態素のみを抽出する。ある形態
素が画像検索キーワードとなるかどうかを調べる方法
は、前記画像の検索処理の流れの説明で述べた方法を使
えば良い。
(403) From the divided morphemes, only the morphemes that are image search keywords are extracted. As a method for checking whether or not a certain morpheme serves as an image search keyword, the method described in the flow of the image search processing may be used.

【0040】(404) 入力動作属性がアニメブラシデータ
であるかどうかを調べる。そして、入力動作属性がアニ
メブラシデータなら、以下に示す(a)アニメブラシデ
ータ登録処理を行なう。また入力動作属性がアニメブラ
シデータでないなら、以下に示す(b)画像データ登録
処理を行なう。
(404) It is checked whether the input operation attribute is the animation brush data. Then, if the input operation attribute is the animation brush data, the following (a) animation brush data registration processing is performed. If the input operation attribute is not the animation brush data, the following (b) image data registration processing is performed.

【0041】(a) アニメブラシデータ登録処理 (405) アニメブラシを構成する一連の画像データについ
て、画像データ記憶部103 に登録されていない画像デー
タを、対象属性が前景対象の画像データとして登録す
る。
(A) Animation brush data registration processing (405) Regarding a series of image data constituting an animation brush, image data not registered in the image data storage unit 103 is registered as image data whose target attribute is the foreground target. .

【0042】(406) 前記アニメブラシデータをアニメブ
ラシデータ記憶部104 に登録する。 (407) 前記403 の処理で抽出された各々のキーワードに
対して、前記キーワードと同一の検索キーワードを持つ
画像検索テーブル105 の画像検索データのアニメブラシ
データの記述部に前記アニメブラシデータを追加登録
し、アニメブラシデータ登録処理を終了する。
(406) The animation brush data is registered in the animation brush data storage unit 104. (407) For each keyword extracted in the process of 403, the animation brush data is additionally registered in the description part of the animation brush data of the image search data of the image search table 105 having the same search keyword as the keyword. Then, the animation brush data registration process ends.

【0043】(b) 画像データ登録処理 (408) 入力対象属性が前景対象かどうかを調べる。(B) Image data registration processing (408) It is checked whether the input target attribute is the foreground target.

【0044】(409) もし入力対象属性が前景対象なら、
入力画像を前景対象として画像データ記憶部103 に登録
する。
(409) If the input target attribute is the foreground target,
The input image is registered in the image data storage unit 103 as a foreground target.

【0045】(410) もし入力対象属性が背景対象なら、
入力画像を背景対象として画像データ記憶部103 に登録
する。
(410) If the input target attribute is the background target,
The input image is registered in the image data storage unit 103 as a background target.

【0046】(411) 前記403 の処理で抽出された各々の
キーワードに対して、前記キーワードと同一の検索キー
ワードを持つ画像検索テーブル105 の画像検索データの
画像データの記述部に前記画像データを追加登録し、画
像データ登録処理を終了する。
(411) For each keyword extracted in the process of 403, the image data is added to the image data description part of the image search data of the image search table 105 having the same search keyword as the keyword. Register and finish the image data registration process.

【0047】以上、アニメブラシデータもしくは画像デ
ータの登録処理が完了すれば、画像データベース管理部
107 での画像の登録処理を終了する。
When the registration process of the animation brush data or the image data is completed as described above, the image database management unit
The image registration process at 107 is terminated.

【0048】画像入力部122 は、アニメーションの各シ
ーンを構成する素材としての画像データが描かれた印刷
物(例えば漫画など)を読みとり、コンピュータで利用
可能なデータに変換するための前処理を行なうもので、
例えばスキャナー装置などが使用される。
The image input unit 122 reads a printed matter (for example, a cartoon) on which image data as a material forming each scene of animation is drawn, and performs preprocessing for converting the data into computer usable data. so,
For example, a scanner device or the like is used.

【0049】画像切り出し編集部124は、画像画像入力
部122 で入力された画像からアニメーションの各シーン
を構成する素材としての画像データを切り出す処理を行
なう。また、切り出された画像データの複製を作成し、
前記複製画像データに修正を加え、アニメブラシデータ
を作成する作業も行なう。
The image cutout editing unit 124 performs a process of cutting out image data as a material forming each scene of animation from the image input by the image image input unit 122. Also, make a copy of the cut out image data,
The work of creating the animation brush data is also performed by correcting the duplicated image data.

【0050】特徴抽出部123は、画像切り出し編集部124
において切り出された各々の画像データ、アニメブラシ
データについて、例えば前記2種類のデータをそのまま
ではなく圧縮するなど、画像データベース106 に登録す
る際に前記2種類のデータについて特徴抽出の必要があ
れば、前記特徴抽出処理を実行する。
The feature extraction unit 123 is an image cutout editing unit 124.
For each of the image data and the animation brush data cut out in step 2, if it is necessary to extract the features of the two types of data when registering them in the image database 106, for example, compressing the two types of data as they are, The feature extraction process is executed.

【0051】自然言語処理部102は、言語辞書101を用い
て自然言語文を解析する処理を行なう。特に本実施例で
は入力された自然言語文の解析結果として、アニメーシ
ョン情報抽出部115 において必要となる、入力自然言語
文において主体となる名詞、及び、入力自然言語文の発
声に要する時間、の2つの情報を抽出することを特徴と
しており、本実施例では前記の2つの情報の抽出の方法
を説明する。
The natural language processing unit 102 uses the language dictionary 101 to analyze natural language sentences. Particularly, in the present embodiment, as the analysis result of the input natural language sentence, the noun which is the main body of the input natural language sentence and the time required for uttering the input natural language sentence are required in the animation information extraction unit 115. This embodiment is characterized by extracting one piece of information. In this embodiment, a method of extracting the above two pieces of information will be described.

【0052】<1. 入力自然言語文において主体となる
名詞の抽出>本実施例において入力自然言語文において
主体となる名詞とは、以下の2つの場合に当てはまる名
詞のことを指す。 ・入力自然言語文が名詞句である場合の、前記名詞句の
主辞 ・入力自然言語文が文である場合の、前記文の動作主体 主辞とは、名詞句において前記名詞句の意味の根幹をな
す名詞のことである。例えば「ネズミのけんちゃん」と
いう名詞句については、「ネズミの」という文節はあく
まで次の「けんちゃん」を特徴付けるための修飾語であ
るのに対し、名詞「けんちゃん」は前記名詞句の意味の
根幹をなすものであり、前記名詞「けんちゃん」が前記
名詞句の主辞となる。
<1. Extraction of Main Noun in Input Natural Language Sentence> In the present embodiment, the main noun in the input natural language sentence means a noun applicable to the following two cases.・ The head of the noun phrase when the input natural language sentence is a noun phrase ・ The action subject of the sentence when the input natural language sentence is a sentence is the root of the meaning of the noun phrase in the noun phrase An eggplant noun. For example, for the noun phrase "mouse no Ken-chan", the noun phrase "ken-chan" is a modifier to characterize the next "ken-chan", while the noun phrase "ken-chan" means And the noun "ken-chan" is the head of the noun phrase.

【0053】また、動作主体とは、文における動作の主
体となる名詞のことである。例えば「ネズミのけんちゃ
んが踊っている」という文に対しては、「ネズミのけん
ちゃんが」が前記文の主部となり、前記主部の主体を表
す名詞句「ネズミのけんちゃん」の主辞「けんちゃん」
が動作主体となる。
The action subject is a noun that is the subject of the action in the sentence. For example, for a sentence "mouse no Ken-chan is dancing", "mouse no Ken-chan ga" becomes the main part of the sentence, and the head of the noun phrase "mouse no Ken-chan" that represents the subject of the main part. "Ken-chan"
Is the subject of action.

【0054】図5は、前記主辞、動作主体の2つに対応
する名詞を抽出する処理の流れを示すフローチャートで
ある。
FIG. 5 is a flow chart showing the flow of processing for extracting nouns corresponding to the two said head and action subjects.

【0055】(501,502,503) 自然言語処理部102 に入力
された文は、まず形態素解析によって文を構成する最小
単位である形態素に分解し、続いて構文解析によって、
入力文字列の構文構造を解析する。これら前記の形態素
解析・構文解析及び前記解析において使用する言語辞書
の構成の技術については、文献[ 野村浩郷、''自然言語
処理の基礎技術''、電子情報通信学会、1988年 ]など
で、自然言語処理の分野における公知の技術として開示
されているため、説明を省略する。
(501, 502, 503) The sentence input to the natural language processing unit 102 is first decomposed into morphemes, which are the smallest units constituting the sentence, by morphological analysis, and then by syntactic analysis,
Parse the syntactic structure of the input string. Regarding the technology of the above morphological analysis / syntactic analysis and the construction of the language dictionary used in the analysis, see [Hirogo Nomura, "Basic Technology of Natural Language Processing", The Institute of Electronics, Information and Communication Engineers, 1988], etc. Since it is disclosed as a publicly known technique in the field of natural language processing, description thereof will be omitted.

【0056】(504,506) 入力文の構造の解析結果の構文
構造を言語辞書101 の文法規則と照らし合わせることに
より、前記構文構造が名詞句、主部と述部とからなる
文、もしくは前記以外のいずれであるかを判断する。
(504,506) By comparing the syntactic structure of the analysis result of the structure of the input sentence with the grammatical rules of the language dictionary 101, the syntactic structure is a sentence consisting of a noun phrase, a main part and a predicate, or other than the above. Determine which one.

【0057】(505) 入力文が名詞句である場合、入力と
なる文を形態素に分解した時に、一番右端に位置する名
詞を前記名詞句の主辞として抽出する。
(505) When the input sentence is a noun phrase, when the sentence to be input is decomposed into morphemes, the noun located at the rightmost end is extracted as the head of the noun phrase.

【0058】(507,508) 入力文が主部と述部とからなる
文である場合、まず前記主部を抽出する。続いて前記主
部を名詞句と前記名詞句に接続する格助詞とに分割し、
前記名詞句の主辞を前記文の動作主体として抽出する。
(507,508) When the input sentence is a sentence composed of a main part and a predicate, the main part is first extracted. Subsequently, the main part is divided into a noun phrase and a case particle connected to the noun phrase,
The head of the noun phrase is extracted as the subject of the sentence.

【0059】(509) 入力文が名詞句でも主部と述部とか
らなる文でもない場合、自然言語処理部102 を呼び出し
たモジュールに、入力文から主体となる名詞の抽出が出
来なかったことを知らせる。以上で自然言語処理部102
における、入力自然言語文において主体となる名詞の抽
出の処理を終了する。
(509) When the input sentence is neither a noun phrase nor a sentence consisting of a main part and a predicate, the main language noun cannot be extracted from the input sentence in the module that calls the natural language processing unit 102. Let me know. With the above, the natural language processing unit 102
The process of extracting the noun that is the main subject in the input natural language sentence is completed.

【0060】なお、上記の名詞句からの主辞の抽出処理
の(505) において、「名詞句を形態素に分解した時に、
一番右端に位置する名詞を前記名詞句の主辞とする」と
あるが、この処理が正しく実行されるためには、最後の
単語が名詞で構成される句のみを名詞句として受理する
ように、言語辞書101 に記述しておけばよい。すなわ
ち、言語辞書101 に記述する構文解析用の文法規則を書
き換えることで、どのような名詞を主辞とみなすかとい
う要求に対応することが可能である。本例では日本語に
適用される規則であり、例えば英語の場合は、文法規則
の書換えのみでなく、上記の名詞句からの主辞の抽出処
理の(505) の内容も英語の文法に合わせて変更する必要
がある。
In addition, in (505) of the process of extracting the subject from the above noun phrase, "When the noun phrase is decomposed into morphemes,
The noun located on the far right is the head of the noun phrase. ”However, in order for this process to be executed correctly, only the phrase in which the last word is composed of a noun should be accepted as a noun phrase. , It should be described in the language dictionary 101. That is, by rewriting the grammatical rules for parsing described in the language dictionary 101, it is possible to meet the requirement of what kind of noun is regarded as the head. In this example, the rule is applied to Japanese.For example, in the case of English, not only the rewriting of the grammar rule but also the content of (505) of the process of extracting the head from the above noun phrase is adjusted to English grammar. Need to change.

【0061】<2. 入力自然言語文の発声に要する時間
>入力自然言語文の発声に要する時間とは、入力自然言
語文を発声し始めてから発声し終るまでに要する時間の
ことを表す。図6は、入力自然言語文の発声に要する時
間を抽出する処理の流れを示すフローチャートである。
<2. Time required for utterance of input natural language sentence> The time required for utterance of the input natural language sentence represents the time required from the beginning of utterance of the input natural language sentence to the end thereof. FIG. 6 is a flowchart showing the flow of processing for extracting the time required for uttering an input natural language sentence.

【0062】(601,602) 前記<1. > の処理と同様
に、自然言語処理部102 に入力された文は、まず形態素
解析によって入力文を構成する最小単位である形態素に
分解する。
(601, 602) Similar to the processing of <1.>, the sentence input to the natural language processing unit 102 is first decomposed into morphemes, which are the minimum units constituting the input sentence, by morphological analysis.

【0063】(603) 入力文の発声に要する時間の総和 T
s を 0 にセットする。 (604) 分解された各形態素のそれぞれについて、前記形
態素の発声に要する時間を、言語辞書101 を調べること
により求め、上記 Ts に加える。
(603) Total time T required for utterance of input sentence T
Set s to 0. (604) For each of the decomposed morphemes, the time required for uttering the morphemes is obtained by examining the language dictionary 101 and added to the Ts.

【0064】(605) Tsを入力文の発声に要する時間とし
て本処理を呼び出したモジュールに知らせ、自然言語処
理部102 における、入力自然言語文の発声に要する時間
の計算の処理を終了する。
(605) Ts is notified to the module that called this process as the time required to utter the input sentence, and the process of calculating the time required to utter the input natural language sentence in the natural language processing unit 102 is ended.

【0065】なお、上記604 において、形態素の発声に
要する時間の抽出のための自然言語処理部102 及び言語
辞書101 の構成方法としては、例えば日本語を扱う場
合、言語辞書101 において、単語の見出しと前記単語の
発音を表す見出しの組として、図7(a) のごとく形態素
の見出しと前記形態素の仮名読みの見出しとの対応付け
を記述しておき、さらに、本発明による単語の発音を表
す見出しから前記単語の発音に要する時間を計算する手
段として、前記仮名読み見出しの文字列の長さを前記形
態素の発声に要する時間とする方法を用いれば良い。ま
た英語を扱う場合は、言語辞書101 において、単語の見
出しと前記単語の発音に要する時間との組として、図7
(b)のごとく、例えば単語の見出しと前記単語の発声に
要する時間との対応付けを記述しておけば良い。
In the above 604, as a method of constructing the natural language processing unit 102 and the language dictionary 101 for extracting the time required for uttering a morpheme, for example, when handling Japanese, the word As a set of headings representing the pronunciation of the word, the correspondence between the morpheme heading and the kana reading heading of the morpheme is described as shown in FIG. 7 (a), and the word pronunciation according to the present invention is represented. As a means for calculating the time required to pronounce the word from the headline, a method of setting the length of the character string of the kana reading headline as the time required to utter the morpheme may be used. Further, when dealing with English, in the language dictionary 101, as a set of a word heading and a time required to pronounce the word,
As in (b), for example, the correspondence between the word heading and the time required for uttering the word may be described.

【0066】シナリオ入力部111 は、所望のアニメーシ
ョンの内容を自然言語を用いて記述するものである。以
下では、アニメーションの内容を記述した文章をシナリ
オと呼ぶ。図8は、シナリオ入力部111 に入力するシナ
リオを日本語で記述した例を示した図である。以下では
このシナリオをシナリオ(1)と呼ぶ。シナリオ(1)の記述
内容については、シナリオ解析辞書112 、シナリオ解析
部113 の説明で詳しく述べる。
The scenario input section 111 describes the content of a desired animation in natural language. In the following, a sentence that describes the content of animation is called a scenario. FIG. 8 is a diagram showing an example in which the scenario input to the scenario input unit 111 is described in Japanese. Hereinafter, this scenario is referred to as scenario (1). The description content of the scenario (1) will be described in detail in the description of the scenario analysis dictionary 112 and the scenario analysis unit 113.

【0067】シナリオ解析辞書112 は、シナリオ入力部
111 で編集されたシナリオを解析するための知識を記述
するものである。図9は、前記知識をBNF記法に基づ
いて定義した例を示した図である。図9において _(ア
ンダーバー)と英文字からなる文字列を標識と呼び、特
に、$<>$で括られた標識を非終端記号、非終端記号以外
の標識を終端記号と呼ぶ。そして、各々の知識の表す意
味は 「『::=』の左側の標識は、『::=』の右側の標識
の列がその順に並んだものである」 ことを示してい
る。
The scenario analysis dictionary 112 includes a scenario input section.
It describes the knowledge for analyzing the scenario edited in 111. FIG. 9 is a diagram showing an example in which the knowledge is defined based on the BNF notation. In FIG. 9, a character string consisting of _ (underscore) and English characters is called a sign, in particular, signs enclosed by $ <> $ are called nonterminals, and signs other than nonterminals are called terminal symbols. The meaning of each knowledge is that "the sign on the left side of" :: = "is the line of signs on the right side of" :: = "arranged in that order".

【0068】例えば知識 G13の場合では、<speech>
は、<sentence>, [, <sentence>, ]が、この順に並んだ
部分である」ということを、また、知識G14の場合で
は、<speech> は、NARRATION_SPEECH, [, <sentence>,
]が、この順に並んだ部分である」ということを表して
いる。なお、知識G13における <sentence> は任意の
日本語文字列であることを、知識G13におけるNARRAT
ION_SPEECH はナレータのセリフを表す終端記号である
ことを、それぞれ表している。
For example, in the case of knowledge G13, <speech>
Is the part in which <sentence>, [, <sentence>,] are arranged in this order. ”In the case of knowledge G14, <speech> is NARRATION_SPEECH, [, <sentence>,
] Are the parts arranged in this order. ” It should be noted that <sentence> in knowledge G13 is an arbitrary Japanese character string, and NARRAT in knowledge G13
ION_SPEECH represents the terminal symbol that represents the narrator's serif.

【0069】シナリオ解析部113 では、シナリオ解析辞
書112を用いて、シナリオ入力部111で編集されたシナリ
オの構造を解析する。図9のシナリオ解析辞書112 を用
いると、例えば、シナリオ(1)の4行目の文 ネズミのけんちゃん [ネズミに効くのはネコいらずー] の解析には知識G13が適用され、この部分が <speech
> という非終端記号に対応する部分であることが解析さ
れる。続いて知識G8が適用され、 <speech> という非
終端記号が、 <scene_body> という非終端記号に対応す
る部分であることが解析される。
The scenario analysis unit 113 analyzes the structure of the scenario edited by the scenario input unit 111 using the scenario analysis dictionary 112. Using the scenario analysis dictionary 112 of FIG. 9, for example, knowledge G13 is applied to the analysis of the sentence on the fourth line of the scenario (1), the mouse Ken-chan [It is not necessary for the mouse to be a cat. Is <speech
The part corresponding to the non-terminal symbol> is parsed. Subsequently, the knowledge G8 is applied, and it is analyzed that the non-terminal symbol <speech> corresponds to the non-terminal symbol <scene_body>.

【0070】かくのごとくシナリオ解析辞書112を用い
て解析されたシナリオ(1)の解析結果は、次に説明する
アニメーション情報抽出部115 へ送られる。アニメーシ
ョン情報記憶部114 は、アニメーションを再生表示する
ための情報として背景情報及び前景情報を記憶する。
As described above, the analysis result of the scenario (1) analyzed using the scenario analysis dictionary 112 is sent to the animation information extraction unit 115 described below. The animation information storage unit 114 stores background information and foreground information as information for reproducing and displaying the animation.

【0071】本実施例では、背景情報として背景対象
を、また前景情報として、前景対象、前記前景対象の主
体を表す前景主対象、前記前景対象のセリフ、前記セリ
フの発声時間、前記前景対象の登場時間、前記前景対象
の移動経路、前記前景対象の移動速度、前記前景対象の
声質の8組の情報を、アニメーションの再生に必要な情
報(以下では背景情報及び前景情報に含まれる個々の情
報をアニメーション情報と呼ぶ)として扱う。
In the present embodiment, the background object is used as the background information, and the foreground information is used as the foreground object, the foreground main object representing the subject of the foreground object, the foreground object speech, the speech time of the speech, and the foreground object. Eight sets of information of the appearance time, the moving path of the foreground target, the moving speed of the foreground target, and the voice quality of the foreground target are set as information necessary for reproducing the animation (hereinafter, individual information included in background information and foreground information). Is called animation information).

【0072】以下に各々のアニメーション情報について
の意味を簡単に記す。 ・背景対象 シナリオ(1) の例での「縁側」のごとく、アニメーショ
ンにおいてシーンの舞台背景に用いられる対象のこと
を、本実施例では背景対象と呼ぶ。 ・前景対象 シナリオ(1) の例での「ネズミのけんちゃん」「女装し
たけんちゃん」のごとく、アニメーションにおいてシー
ンの舞台背景中に存在し、アニメーションのストーリー
の内容に応じて動きを伴ったりセリフを発声する対象の
ことを、本実施例では前景対象と呼ぶ。 ・前景主対象 前記前景対象における主辞もしくは動作主体のことを前
景主対象と呼ぶ。シナリオ(1) の例において、「ネズミ
のけんちゃん」「女装したけんちゃん」については、い
ずれも「けんちゃん」が前景主対象となる。 ・前景対象のセリフ、セリフの発声時間、前景対象の登
場時間 前記前景対象に対応する実体が、前記登場中に発声する
セリフの内容、前記セリフを発声する時間、及びアニメ
ーション中で登場する時間のことを表す。
The meaning of each piece of animation information will be briefly described below. -Background target In the present embodiment, a target used as a stage background of a scene in animation, like "edge" in the example of scenario (1), is called a background target.・ Foreground target As in the example of scenario (1), “Ken no Ken-chan” and “Ken-chan Kentai”, they exist in the background of the scene in the animation and are accompanied by movement depending on the content of the animation story. In the present embodiment, a target that utters is called a foreground target. -Foreground main target The subject or subject of the foreground target is called the foreground main target. In the example of scenario (1), “Ken-chan” is the main target of the foreground for “Men's Ken-chan” and “Shemale Ken-chan”.・ Foreground target dialogue, speech time of foreground subject, appearance time of foreground subject of the contents corresponding to the foreground subject, the contents of the speech spoken during the appearance, the time to speak the dialogue, and the time to appear in the animation It means that.

【0073】なお、以下で対象という言葉を使用する場
合は、上記の背景対象と前景対象との両方を指すものと
する。
In the following, when the word "object" is used, it means both the background object and the foreground object.

【0074】アニメーション情報抽出部115 では、シナ
リオ解析部113 によって解析された結果からアニメーシ
ョン情報を抽出し、前記抽出された情報をアニメーショ
ン情報記憶部114 に格納する。
The animation information extraction unit 115 extracts animation information from the result analyzed by the scenario analysis unit 113, and stores the extracted information in the animation information storage unit 114.

【0075】アニメーション情報の抽出は、 ・シナリオ解析辞書112 で定義されている標識とアニメ
ーション情報との対応関係を利用する ・前記対応関係を用いて抽出されたアニメーション情報
を利用する の2つの場合のいずれかの方法で行なう。以下でそれぞ
れの方法を説明する。
Extraction of animation information is carried out in two cases: using the correspondence between the markers defined in the scenario analysis dictionary 112 and the animation information, and utilizing the animation information extracted using the correspondence. Do either method. Each method will be described below.

【0076】<1. シナリオ解析辞書112 で定義されて
いる標識とアニメーション情報との対応関係を利用する
場合>この方法では、シナリオ解析辞書112 で定義され
ている標識とアニメーション情報との対応関係をあらか
じめ決めておき、前記対応関係を利用しアニメーション
情報を抽出する。以下、まず、前記対応関係について説
明し、続いて前記対応関係を用いたアニメーション情報
の抽出方法を説明する。
<1. When the Correspondence Relationship between Signs and Animation Information Defined in the Scenario Analysis Dictionary 112 is Used> In this method, the correspondence relationship between signs and animation information defined in the scenario analysis dictionary 112 is calculated. It is determined in advance, and animation information is extracted using the correspondence relationship. Hereinafter, first, the correspondence will be described, and then a method for extracting animation information using the correspondence will be described.

【0077】図10は、シナリオ解析辞書112 に記憶さ
れた、シナリオを解析するための知識における、終端記
号及び非終端記号と、アニメーション情報との対応関係
の一実施例を示した図である。本例において、知識G1
3では 『::=』の右側の1番目の標識 <sentence> がア
ニメーション情報の一つである「前景対象」と3番目の
標識 <sentence> がアニメーション情報の一つである
「前景対象のセリフ」と対応関係があることを示してい
る。即ち、シナリオ解析中で、知識G11に適合した文
がシナリオから抽出されると、前記知識G13の 『::
=』の右側の項の、1番目の標識 <sentence> に対応し
ている前記文中の文字列が、アニメーション情報 前景
対象 として3番目の標識 <sentence> に対応している
前記文中の文字列が、アニメーション情報 前景対象の
セリフ として抽出されることになる。
FIG. 10 is a diagram showing an example of a correspondence relationship between terminal symbols and non-terminal symbols in the knowledge for analyzing a scenario stored in the scenario analysis dictionary 112 and animation information. In this example, knowledge G1
In 3, the first sign <sentence> on the right side of “:: =” is “foreground target” which is one of the animation information, and the third sign <sentence> is “serif of the foreground target” which is one of the animation information. It has a corresponding relationship with. That is, when a sentence suitable for the knowledge G11 is extracted from the scenario during the scenario analysis, "::
= ”On the right side of the paragraph, the character string in the sentence corresponding to the first marker <sentence> is the character string in the sentence corresponding to the third marker <sentence> as the animation information foreground object. , Animation information It will be extracted as a serif for the foreground target.

【0078】例えば、シナリオ(1)の4行目の文 ネズミのけんちゃん [ネズミに効くのはネコいらずー] の解析には、知識G13が適用され、続いて前記対応関
係に基づいて、1番目の標識 <sentence> に対応してい
る前記文中の文字列「ネズミのけんちゃん」が、アニメ
ーション情報 前景対象 として、3番目の標識 <senten
ce> に対応している前記文中の文字列「ネズミに効くの
はネコいらずー」が、アニメーション情報前景対象のセ
リフ として抽出される。
For example, the knowledge G13 is applied to the analysis of the sentence on the 4th line of the scenario (1), the mouse Ken-chan [I don't need a cat to work on mice], and then, based on the above correspondence, The character string "rat no Ken" in the above sentence corresponding to the first sign <sentence> is the third sign <senten> as the animation information foreground target.
The character string in the above sentence corresponding to ce>"It is not necessary for the cat to work for rats" is extracted as the serif for the animation information foreground.

【0079】本実施例では、かくのごとく、シナリオ解
析辞書112 で定義されている標識とアニメーション情報
との対応関係を利用することにより、前記アニメーショ
ン情報のうち背景対象、前景対象前景対象のセリフ、が
抽出される。
In this embodiment, as described above, by utilizing the correspondence between the markers defined in the scenario analysis dictionary 112 and the animation information, the lines of the background object, the foreground object, the foreground object of the animation information, Is extracted.

【0080】<2. 前記対応関係を用いて抽出されたア
ニメーション情報を利用する場合>前記対応関係を用い
ては抽出されないアニメーション情報については、前記
対応関係を用いて抽出されたアニメーション情報から派
生的に抽出されるものであり、それぞれのアニメーショ
ン情報を抽出する方法が個別に必要となる。
<2. Using Animation Information Extracted Using the Correspondence Relationship> Animation information that is not extracted using the correspondence relationship is derived from the animation information extracted using the correspondence relationship. The method of extracting each animation information is required individually.

【0081】以下に、本実施例におけるアニメーション
情報のうち、前景主対象、前景対象のセリフの発声時
間、前景対象の表示時間、の抽出方法を説明する。 ・前景主対象及び前景対象のセリフの発声時間 本実施例では、前景主対象と前景対象のセリフの発声に
要する時間とは、前記<1. >の処理で抽出済みの、前
景対象及び前景対象のセリフを自然言語処理部102 に入
力することで得られる。ただしセリフがない前景対象、
すなわちアニメーション中には登場するがセリフを全く
喋らない前景対象については、セリフの発声に要する時
間のデフォルトの値をあらかじめ決めておき、その値を
用いることで対処する。
A method of extracting the foreground main object, the speech time of the foreground object dialogue, and the foreground object display time among the animation information in this embodiment will be described below. -Speech production time of the foreground main subject and the foreground subject dialogue In the present embodiment, the time required for the speech of the foreground main subject and the foreground subject dialogue is the foreground subject and the foreground subject extracted in the process of <1.>. It is obtained by inputting the lines of the above into the natural language processing unit 102. However, foreground target without serif,
That is, for the foreground object that appears in the animation but does not speak the dialogue at all, the default value of the time required for the speech of the dialogue is determined in advance, and the value is used.

【0082】本実施例による前景対象のセリフの発声時
間の計算は、以下のようにして行なう。セリフの発声時
間を計算したい前景対象を仮に前景対象1とする。前景
対象1の直前に登場する前景対象0のセリフ発声終了時
間を前景対象1のセリフ発声開始時間とし、前記セリフ
発声開始時間に前景対象1のセリフの発声に要する時間
を加えた時間を、前景対象1のセリフ発声終了時間と決
める。
The calculation of the speech time of the foreground target speech according to the present embodiment is performed as follows. Let the foreground target for which the speech time of the speech is to be calculated be foreground target 1. The speech end time of the foreground object 0 appearing immediately before the foreground object 1 is set as the speech start time of the foreground object 1, and the time obtained by adding the time required for the speech of the foreground object 1 to the foreground object 1 to the foreground object It is decided to be the ending time of the speech of subject 1.

【0083】シナリオ中で前景対象の登場する順に、前
景対象に対して上記の計算を行なうことで、アニメーシ
ョンに登場する全ての前景対象についてのセリフ発声時
間が計算できる。
By performing the above calculation for the foreground objects in the order in which the foreground objects appear in the scenario, the speech utterance time for all the foreground objects appearing in the animation can be calculated.

【0084】この方法により、例えばシナリオ(1) にお
いて、「ネズミのけんちゃん」のセリフ「ネズミに効く
のはネコいらずー」、「女装したけんちゃん」のセリフ
「オラの母ちゃんブラジャーいらずー」のセリフの発声
に要する時間をそれぞれ、14、15とすると、「ネズ
ミのけんちゃん」のセリフ発声時間は0〜14、「女装
したけんちゃん」のセリフ発声時間は14〜29と計算
できる。 ・前景対象の表示時間の抽出 前景対象の表示時間は、前記抽出された前景対象のセリ
フの発声時間をそのまま複写して用いる。すなわち、前
景対象の表示時間とセリフの発声時間とは、アニメーシ
ョン情報抽出部115 での処理の終了の時点では全く同じ
となる。
By this method, for example, in scenario (1), the lines "Ken no Ken-chan""Idon't need a cat to work on rats" and "I am dressed as Ken-chan""Ora's mother bra no need- Assuming that the time required for uttering "" is 14 and 15, respectively, the speech time for "Rice no Ken-chan" can be calculated as 0-14, and the speech time for "Shemale Ken-chan" can be calculated as 14-29. Extraction of Display Time of Foreground Target For the display time of the foreground target, the speech time of the extracted serif of the foreground target is directly copied and used. That is, the display time of the foreground object and the speech time of the dialogue are exactly the same at the end of the process in the animation information extraction unit 115.

【0085】以上、各々のアニメーション情報の説明と
前記アニメーション情報の抽出方法とを説明した。
The explanation of each piece of animation information and the method of extracting the animation information have been described above.

【0086】次にアニメーション情報抽出部115 におけ
る処理の流れを図11(a)(b)に基づいて簡単に説明す
る。図11(a)は、アニメーション情報抽出部115におけ
る処理全体の大まかな流れを示すフローチャートであ
る。
Next, the flow of processing in the animation information extraction unit 115 will be briefly described with reference to FIGS. 11 (a) and 11 (b). FIG. 11A is a flowchart showing a rough flow of the entire process in the animation information extraction unit 115.

【0087】(1101) シナリオ解析部113 で背景対象が
抽出されたかどうかを調べる。 (1102) 抽出されていれば、前記背景対象をアニメーシ
ョン情報記憶部114の背景情報に登録する。
(1101) The scenario analysis unit 113 checks whether the background target has been extracted. (1102) If extracted, the background target is registered in the background information of the animation information storage unit 114.

【0088】(1103) シナリオ解析部113で前景対象及び
前景対象のセリフの組が抽出されたかどうかを調べる。
(1103) The scenario analysis unit 113 checks whether a foreground target and a set of serifs for the foreground target have been extracted.

【0089】(1104) 抽出されていれば、抽出された全
ての組に対して、抽出された順に、前記前景対象と前記
前景対象のセリフとを入力として、次に示す前景情報登
録サブルーチンを実行する。
(1104) If it has been extracted, the following foreground information registration subroutine is executed for all the extracted pairs by inputting the foreground target and the serif of the foreground target in the order of extraction. To do.

【0090】前景対象登録サブルーチンは、前景対象及
び前景対象のセリフからアニメーション情報を派生的に
抽出する処理を行なうもので、図11(b) は前記処理の
流れをフローチャートの形式で示したものである。以
下、前記サブルーチンの処理の流れを図11(b)に基づ
いて簡単に説明する。
The foreground object registration subroutine is for performing a process of derivatively extracting animation information from the lines of the foreground object and the foreground object. FIG. 11 (b) shows the flow of the process in the form of a flowchart. is there. The flow of processing of the subroutine will be briefly described below with reference to FIG.

【0091】(1105) 前記前景対象及び前記前景対象の
セリフを前景情報に登録する。 (1106) 入力された前景対象を表す文の構造を解析す
る。 この解析は前述の自然言語処理部102 によって処
理される。
(1105) The foreground target and the lines of the foreground target are registered in the foreground information. (1106) The structure of the sentence representing the input foreground target is analyzed. This analysis is processed by the natural language processing unit 102 described above.

【0092】(1107) 解析の結果、前記前景対象から主
体となる名詞が抽出できたかどうか判断する。
(1107) As a result of the analysis, it is determined whether or not a main noun has been extracted from the foreground object.

【0093】(1108) 前記前景対象から主体となる名詞
が抽出できなかった場合は、前記前景対象を前景主対象
とし前記前景情報に登録する。
(1108) When the main noun cannot be extracted from the foreground object, the foreground object is registered as the foreground main object in the foreground information.

【0094】(1109) 前記前景対象から主体となる名詞
が抽出できた場合には、前記名詞を前記前景対象の前景
主対象とし前記前景情報に登録する。
(1109) When the main noun can be extracted from the foreground object, the noun is registered in the foreground information as the foreground main object of the foreground object.

【0095】(1110) 前記前景対象にセリフが存在する
かどうかを調べる。 (1111) 前記前景対象にセリフが存在する場合、前記セ
リフを前記前景情報に登録する。
(1110) It is checked whether or not there is a serif in the foreground object. (1111) If there is a serif in the foreground target, the serif is registered in the foreground information.

【0096】(1112) 前記セリフの発声に要する時間を
前述の自然言語処理部102 によって計算し、続いて、直
前に抽出された前景対象のセリフの発声時間を参照して
セリフの発声時間を計算し、前記前景情報に登録する。
(1112) The natural language processing unit 102 calculates the time required for the speech of the speech, and then calculates the speech time of the speech with reference to the speech time of the speech of the foreground target extracted immediately before. Then, it is registered in the foreground information.

【0097】(1113) 前記前景対象のセリフ発声時間を
前記前景対象の登場時間として前記前景情報に登録す
る。
(1113) The dialog speech time of the foreground target is registered in the foreground information as the appearance time of the foreground target.

【0098】以上の処理が、抽出された全ての前景対象
及び前景対象のセリフの組について終了すれば、本サブ
ルーチンでの処理を終了し、同時にアニメーション情報
抽出処理のメインルーチンも終了する。
When the above processing is completed for all the extracted foreground objects and the serifs of the foreground objects, the processing in this subroutine is completed, and at the same time, the main routine of the animation information extraction processing is also completed.

【0099】アニメーション編集部120 は、以下の2つ
の処理を人手によって行なう。 ・アニメーション情報抽出部115 で抽出された情報の修
正 ・アニメーション情報抽出部115 では抽出不可能な情報
の補充 前述のように、アニメーション情報抽出部115 で抽出さ
れた情報には、背景対象、前景対象、前景主対象、前景
対象のセリフ、セリフの発声時間、前景対象の登場時
間、があるが、入力されたシナリオの内容をアニメーシ
ョンとして再生するには、前述のアニメーション情報抽
出部115 で抽出されたアニメーション情報のみでは十分
ではない。従ってアニメーションを完成するために、さ
らに手作業を加える必要があり、その作業項目として例
えば以下に示すようなものが挙げられる。 1. 1枚のフレームを表示する時間(以下ではこれを再
生速度と呼ぶ)を設定する 2. 前景対象の実体を描写した画像を検索し、検索画像
のうちから使用したい画像を選択する 3. アニメーション情報抽出部115 で抽出された、前景
対象のセリフの発声時間、表示時間等を変更する 4. 前景対象のセリフ発声時の声質を編集する 5. 前記前景対象の実体画像が時間に沿って背景上で動
く様子を編集する 本実施例では、アニメーション編集部120 で行なう上記
の項目の作業のうち、5の前景対象が時間に沿って背景
上で動く様子の編集方法について説明する。なお他の項
目については、それらを実施するための技術は公知であ
るので、ここでは説明を省略する。
The animation editing unit 120 manually performs the following two processes. -Correction of information extracted by the animation information extraction unit 115-Replenishment of information that cannot be extracted by the animation information extraction unit 115 As described above, the information extracted by the animation information extraction unit 115 includes background objects and foreground objects. , The foreground main target, the foreground target serif, the speech time of the serif, and the foreground target appearance time. To reproduce the content of the input scenario as an animation, the animation information extraction unit 115 extracts the contents. Animation information alone is not enough. Therefore, in order to complete the animation, it is necessary to add more manual work, and examples of the work items include the following. 1. Set the time to display one frame (hereinafter referred to as playback speed) 2. Search for an image that depicts the substance of the foreground target, and select the image you want to use from the search images 3. Change the utterance time, display time, etc. of the foreground target serifs extracted by the animation information extraction unit 115. 4. Edit the voice quality when the foreground target serifs are uttered. In this embodiment, a method of editing the manner in which the five foreground objects move in the background along with time among the operations of the above items performed by the animation editing unit 120 will be described. As for the other items, the technology for implementing them is known, and therefore the description thereof is omitted here.

【0100】さてアニメーション編集部120 では、特に
前記の項目の最後にある、前景対象の実体画像が時間に
沿って背景上で動く様子の編集がを、移動経路と移動速
度を独立して行う方法であるため、前記編集が容易とな
る。以下で、前記方法に基づいて前景対象の実体画像が
時間に沿って背景上で動く様子を編集する方法を説明す
る。
Now, in the animation editing unit 120, a method of performing the editing of the movement of the foreground target real image on the background over time, which is the last of the above items, independently of the moving path and the moving speed. Therefore, the editing becomes easy. Hereinafter, a method of editing the manner in which the substantial image of the foreground target moves on the background based on the above method will be described.

【0101】従来、アニメーションにおいて前景対象の
動く様子の編集は以下のようにして行なわれていた。図
12(a),(b) は、従来の方法によって前景対象の動く様
子を編集する手順を示す概念図である。
Conventionally, the editing of the moving state of the foreground object in animation has been performed as follows. 12 (a) and 12 (b) are conceptual diagrams showing a procedure for editing a moving state of a foreground object by a conventional method.

【0102】まず、各時間における前景対象の位置を入
力する。図12(a)では、P1、P2、P3、P4、P5 と示さ
れている点が、それぞれ時間t1、t2、t3、t4、t5 にお
いて何らかの前景対象が表示される位置である。従っ
て、隣接する点同士の間の距離が大きい場合、前記点同
士の間の移動は速くなる。例えば図12(a)の場合で
は、P3とP4、P4とP5の間の距離が他の隣接する点同士の
間の距離に比べて大きいために、前記2つの点同士の間
の移動は速くなる。
First, the position of the foreground object at each time is input. In FIG. 12A, points indicated by P1, P2, P3, P4, and P5 are positions where some foreground objects are displayed at times t1, t2, t3, t4, and t5, respectively. Therefore, if the distance between adjacent points is large, the movement between the points will be fast. For example, in the case of FIG. 12 (a), the distance between P3 and P4, P4 and P5 is larger than the distance between other adjacent points, so the movement between the two points is fast. Become.

【0103】図12(a)の例において P3 と P4の間の移
動を遅くさせるためには、例えば、P3 と P4 の間に P
3.5 という前景の表示位置を新たに作るために、まず P
3.5に前景対象を表示するための新たなフレームを用意
して、P3.5の具体的な位置を指定する。続いて P3.5 に
前景対象を表示する時間をt4 とし、P4、P5 に前景対象
を表示する時間をそれぞれ t4、t5 にずらすことによっ
て可能である。修正した結果は例えば図12(b)のごと
くなる。
In order to delay the movement between P3 and P4 in the example of FIG. 12 (a), for example, between P3 and P4, P
To make a new display position of 3.5 foreground, first set P
Prepare a new frame for displaying the foreground object in 3.5 and specify the specific position of P3.5. Then, the time for displaying the foreground object on P3.5 is set to t4, and the time for displaying the foreground object on P4 and P5 is shifted to t4 and t5, respectively. The corrected result is, for example, as shown in FIG.

【0104】従来の編集方法では、以上の手順で前景対
象の移動速度の調整が可能となる。しかしながら、以上
のように前景対象の位置に基づいて移動速度を計算する
方法では、前記移動速度の調整のために、時刻と前記時
刻における前景画像の表示位置との関係を考慮しつつ、
前景対象の表示位置や、挿入または削除すべきフレーム
数及びその時間を調整しなければならず、移動速度の調
整作業が困難となることが問題となる。
In the conventional editing method, the moving speed of the foreground object can be adjusted by the above procedure. However, in the method of calculating the moving speed based on the position of the foreground object as described above, in order to adjust the moving speed, while considering the relationship between the time and the display position of the foreground image at the time,
It is necessary to adjust the display position of the foreground object, the number of frames to be inserted or deleted, and its time, which makes it difficult to adjust the moving speed.

【0105】本実施例では、前景画像の、移動の経路の
入力行なう手段と各時間における移動の速度の入力行な
う手段とを独立させることによって、上記問題を解決し
ている。
In the present embodiment, the above problem is solved by making the means for inputting the movement path of the foreground image and the means for inputting the movement speed at each time independent.

【0106】図13はアニメーション編集部120 の構成
を示したブロック図である。アニメーション編集部120
は、少なくとも、前景対象の移動経路を編集する対象移
動経路編集部116、対象移動距離演算部117、前景対象の
移動速度を編集する対象移動速度編集部118、対象移動
速度演算部119を含む構成を有する。本構成によって、
前景対象の移動経路の編集と前景対象の移動速度の編集
とを独立に行なうことが可能となるので、前記移動速度
の調整のために、時刻と前記時刻における前景画像の表
示位置との関係を考慮する必要がなくなり、前景対象の
移動速度や前景対象の表示位置の調整が容易となる。ま
た、対象移動速度編集部118 においては、各時間におけ
る速度を比率で表すと、実際にアニメーションとして表
示する際の速度を、対象の表示時間と対象の移動経路と
から自動で計算するので、アニメーション編集者は、各
時間における対象の実際の表示速度を考慮することな
く、対象の移動速度の編集が可能となる。
FIG. 13 is a block diagram showing the structure of the animation editing unit 120. Animation editorial department 120
The configuration includes at least a target movement route editing unit 116 that edits the movement route of the foreground target, a target movement distance calculation unit 117, a target movement speed editing unit 118 that edits the movement speed of the foreground target, and a target movement speed calculation unit 119. Have. With this configuration,
Since it is possible to edit the moving path of the foreground object and the moving speed of the foreground object independently, the relationship between the time and the display position of the foreground image at the time is adjusted for adjusting the moving speed. Since it is not necessary to consider, it becomes easy to adjust the moving speed of the foreground object and the display position of the foreground object. Further, in the target moving speed editing unit 118, if the speed at each time is expressed as a ratio, the speed at which the animation is actually displayed is automatically calculated from the display time of the target and the moving path of the target. The editor can edit the moving speed of the target without considering the actual display speed of the target at each time.

【0107】続いて、まずアニメーション編集部120 で
の処理の流れを説明し、その後、対象移動速度編集部11
8 の処理について詳述する。
Next, the flow of processing in the animation editing unit 120 will be described first, and then the target moving speed editing unit 11 will be described.
The process of 8 will be described in detail.

【0108】図14は、前景対象の実体画像が時間に沿
って背景上で動く様子を編集する処理の流れの例を示す
フローチャートである。アニメーション編集部120 での
処理の流れを図14に沿って説明する。
FIG. 14 is a flow chart showing an example of the flow of processing for editing the manner in which the substantial image of the foreground target moves on the background in time. The flow of processing in the animation editing unit 120 will be described with reference to FIG.

【0109】(1401) 前景対象の表示する時間を入力す
る。前記入力は、例えば、前景対象の動きの編集を行な
う編集者が手作業で行なう、アニメーション編集部120
の呼び出し元のモジュールが呼び出し時に与える、など
によって行なわれる。
(1401) Input the display time of the foreground object. The input is performed manually by an editor who edits the motion of the foreground target, for example, by the animation editing unit 120.
Is given by the calling module of the call, etc.

【0110】(1402) 対象移動経路編集部116 におい
て、前記編集者が、前景対象の移動経路を編集する。前
記移動経路の編集は、例えば、前記経路を自由曲線で描
く、経路を決める基準となるいくつかの点を指定し前記
基準点を結ぶスプライン曲線を実際の移動経路とする、
などによって行なわれる。
(1402) In the target moving route editing section 116, the editor edits the moving route of the foreground target. The editing of the moving path is, for example, drawing the path with a free curve, designating several points as a reference for determining the path, and setting a spline curve connecting the reference points as an actual moving path,
Etc.

【0111】(1404) 対象移動距離演算部117 におい
て、前記経路から前記前景対象の移動距離、すなわち前
記経路の長さを計算する。
(1404) The target moving distance calculation unit 117 calculates the moving distance of the foreground target from the route, that is, the length of the route.

【0112】(1405) 前記1401及び1404の処理におい
て、それぞれ、前景対象の表示時間及び移動距離が確定
しているので、前景対象の実際の移動の平均速度を計算
する。
(1405) In the processing of 1401 and 1404, since the display time and the moving distance of the foreground object are fixed respectively, the average speed of the actual movement of the foreground object is calculated.

【0113】(1406) 前記経路及び速度で前景対象の移
動の様子を確認し、前景対象の編集を継続するかどうか
を判断し、継続しない場合、前景対象の動く様子の編集
を終了する。
(1406) The state of movement of the foreground target is checked on the path and speed, and it is determined whether or not to continue editing the foreground target. If not, the editing of the moving state of the foreground target ends.

【0114】(1407) もし前景対象の編集を続けるのな
らば、続いて前景対象の移動経路を編集するかどうかを
判断する。
(1407) If the foreground object is to be edited, then it is determined whether or not the moving path of the foreground object is to be edited.

【0115】(1408) 前景対象の移動経路を編集する場
合、すでに編集済みの経路に修正を施す。
(1408) When the moving route of the foreground object is edited, the already edited route is corrected.

【0116】(1409) 1404と同様に、前記修正済みの経
路から前記前景対象の移動距離を計算する。
(1409) Similar to 1404, the moving distance of the foreground object is calculated from the corrected route.

【0117】(1410) 1407の処理の結果、前景対象の移
動経路を編集しない場合、前景対象の移動速度を編集す
るかどうかを判断し、前記編集をしない場合、前景対象
の動く様子の編集を終了する。
(1410) As a result of the processing of 1407, when the moving path of the foreground object is not edited, it is judged whether or not the moving speed of the foreground object is edited. When the editing is not performed, the moving state of the foreground object is edited. finish.

【0118】(1411) 前景対象の移動速度を編集する場
合、すでに編集済みの速度に修正を施す。
(1411) When editing the moving speed of the foreground object, the speed already edited is corrected.

【0119】(1412) 前記修正された移動経路または前
記修正された移動速度に基づいて、対象移動速度編集部
118で各時間における前景対象の実際の移動速度を計算
する。
(1412) Based on the corrected moving path or the corrected moving speed, the target moving speed editing unit
At 118, the actual moving speed of the foreground object at each time is calculated.

【0120】上記の 1405 から 1412 までの処理を編集
者が満足するまで繰り返し、満足を得た時点で、前景対
象の動く様子の編集を終了する。
The above steps 1405 to 1412 are repeated until the editor is satisfied, and when satisfied, the editing of the moving state of the foreground object is ended.

【0121】続いて対象移動速度編集部118 での処理を
説明する。図15(a)〜(e)は対象移動速度編集部118 を
表した概念図で、例として、対象の各時間における速度
の比率をグラフ形式で入力した様子を示している。
Next, the processing in the target moving speed editing unit 118 will be described. FIGS. 15A to 15E are conceptual diagrams showing the target moving speed editing unit 118, and show, as an example, a state in which the speed ratio of each target time is input in a graph format.

【0122】アニメーション編集部120 での処理におい
て、上記1404の処理で計算された前景対象の平均速度に
基づいて、1405の処理において前景対象を表示する場
合、各時間における前景対象の速度をグラフ形式で表現
すると、例えば図15(a)のごとくなる。すなわち、こ
れは前景対象が経路上を一定速度で移動することを示し
ている(図15(b)は、前景対象が経路上を一定速度で
移動する際に、移動時間を10分割した場合の各時間に
おける前景対象の位置を示した概念図である)。
In the processing of the animation editing unit 120, when the foreground object is displayed in the processing of 1405 based on the average speed of the foreground object calculated in the processing of 1404, the speed of the foreground object at each time is displayed in a graph format. When expressed with, for example, it becomes as shown in FIG. That is, this indicates that the foreground object moves on the route at a constant speed (FIG. 15B shows that when the foreground object moves on the route at a constant speed, the movement time is divided into 10 parts. It is a conceptual diagram showing the position of the foreground target at each time).

【0123】前記計算された移動速度に変化をつけたい
場合、上記1411の処理において前景対象の速度を編集す
る必要がある。
If it is desired to change the calculated moving speed, it is necessary to edit the speed of the foreground object in the processing of 1411.

【0124】図15(c)は速度の比率の編集結果の例を
グラフ形式で表現したものである。前記グラフの表して
いる内容は前景対象が最初静止しており、一定の速さづ
つスピードを上げていき、表示時間のちょうど半分の時
間でスピードが最高に達し、その後一定の速さづつスピ
ードを落していき、表示時間の最後で再び静止するとい
うものである。この場合、各時間における前景対象の実
際の速度は、(数1)の式を用い、次のようにして計算
できる。
FIG. 15C shows an example of the edited result of the speed ratio in the form of a graph. The content of the graph shows that the foreground object is stationary at first, increasing the speed by a constant speed, reaching the maximum speed in just half the display time, and then increasing the speed by a constant speed. It drops and then rests again at the end of the display time. In this case, the actual speed of the foreground object at each time can be calculated as follows using the formula of (Equation 1).

【0125】[0125]

【数1】 [Equation 1]

【0126】但し、(1)式のV(t)は時間tにおける前景
対象の速度を、Tは移動の終了する時間をそれぞれ表し
ている。
However, V (t) in the equation (1) represents the speed of the foreground object at time t, and T represents the time when the movement ends.

【0127】上記1409 の処理で計算された前景対象の
移動距離を S0 とする。1411 の処理で編集された仮の
速度で前景対象が移動した場合の仮の移動距離を(1)式
によって計算し、前記移動距離を S1 とする。ここで、
1411の処理で編集された速度に基づいて、(1)式で移動
距離を計算する際には、対象移動速度編集部118 におい
て、予め縦軸のスケール(すなわち速度のスケール)は
適当に決めておく。
It is assumed that the moving distance of the foreground target calculated in the processing of 1409 is S0. A temporary moving distance when the foreground object moves at the temporary speed edited in the processing of 1411 is calculated by the equation (1), and the moving distance is S1. here,
When calculating the moving distance by the formula (1) based on the speed edited by the processing of 1411, the target moving speed editing unit 118 predetermines the scale of the vertical axis (that is, the speed scale) appropriately. deep.

【0128】次に、(2)式によってrを計算し、1411 の
処理で編集された各時間の速度に、上記rを乗じて前景
対象の実際の移動速度を計算する。例えば、図15(a)
(c)の速度グラフを用いてrを計算した結果、r = 0.5
となれば、前景対象の実際の移動速度は図15(d)のご
とくなるわけである(すなわち図15(d)の各時間にお
ける速度が図15(c)の0.5倍になっている。また、
図15(e)は、前景対象が図15(d) のグラフに示され
た速度で移動する際に、移動時間を10分割した場合の
各時間における前景対象の位置を示した概念図であ
る。)。このように本発明では、前記 S1 とS0 の比 r
を用いて 1411 の処理で編集された仮の速度を正規化す
る機構を導入することで、比率で編集された前景対象の
速度に対する、実際の速度値を算出することが可能とな
る。
Next, r is calculated by the equation (2), and the actual moving speed of the foreground object is calculated by multiplying the speed at each time edited in the processing of 1411 by the above r. For example, FIG. 15 (a)
As a result of calculating r using the velocity graph in (c), r = 0.5
Then, the actual moving speed of the foreground object is as shown in FIG. 15 (d) (that is, the speed at each time in FIG. 15 (d) is 0.5 times that in FIG. 15 (c). .Also,
FIG. 15 (e) is a conceptual diagram showing the position of the foreground target at each time when the moving time is divided into 10 when the foreground target moves at the speed shown in the graph of FIG. 15 (d). . ). Thus, in the present invention, the ratio r of S1 and S0 is r
It is possible to calculate the actual speed value for the speed of the foreground object edited by the ratio by introducing a mechanism for normalizing the temporary speed edited by the processing of 1411 using.

【0129】以上説明したように、アニメーション編集
部120 では、対象移動速度編集部118で編集された、前
景対象の速度の比率を用いて、対象移動距離演算部117
で計算された仮の移動距離と、対象移動経路編集部116
で編集された実際の移動距離の比を用いて、対象移動速
度編集部118 で前記速度の実際の値を計算する機構を導
入しているため、アニメーション編集者は、各時間にお
ける対象の実際の移動速度を考慮することなく速度の編
集が可能となる。
As described above, the animation editing unit 120 uses the target moving distance calculating unit 117 by using the speed ratio of the foreground target edited by the target moving speed editing unit 118.
The tentative movement distance calculated by
Since the target moving speed editing unit 118 has introduced a mechanism for calculating the actual value of the speed by using the ratio of the actual moving distance edited in, the animation editor can calculate the actual value of the target at each time. The speed can be edited without considering the moving speed.

【0130】通常アニメーションの作成において、前記
アニメーションに登場するある一つの前景対象の動きを
編集する際には、前記前景対象が登場する時間と、同じ
時間もしくはその前後の時間に登場する、すでに編集済
みの他の前景対象の動きとを同時に参照すると、アニメ
ーションのストーリーの全体の流れの理解が出来、所望
の前景対象の動きの編集がよりいっそう容易となる。従
って、図14の1405の処理で前景対象の移動の様子を確
認する際に、前記前景対象が登場する時間(図14の 1
401 の処理で入力される時間)のみでなく可能ならば前
記時間の前後の時間も含めて、すでに編集済みの他の前
景対象の動きとともに該前記対象の動きを確認するため
に、確認する時間の変更や、すでに編集済みの他の前景
対象の動きを同時表示させるかどうかの選択が行なえる
機能を、アニメーション編集部120 に備えることは有効
であると思われる。
In the creation of a normal animation, when the movement of one foreground object appearing in the animation is edited, it is already edited at the same time as the time when the foreground object appears or at a time before or after that time. By referring to the movements of other foreground objects that have already been processed at the same time, it is possible to understand the overall flow of the animation story, and it becomes even easier to edit the desired movement of the foreground object. Therefore, when confirming the movement of the foreground target in the processing of 1405 in FIG. 14, the time when the foreground target appears (1 in FIG.
The time to check to see the movement of the foreground object along with the movement of other foreground objects that have already been edited, including not only the time entered in the processing of 401) but also the time before and after the time if possible. It is considered to be effective to provide the animation editing unit 120 with a function that allows selection of whether or not to simultaneously display the movements of other foreground objects that have already been edited.

【0131】以上、アニメーション編集部120 におい
て、ある決められた時間帯に対して、前景対象の実体画
像が時間に沿って背景上で動く様子を編集する処理の流
れを説明した。
In the above, the flow of processing in the animation editing unit 120 for editing the manner in which the foreground target substantial image moves on the background in time with respect to a predetermined time zone has been described.

【0132】アニメーション出力制御部は、アニメーシ
ョン情報記憶部114 の情報に基づいて、音声信号処理部
110 を制御しつつ、アニメーションを再生するために必
要な情報として、音声情報を音声合成部109 へ、また、
画像情報を画像表示部108 へそれぞれ送る。
The animation output control section is based on the information in the animation information storage section 114, and is a sound signal processing section.
While controlling 110, the voice information is sent to the voice synthesizer 109 as information necessary for playing the animation,
The image information is sent to the image display unit 108.

【0133】本実施例では、アニメーション情報記憶部
114 に記憶されているアニメーション情報から、アニメ
ーションを再生するために必要となる音声情報と映像情
報とを抽出し、音声情報を音声合成部109 及び音声信号
処理部110 へ、映像情報を画像表示部108 へ、それぞれ
送ることでアニメーションを再生する手順を簡単に説明
する。例として、前出のシナリオ(1) において最初の
「ネズミのけんちゃん」の動きを再生する際の制御が、
以下のアニメーション情報の例に基づいて行なわれる様
子を用いる。 ・背景画像は「縁側」である。 ・「ネズミのけんちゃん」は、時間は0から14の間に
おいてセリフ「ネズミに効くのはネコいらずー」を発声
しながら編集された軌跡を動く。 ・前記セリフの声質は、音声合成部109の出力音に対し
て[ピッチを1オクターブシフトする(以下、この情報
を SE1 とする)]と設定されている。
In this embodiment, the animation information storage unit
From the animation information stored in 114, the audio information and the video information necessary for reproducing the animation are extracted, the audio information is sent to the audio synthesis section 109 and the audio signal processing section 110, and the video information is sent to the image display section. I will briefly explain the procedure to play the animation by sending each to 108. As an example, in the scenario (1) above, the control when playing the first movement of "Men's Ken-chan" is
The following is used based on the example of the animation information. -The background image is "at the edge".・ "Mouse no Ken-chan" moves along the edited trajectory while uttering the line "It is not necessary for cats to work for mice" between 0 and 14. The voice quality of the speech is set to [shift the pitch by one octave (hereinafter, this information is referred to as SE1)] with respect to the output sound of the voice synthesis unit 109.

【0134】画像表示部108 には、まず背景画像「縁
側」が送られる。続いて、フレームが進む毎に位置及び
マスク情報とともに「ネズミのけんちゃん」の前景画像
が送られ、画像表示部108 で背景画像に前記前景画像を
前記位置に重ね合わせて表示する。前景画像の表示の際
には、前記マスク情報を用い、対象の存在しない領域は
透過させて背景の画素が表示されるようにする。
The background image "edge" is first sent to the image display unit 108. Subsequently, each time the frame advances, the foreground image of “Rice's Ken” is sent together with the position and mask information, and the image display unit 108 displays the foreground image on the background image in a superimposed manner. At the time of displaying the foreground image, the mask information is used, and the area where no target is present is made transparent so that the background pixels are displayed.

【0135】一方、音声合成部109 には、「ネズミのけ
んちゃん」のセリフ「ネズミに効くのはネコいらずー」
が、また、前記セリフの声質情報 SE1 が音声信号処理
部110に同時にそれぞれに送られる。前記セリフは、音
声合成部109 によって音声信号に変換され、音声信号処
理部110 に入力される。そして、音声信号処理部110 に
おいて前記SE1 の情報に基づいて前記入力信号に変換が
施された後、音声出力部125 で音声として出力される。
On the other hand, the voice synthesizing unit 109 has the line "Ken no Ken-chan""Idon't need a cat to work on mice."
However, the voice quality information SE1 of the dialogue is simultaneously sent to the audio signal processing unit 110. The speech is converted into a voice signal by the voice synthesizer 109 and input to the voice signal processor 110. Then, the input signal is converted in the audio signal processing unit 110 on the basis of the information of SE1 and then output as audio by the audio output unit 125.

【0136】次に、アニメーション作成装置を用いて、
アニメーションに用いる素材としてのデータ(以下では
これをアニメデータと呼ぶ)を作成する手順、及び前記
アニメデータを用いてアニメーションを作成する手順を
説明する。アニメーションの作成手順の説明において
は、ここでも入力シナリオは前出のシナリオ(1) を用い
る。
Next, using the animation creating device,
A procedure for creating data as material used for animation (hereinafter referred to as animation data) and a procedure for creating animation using the animation data will be described. In the explanation of the animation creation procedure, the scenario (1) above is used as the input scenario here as well.

【0137】<1. アニメデータの作成>まず、画像入
力部122 において、アニメーションの各シーンを構成す
る素材としての画像データが描かれた印刷物(例えば漫
画など)を読み込み、前記読み込まれた画像は画像切り
出し編集部に送られる。
<1. Creation of Animation Data> First, in the image input unit 122, a printed material (for example, a cartoon) on which image data as material for forming each scene of animation is drawn is read, and the read image is It is sent to the image cropping editor.

【0138】画像切り出し編集部では、前記画像中でア
ニメーションの各シーンを構成する素材としての画像デ
ータの部分のみを切り出す。切り出しにはすでに公知の
技術である輪郭抽出技術などが用いられる。
The image cutout editing unit cuts out only the portion of the image data as the material forming each scene of the animation in the image. A known technique such as a contour extraction technique is used for the cutout.

【0139】切り出された画像は、単体で使用する場合
はそのまま画像データベース管理部107 に送り、前記画
像を登録する。アニメブラシとして使用する場合は、前
記切り出された画像をもとに、対象の動きを表す連続し
た画像データを編集ツールなどを用いて作成し、順序付
きでひとまとめにしてアニメブラシデータとし、それを
画像データベース管理部107 に送り登録する。また背景
画像の登録の場合は、画像入力部122 で読み込んだ画像
データから、使用したい領域をそのまま画像データベー
ス管理部107 に送って登録する。なお前記編集ツール
は、モデルベース画像合成技術などの公知の技術によっ
て実現されているので、前記ツールの内容の説明につい
ては省略する。また、画像データベース管理部107 での
データ登録方法については、すでに画像データベース管
理部107 での処理の説明で述べたので省略する。
When the cut out image is used alone, it is sent to the image database management unit 107 as it is, and the image is registered. When using it as an animation brush, create continuous image data that represents the movement of the object using an editing tool, etc. based on the cut out image, group it in order and use it as the animation brush data, and It is sent to the image database management unit 107 and registered. Further, in the case of registration of the background image, the area to be used is sent as it is from the image data read by the image input unit 122 to the image database management unit 107 for registration. Since the editing tool is realized by a known technique such as a model-based image synthesizing technique, the description of the contents of the tool will be omitted. The data registration method in the image database management unit 107 has already been described in the description of the processing in the image database management unit 107, and will be omitted.

【0140】<2. アニメーションの作成>まず、シナ
リオ入力部111で得られたシナリオ(1)はシナリオ解析部
113に送られ、シナリオ(1) の構造が解析される。続い
てアニメーション情報抽出部115 で、解析されたシナリ
オ(1)の構造からアニメーション情報を抽出する。
<2. Animation Creation> First, the scenario (1) obtained by the scenario input unit 111 is the scenario analysis unit.
It is sent to 113 and the structure of scenario (1) is analyzed. Then, the animation information extraction unit 115 extracts animation information from the structure of the analyzed scenario (1).

【0141】図16は、シナリオ(1) から抽出された時
点でのアニメーション情報の一部を示した概念図であ
る。図16において、すでに確定しているアニメーショ
ン情報としては、背景対象として「縁側」前景主対象と
して「けんちゃん」「けんちゃんのママ」前記前景主対
象に対応した前景対象として、それぞれ、 「けんちゃん」:「ネズミのけんちゃん」「女装したけ
んちゃん」「驚くけんちゃん」 「けんちゃんのママ」:「洗濯物を抱えたけんちゃんの
ママ」 がある。また、前記前景対象のセリフ、前記セリフの発
声時間、及び前記前景対象の登場時間は図17のごとく
なる。
FIG. 16 is a conceptual diagram showing a part of the animation information at the time of extraction from scenario (1). In FIG. 16, as the animation information that has already been determined, “ken-chan” as the background target, “ken-chan” as the foreground main target, “ken-chan's mama”, and “ken-chan” as the foreground targets corresponding to the foreground main target. ": Ken no Ken-chan", "Ken-chan dressed as a woman", "Surprising Ken-chan", "Ken-chan's mom": "Ken-chan's mom holding laundry". Further, the dialogue of the foreground target, the utterance time of the dialogue, and the appearance time of the foreground target are as shown in FIG.

【0142】当然のことながら、この時点ではまだアニ
メーションを再生するには不十分である。従って、アニ
メーション編集部120 において、 ・アニメーション情報抽出部115 で抽出された情報の修
正 ・アニメーション情報抽出部115 では抽出不可能な情報
の補充 の2つの処理を人手によって行なう。その処理の内容は
先にも示した通り、 ・1枚のフレームを表示する時間を設定する ・前景対象の実体を描写した画像を検索し、検索画像の
うちから使用したい画像を選択する ・アニメーション情報抽出部115 で抽出された、前景対
象のセリフの発声時間、表示時間等の変更を行なう ・前景対象のセリフ発声時の声質を編集する ・前記前景対象の実体画像が時間に沿って背景上で動く
様子を編集するなどである。
Naturally, at this point it is still insufficient to play the animation. Therefore, in the animation editing unit 120, the following two processes are performed manually: correction of information extracted by the animation information extraction unit 115; supplementation of information that cannot be extracted by the animation information extraction unit 115. The details of the processing are as described above.-Set the time for displaying one frame.-Search for an image that depicts the substance of the foreground target and select the image you want to use from the search images.-Animation. Change the utterance time, display time, etc. of the foreground target speech extracted by the information extraction unit 115.Edit the voice quality when the foreground target dialogue is uttered. Edit the way it works with.

【0143】図18(a)は、シナリオ(1)から抽出された
後、アニメーション編集部120 において編集されたアニ
メーション情報の一部を示した概念図である。また、前
記前景対象のセリフ、前記セリフの発声時間、及び前記
前景対象の登場時間は例えば図18(b)のごとくなる。
図18(b)では、アニメーション編集部120 によってア
ニメーション情報として、前景対象の画像、セリフの声
質が新たに追加されているほか、図18(b) では示され
ていないが、それぞれの前景対象の移動経路も編集済み
である。
FIG. 18A is a conceptual diagram showing a part of the animation information edited in the animation editing unit 120 after being extracted from the scenario (1). Further, the dialog of the foreground target, the vocalization time of the dialog, and the appearance time of the foreground target are as shown in FIG. 18B, for example.
In FIG. 18 (b), the animation editing unit 120 newly adds an image of the foreground target and voice quality of the serif as animation information, and although not shown in FIG. 18 (b), The travel route has also been edited.

【0144】アニメーションの再生に必要なアニメーシ
ョン情報がすべて揃えば、最後に、前記アニメーション
情報をアニメーション制御部121 に送り、アニメーショ
ン制御部121 で、アニメーション情報記憶部114 のアニ
メーション情報に基づいて、音声信号処理部110 を制御
しつつ、アニメーションを再生するために必要なメディ
アとして、音声情報を音声合成部109 へ、また、画像情
報を画像表示部108 へそれぞれ送る。音声合成部109 で
は入力文字列を音声信号に変換し、さらに音声信号処理
部110 で前記音声信号に変換を施して音声出力部125 で
前記変換した音声を出力する。画像表示部108 では、再
生速度に応じて背景画像と前景画像を合成し出力する。
When all the animation information necessary for the reproduction of the animation is prepared, finally, the animation information is sent to the animation control unit 121, and the animation control unit 121 outputs the audio signal based on the animation information in the animation information storage unit 114. While controlling the processing unit 110, the audio information is sent to the audio synthesizing unit 109 and the image information is sent to the image display unit 108 as media necessary for reproducing the animation. The voice synthesizing unit 109 converts the input character string into a voice signal, the voice signal processing unit 110 further converts the voice signal, and the voice output unit 125 outputs the converted voice. The image display unit 108 combines and outputs the background image and the foreground image according to the reproduction speed.

【0145】以上で、本実施例のアニメーション作成装
置を用いて、アニメーションに用いる素材としてのデー
タを作成する手順、及び前記アニメデータを用いてアニ
メーションを作成する手順の説明を終了する。
The above is the description of the procedure for creating the data as the material used for the animation using the animation creating apparatus of this embodiment and the procedure for creating the animation using the animation data.

【0146】[0146]

【発明の効果】以上のように本発明は、シナリオを解析
し、前記解析結果からアニメーションの舞台背景となる
背景対象、アニメーションに登場する前景画像や、前記
前景対象の登場時間、セリフの内容など、アニメーショ
ン再生に必要な情報を抽出する機能を備えているので、
本発明のアニメーション作成装置を使用すれば、アニメ
ーションの作成者は、アニメーションの編集を開始する
前にアニメーションの内容を記述したシナリオを前記装
置に入力するだけで、アニメーションを編集するための
情報がある程度自動で獲得できるため、アニメーション
の編集の手間を軽減させることが可能となる。
As described above, according to the present invention, a scenario is analyzed, and from the analysis result, the background object that is the stage background of the animation, the foreground image that appears in the animation, the appearance time of the foreground object, the content of the dialogue, etc. Since it has a function to extract the information required for animation playback,
If the animation creating apparatus of the present invention is used, the animation creator only needs to input a scenario describing the contents of the animation into the apparatus before starting the editing of the animation, and the information for editing the animation can be obtained to some extent. Since it can be acquired automatically, it is possible to reduce the trouble of editing the animation.

【0147】また、アニメーション編集部では、対象移
動速度編集部で編集された、前景対象の速度の比率を用
いて、対象移動距離演算部で計算された仮の移動距離
と、対象移動経路編集部で編集された実際の移動距離の
比を用いて、対象移動速度編集部で前記速度の実際の値
を計算する機構を導入しているため、アニメーション編
集者は、各時間における対象の実際の移動速度を考慮す
ることなく速度の編集が可能となる。
Further, in the animation editing unit, the temporary moving distance calculated by the target moving distance calculating unit and the target moving route editing unit are used by using the ratio of the speed of the foreground target edited by the target moving speed editing unit. Since the mechanism for calculating the actual value of the speed is introduced in the target moving speed editing unit by using the ratio of the actual moving distance edited by, the animation editor can change the actual moving speed of the target at each time. It is possible to edit the speed without considering the speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例におけるアニメーション作成
装置の構成を示したブロック図
FIG. 1 is a block diagram showing a configuration of an animation creating apparatus according to an embodiment of the present invention.

【図2】(a)は本実施例の画素データ記憶部の画像デー
タの内容を示した概念図 (b)は同アニメブラシデータ記憶部の記述例を示した図 (c)は同アニメブラシの内容を描写した概念図 (d),(e)は同画像検索テーブルの記述例を示した図
FIG. 2A is a conceptual diagram showing the contents of image data in a pixel data storage unit of the present embodiment, FIG. 2B is a description example of the same animation brush data storage unit, and FIG. 2C is the same animation brush. Conceptual diagrams (d) and (e) showing the contents of the image are examples of the description of the image search table.

【図3】同画像データベース管理部で画像を検索する処
理の流れを示すフローチャート
FIG. 3 is a flowchart showing a flow of processing for searching an image in the image database management unit.

【図4】同画像データベース管理部で画像を登録する処
理の流れを示すフローチャート
FIG. 4 is a flowchart showing a flow of processing for registering an image in the image database management unit.

【図5】同自然言語処理部において、主辞、動作主体の
2つに対応する名詞を抽出する処理の流れを示すフロー
チャート
FIG. 5 is a flowchart showing a flow of processing in the natural language processing unit for extracting nouns corresponding to two of a subject and an action subject.

【図6】同自然言語処理部において、入力自然言語文の
発声に要する時間を抽出する処理の流れを示すフローチ
ャート
FIG. 6 is a flowchart showing a flow of processing for extracting a time required for utterance of an input natural language sentence in the natural language processing unit.

【図7】(a)は同言語辞書において、単語の見出しと前
記単語の発音を表す見出しの組の記述例を示した図 (b)は同言語辞書において、単語の見出しと前記単語の
発音に要する時間との組の記述例を示した図
FIG. 7 (a) shows a description example of a set of a word heading and a heading representing the pronunciation of the word in the same language dictionary. FIG. 7 (b) shows a heading of the word and the pronunciation of the word in the same language dictionary. Figure showing an example of the description of the time required for

【図8】同シナリオ入力部に入力するシナリオを日本語
で記述した例を示した図
FIG. 8 is a diagram showing an example in which a scenario input to the scenario input section is described in Japanese.

【図9】同シナリオ解析辞書に記憶する、シナリオを解
析するための知識をBNF記法に基づいて定義した例を
示した図
FIG. 9 is a diagram showing an example in which knowledge for analyzing a scenario stored in the scenario analysis dictionary is defined based on BNF notation.

【図10】同シナリオ解析辞書に記憶された、シナリオ
を解析するための知識における、終端記号及び非終端記
号とアニメーション情報との対応関係の一実施例を示し
た図
FIG. 10 is a diagram showing an example of a correspondence relationship between terminal symbols and non-terminal symbols and animation information in the knowledge for analyzing a scenario stored in the scenario analysis dictionary.

【図11】(a)は同アニメーション情報抽出部における
処理の概略を示すフローチャート (b)は同アニメーション情報抽出部において、前景対象
及び前景対象のセリフからアニメーション情報を派生的
に抽出する処理の流れを示すフローチャート
FIG. 11 (a) is a flowchart showing the outline of the processing in the animation information extracting unit, and FIG. 11 (b) is a flow of processing in the animation information extracting unit for derivatively extracting animation information from the foreground target and the serif of the foreground target. Flowchart showing

【図12】(a),(b)は同アニメーション作成において、
従来の方法によって前景対象の動く様子を編集する手順
を示す概念図
[Figure 12] (a) and (b) are
Conceptual diagram showing the procedure for editing the moving state of the foreground object by the conventional method

【図13】同アニメーション編集部の構成を示したブロ
ック図
FIG. 13 is a block diagram showing the configuration of the animation editing unit.

【図14】同前景対象の実体画像が時間に沿って背景上
で動く様子を編集する処理の流れの例を示すフローチャ
ート
FIG. 14 is a flowchart showing an example of the flow of processing for editing a state in which the foreground target substantial image moves on the background in time.

【図15】(a)〜(e)は同対象移動速度編集部を表した概
念図
15 (a) to (e) are conceptual diagrams showing the target moving speed editing unit.

【図16】同アニメーション情報の一部を示した概念図FIG. 16 is a conceptual diagram showing a part of the animation information.

【図17】同アニメーション情報の一部を示した図FIG. 17 is a diagram showing a part of the animation information.

【図18】(a)は同アニメーション情報の一部を示した
概念図 (b)は同アニメーション情報の一部を示した図
FIG. 18 (a) is a conceptual diagram showing a part of the same animation information, and (b) is a diagram showing a part of the same animation information.

【符号の説明】[Explanation of symbols]

101 言語辞書 102 自然言語処理部 103 画像データ記憶部 104 アニメブラシデータ記憶部 105 画像検索テーブル 106 画像データベース 107 画像データベース管理部 108 画像表示部 109 音声合成部 110 音声信号処理部 111 シナリオ入力部 112 シナリオ解析辞書 113 シナリオ解析部 114 アニメーション情報記憶部 115 アニメーション情報抽出部 116 対象移動経路編集部 117 対象移動距離演算部 118 対象移動速度編集部 119 対象移動速度演算部 120 アニメーション編集部 121 アニメーション制御部 122 画像入力部 123 特徴抽出部 124 画像切り出し編集部 125 音声出力部 101 Language dictionary 102 Natural language processing unit 103 Image data storage unit 104 Anime brush data storage unit 105 Image search table 106 Image database 107 Image database management unit 108 Image display unit 109 Speech synthesis unit 110 Speech signal processing unit 111 Scenario input unit 112 Scenario Analysis dictionary 113 Scenario analysis unit 114 Animation information storage unit 115 Animation information extraction unit 116 Target moving path editing unit 117 Target moving distance calculation unit 118 Target moving speed editing unit 119 Target moving speed calculating unit 120 Animation editing unit 121 Animation control unit 122 Image Input section 123 Feature extraction section 124 Image cutout editing section 125 Audio output section

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】自然言語を解析するために必要な情報を記
憶する言語辞書と、前記言語辞書に記憶されている情報
を用いて自然言語を解析する自然言語処理部と、アニメ
ーションに使用する画像を蓄積する画像データベース
と、アニメーションに使用する画像の前記画像データベ
ースへの登録及び前記画像データベースからの検索を行
なう画像データベース管理部と、前記画像データを表示
する画像表示部と、自然言語を入力し前記自然言語を音
声信号に変換する音声合成部と、音声信号に処理を施す
音声信号処理部と、シナリオ文を入力するシナリオ入力
部と、シナリオ文の構造を解析するために必要な知識を
記憶するシナリオ解析辞書と、前記シナリオ解析辞書に
記憶されている知識を用いてシナリオ文の構造を解析す
るシナリオ解析部と、アニメーションの再生に必要な情
報であるアニメーション情報を記憶するアニメーション
情報記憶部と、シナリオ文の構造の解析結果から前記ア
ニメーション情報を抽出し、前記アニメーション情報記
憶部に記憶するアニメーション情報抽出部と、アニメー
ション情報記憶部に記憶されているアニメーション情報
に、必要であれば、編集を加えまた新たな情報の追加を
行なうアニメーション編集部と、アニメーション情報記
憶部に記憶されているアニメーション情報に基づいて前
記音声信号処理部を制御しつつ、アニメーションの再生
に必要な情報として、音声情報を前記音声合成部へまた
画像情報を画像表示部へそれぞれ送るアニメーション制
御部とを具備することを特徴とするアニメーション作成
装置。
1. A language dictionary that stores information necessary for analyzing a natural language, a natural language processing unit that analyzes the natural language using the information stored in the language dictionary, and an image used for animation. An image database that stores the image data, an image database management unit that registers an image used for animation in the image database, and searches the image database; an image display unit that displays the image data; and a natural language input. A voice synthesis unit that converts the natural language into a voice signal, a voice signal processing unit that processes the voice signal, a scenario input unit that inputs a scenario sentence, and a knowledge necessary for analyzing the structure of the scenario sentence are stored. And a scenario analysis unit that analyzes the structure of a scenario sentence using the knowledge stored in the scenario analysis dictionary. An animation information storage unit that stores animation information that is information necessary for playing the animation, an animation information extraction unit that extracts the animation information from the analysis result of the structure of the scenario sentence, and stores the animation information in the animation information storage unit; An animation editing section for editing the animation information stored in the information storage section if necessary and adding new information, and the audio signal based on the animation information stored in the animation information storage section. An animation creating apparatus comprising: an animation control unit that sends voice information to the voice synthesis unit and image information to an image display unit as information necessary for reproducing an animation while controlling the processing unit.
【請求項2】アニメーション作成に必要な画像を入力す
る画像入力部と、前記画像入力部で入力された画像から
画像データベースに蓄積するデータを作成する画像切り
出し編集部とを具備することを特徴とする請求項1記載
のアニメーション作成装置。
2. An image input unit for inputting an image necessary for creating an animation, and an image cutout editing unit for creating data to be stored in an image database from the image input by the image input unit. The animation creating apparatus according to claim 1.
【請求項3】自然言語処理部は、言語辞書を用いて入力
自然言語から前記自然言語の文法構造を解析し、前記文
法構造の解析結果を参照して、前記入力自然言語におい
て主体となる名詞を抽出することを特徴とする請求項1
記載のアニメーション作成装置。
3. A natural language processing unit analyzes a grammatical structure of the natural language from an input natural language using a language dictionary, refers to a result of analysis of the grammatical structure, and refers to a noun that is a main subject in the input natural language. Is extracted.
The described animation creation device.
【請求項4】言語辞書は、少なくとも単語の見出しと前
記単語の発音に要する時間との組を記憶する手段を持
ち、自然言語処理部は、言語辞書の前記組の情報を用い
て、自然言語を発声するために必要な時間を計算する手
段を有することを特徴とする請求項1記載のアニメーシ
ョン作成装置。
4. The language dictionary has means for storing at least a set of a word heading and a time required to pronounce the word, and the natural language processing section uses the information of the set of the language dictionary to store a natural language. The animation creating apparatus according to claim 1, further comprising means for calculating a time required for uttering.
【請求項5】言語辞書は、少なくとも単語の見出しと前
記単語の発音を表す見出しとの組を記憶する手段を持
ち、自然言語処理部は、単語の発音を表す見出しから前
記単語の発音に要する時間を計算する手段を備え、前記
言語辞書の前記組の情報及び前記手段を用いて、自然言
語を発声するために必要な時間を計算する手段を有する
ことを特徴とする請求項1記載のアニメーション作成装
置。
5. The language dictionary has means for storing at least a set of a headline of a word and a headline representing the pronunciation of the word, and the natural language processing unit requires the pronunciation of the word from the headline representing the pronunciation of the word. The animation according to claim 1, further comprising means for calculating a time, and means for calculating a time required for uttering a natural language by using the information of the set of the language dictionary and the means. Creation device.
【請求項6】画像データベースは、各画素の情報を記述
する画素データ及び画像内容に関する情報として、少な
くとも対象属性とファイル名とを含む属性情報からなる
画像データを記憶する画像データ記憶部と、アニメーシ
ョンを構成する画像データの組を順序を付けて一つにま
とめたアニメブラシデータを記憶するアニメブラシデー
タ記憶部と、少なくとも検索用キーワード、アニメブラ
シデータ名、画像データ名の3つの記述部からなる画像
検索データを記憶する画像検索テーブルからなる構成を
有することを特徴とする請求項1記載のアニメーション
作成装置。
6. An image database, an image data storage unit for storing image data consisting of attribute information including at least a target attribute and a file name, as pixel data describing information of each pixel and information relating to image content, and an animation. An animation brush data storage unit for storing the animation brush data in which the sets of the image data that make up the above are combined in an ordered manner, and at least three description units of a search keyword, an animation brush data name, and an image data name. The animation creating apparatus according to claim 1, wherein the animation creating apparatus has a configuration including an image search table that stores image search data.
【請求項7】画像データベースは、各画素の情報を記述
する画素データ及び画像内容に関する情報として少なく
とも対象属性とファイル名とを含む属性情報からなる画
像データを記憶する画像データ記憶部、アニメーション
を構成する画像データへのポインタの組を順序を付けて
一つにまとめたアニメブラシデータを記憶するアニメブ
ラシデータ記憶部、少なくとも検索用キーワード、アニ
メブラシデータ名、画像データ名の3つの記述部からな
る画像検索データを記憶する画像検索テーブルからなる
構成を有することを特徴とする請求項1記載のアニメー
ション作成装置。
7. The image database comprises an image data storage unit for storing image data including pixel data describing information of each pixel and attribute data including at least a target attribute and a file name as information about image content, and an animation. The animation brush data storage unit that stores the animation brush data in which the set of pointers to the image data is put together in a certain order, and is composed of at least three description parts of the search keyword, the animation brush data name, and the image data name. The animation creating apparatus according to claim 1, wherein the animation creating apparatus has a configuration including an image search table that stores image search data.
【請求項8】画像データの属性情報の対象属性は、値と
して少なくとも前景対象、背景対象の2つの値を持つこ
とを特徴とする請求項6または7記載のアニメーション
作成装置。
8. The animation creating apparatus according to claim 6, wherein the target attribute of the attribute information of the image data has at least two values, that is, a foreground target and a background target.
【請求項9】画像データベース管理部は、自然言語を入
力し、前記入力自然言語を前記自然言語処理部で解析し
た結果を参照して前記入力自然言語に関連のあるアニメ
ブラシデータもしくは画像データを画像データベースか
ら検索することを特徴とする請求項6または7記載のア
ニメーション作成装置。
9. An image database management unit inputs a natural language and refers to a result of analysis of the input natural language by the natural language processing unit to obtain animation brush data or image data related to the input natural language. The animation creating apparatus according to claim 6 or 7, wherein the animation creating database is searched.
【請求項10】画像データベース管理部は、アニメブラ
シデータを画像データベースの画像検索データに登録す
る際に、前記アニメブラシデータを構成する画像データ
と同一の画像データが該画像検索データの画像データ名
の記述部にすでに記述されている場合、前記、画像デー
タ名の記述部に記述されている画像データを消去する処
理を行なうことを特徴とする請求項9記載のアニメーシ
ョン作成装置。
10. The image database management unit, when registering the animation brush data in the image search data of the image database, sets the same image data as the image data forming the animation brush data to the image data name of the image search data. 10. The animation creating apparatus according to claim 9, wherein, if it is already described in the description section, the process for deleting the image data described in the description section of the image data name is performed.
【請求項11】画像データベース管理部は、画像データ
を画像データベースから検索する際に、画像検索テーブ
ルの画像データ名の記述部に記述されている画像デー
タ、及び、該画像検索テーブルのアニメブラシデータ名
の記述部に記述されているアニメブラシデータを構成す
る画像データへのポインタで指し示された画像データ
を、検索結果とすることを特徴とする請求項10記載の
アニメーション作成装置。
11. The image database management unit, when searching for image data from the image database, the image data described in the description section of the image data name of the image search table, and the animation brush data of the image search table. 11. The animation creating apparatus according to claim 10, wherein the image data pointed by a pointer to the image data forming the animation brush data described in the name description section is used as the search result.
【請求項12】アニメーション情報記憶部は、少なくと
も、アニメーションの舞台背景となる背景対象を記述す
る背景情報、少なくともアニメーションに登場する前景
対象、前記前景対象の主体を表す前景主対象、前記前景
対象のセリフ、前記セリフの発声時間、前記前景対象の
登場時間、前記前景対象の移動経路、前記前景対象の移
動速度、前記前景対象の声質の8つの情報を組にした前
景情報とを含むことを特徴とする請求項1記載のアニメ
ーション作成装置。
12. The animation information storage unit stores at least background information that describes a background object that is a stage background of the animation, at least a foreground object that appears in the animation, a foreground main object that represents the subject of the foreground object, and a foreground object. A foreground information which includes a line, a vocalization time of the line, an appearance time of the foreground target, a moving route of the foreground target, a moving speed of the foreground target, and a voice quality of the foreground target. The animation creating apparatus according to claim 1.
【請求項13】前景情報の前記前景対象の声質の情報
は、音声信号処理部を制御する信号であることを特徴と
する請求項12記載のアニメーション作成装置。
13. The animation creating apparatus according to claim 12, wherein the information on the voice quality of the foreground target of the foreground information is a signal for controlling an audio signal processing unit.
【請求項14】アニメーション情報抽出部は、シナリオ
解析部の解析結果からアニメーションの舞台背景となる
背景対象を表す自然言語を抽出し、前記自然言語をアニ
メーション情報記憶部の背景情報として記録することを
特徴とする請求項12または13記載のアニメーション
作成装置。
14. The animation information extraction unit extracts a natural language representing a background object which is a stage background of the animation from the analysis result of the scenario analysis unit, and records the natural language as background information of the animation information storage unit. 14. The animation creating device according to claim 12, wherein the animation creating device is a device.
【請求項15】アニメーション情報抽出部は、シナリオ
解析部の解析結果から少なくとも、アニメーションに登
場する前景対象を表す自然言語と前記前景対象のセリフ
を表す自然言語との組を抽出し、前景対象を表す自然言
語アニメーション情報記憶部の前景情報の前景対象とし
て、また、前記前景対象のセリフを表す自然言語を前記
前景情報の前景対象のセリフとしてそれぞれ記録するこ
とを特徴とする請求項12または13記載のアニメーシ
ョン作成装置。
15. An animation information extraction unit extracts at least a set of a natural language representing a foreground target appearing in an animation and a natural language representing a serif of the foreground target from the analysis result of the scenario analysis unit, and extracts the foreground target. 14. The natural language animation information storage unit that represents the foreground object of the foreground information, and the natural language that represents the serif of the foreground object are recorded as the serif of the foreground object of the foreground information, respectively. Animation creation device.
【請求項16】アニメーション情報抽出部は、前景対象
が記録されている前景情報について前記前景対象の主体
となる名詞を自然言語処理部を用いて抽出し、前記名詞
を前記前景情報の前景主対象として記録することを特徴
とする請求項15記載のアニメーション作成装置。
16. An animation information extraction unit extracts, using a natural language processing unit, a noun that is a main subject of the foreground object in the foreground information in which the foreground object is recorded, and extracts the noun as the foreground main object of the foreground object. 16. The animation creating apparatus according to claim 15, wherein the animation is recorded as
【請求項17】アニメーション情報抽出部は、前景対象
のセリフが記録されている前景情報について、前記セリ
フを表す自然言語から、前記セリフの発声に要する時間
を自然言語処理部を用いて計算し、すでに計算済みの前
景対象のセリフ発声時間を参照して、該前景対象のセリ
フ発声時間を計算し、前記計算結果を前記前景情報のセ
リフの発声時間として登録することを特徴とする請求項
15記載のアニメーション作成装置。
17. The animation information extraction unit calculates, for the foreground information in which the foreground target serif is recorded, the time required for utterance of the serif from the natural language representing the serif, using a natural language processing unit, 16. The speech utterance time of the foreground target is calculated with reference to the already calculated serif utterance time of the foreground target, and the calculation result is registered as the utterance time of the serif of the foreground information. Animation creation device.
【請求項18】アニメーション情報抽出部は、前景対象
のセリフがない前景情報について、前記セリフの発声に
要する時間を適当な一定値で与えることを特徴とする請
求項17記載のアニメーション作成装置。
18. The animation creating apparatus according to claim 17, wherein the animation information extraction unit gives, for the foreground information having no foreground target serif, a time required for utterance of the serif with an appropriate constant value.
【請求項19】アニメーション情報抽出部は、セリフの
発声時間が登録されており、かつ、前景対象の登場時間
が登録されていない前景情報について、前記前景対象の
セリフの発声の時間を、前記前景情報の前景対象の登場
時間として記録することを特徴とする請求項15に記載
のアニメーション作成装置。
19. The foreground information for which the speech time of the speech is registered and the appearance time of the foreground target is not registered, the animation information extraction unit determines the time of speech of the serif of the foreground target by the foreground. 16. The animation creating apparatus according to claim 15, wherein the appearance time of the information is recorded as the appearance time of the foreground object.
【請求項20】アニメーション編集部は、少なくとも、
前景対象の移動経路を編集する対象移動経路編集部、前
記移動経路の距離を計算する対象移動距離演算部、前景
対象の移動速度を編集する対象移動速度編集部、前記移
動速度の実際の値を計算する対象移動速度演算部とを具
備し、編集済みの移動経路及び移動速度を、前記前景対
象が記録されている前景情報の前景対象の移動経路、前
景対象の移動速度として記録することを特徴とする請求
項15記載のアニメーション作成装置。
20. At least an animation editing unit,
A target moving path editing unit that edits the moving path of the foreground target, a target moving distance calculating unit that calculates the distance of the moving path, a target moving speed editing unit that edits the moving speed of the foreground target, and an actual value of the moving speed. An object moving speed calculation unit for calculating, and records the edited moving path and moving speed as a moving path of the foreground object and a moving speed of the foreground object of the foreground information in which the foreground object is recorded. The animation creating apparatus according to claim 15.
【請求項21】アニメーション編集部の対象移動速度編
集部は、前景対象の移動速度を速度の比率で編集するこ
とを特徴とする請求項20記載のアニメーション作成装
置。
21. The animation creating apparatus according to claim 20, wherein the target moving speed editing unit of the animation editing unit edits the moving speed of the foreground target at a speed ratio.
【請求項22】アニメーション編集部は、アニメーショ
ン情報記憶部に記憶されている、ある前景情報の前景対
象の声質の情報が変更された場合に、アニメーション情
報記憶部に記憶されている前記前景情報以外で、かつ、
前記前景情報の前景主対象と同一の前景主対象を持つ前
景情報について、前記前景情報の前景対象の声質を、前
記変更された前景対象の声質に変更することを特徴とす
る請求項12または13記載のアニメーション作成装
置。
22. The animation editing unit, other than the foreground information stored in the animation information storage unit, when the information on the voice quality of the foreground target of certain foreground information stored in the animation information storage unit is changed. And, and
14. For the foreground information having the same foreground main target as the foreground main target of the foreground information, the voice quality of the foreground target of the foreground information is changed to the changed voice quality of the foreground target. The described animation creation device.
【請求項23】アニメーション制御部は、前景情報の前
景対象のセリフ内容を音声合成部に送る際に、同時に、
前記前景情報の前景対象の声質の情報を音声信号処理部
に送ることを特徴とする請求項13記載のアニメーショ
ン作成装置。
23. The animation control unit, at the same time as sending the speech content of the foreground target of the foreground information to the voice synthesizing unit,
14. The animation creating apparatus according to claim 13, wherein the information on the voice quality of the foreground target of the foreground information is sent to the audio signal processing unit.
JP26532394A 1994-10-28 1994-10-28 Animation generating device Pending JPH08123976A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26532394A JPH08123976A (en) 1994-10-28 1994-10-28 Animation generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26532394A JPH08123976A (en) 1994-10-28 1994-10-28 Animation generating device

Publications (1)

Publication Number Publication Date
JPH08123976A true JPH08123976A (en) 1996-05-17

Family

ID=17415599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26532394A Pending JPH08123976A (en) 1994-10-28 1994-10-28 Animation generating device

Country Status (1)

Country Link
JP (1) JPH08123976A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007034829A1 (en) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. Video creating device and video creating method
WO2007138911A1 (en) * 2006-05-30 2007-12-06 Panasonic Corporation Character clothing deciding device, character clothing deciding method, and character clothing deciding program
JP2009301055A (en) * 2009-09-17 2009-12-24 Sharp Corp Electronic comics manufacturing device and method for manufacturing electronic comics
US7973793B2 (en) 2005-06-10 2011-07-05 Panasonic Corporation Scenario generation device, scenario generation method, and scenario generation program
JP2013187595A (en) * 2012-03-06 2013-09-19 Casio Comput Co Ltd Image processing apparatus, image processing method, and program
JP2015193260A (en) * 2008-07-04 2015-11-05 ブックトラック ホールディングス リミテッド Method and system for making and playing soundtracks

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053902A (en) * 2005-06-10 2012-03-15 Panasonic Corp Scenario generation device, scenario generation method and scenario generation program
US7973793B2 (en) 2005-06-10 2011-07-05 Panasonic Corporation Scenario generation device, scenario generation method, and scenario generation program
WO2007034829A1 (en) * 2005-09-21 2007-03-29 Matsushita Electric Industrial Co., Ltd. Video creating device and video creating method
JP4833216B2 (en) * 2005-09-21 2011-12-07 パナソニック株式会社 Video production device and video production method
JP4869340B2 (en) * 2006-05-30 2012-02-08 パナソニック株式会社 Character costume determination device, character costume determination method, and character costume determination program
WO2007138911A1 (en) * 2006-05-30 2007-12-06 Panasonic Corporation Character clothing deciding device, character clothing deciding method, and character clothing deciding program
US8140460B2 (en) 2006-05-30 2012-03-20 Panasonic Corporation Character outfit autoconfiguration device, character outfit autoconfiguration method, and character outfit autoconfiguration program
US10095465B2 (en) 2008-07-04 2018-10-09 Booktrack Holdings Limited Method and system for making and playing soundtracks
JP2015193260A (en) * 2008-07-04 2015-11-05 ブックトラック ホールディングス リミテッド Method and system for making and playing soundtracks
US10095466B2 (en) 2008-07-04 2018-10-09 Booktrack Holdings Limited Method and system for making and playing soundtracks
US10140082B2 (en) 2008-07-04 2018-11-27 Booktrack Holdings Limited Method and system for making and playing soundtracks
US10255028B2 (en) 2008-07-04 2019-04-09 Booktrack Holdings Limited Method and system for making and playing soundtracks
JP2009301055A (en) * 2009-09-17 2009-12-24 Sharp Corp Electronic comics manufacturing device and method for manufacturing electronic comics
JP2013187595A (en) * 2012-03-06 2013-09-19 Casio Comput Co Ltd Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
US6181351B1 (en) Synchronizing the moveable mouths of animated characters with recorded speech
US7076732B2 (en) Document processing apparatus having an authoring capability for describing a document structure
US6172675B1 (en) Indirect manipulation of data using temporally related data, with particular application to manipulation of audio or audiovisual data
US7117231B2 (en) Method and system for the automatic generation of multi-lingual synchronized sub-titles for audiovisual data
US20090202226A1 (en) System and method for converting electronic text to a digital multimedia electronic book
US10217454B2 (en) Voice synthesizer, voice synthesis method, and computer program product
JP2005150841A (en) Information processing method and information processing apparatus
CN110781328A (en) Video generation method, system, device and storage medium based on voice recognition
US8892435B2 (en) Text data processing apparatus, text data processing method, and recording medium storing text data processing program
CN111930289B (en) Method and system for processing pictures and texts
JP3085631B2 (en) Speech synthesis method and system
JP3938096B2 (en) Index creation device, index creation method, and index creation program
CN116092472A (en) Speech synthesis method and synthesis system
CN116582726B (en) Video generation method, device, electronic equipment and storage medium
JPH08123976A (en) Animation generating device
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
JPH08248980A (en) Voice recognition device
JP2001155467A (en) Editorial processor, and recording medium in which editorial processing program is stored
JP2007079736A (en) Data editing device, data editing method, and data editing program
Serralheiro et al. Towards a repository of digital talking books.
JPH0877196A (en) Extracting device for document information
JPH0981590A (en) Multimedia information retrieval device
JP2974698B2 (en) Editing / learning device for relations between words in a machine translation device
KR20010004400A (en) Segmentation of acoustic scences in audio/video materials
JP5383608B2 (en) Broadcast sentence creation support device and program