JP2001034776A - Animation editing system and storage medium where animation editing program is recorded - Google Patents

Animation editing system and storage medium where animation editing program is recorded

Info

Publication number
JP2001034776A
JP2001034776A JP20821399A JP20821399A JP2001034776A JP 2001034776 A JP2001034776 A JP 2001034776A JP 20821399 A JP20821399 A JP 20821399A JP 20821399 A JP20821399 A JP 20821399A JP 2001034776 A JP2001034776 A JP 2001034776A
Authority
JP
Japan
Prior art keywords
unit
animation
parts
naturalization
naturalized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20821399A
Other languages
Japanese (ja)
Inventor
Satoshi Iwata
敏 岩田
Takahiro Matsuda
高弘 松田
Yuji Takahashi
勇治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP20821399A priority Critical patent/JP2001034776A/en
Publication of JP2001034776A publication Critical patent/JP2001034776A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically generate an animation including naturalizing operation by using an animation generating device which generates the animation by connecting unit parts. SOLUTION: The animation editing system which assists a parts compiling means 102 to connect and compile unit parts stored in a parts database 101 is equipped with a common interface means 100 which mediates information transmission and reception, a 1st naturalization request means 111 which sends out a naturalization request for an animation sequence by the parts compiling means 102 to the common interface means 100, a naturalization editing device 112 which receives the naturalization request through the common interface means 100 and generates the naturalized animation sequence matching the specified animation sequence, and a composing means 113 which puts together the naturalized animation sequence received through the common interface means 100 and the original animation sequence.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、アニメーション作
成装置及び作成されたアニメーションを用いたユーザイ
ンタフェースを利用者に提供するアニメーションインタ
フェース提供装置の双方が共用可能なアニメーション編
集システムおよびアニメーション編集プログラムを記録
した記憶媒体に関するものである。金融機関に設置され
ている自動預け払い機のように、不特定多数の利用者が
操作する端末装置では、操作手順や様々なサービスに関
する情報を顧客に提供するするために、操作に必要なボ
タンなどとともに、人間や動物あるいは擬人化された動
物などを含む様々なキャラクタの表情や動作を表すアニ
メーションを表示することによって、キーボードなどの
操作になじめない顧客にも操作しやすいユーザインタフ
ェースを提供している。このようなアニメーションで
は、親しみやすいキャラクタが不特定多数の利用者に必
要な操作を分かりやすく説明するとともに、その動作が
自然に見えることが必要である。その一方、新しい商品
やサービスの提供に合わせて、必要な操作の説明や情報
提供のためのアニメーションを作成する必要がある。こ
のため、キャラクタが自然に動作している印象を利用者
に与えるアニメーションを簡単に制作する技術が必要と
されている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention records an animation editing system and an animation editing program which can be shared by both an animation creating apparatus and an animation interface providing apparatus for providing a user with a user interface using the created animation. It relates to a storage medium. In a terminal device operated by an unspecified number of users, such as an automatic teller machine installed in a financial institution, buttons necessary for operation are provided to provide customers with information on operation procedures and various services. By displaying animations that show the expressions and actions of various characters including humans, animals, and anthropomorphic animals, a user interface that is easy to operate even for customers who are unfamiliar with keyboards etc. I have. In such an animation, it is necessary that a friendly character explains an operation necessary for an unspecified number of users in an easy-to-understand manner, and that the operation looks natural. On the other hand, it is necessary to create an animation for explaining necessary operations and providing information in accordance with the provision of a new product or service. For this reason, there is a need for a technique for easily producing an animation that gives a user an impression that a character is moving naturally.

【0002】[0002]

【従来の技術】オブジェクト指向言語の一つであるVisu
al Basicなどを利用すれば、利用者の操作対象となるボ
タンやテキスト入力欄などのリソースを操作画面に配置
していくとともに、各リソースに対応するイベントが発
生したときに実行すべき手順をプログラムすることによ
り、様々な入力操作を可能とする操作画面を簡単に作成
することができる。
2. Description of the Related Art Visu, an object-oriented language
If you use al Basic etc., you can arrange resources such as buttons and text input fields that are the user's operation target on the operation screen, and program the procedure to be executed when the event corresponding to each resource occurs By doing so, it is possible to easily create an operation screen that enables various input operations.

【0003】同様にして、アニメーションを再生するた
めの一連の画像情報及び音声情報からなるリソース(以
下、アニメーションリソースと称する)と手続きに関す
る記述とをひとまとめとしてオブジェクト化し、操作画
面に配置すれば、自動預け払い機などのような端末装置
に備えられた表示装置に、図24に示すようなアニメー
ションを利用した操作画面を表示して、利用者に分かり
やすいインタフェースを提供することができる。
Similarly, if a resource (hereinafter referred to as an animation resource) composed of a series of image information and audio information for reproducing an animation and a description relating to a procedure are collectively converted into an object and arranged on an operation screen, an automatic operation is performed. An operation screen using an animation as shown in FIG. 24 can be displayed on a display device provided in a terminal device such as a cash machine to provide a user-friendly interface.

【0004】上述したように、予め用意されたボタンや
テキスト入力欄と同様に、アニメーションをグラフィカ
ルユーザインタフェースの部品として利用するために
は、所望の動作や表情の変化を記述したシナリオに従っ
て、それぞれアニメーションリソースを作成する必要が
ある。さて、アニメーションリソース作成を簡易化する
ための一つの手法として、例えば、「指を指す」、「歩
く」、「頷く」のような動作や「話す」、「笑う」のよ
うな表情変化を表す一連の画像情報をまとめて単位パー
ツとし、これらの単位パーツを連結することによって、
アニメーションリソースを作成する技術が提案されてい
る。
As described above, in order to use an animation as a component of a graphical user interface in the same manner as a previously prepared button or text input field, each of the animations is performed according to a scenario describing a desired operation or a change in expression. You need to create a resource. Now, as one method for simplifying the creation of animation resources, for example, expressing actions such as “pointing a finger”, “walking”, and “nodding”, and expression changes such as “speaking” and “laughing” are represented. By combining a series of image information into unit parts and connecting these unit parts,
Techniques for creating animation resources have been proposed.

【0005】図25に、従来のアニメーション作成装置
の構成例を示す。図25に示したパーツデータベース4
01は、様々な動作や表情変化を表す単位パーツを蓄積
している。また、アニメーション作成装置に備えられた
パーツ検索部411は、指示入力部412を介して操作
者からの指示を受け取り、データベース管理システム
(DBMS)402を介してパーツデータベース401
から指定された単位パーツを検索し、パーツ合成部41
3の処理に供する構成となっている。
FIG. 25 shows a configuration example of a conventional animation creating apparatus. Parts database 4 shown in FIG.
01 accumulates unit parts representing various actions and facial expression changes. Further, a parts search unit 411 provided in the animation creating apparatus receives an instruction from an operator via an instruction input unit 412 and a parts database 401 via a database management system (DBMS) 402.
Searches for the specified unit part from the
3 is provided.

【0006】この場合は、アニメーションリソースの開
発作業者は、一連の動作や表情変化の遷移が記述された
シナリオに従って、マウス403やキーボード404を
操作し、適切な動作や表情変化を表す単位パーツを順次
に指示すればよい。また、パーツ合成部413は、パー
ツ検索部411から受け取った単位パーツを順次に接続
することにより、シナリオに沿ってキャラクタが様々な
動作を連続して行うアニメーションを表す画像情報を作
成することができる。
In this case, a developer of the animation resource operates the mouse 403 or the keyboard 404 according to a scenario in which a series of operations and transitions of facial expression changes are described, and generates unit parts representing appropriate operations and facial expression changes. The instructions may be given in order. Also, by sequentially connecting the unit parts received from the parts search unit 411, the parts combining unit 413 can create image information representing an animation in which the character continuously performs various actions according to the scenario. .

【0007】このように、一連の動作や表情の変化を単
位パーツ化することにより、アニメーションによって表
現しようとするストーリーをまとまった意味を持つ部品
単位で組み立てることが可能となるので、アニメーショ
ンリソースの作成作業を簡易化することができる。本出
願人は、アニメーションリソースの作成を更に簡易化す
るための技術として、整理番号9803644「アニメ
ーション作成装置及び方法並びにアニメーション作成プ
ログラムを記録したコンピュータ読み取り可能な記憶媒
体」を既に出願している。
By converting a series of movements and changes in facial expressions into unit parts as described above, it is possible to assemble a story to be expressed by animation into parts having a collective meaning. Work can be simplified. The present applicant has already filed an application number 9803644 "Animation creation device and method, and computer-readable storage medium recording animation creation program" as a technique for further simplifying creation of animation resources.

【0008】図26に、整理番号9803644に記載
された技法を適用したアニメーション作成装置の構成例
を示す。図26に示したパーツデータベース421は、
様々な動作や表情の変化を表す画像情報からなる単位パ
ーツとともに属性情報テーブル422を備えて構成され
ており、この属性情報テーブル422は、図27に示す
ように、パーツ識別情報(以下、パーツIDと称する)
に対応して、各単位パーツの特徴を示す属性情報を格納
する構成となっている。
FIG. 26 shows a configuration example of an animation creating apparatus to which the technique described in reference number 9803644 is applied. The parts database 421 shown in FIG.
An attribute information table 422 is provided together with unit parts composed of image information indicating various operations and changes in facial expressions. The attribute information table 422 includes, as shown in FIG. 27, part identification information (hereinafter, part ID). Is called)
, Attribute information indicating the characteristics of each unit part is stored.

【0009】また、アニメーション作成装置に備えられ
たパーツ検索部431は、属性情報抽出部432から受
け取った属性情報に基づいて、DBMS402を介して
属性情報テーブル422から適切な属性情報の組み合わ
せを持つ単位パーツを示すパーツIDを検索する構成と
なっている。この場合は、操作者は、マウス403やキ
ーボード404を操作して、所望のキャラクタの動作や
表情の遷移を示すシナリオとして、個々の動作や表情を
特定する属性情報の連鎖を入力し、シナリオ入力部43
3を介して属性情報抽出部432に渡せばよい。
[0009] Also, based on the attribute information received from the attribute information extraction unit 432, the parts search unit 431 provided in the animation creating apparatus has a unit having an appropriate combination of attribute information from the attribute information table 422 via the DBMS 402. It is configured to search for a part ID indicating a part. In this case, the operator operates the mouse 403 or the keyboard 404 to input a chain of attribute information that specifies individual actions or facial expressions as a scenario indicating a desired character's behavior or facial expression transition. Part 43
3 to the attribute information extraction unit 432.

【0010】また、パーツ列編成部434は、シナリオ
入力部433からの指示に応じて、パーツ検索部431
から受け取った一連のパーツIDを連結してパーツ列を
編成し、得られたパーツ列に従って、アニメーション合
成部435が、DBMS402を介して該当する単位パ
ーツを受け取って、順次に結合していくことにより、ア
ニメーションリソースを作成する構成となっている。
[0010] In addition, in response to an instruction from the scenario input unit 433, the part sequence organizing unit 434 generates a parts search unit 431.
By combining a series of part IDs received from, a part sequence is organized, and in accordance with the obtained part sequence, the animation synthesizing unit 435 receives the corresponding unit parts via the DBMS 402 and sequentially combines them. , An animation resource is created.

【0011】このように、整理番号9803644に記
載された技法を適用したアニメーション作成装置は、単
位パーツの特徴を示す属性情報に基づいて、単位パーツ
を自動的に検索して、アニメーションリソースの作成処
理に供することができる。
As described above, the animation creating apparatus to which the technique described in the reference number 9803644 is applied automatically searches for the unit parts based on the attribute information indicating the characteristics of the unit parts, and creates the animation resource. Can be provided.

【0012】[0012]

【発明が解決しようとする課題】ところで、図25に示
したアニメーション作成装置では、アニメーションリソ
ースを作成しようとする操作者が、ストーリーを表現す
るために必要な動作や表情を表す単位パーツを直接的に
指定している。
By the way, in the animation creating apparatus shown in FIG. 25, an operator who wants to create an animation resource directly sends a unit part representing an operation or an expression necessary to express a story. Is specified.

【0013】したがって、ストーリーを適切に表現する
アニメーションリソースを作成するためには、操作者
が、個々の単位パーツが表している動作や表情について
十分に把握している必要があり、操作者の負担が大きか
った。これに対して、整理番号9803644の明細書
に記載された技法を適用したアニメーション作成装置で
は、操作者は、シナリオに記述されたストーリーに沿っ
て、各場面で必要とされる動作や表情を特徴づける属性
情報を順次に入力すればよいので、操作者の作業負担を
大幅に軽減することができる。
Therefore, in order to create an animation resource that appropriately expresses a story, it is necessary for the operator to fully understand the actions and facial expressions represented by the individual unit parts. Was big. On the other hand, in the animation creating apparatus to which the technique described in the specification of the reference number 9803644 is applied, the operator characterizes the operation and the expression required in each scene along the story described in the scenario. Since it is only necessary to sequentially input the attribute information to be attached, the work load on the operator can be greatly reduced.

【0014】しかしながら、いずれの技法を用いた場合
においても、単純にストーリーを追って部品を配置して
いくだけでは、キャラクタの動作や表情の変化に不自然
な箇所が生じてしまう。なぜなら、実際の人間や動物の
動作は、意味を持った動作や表情に加えて、動作と動作
とをつなぐ無意識の動作や感情の変化に伴う表情の遷移
を含んでいるのに対して、シナリオには、それぞれの場
面において伝えたい意味を表す動作(以下、有意動作と
称する)やその時々の感情を表す表情のみが記述されて
いるために、シナリオにあからさまに示された部品のみ
を組み立てていくと、顔の向きなどの動作の不連続や表
情の不連続が発生してしまうからである。
However, no matter which technique is used, simply arranging the parts following the story may cause unnatural places in the movement of the character and changes in facial expressions. This is because actual human and animal movements include meaningful movements and expressions, as well as unconscious movements connecting movements and movements of facial expressions accompanying changes in emotions, while scenarios Since only the actions that represent the meaning to be conveyed in each scene (hereinafter referred to as significant actions) and the expressions that express the emotions at each time are described, only the parts explicitly shown in the scenario are assembled. This is because, if it goes, discontinuity of motion such as face direction and discontinuity of expression will occur.

【0015】例えば、図28(a)に示すように、横を向
いているキャラクタが、次の瞬間には突然正面を向いて
おり、更に何かのメッセージをにこやかに述べた後、今
度はいきなり怒ったような表情をしたのでは、このアニ
メーションで表されたキャラクタが自律的に動作してい
る印象を利用者に与えることは到底不可能であり、利用
者が、このキャラクタに人格に相当するものを感じるこ
ともあり得ない。
For example, as shown in FIG. 28 (a), the character facing sideways suddenly faces the front at the next moment, and after further vocalizing some message, this time suddenly With an angry expression, it is almost impossible to give the user the impression that the character represented by this animation is operating autonomously, and the user has a personality equivalent to this character. You can't feel anything.

【0016】したがって、このような不自然な箇所を含
んだアニメーションリソースが、ユーザインタフェース
の一部として提供されると、利用者は、アニメーション
によって表現されたキャラクタが、利用者自身に代わっ
てユーザインタフェース画面の中で動作しているという
印象を持つことができなくなってしまう。このため、従
来のアニメーション作成装置によって自動的に作成され
たアニメーションリソースによっては、アニメーション
を利用したことによる効果を十分に発揮することができ
なかった。
Therefore, when an animation resource including such an unnatural part is provided as a part of the user interface, the user is required to replace the character represented by the animation with the user interface on behalf of the user. You will not be able to get the impression that it is operating on the screen. For this reason, depending on the animation resources automatically created by the conventional animation creation device, the effect of using animation cannot be sufficiently exerted.

【0017】また、例えば、現金自動預け払い機などを
利用者が操作する場合には、利用者からの指示を待つ間
や利用者からの指示に応じてセンタと交信したりする際
などに待ち時間が生じ、この間に、操作画面に表示され
たキャラクタが動作を停止していると、利用者は、シス
テムも停止してしまったと誤解する危険性がある。また
一方、有意動作を表す単位パーツそれぞれを再生するた
めに要する時間は、それぞれの有意動作ごとに異なって
いるため、上述したように、単純に有意動作に対応する
単位パーツを連結していったのでは、図28(b)に示す
ように、利用者が操作1を指示した場合に再生されるア
ニメーションと操作2を指示した場合に再生されるアニ
メーションとの再生時間が大幅に異なってしまう場合が
考えられる。
For example, when a user operates an automatic teller machine or the like, the user waits while waiting for an instruction from the user or when communicating with the center in response to the instruction from the user. If time occurs, and during this time the character displayed on the operation screen stops moving, the user may misunderstand that the system has also stopped. On the other hand, since the time required to reproduce each of the unit parts representing the significant operation differs for each significant operation, the unit parts corresponding to the significant operation were simply connected as described above. In this case, as shown in FIG. 28 (b), when the playback time of the animation played back when the user instructs operation 1 and the playback time of the animation played back when the user instructs operation 2 are significantly different. Can be considered.

【0018】しかしながら、例えば、図24に示した各
ボタンに関する説明を利用者に提供するような場面にお
いては、これらのボタンに関する説明に対応するアニメ
ーションの再生時間は、ほぼ同一であることが望まし
い。もちろん、シナリオの作成の段階において、1つの
有意動作と次の有意動作とを接続する動作(以下、接続
動作と称する)や異なる表情間の遷移、更には、待ち時
間などの発生に応じて行うべきアイドリング動作や全体
の再生時間などを考慮して、それぞれの動作や表情の遷
移を指定する属性情報を記述すれば、整理番号9803
644の明細書に記載された技法を適用したアニメーシ
ョン作成装置によって、キャラクタが自然に動作する印
象を与えるアニメーションリソースを自動的に作成する
ことが可能である。
However, for example, in a situation where the user is provided with explanations about the buttons shown in FIG. 24, it is desirable that the animations corresponding to the explanations about these buttons have substantially the same reproduction time. Of course, in the stage of creating a scenario, the operation is performed in accordance with an operation for connecting one significant operation and the next significant operation (hereinafter, referred to as a connection operation), a transition between different expressions, and a generation of a waiting time. In consideration of the idling operation to be performed, the overall playback time, and the like, attribute information that specifies the transition of each operation or facial expression is described.
With the animation creating apparatus to which the technique described in the specification of International Publication No. 644 is applied, it is possible to automatically create an animation resource giving an impression that the character naturally moves.

【0019】しかしながら、上述したような接続動作や
表情間の遷移、アイドリング動作などを考慮してシナリ
オを作成する作業は非常に煩雑であり、また、ユーザイ
ンタフェースを開発する技術とは異なる芸術的な能力が
必要とされるため、ユーザインタフェースの開発作業者
の負担が非常に大きくなってしまう。更に、上述した整
理番号9803644の明細書に記載された技法を適用
したアニメーション作成装置において、接続動作やアイ
ドリング動作および表情間の遷移などのように、キャラ
クタの動作を自然に見せるための自然化動作を表すアニ
メーションを含んだアニメーションを自動的に作成可能
な技術を提供することができれば、この技法を用いて、
テレビ放送用のアニメーションやアニメーション映画並
びにアニメーションを用いたビデオゲームなどの制作に
適用し、アニメーション作成に要する時間を大幅に短縮
する効果が期待できる。
However, the task of creating a scenario in consideration of the above-described connection operation, transition between expressions, idling operation, and the like is very complicated, and is an artistic process different from the technology for developing a user interface. Since the capability is required, the burden on the user interface developer becomes very large. Further, in the animation creating apparatus to which the technique described in the above-mentioned reference number 9803644 is applied, a naturalizing operation for making the character's motion look natural, such as a connection operation, an idling operation, and a transition between facial expressions. If we can provide a technology that can automatically create animations including animations that represent
It can be applied to the production of animations for television broadcasting, animated movies, video games using animations, etc., and the effect of greatly reducing the time required for animation creation can be expected.

【0020】本発明は、単位パーツを連結してアニメー
ションを作成するアニメーション作成装置を用いて、自
然化動作を含んだアニメーションを自動的に作成可能と
するアニメーション編集システムを提供することを目的
とする。
An object of the present invention is to provide an animation editing system which can automatically create an animation including a naturalization operation using an animation creating apparatus for creating an animation by connecting unit parts. .

【0021】[0021]

【課題を解決するための手段】図1に、請求項1および
請求項7、8のアニメーション編集システムの原理ブロ
ック図を示す。
FIG. 1 is a block diagram showing the principle of an animation editing system according to the first and seventh and eighth aspects of the present invention.

【0022】請求項1の発明は、キャラクタのまとまっ
た動作を表す画像情報を含む単位パーツをパーツデータ
ベース101に蓄積しておき、キャラクタの動作を表す
アニメーションをキャラクタの動作や表情を示す属性情
報の連なりとして記述したシナリオに基づいて、パーツ
編成手段102がパーツデータベース101に蓄積され
た該当する単位パーツを連結してアニメーションシーケ
ンスを編成する作業を支援するアニメーション編集シス
テムにおいて、所定のインタフェース仕様に従って、そ
れぞれ独立した機能を有する装置相互の情報授受を媒介
する共通インタフェース手段100と、パーツ編成手段
102によるアニメーションシーケンスの編成過程にお
いて、必要に応じて、アニメーションシーケンスに対す
る自然化処理を指示する自然化要求を共通インタフェー
ス手段100に送出する第1自然化要求手段111と、
共通インタフェース手段100を介して自然化要求を受
け取り、指定されたアニメーションシーケンスの特徴を
示す情報に基づいて、アニメーションシーケンスによっ
て表現されるアニメーションをより自然に見せるために
必要なキャラクタの動作および表情を表す単位パーツか
らなる自然化アニメーションシーケンスを作成する自然
化編集装置112と、自然化アニメーションシーケンス
を共通インタフェース手段100を介して受け取り、自
然化アニメーションシーケンスとアニメーションシーケ
ンスとを合成し、アニメーションシーケンスとして出力
する合成手段113とを備えたことを特徴とする。
According to the first aspect of the present invention, unit parts including image information representing a grouped movement of a character are stored in the parts database 101, and an animation representing the movement of the character is converted into an attribute information indicating the movement and expression of the character. Based on a scenario described as a series, in an animation editing system that assists the part knitting means 102 in linking the corresponding unit parts stored in the parts database 101 to form an animation sequence, each of the parts is divided according to a predetermined interface specification. In the knitting process of the animation sequence by the common interface unit 100 and the knitting unit 102, which mediate information exchange between devices having independent functions, a naturalization process for the animation sequence is specified as necessary. A first naturalized requesting means 111 for sending a naturalization request to the common interface unit 100,
A naturalization request is received via the common interface unit 100, and based on information indicating characteristics of the specified animation sequence, the motion and expression of the character necessary to make the animation represented by the animation sequence look more natural are represented. A naturalization editing device 112 for creating a naturalized animation sequence composed of unit parts, and a composition for receiving the naturalized animation sequence via the common interface unit 100, synthesizing the naturalized animation sequence and the animation sequence, and outputting as an animation sequence. And means 113.

【0023】請求項1の発明は、パーツ編成手段102
がパーツデータベース101に蓄積された単位パーツを
連結してアニメーションシーケンスを形成していく過程
において、第1自然化要求手段111からの自然化要求
に応じて自然化編集装置112が動作することにより、
例えば、パーツ編成手段102によって形成されたアニ
メーションシーケンスに含まれる意味のある動作を表す
有意パーツを滑らかに接続する単位パーツを含む自然化
アニメーションシーケンスを自動的に作成し、合成手段
113によって元のアニメーションシーケンスと合成す
ることができる。
According to the first aspect of the present invention, there is provided a
In the process of connecting the unit parts stored in the parts database 101 to form an animation sequence, the naturalization editing device 112 operates in response to the naturalization request from the first naturalization request unit 111,
For example, a naturalized animation sequence including unit parts that smoothly connect significant parts representing meaningful operations included in the animation sequence formed by the parts organization unit 102 is automatically created, and the original animation is generated by the combining unit 113. Can be combined with a sequence.

【0024】図2に、請求項2および請求項9のアニメ
ーション編集システムの原理ブロック図を示す。請求項
2の発明は、キャラクタのまとまった動作を表す画像情
報を含む単位パーツを連結して構成された複数のアニメ
ーションシーケンスからなるアニメーションシーケンス
群を備え、指示入力手段103を介して入力された指示
に応じて、再生制御手段104が該当するアニメーショ
ンシーケンスの再生を再生手段105に指示し、これに
応じて、再生手段105が、アニメーションシーケンス
に含まれる各単位パーツに対応する画像情報の集まりを
画像データベース106から抽出して順次に出力手段1
07を介して出力することにより、利用者による入力に
応じてキャラクタが動作するアニメーションインタフェ
ースを提供するアニメーションインタフェースシステム
において、所定のインタフェース仕様に従って、それぞ
れ独立した機能を有する装置相互の情報授受を媒介する
共通インタフェース手段100と、キャラクタの様々な
動作および表情を表す画像情報を含む単位パーツを蓄積
しているパーツデータベース101と、再生制御手段1
04からの指示に応じて、アニメーションシーケンスに
連結すべき自然化パーツを要求する自然化要求を共通イ
ンタフェース手段100に送出する第2自然化要求手段
121と、共通インタフェース手段100を介して自然
化要求を受け取り、指定されたアニメーションシーケン
スの特徴を示す情報に基づいて、アニメーションシーケ
ンスによって表現されるアニメーションをより自然に見
せるために必要なキャラクタの動作および表情を表す単
位パーツからなる自然化アニメーションシーケンスを作
成する自然化編集装置112と、自然化アニメーション
シーケンスを共通インタフェース手段100を介して受
け取り、自然化アニメーションシーケンスを再生制御手
段104を介して再生手段105の処理に供し、アニメ
ーションシーケンスに追加する追加手段122とを備え
たことを特徴とする。
FIG. 2 is a block diagram showing the principle of the animation editing system according to the present invention. The invention according to claim 2 is provided with an animation sequence group including a plurality of animation sequences formed by connecting unit parts including image information representing a collective action of a character, and an instruction input through the instruction input unit 103. In response to this, the playback control unit 104 instructs the playback unit 105 to play back the corresponding animation sequence, and in response to this, the playback unit 105 displays a set of image information corresponding to each unit part included in the animation sequence as an image. Output means 1 sequentially extracted from database 106
In the animation interface system that provides an animation interface in which a character operates in response to an input by a user by outputting the information through an interface 07, information transmission and reception between devices having independent functions are performed according to a predetermined interface specification. A common interface unit 100; a parts database 101 storing unit parts including image information representing various actions and facial expressions of the character;
A second naturalization request unit 121 that sends a naturalization request for requesting a naturalized part to be connected to the animation sequence to the common interface unit 100 in accordance with an instruction from the animation sequence 04; And generates a naturalized animation sequence consisting of unit parts that represent the movements and facial expressions of the characters required to make the animation represented by the animation sequence look more natural, based on information indicating the characteristics of the specified animation sequence. Receiving the naturalized animation sequence via the common interface means 100, and providing the naturalized animation sequence to the processing of the reproduction means 105 via the reproduction control means 104; Characterized by comprising an additional means 122 to add to.

【0025】請求項2の発明は、再生制御手段104か
らの指示に応じて、第2自然化要求手段121が自然化
要求を送出し、この自然化要求に応じて自然化編集装置
112が動作することにより、例えば、一つのアニメー
ションシーケンスの再生が終了したときに、このアニメ
ーションシーケンスに滑らかに連続する単位パーツを含
む自然化アニメーションシーケンスを自動的に作成し、
追加手段122を介して再生制御手段104の処理に供
することができる。
According to a second aspect of the present invention, the second naturalization requesting unit 121 sends a naturalization request in response to an instruction from the reproduction control unit 104, and the naturalization editing device 112 operates in response to the naturalization request. By, for example, when the reproduction of one animation sequence ends, a naturalized animation sequence including unit parts smoothly continuing to this animation sequence is automatically created,
The processing can be provided to the reproduction control unit 104 via the addition unit 122.

【0026】これに応じて、再生制御手段104が、自
然化アニメーションシーケンスの再生処理を再生手段1
05に指示すれば、再生が終了したアニメーションシー
ケンスの後に、滑らかに連続する自然化アニメーション
を再生し、動作の切れ目のないスムースなアニメーショ
ンを利用者に提供することができる。図3に、請求項3
および請求項4のアニメーション編集システムの要部構
成を示す。
In response, the reproduction control means 104 executes the reproduction processing of the naturalized animation sequence by the reproduction means 1.
If the instruction is given at 05, after the animation sequence whose reproduction has been completed, a smoothly continuous naturalized animation can be reproduced, and the user can be provided with a smooth animation with no break in the operation. FIG.
7 shows a main configuration of the animation editing system according to claim 4.

【0027】請求項3の発明は、請求項1または請求項
2に記載のアニメーション編集システムにおいて、自然
化編集装置112は、共通インタフェース手段100を
介して自然化対象のアニメーションシーケンスの特徴を
示す特徴情報を含む自然化要求を受け取る受取手段11
4と、特徴情報に基づいて、アニメーションシーケンス
を自然化するために必要な単位パーツが満たすべき検索
条件を指定する条件指定手段115と、検索条件に従っ
て、パーツデータベース101から少なくとも一つの単
位パーツを候補パーツとしてそれぞれ検索する検索手段
116と、各検索条件に対応する候補パーツのいずれか
一つをそれぞれ選択する選択手段117と、選択手段1
17によって選択された単位パーツを含む自然化アニメ
ーションシーケンスを共通インタフェース手段100に
送出する結果出力手段118とを備えた構成であること
を特徴とする。
According to a third aspect of the present invention, in the animation editing system according to the first or second aspect, the naturalization editing device 112 indicates a characteristic of the animation sequence to be naturalized via the common interface unit 100. Receiving means 11 for receiving a naturalization request including information
4, a condition specifying means 115 for specifying a search condition to be satisfied by a unit part necessary for naturalizing the animation sequence based on the feature information, and a candidate for at least one unit part from the parts database 101 according to the search condition. Searching means 116 for searching as parts, selecting means 117 for selecting one of the candidate parts corresponding to each search condition, and selecting means 1
17 and a result output unit 118 for sending a naturalized animation sequence including the unit part selected by the unit 17 to the common interface unit 100.

【0028】請求項3の発明は、条件指定手段115に
よって指定された条件に従って検索手段116が動作す
ることにより、アニメーションシーケンスに含まれる各
単位パーツの特徴を示す情報に基づいて、適切な単位パ
ーツを候補パーツとして検索し、選択手段117による
選択処理に供することができる。また、受付手段114
が、共通インタフェース手段100を介して自然化要求
を受け付け、結果出力手段118が、この共通インタフ
ェース手段100を介して選択手段117による選択結
果を出力する構成とすることにより、上述した共通イン
タフェース手段100によって情報交換が可能な様々な
処理手段からの要求に応じて、自然化編集装置112に
よって自然化アニメーションシーケンスを供給すること
ができ、自然化編集装置112を自然化アニメーション
シーケンスを供給するエンジンとして利用することが可
能となる。
According to a third aspect of the present invention, the search unit operates in accordance with the condition designated by the condition designating unit 115, so that an appropriate unit part is determined based on information indicating the characteristics of each unit part included in the animation sequence. As a candidate part, and can be subjected to a selection process by the selection unit 117. In addition, receiving means 114
Receives the naturalization request via the common interface unit 100, and the result output unit 118 outputs the selection result by the selection unit 117 via the common interface unit 100. The naturalization editing device 112 can supply a naturalized animation sequence in response to a request from various processing means capable of exchanging information by using the naturalization editing device 112 as an engine for supplying a naturalized animation sequence. It is possible to do.

【0029】請求項4の発明は、図3に示すように、請
求項3に記載のアニメーション編集システムにおいて、
パーツデータベース101は、自然化アニメーションシ
ーケンスに用いるための自然化パーツそれぞれに対応し
て、適合する用途を示す種別タグを保持するタグ情報保
持手段131を備えた構成であり、条件指定手段115
は、入力された自然化要求に含まれる所定の種別フラグ
に応じてタグ情報保持手段131を参照し、該当する種
別タグに対応する自然化パーツの集合を示す検索範囲を
求める範囲指定手段132と、自然化対象のアニメーシ
ョンシーケンスの特徴を示す特徴情報を含む自然化要求
と、検索範囲指定手段132によって得られた検索範囲
と結合し、検索条件として検索手段116に指定する条
件結合手段133とを備えた構成であることを特徴とす
る。
According to a fourth aspect of the present invention, as shown in FIG. 3, in the animation editing system according to the third aspect,
The parts database 101 is provided with a tag information holding unit 131 for holding a type tag indicating a suitable use, corresponding to each naturalized part used for the naturalized animation sequence.
Refers to a tag information holding unit 131 according to a predetermined type flag included in the input naturalization request, and specifies a search range indicating a set of naturalized parts corresponding to the corresponding type tag. And a condition combining unit 133 that combines the naturalization request including the feature information indicating the feature of the animation sequence to be naturalized with the search range obtained by the search range designating unit 132 and specifies the search condition to the search unit 116. It is characterized by having a configuration provided.

【0030】請求項4の発明は、タグ情報保持手段13
1と自然化要求に含まれた種別フラグとの関係に基づい
て範囲指定手段132が動作し、得られた検索範囲を条
件結合手段133の処理に供することにより、種別フラ
グに応じた検索範囲を含む検索条件を指定することがで
きる。この場合は、検索手段116の検索範囲を限定す
ることができるので、候補パーツの検索が容易となる。
According to a fourth aspect of the present invention, the tag information holding means 13
The range designating unit 132 operates based on the relationship between 1 and the type flag included in the naturalization request, and the obtained search range is subjected to the processing of the condition combining unit 133, whereby the search range corresponding to the type flag is set. Search conditions can be specified. In this case, the search range of the search unit 116 can be limited, so that the search for candidate parts becomes easy.

【0031】図4に、請求項5および請求項6のアニメ
ーション編集システムの要部構成を示す。請求項5の発
明は、請求項3に記載のアニメーション編集システムに
おいて、パーツデータベース101は、自然化アニメー
ションシーケンスに用いるための自然化パーツそれぞれ
に対応して、各自然化パーツの前側に連結可能な画像フ
レームを示すフレーム識別情報と後ろ側に連結可能な画
像フレームを示すフレーム識別情報とを接続情報として
保持する接続情報保持手段134とを備えた構成であ
り、条件指定手段115は、自然化対象のアニメーショ
ンシーケンスと作成すべき自然化アニメーションシーケ
ンスとの境界となる画像フレームを示す境界情報を含ん
だ自然化要求を受け取り、境界情報を検索条件の一部と
して検索手段116の処理に供する構成であり、検索手
段116は、検索条件の入力に応じて接続情報保持手段
134を参照し、境界情報と接続情報とに基づいて候補
パーツを検索する構成であることを特徴とする。
FIG. 4 shows a main configuration of the animation editing system according to the fifth and sixth aspects. According to a fifth aspect of the present invention, in the animation editing system according to the third aspect, the parts database 101 can be connected to the front side of each naturalized part corresponding to each naturalized part used for the naturalized animation sequence. A connection information holding unit that holds, as connection information, frame identification information indicating an image frame and frame identification information indicating an image frame that can be connected to the rear side. Receiving a naturalization request including boundary information indicating an image frame that is a boundary between the animation sequence to be created and the naturalized animation sequence to be created, and providing the boundary information to the search unit 116 as a part of the search condition. The search means 116 is connected to the connection information holding means 134 in accordance with the input of the search condition. Reference, characterized in that it is configured to search for candidate part based on the boundary information and connection information.

【0032】請求項5の発明は、各自然化パーツについ
ての接続情報が接続情報保持手段134に保持されてい
るので、境界情報を含んだ自然化要求に応じて、検索条
件指定手段115および検索手段116が動作すること
により、上述した境界情報で示された画像フレームに連
結可能な単位パーツを簡単に検索することができる。請
求項6の発明は、図4に示すように、請求項3に記載の
アニメーション編集システムにおいて、パーツデータベ
ース101は、自然化アニメーションシーケンスに用い
るための自然化パーツを蓄積する自然化パーツそれぞれ
に対応して、各自然化パーツが自然化アニメーションシ
ーケンスの一部として選択された履歴に関する履歴情報
を保持する履歴情報保持手段135とを備えた構成であ
り、選択手段117は、少なくとも一つの候補パーツの
入力に応じて履歴情報保持手段135を参照し、各候補
パーツに対応する履歴情報に基づいて、自然化アニメー
ションシーケンスの一部として選択する候補パーツを決
定し、結果出力手段117の処理に供する決定手段13
7と、決定手段137によって選択された候補パーツに
対応する履歴情報を更新する履歴情報更新手段138と
を備えた構成であることを特徴とする。
According to the fifth aspect of the present invention, since the connection information for each naturalized part is held in the connection information holding means 134, the search condition specifying means 115 and the search condition can be set in response to the naturalization request including the boundary information. By the operation of the means 116, it is possible to easily search for a unit part connectable to the image frame indicated by the above-described boundary information. According to a sixth aspect of the present invention, as shown in FIG. 4, in the animation editing system according to the third aspect, the parts database 101 corresponds to each of the naturalized parts for storing the naturalized parts used for the naturalized animation sequence. And a history information holding unit 135 for holding history information relating to a history in which each naturalized part is selected as a part of the naturalized animation sequence. The selecting unit 117 includes at least one candidate part. The history information holding unit 135 is referred to in response to the input, and the candidate parts to be selected as a part of the naturalized animation sequence are determined based on the history information corresponding to each candidate part, and the result parts are processed by the result output unit 117. Mean 13
7 and a history information updating means 138 for updating history information corresponding to the candidate part selected by the determining means 137.

【0033】請求項6の発明は、選択手段117に備え
られた決定手段137が、パーツデータベース101内
部に設けられた履歴情報保持手段135に保持された各
候補パーツの履歴情報に基づいて選択する候補パーツを
決定するとともに、履歴情報更新手段138が、上述し
た履歴情報保持手段135に保持された履歴情報を更新
することにより、例えば、自然化アニメーションシーケ
ンスの一部として利用された回数の少ない単位パーツを
優先して選択し、変化に富んだ自然化アニメーションシ
ーケンスを作成することができる。
According to a sixth aspect of the present invention, the determination means 137 provided in the selection means 117 selects based on the history information of each candidate part held in the history information holding means 135 provided inside the parts database 101. The candidate parts are determined, and the history information updating unit 138 updates the history information held in the history information holding unit 135 described above, so that, for example, a unit that has been used as a part of the naturalized animation sequence with a small number of times Parts can be preferentially selected to create a variety of naturalized animation sequences.

【0034】請求項7の発明は、図1に示すように、請
求項1に記載のアニメーション編集システムにおいて、
合成手段113によって得られたアニメーションシーケ
ンスの末尾に、自然化アニメーションシーケンスの作成
を要求する旨の要求指示を追加する指示追加手段119
を備えたことを特徴とする。請求項7の発明は、指示追
加手段119の動作により、アニメーションシーケンス
の末尾に自然化要求を送出する旨の要求指示を組み込む
ことができるので、アニメーションシーケンスの作成段
階において、各アニメーションシーケンスが再生された
ときに自然化アニメーションシーケンスの作成が必要と
なるタイミングを予め指定しておくことができる。
According to a seventh aspect of the present invention, as shown in FIG. 1, in the animation editing system according to the first aspect,
Instruction adding means 119 for adding a request instruction to request creation of a naturalized animation sequence to the end of the animation sequence obtained by the combining means 113
It is characterized by having. According to the invention of claim 7, since the operation of the instruction adding means 119 can incorporate a request instruction for sending a naturalization request at the end of the animation sequence, each animation sequence is reproduced in the animation sequence creation stage. In this case, the timing at which the naturalized animation sequence needs to be created can be designated in advance.

【0035】請求項8の発明は、図1に示すように、請
求項1に記載のアニメーション編集システムにおいて、
パーツデータベース101は、単位パーツそれぞれに対
応して、各単位パーツの先頭画像および末尾画像を示す
フレーム識別情報からなるパーツ境界情報を保持する境
界情報保持手段141を備えた構成であり、パーツ編成
手段102は、入力されたシナリオに基づいて、パーツ
データベース101から適切な単位パーツを検索するパ
ーツ検索手段142と、パーツ検索手段142による検
索結果で示された各単位パーツに対応するパーツ境界情
報を抽出する境界情報抽出手段143と、パーツ検索手
段142による検索された単位パーツを示すパーツ識別
情報と、境界情報抽出手段143によって抽出されたパ
ーツ境界情報とを含んだパーツ列を形成するパーツ列形
成手段144とを備えた構成であり、第1自然化要求手
段111は、パーツ境界情報を自然化対象のアニメーシ
ョンシーケンスの特徴を示す情報として含む自然化要求
を共通インタフェース手段100に送出する構成である
ことを特徴とする。
According to an eighth aspect of the present invention, as shown in FIG. 1, in the animation editing system according to the first aspect,
The parts database 101 is provided with boundary information holding means 141 for holding part boundary information consisting of frame identification information indicating a head image and a tail image of each unit part, corresponding to each unit part. Reference numeral 102 denotes a part search unit 142 that searches for an appropriate unit part from the parts database 101 based on the input scenario, and extracts part boundary information corresponding to each unit part indicated by the search result by the parts search unit 142. Part information forming means for forming a part sequence including the boundary information extracting means 143, the part identification information indicating the unit part searched by the parts searching means 142, and the part boundary information extracted by the boundary information extracting means 143. 144, and the first naturalization requesting unit 111 Characterized in that it is configured to be transmitted to the common interface unit 100 a naturalized request including boundary information as information indicating a characteristic of the animation sequence of a natural-target.

【0036】請求項8の発明は、シナリオの入力に応じ
て、パーツ検索手段142、境界情報抽出手段143お
よびパーツ列形成手段144とが動作して、各単位パー
ツを示すパーツ識別情報とともに対応するパーツ境界情
報とを含んだパーツ列を形成することにより、第1自然
化要求手段111を介して、パーツ境界情報を自然化編
集装置112の処理に供することが可能である。
According to the invention of claim 8, in response to the input of the scenario, the parts search means 142, the boundary information extracting means 143 and the parts row forming means 144 operate to deal with the parts identification information indicating each unit part. By forming the part sequence including the part boundary information, the part boundary information can be provided to the processing of the naturalization editing device 112 via the first naturalization requesting unit 111.

【0037】この場合は、例えば、シナリオの記述に従
って検索された単位パーツを直接に連結するとキャラク
タの動作が不連続となってしまう場合に、この不連続箇
所の前後の単位パーツに対応するパーツ境界情報を自然
化要求に含めて自然化編集装置112に渡すことができ
る。上述したパーツ境界情報は、自然化アニメーション
シーケンスの直前の画像フレームおよび直後の画像フレ
ームを示す情報を含んでいるから、これに応じて自然化
編集装置112が動作することにより、適切な自然化ア
ニメーションシーケンスを簡単に作成することが可能と
なる。
In this case, for example, if the character parts become discontinuous when the unit parts retrieved in accordance with the description of the scenario are directly connected, the part boundary corresponding to the unit parts before and after the discontinuous part is determined. The information can be included in the naturalization request and passed to the naturalization editing device 112. Since the above-described part boundary information includes information indicating the image frame immediately before and after the naturalized animation sequence, the naturalized editing apparatus 112 operates in response to the information, so that the appropriate naturalized animation Sequences can be easily created.

【0038】請求項9の発明は、図2に示すように、請
求項2に記載のアニメーション編集システムにおいて、
再生制御手段104は、アニメーションシーケンスに含
まれる要求指示を検出し、この検出結果を第2自然化要
求手段121に通知する指示検出手段123を備えた構
成であり、第2自然化要求手段121は、指示検出手段
123から受け取った検出結果に応じて、共通インタフ
ェース手段100に該当するアニメーションシーケンス
についての自然化要求を送出する構成であることを特徴
とする。
According to a ninth aspect of the present invention, in the animation editing system according to the second aspect, as shown in FIG.
The reproduction control unit 104 has a configuration including an instruction detection unit 123 that detects a request instruction included in the animation sequence and notifies the second naturalization request unit 121 of the detection result. , In response to the detection result received from the instruction detecting unit 123, a naturalization request for the animation sequence corresponding to the common interface unit 100 is transmitted.

【0039】請求項9の発明は、再生制御手段104に
備えられた指示検出手段123が、アニメーションシー
ケンスに付加された要求指示を検出し、この検出結果に
応じて、第2自然化要求手段121が動作することによ
り、アニメーションシーケンスの作成側で指定したタイ
ミングで、自然化編集装置112に対して自然化アニメ
ーションシーケンスの作成を要求することができる。
According to a ninth aspect of the present invention, the instruction detecting means 123 provided in the reproduction control means 104 detects a request instruction added to the animation sequence, and according to the detection result, the second naturalization request means 121 Operates, the creation of the naturalized animation sequence can be requested to the naturalized editing device 112 at the timing specified by the animation sequence creating side.

【0040】図5に、請求項10および請求項11のア
ニメーション編集システムの原理ブロック図を示す。請
求項10の発明は、請求項1に記載のアニメーション編
集システムにおいて、合成手段113によって得られた
アニメーションシーケンスに含まれる各単位パーツを再
生するために要する時間を推定する再生時間推定手段1
51と、再生時間推定手段151による推定結果に基づ
いて、各単位パーツおよびアニメーションシーケンス全
体を再生するために要する時間に関する情報を表示出力
するための時間情報を作成する時間情報作成手段152
とを備え、第1自然化要求手段111は、パーツ編成手
段102によって新たな単位パーツがアニメーションシ
ーケンスへの連結対象となるごとに、自然化アニメーシ
ョンシーケンスを作成する必要が生じたと判断し、自然
化編集装置112に自然化要求を送出する構成であり、
合成手段113は、パーツ編成手段102によって新た
に連結対象とされた単位パーツに先立って、自然化編集
装置112によって作成された自然化アニメーションシ
ーケンスを既存のアニメーションシーケンスに連結する
パーツ連結手段153を備えた構成であることを特徴と
する。
FIG. 5 is a block diagram showing the principle of the animation editing system according to the tenth and eleventh aspects. According to a tenth aspect of the present invention, in the animation editing system according to the first aspect, a reproduction time estimating means 1 for estimating a time required to reproduce each unit part included in the animation sequence obtained by the synthesizing means 113.
51 and a time information generating means 152 for generating time information for displaying and outputting information relating to the time required to reproduce each unit part and the entire animation sequence based on the estimation result by the reproduction time estimating means 151
The first naturalization requesting unit 111 determines that it is necessary to create a naturalized animation sequence each time a new unit part is to be connected to the animation sequence by the parts organization unit 102, It is a configuration for sending a naturalization request to the editing device 112,
The synthesizing unit 113 includes a part connecting unit 153 that connects the naturalized animation sequence created by the naturalization editing device 112 to an existing animation sequence prior to the unit part newly connected by the part knitting unit 102. It is characterized by having a configuration.

【0041】請求項10の発明は、パーツ編成手段10
2が新たな単位パーツを連結する度に、第1自然化要求
手段111により自然化アニメーションシーケンスの作
成を要求し、自然化編集装置112によって得られた自
然化アニメーションシーケンスを、合成手段113に備
えられたパーツ連結手段153が逐次にアニメーション
シーケンスに連結していくので、再生時間推定手段15
1および時間情報作成手段152の動作により、新たな
単位パーツの連結ごとに、そこまでのアニメーションシ
ーケンスの再生時間を確認しながら編集処理を行うこと
ができる。
According to a tenth aspect of the present invention, there is provided the
Every time 2 connects a new unit part, the first naturalization request unit 111 requests creation of a naturalized animation sequence, and the naturalized animation sequence obtained by the naturalization editing device 112 is provided in the combining unit 113. The connected parts connecting means 153 sequentially connects the animation sequences, so that the reproduction time estimating means 15
By the operation of the unit 1 and the time information creation unit 152, the editing process can be performed for each new connection of unit parts while checking the playback time of the animation sequence up to that point.

【0042】請求項11の発明は、図5に示すように、
請求項1に記載のアニメーション編集システムにおい
て、合成手段113によって得られたアニメーションシ
ーケンスに含まれる各単位パーツを再生するために要す
る時間を推定する再生時間推定手段151と、再生時間
推定手段151による推定結果に基づいて、各単位パー
ツおよびアニメーションシーケンス全体を再生するため
に要する時間に関する情報を表示出力するための時間情
報を作成する時間情報作成手段152とを備え、第1自
然化要求手段111は、パーツ編成手段102によって
得られたアニメーションシーケンスにおいて相異なる特
徴を有する単位パーツが連結されている連結箇所を検出
し、連結箇所ごとに自然化編集装置112に自然化要求
を送出するとともに、連結箇所を合成手段113に通知
する構成であり、合成手段113は、第1自然化要求手
段111によって通知された連結箇所に、自然化編集装
置112から受け取った該当する自然化アニメーション
シーケンスを挿入して、アニメーションシーケンスを完
成するパーツ挿入手段154を備えた構成であることを
特徴とする。
According to the eleventh aspect, as shown in FIG.
The animation editing system according to claim 1, wherein the reproduction time estimating means 151 estimates the time required to reproduce each unit part included in the animation sequence obtained by the synthesizing means 113, and the reproduction time estimating means 151 estimates. And a time information creating unit 152 for creating time information for displaying and outputting information relating to the time required to reproduce each unit part and the entire animation sequence based on the result. The first naturalization requesting unit 111 includes: In the animation sequence obtained by the part knitting means 102, a connection point where unit parts having different characteristics are connected is detected, a naturalization request is sent to the naturalization editing device 112 for each connection point, and the connection point is determined. This is a configuration for notifying the synthesizing means 113. The means 113 includes a part insertion means 154 for inserting the corresponding naturalized animation sequence received from the naturalization editing device 112 into the connection point notified by the first naturalization requesting means 111 to complete the animation sequence. It is characterized by having a configuration.

【0043】請求項11の発明は、第1自然化要求手段
111の動作により、アニメーションシーケンスに含ま
れる単位パーツの連結箇所についての自然化アニメーシ
ョンシーケンスを一括して要求し、合成手段113に備
えられたパーツ挿入手段154が、得られた自然化アニ
メーションシーケンスをアニメーションシーケンスの該
当する連結箇所に挿入するので、パーツ編成手段102
における編集処理において、シナリオに記述された動作
の流れを把握した上で、再生時間推定手段151および
時間情報作成手段152の動作により、アニメーション
シーケンス全体の再生時間を確認することができる。
According to an eleventh aspect of the present invention, the operation of the first naturalization requesting means 111 requests the naturalized animation sequence for the connected part of the unit parts included in the animation sequence at once, and is provided in the synthesizing means 113. Since the inserted parts insertion means 154 inserts the obtained naturalized animation sequence into the corresponding connection point of the animation sequence, the parts knitting means 102
In the editing process described above, the operation time of the reproduction time estimation unit 151 and the time information creation unit 152 can be used to confirm the reproduction time of the entire animation sequence after grasping the flow of the operation described in the scenario.

【0044】図6に、請求項12のアニメーション編集
システムの原理ブロック図を示す。請求項12の発明
は、請求項3または請求項4に記載のアニメーション編
集システムにおいて、合成手段113によって得られた
アニメーションシーケンスに含まれる各単位パーツを再
生するために要する時間を推定する再生時間推定手段1
51と、再生時間推定手段151による推定結果に基づ
いて、各単位パーツおよびアニメーションシーケンス全
体を再生するために要する時間に関する情報を表示出力
するための時間情報を作成する時間情報作成手段152
とを備え、パーツデータベース101は、発話動作の表
現に用いられる単位パーツそれぞれに対応して、その特
徴を示す属性情報とともに、該当する単位パーツによっ
て表現される発声動作の回数を示す発話数および1回の
発声動作に要する時間を示す情報を含む発話情報を保持
する発話情報保持手段155を備えた構成であり、パー
ツ編成手段102は、シナリオに記述された発話動作を
示す属性情報に応じて、発話動作を伴う単位パーツを含
む自然化アニメーションシーケンスの作成が必要である
旨とともに必要な発話数に関する情報を第1自然化要求
手段111に通知する構成であり、第1自然化要求手段
111は、パーツ編成手段102からの通知に応じて、
自然化対象のアニメーションシーケンスの特徴を示す特
徴情報とともに、発話数に関する情報を含んだ自然化要
求を自然化編集装置112に送出する構成であり、自然
化編集装置112に備えられた結果出力手段118は、
選択手段117によって自然化パーツとして選択された
単位パーツについて、発話情報保持手段155を参照
し、得られた発話情報と発話数に関する情報とに基づい
て、自然化アニメーションシーケンスに必要な自然化パ
ーツの個数を算出するパーツ数算出手段156と、パー
ツ数算出手段156による算出結果に基づいて、自然化
パーツを適切な個数だけ連結して自然化アニメーション
シーケンスを作成するシーケンス作成手段157とを備
えた構成であることを特徴とする。
FIG. 6 is a block diagram showing the principle of the animation editing system according to the present invention. According to a twelfth aspect of the present invention, in the animation editing system according to the third or fourth aspect, a reproduction time estimation for estimating a time required for reproducing each unit part included in the animation sequence obtained by the synthesizing unit 113. Means 1
51 and a time information generating means 152 for generating time information for displaying and outputting information relating to the time required to reproduce each unit part and the entire animation sequence based on the estimation result by the reproduction time estimating means 151
The parts database 101 includes, for each unit part used for expressing the utterance operation, attribute information indicating the feature thereof, the number of utterances indicating the number of utterance operations expressed by the corresponding unit part, and 1 The utterance information holding means 155 holds the utterance information including the information indicating the time required for each utterance operation. The part organizing means 102 is configured to generate the utterance information according to the attribute information indicating the utterance operation described in the scenario. The first naturalization requesting unit 111 is configured to notify the first naturalization requesting unit 111 of information indicating that it is necessary to create a naturalized animation sequence including a unit part accompanied by an utterance operation and information on the required number of utterances. In response to the notification from the parts organization means 102,
In this configuration, a naturalization request including information on the number of utterances is sent to the naturalization editing device 112 together with feature information indicating the characteristics of the animation sequence to be naturalized. The result output means 118 provided in the naturalization editing device 112 Is
For the unit part selected as the naturalized part by the selecting means 117, the unit refers to the utterance information holding means 155 and, based on the obtained utterance information and the information on the number of utterances, the naturalized part necessary for the naturalized animation sequence. A configuration including a number-of-parts calculating means 156 for calculating the number, and a sequence creating means 157 for linking an appropriate number of naturalized parts to create a naturalized animation sequence based on the calculation result by the number-of-parts calculating means 156. It is characterized by being.

【0045】請求項12の発明は、パーツ編成手段10
2からの通知に応じて第1自然化要求手段111が動作
することにより、シナリオに記述された発話動作を示す
属性情報に応じて、自然化編集装置112に適切な単位
パーツを含む自然化アニメーションシーケンスの作成を
要求することができる。また、このとき、自然化編集装
置112に備えられた結果出力手段118において、パ
ーツ数算出手段156およびシーケンス作成手段157
が動作することにより、発話情報保持手段155に保持
された発話情報を利用して、適切な発話数分の発話動作
を表す自然化アニメーションシーケンスを作成し、合成
手段113の処理に供することができ、これに応じて、
再生時間推定手段151および時間情報作成手段152
が動作することにより、アニメーションシーケンスに含
まれる発話動作を表す部分についての再生時間を確認す
ることができる。
According to a twelfth aspect of the present invention, there is provided the
When the first naturalization requesting unit 111 operates in response to the notification from the second, the naturalization animation including appropriate unit parts for the naturalization editing device 112 according to the attribute information indicating the utterance operation described in the scenario You can request the creation of a sequence. At this time, in the result output unit 118 provided in the naturalization editing device 112, the number of parts calculation unit 156 and the sequence creation unit 157
Operates, the utterance information held in the utterance information holding unit 155 is used to create a naturalized animation sequence representing an utterance operation for an appropriate number of utterances, which can be provided to the processing of the synthesizing unit 113. And, accordingly,
Reproduction time estimation means 151 and time information creation means 152
Operates, it is possible to confirm the reproduction time of the portion representing the utterance operation included in the animation sequence.

【0046】請求項13の発明は、所定のインタフェー
ス仕様に従って、それぞれ独立した機能を有する装置相
互の情報授受を媒介する共通インタフェース手段100
と、キャラクタのまとまった動作を表す画像情報を含む
単位パーツを蓄積したパーツデータベース101を有す
る情報処理システムに備えられ、自然化要求の入力に応
じて、自然化対象のアニメーションシーケンスに適合す
る自然化アニメーションシーケンスを作成する自然化編
集装置において、共通インタフェース手段100を介し
て自然化対象のアニメーションシーケンスの特徴を示す
特徴情報を含む自然化要求を受け取る受取手順と、特徴
情報に基づいて、アニメーションシーケンスを自然化す
るために必要な単位パーツが満たすべき検索条件を指定
する条件指定手順と、検索条件に従って、パーツデータ
ベース101から少なくとも一つの単位パーツを候補パ
ーツとしてそれぞれ検索する検索手順と、各検索条件に
対応する候補パーツのいずれか一つをそれぞれ選択する
選択手順と、選択手順において選択された単位パーツを
含む自然化アニメーションシーケンスを共通インタフェ
ース手段100に送出する結果出力手順とをコンピュー
タに実行させるためのプログラムを記録した記憶媒体で
ある。
According to a thirteenth aspect of the present invention, there is provided a common interface means for mediating information exchange between devices having independent functions in accordance with a predetermined interface specification.
And an information processing system having a parts database 101 storing unit parts including image information representing a group of movements of a character, and adapted to a naturalization target animation sequence in response to an input of a naturalization request. In the naturalization editing apparatus for creating an animation sequence, a receiving procedure for receiving a naturalization request including feature information indicating a feature of the animation sequence to be naturalized via the common interface unit 100, and converting the animation sequence based on the feature information. A condition specifying procedure for specifying a search condition to be satisfied by unit parts necessary for naturalization, a search procedure for searching at least one unit part as a candidate part from the parts database 101 according to the search condition, and a search procedure for each search condition. Corresponding candidate par A program for causing a computer to execute a selection procedure for selecting any one of the above and a result output procedure for transmitting a naturalized animation sequence including the unit part selected in the selection procedure to the common interface unit 100 is recorded. It is a storage medium.

【0047】請求項13の発明は、条件指定手順によっ
て指定された条件に従って検索手順が検索動作を実行す
ることにより、アニメーションシーケンスに含まれる各
単位パーツの特徴を示す情報に基づいて、適切な単位パ
ーツを候補パーツとして検索し、選択手順における選択
処理に供することができる。また、受付手順において、
共通インタフェース手段100を介して自然化要求を受
け付け、結果出力手順において、この共通インタフェー
ス手段100を介して選択手順における選択結果を出力
する構成とすることにより、上述した共通インタフェー
ス手段100によって情報交換が可能な様々な処理手段
からの要求に応じて、自然化編集装置112によって自
然化アニメーションシーケンスを供給することができ、
自然化編集装置112を自然化アニメーションシーケン
スを供給するエンジンとして利用することが可能とな
る。
According to a thirteenth aspect of the present invention, the search procedure executes a search operation in accordance with a condition designated by the condition designation procedure, so that an appropriate unit is determined based on information indicating characteristics of each unit part included in the animation sequence. A part can be searched as a candidate part and can be provided for a selection process in a selection procedure. In the reception procedure,
By accepting the naturalization request via the common interface means 100 and outputting the selection result in the selection procedure via the common interface means 100 in the result output procedure, information can be exchanged by the common interface means 100 described above. Upon request from various possible processing means, a naturalized animation sequence can be provided by the naturalized editing device 112;
The naturalization editing device 112 can be used as an engine that supplies a naturalization animation sequence.

【0048】[0048]

【発明の実施の形態】以下、図面に基づいて、本発明の
実施形態について詳細に説明する。図7に、請求項1の
アニメーション編集システムの実施形態を示す。図7に
示したパーツデータベース201は、請求項1で述べた
パーツデータベース101に相当するものであり、アニ
メーションリソース作成装置210および自然化編集装
置112は、データベース管理システム(DBMS)2
02を介してこのパーツデータベース201にアクセス
する構成となっている。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 7 shows an embodiment of the animation editing system according to claim 1. The parts database 201 shown in FIG. 7 is equivalent to the parts database 101 described in claim 1, and the animation resource creating device 210 and the naturalization editing device 112 include a database management system (DBMS) 2
02, the parts database 201 is accessed.

【0049】このパーツデータベース201は、有意パ
ーツの集合および各有意パーツの特徴を表す属性情報を
保持する属性情報テーブルとからなる有意パーツデータ
ベース203と、自然化用パーツの集合および各自然化
用パーツの特徴を表す属性情報を保持する属性情報テー
ブルとからなる自然化パーツデータベース204とを備
えて構成されている。
The part database 201 is composed of a significant part database 203 comprising a set of significant parts and an attribute information table holding attribute information representing characteristics of each significant part, a set of naturalizing parts and each naturalizing part. And an attribute information table that holds attribute information representing the characteristics of the above.

【0050】また、図7に示したアニメーションリソー
ス作成装置210において、有意パーツ検索部211
は、シナリオ解析部212からの指示に応じて、上述し
た有意パーツデータベース203から適切な単位パーツ
を検索し、パーツ列編成部213の処理に供する構成と
なっており、これらの各部により、請求項1で述べたパ
ーツ編成手段102の機能が果たされている。
Further, in the animation resource creating apparatus 210 shown in FIG.
Is configured to retrieve an appropriate unit part from the significant part database 203 described above in accordance with an instruction from the scenario analysis unit 212 and to provide the retrieved unit part to the processing of the part row organization unit 213. The function of the part knitting means 102 described in 1 is fulfilled.

【0051】このアニメーションリソース作成装置21
0において、要求側制御部214は、結合箇所検出部2
15による検出結果あるいは上述したシナリオ解析部2
12からの指示に応じて、請求項1で述べた第1自然化
要求手段111として動作し、後述する自然化要求を作
成し、通信機能205を介して自然化編集装置112に
送出する構成となっている。
This animation resource creation device 21
0, the request side control unit 214
15 or the scenario analysis unit 2 described above.
12 operates as the first naturalization request unit 111 described in claim 1 in response to an instruction from the control unit 12, generates a naturalization request described later, and sends the request to the naturalization editing device 112 via the communication function 205. Has become.

【0052】ここで、この通信機能205は、請求項1
で述べた共通インタフェース手段100に相当するもの
であり、共通プラットホームによって提供された通信機
能を利用すればよい。また、この要求側制御部214
は、上述した通信機能205を介して、自然化編集装置
112から自然化アニメーションシーケンスを構成する
パーツ列を受け取り、パーツ列編成部213の処理に供
する構成となっている。
Here, the communication function 205 is defined in claim 1
And the communication function provided by the common platform may be used. Also, the request side control unit 214
Is configured to receive a part sequence constituting a naturalized animation sequence from the naturalization editing device 112 via the communication function 205 described above, and to provide the part sequence forming unit 213 with the processing.

【0053】この自然化アニメーションシーケンスの入
力に応じて、パーツ列編成部213は、上述した有意パ
ーツ検索部211によって検索された有意パーツからな
るパーツ列と、自然化アニメーションシーケンスを構成
するパーツ列とを合成し、最終的に得られた目的アニメ
ーションシーケンスをアニメーション合成部435の処
理に供する構成となっている。
In response to the input of the naturalized animation sequence, the part sequence organizing unit 213 generates a part sequence composed of significant parts retrieved by the significant part retrieval unit 211 and a part sequence constituting the naturalized animation sequence. Are synthesized and the finally obtained target animation sequence is subjected to the processing of the animation synthesizing unit 435.

【0054】一方、自然化編集装置220は、供給側制
御部221による指示に応じて、自然化パーツ検索部2
22がDBMS202を介して自然化パーツデータベー
ス204から候補パーツを検索し、パーツ選択部223
が候補パーツの中から適切な単位パーツを選択して、供
給側制御部221を介してアニメーションリソース作成
装置210に送出する構成となっている。
On the other hand, in response to an instruction from the supply-side control unit 221, the naturalization editing device 220
22 searches for candidate parts from the naturalized parts database 204 via the DBMS 202, and selects a part selection unit 223.
Selects an appropriate unit part from the candidate parts and sends it to the animation resource creation device 210 via the supply-side control unit 221.

【0055】図8に、自然化編集装置の詳細構成を示
す。図8に示した供給側制御部221において、要求受
付部224は、請求項3で述べた受付手段114に相当
するものであり、上述した通信機能205を介して自然
化要求を受け取って、要求解析部225の処理に供する
構成となっている。この要求解析部225は、請求項3
で述べた検索条件指定手段115に相当するものであ
り、後述するようにして自然化要求を解析し、適切な検
索条件を自然化パーツ検索部222に指定する構成とな
っている。
FIG. 8 shows a detailed configuration of the naturalization editing apparatus. In the supply-side control unit 221 shown in FIG. 8, the request receiving unit 224 corresponds to the receiving unit 114 described in claim 3, receives the naturalization request via the communication function 205 described above, and The configuration is such that the analysis unit 225 provides the processing. The request analysis unit 225 is configured as follows.
This is equivalent to the search condition designating means 115 described above, and is configured to analyze a naturalization request and specify an appropriate search condition to the naturalized part search unit 222 as described later.

【0056】この自然化パーツ検索部222は、請求項
3で述べた検索手段116に相当するものであり、要求
解析部225から受け取った検索条件に基づいて、自然
化パーツデータベース204から少なくとも一つの候補
パーツを検索し、パーツ選択部223に備えられたパー
ツ候補保持部226に保持する構成となっている。ま
た、図8に示したパーツ選択部223において、ランダ
ム選択部227は、上述したパーツ候補保持部226に
保持された複数の候補パーツのいずれかを無作為に選択
することにより、請求項3で述べた選択手段117の機
能を果たし、供給側制御部221に備えられたパーツデ
ータ作成部228の処理に選択した単位パーツを供する
構成となっている。
The naturalized parts search unit 222 corresponds to the search means 116 described in claim 3 and based on the search conditions received from the request analysis unit 225, at least one naturalized parts database 204 The configuration is such that candidate parts are searched for and held in a part candidate holding unit 226 provided in the parts selection unit 223. In the parts selection unit 223 shown in FIG. 8, the random selection unit 227 randomly selects any one of the plurality of candidate parts held in the parts candidate holding unit 226 described above. The function of the selecting means 117 described above is performed, and the selected unit parts are provided to the processing of the parts data creating unit 228 provided in the supply-side control unit 221.

【0057】このパーツデータ作成部228は、要求解
析部225からの指示に従って、パーツ選択部223か
ら受け取った単位パーツを用いて自然化アニメーション
シーケンスを作成し(後述する)、上述した通信機能2
05に送出する構成となっている。ここで、図7に示し
た有意パーツデータベース203および自然化パーツデ
ータベース204は、図26に示したパーツデータベー
ス421と同様に、一纏まりの動作や表情の変化を表す
一連の画像フレームを表す多数のパーツデータと、各パ
ーツデータに与えられたパーツ識別情報(以下、パーツ
IDと称する)に対応して、各パーツデータの特徴を表
す属性情報を保持する属性情報テーブルとを備えて構成
されている。
The part data creation unit 228 creates a naturalized animation sequence using the unit parts received from the parts selection unit 223 (described later) in accordance with an instruction from the request analysis unit 225 (described later).
05. Here, the significant parts database 203 and the naturalized parts database 204 shown in FIG. 7 are, like the parts database 421 shown in FIG. 26, a large number of images representing a series of image frames representing a group of actions and changes in facial expressions. It is configured to include part data, and an attribute information table that holds attribute information indicating characteristics of each part data in correspondence with part identification information (hereinafter, referred to as part ID) given to each part data. .

【0058】有意パーツデータベース203に登録され
た各単位パーツに対応する属性情報は、図27に示した
ように、各パーツで表されるキャラクタの表情や動作な
どを示す特徴情報および該当するパーツデータに含まれ
る画像フレーム列の先頭および末尾を示す画像フレーム
識別情報(以下、フレームIDと称する)を含んでい
る。
As shown in FIG. 27, the attribute information corresponding to each unit part registered in the significant parts database 203 is, as shown in FIG. Includes image frame identification information (hereinafter, referred to as a frame ID) indicating the beginning and end of the image frame sequence included in.

【0059】一方、自然化パーツデータベース204に
登録された各単位パーツに対応する属性情報は、図9
(a)に示すように、上述した有意パーツと共通する属性
情報(以下、共通属性情報と称する)に加えて、自然化
用の単位パーツそれぞれに適合する用途に応じた自然化
用属性情報とを含んでいる。ここで、アニメーションシ
ーケンスに対する自然化編集は、異なる動作や表情を表
すアニメーションを接続するアニメーションを表す場合
や、待ち時間やシーンごとの調整時間などに無意識動作
を表示する場合および発話を表す場合などに発生し、そ
れぞれの用途で必要とされる情報が異なっている。
On the other hand, the attribute information corresponding to each unit part registered in the naturalized parts database 204 is shown in FIG.
As shown in (a), in addition to the attribute information common to the significant part described above (hereinafter, referred to as common attribute information), naturalization attribute information corresponding to a use that matches each of the naturalization unit parts is included. Contains. Here, naturalization editing for animation sequences is used to represent animations that connect animations that express different actions and facial expressions, to display unconscious actions during waiting time or adjustment time for each scene, and to express speech. The information generated and required for each application is different.

【0060】このため、自然化パーツデータベース20
4は、自然化用の単位パーツそれぞれの用途を示す種別
タグを付加し、この種別タグごとに属性情報テーブルを
参照可能な構成となっており、これにより、請求項4で
述べたタグ情報保持手段131の機能を果たす構成とな
っている。
Therefore, the naturalized parts database 20
4 is a configuration in which a type tag indicating a use of each unit part for naturalization is added, and an attribute information table can be referred to for each type tag. It is configured to fulfill the function of the means 131.

【0061】例えば、異なる動作や表情を表すアニメー
ションを接続する場合を示す種別タグが付された単位パ
ーツ(以下、接続パーツと称する)に対応する属性情報
は、図9(b)に示すように、自然化用属性情報として、
請求項6で述べた接続情報に相当する前側接続可能リス
トおよび後側接続可能リストを含んでいる。この前側接
続可能リストは、該当する単位パーツの前側に接続する
ことができる画像フレームを示すフレームIDからなる
リストであり、一方、後側接続可能リストは、該当する
単位パーツの後ろ側に接続することができる画像フレー
ムを示すフレームIDからなるリストである。
For example, as shown in FIG. 9B, attribute information corresponding to a unit part (hereinafter, referred to as a connected part) to which a type tag indicating a case where animations representing different actions or facial expressions are connected is provided. , As attribute information for naturalization,
It includes a front connectable list and a rear connectable list corresponding to the connection information described in claim 6. The front connectable list is a list including frame IDs indicating image frames that can be connected to the front of the corresponding unit part, while the rear connectable list connects to the rear of the corresponding unit part. 9 is a list including frame IDs indicating image frames that can be used.

【0062】また、無意識動作を表示する場合を示す種
別タグが付された単位パーツ(以下、無意識パーツと称
する)に対応する属性情報は、図10(a)に示すよう
に、自然化用属性情報として、前側接続可能リストを含
んでいる。一方、発話を表す場合を示す種別タグが付さ
れた単位パーツ(以下、発話パーツと称する)に対応す
る属性情報は、図10(b)に示すように、自然化用属性
情報として、上述した前側接続可能リストとともに、キ
ャラクタの口の開閉に要するフレーム数を示す開閉速度
と、該当する単位パーツによって表される発話数とから
なる発話情報を含んでいる。
As shown in FIG. 10A, attribute information corresponding to a unit part to which a type tag indicating a case where an unconscious action is displayed (hereinafter, referred to as an unconscious part) is included. The information includes a front side connectable list. On the other hand, as shown in FIG. 10B, the attribute information corresponding to a unit part to which a type tag indicating a case of expressing an utterance (hereinafter referred to as an utterance part) is described as attribute information for naturalization. Along with the front-side connectable list, utterance information including an opening / closing speed indicating the number of frames required for opening / closing the mouth of the character and the number of utterances represented by the corresponding unit parts is included.

【0063】次に、上述した属性情報テーブルを利用し
て、適切な単位パーツからなる自然化アニメーションシ
ーケンスを作成する方法および自然化アニメーションを
シーケンスを利用して目的となるアニメーションリソー
スを作成する方法について、詳細に説明する。図11
に、自然化アニメーションシーケンス作成動作を表す流
れ図を示す。また、図12に、アニメーションリソース
作成動作を表す流れ図を示す。
Next, a method of creating a naturalized animation sequence composed of appropriate unit parts using the above-described attribute information table and a method of creating a target animation resource by using a naturalized animation sequence. , Will be described in detail. FIG.
2 shows a flowchart illustrating the operation of creating a naturalized animation sequence. FIG. 12 is a flowchart showing the animation resource creation operation.

【0064】上述したように、自然化用の単位パーツ
が、それぞれに適合する用途を示す種別タグごとに検索
可能な構成となっている場合は、図8に示した要求受付
部224が、通信機能205を介して自然化要求を受け
取ったときに動作を開始し(図11のステップ30
1)、まず、必要とされている用途を判別し、その後
に、その用途に応じた自然化属性情報に基づいて、適切
な単位パーツを検索すればよい。
As described above, if the unit parts for naturalization are configured to be searchable for each type tag indicating the application to which they are adapted, the request receiving unit 224 shown in FIG. The operation starts when a naturalization request is received via the function 205 (step 30 in FIG. 11).
1) First, a required use is determined, and then an appropriate unit part may be searched based on naturalization attribute information corresponding to the use.

【0065】この場合に、図7に示した要求側制御部2
14は、必要とする用途に適合する単位パーツの種別を
示す種別フラグを含む自然化要求を作成し、通信機能2
05を介して自然化編集装置112に送出すればよい。
例えば、図12に示した流れ図において、シナリオ入力
部433によって入力されたシナリオが所定の意味を持
つ動作を表している場合は(ステップ321)、シナリ
オ解析部212による解析結果に応じて(ステップ32
2)、有意パーツの検索処理が必要であると判定され
(ステップ323の肯定判定)、これに応じて、有意パ
ーツ検索部211およびパーツ列編成部213が動作
し、上述したステップ321で入力されたシナリオで示
された新たな有意パーツが有意パーツデータベース20
3から検索され(ステップ324)、パーツ列に連結さ
れる(ステップ325)。
In this case, the request side control unit 2 shown in FIG.
14 creates a naturalization request including a type flag indicating the type of the unit part suitable for the required use, and
05 to the naturalization editing apparatus 112.
For example, in the flowchart shown in FIG. 12, when the scenario input by the scenario input unit 433 represents an operation having a predetermined meaning (step 321), the scenario is analyzed according to the analysis result by the scenario analysis unit 212 (step 32).
2) It is determined that significant part search processing is necessary (Yes in step 323), and in response to this, the significant part search unit 211 and the part sequence organization unit 213 operate, and are input in step 321 described above. New significant parts shown in the scenario that was
3 (step 324), and is linked to the part sequence (step 325).

【0066】このようにして、新たな有意パーツが連結
されたときに、結合箇所検出部215は、該当する個所
を不連続箇所として検出し、ステップ326の肯定判定
として要求側制御部214に通知すればよい。これに応
じて、要求側制御部214は、図13(a)に示すよう
に、接続パーツを示す種別フラグ(図13においては、
該当個所に文字列「接続」を付して示した)と、接続パ
ーツが満たすべき境界条件に関する境界情報とを含む自
然化要求を作成し、この自然化要求を通信機能205を
介して自然化編集装置112に送出することによって接
続パーツを要求し(ステップ327)、この自然化要求
に対する応答を待てばよい。
As described above, when a new significant part is connected, the connection point detection unit 215 detects the corresponding point as a discontinuous point, and notifies the request side control unit 214 as an affirmative determination in step 326. do it. In response to this, the request side control unit 214, as shown in FIG. 13A, sets the type flag indicating the connection part (in FIG. 13,
A naturalization request including the character string “connection” at the corresponding location) and boundary information regarding boundary conditions to be satisfied by the connection part is created, and the naturalization request is naturalized via the communication function 205. The connection part may be requested by sending it to the editing device 112 (step 327), and a response to the naturalization request may be waited.

【0067】このとき、要求側制御部214は、接続パ
ーツによって接続される二つの単位パーツについて、例
えば、有意パーツデータベース203に備えられた属性
情報テーブルを参照し、これらの単位パーツに対応する
属性情報に含まれる先頭画像IDおよび末尾画像IDを
読み出し、前側の単位パーツに対応する末尾画像IDと
後ろ側の単位パーツに対応する先頭画像IDとを境界情
報として自然化要求に付加すればよい。
At this time, for the two unit parts connected by the connection part, the request side control unit 214 refers to, for example, an attribute information table provided in the significant part database 203, and obtains the attributes corresponding to these unit parts. The head image ID and the tail image ID included in the information may be read, and the tail image ID corresponding to the front unit part and the head image ID corresponding to the rear unit part may be added to the naturalization request as boundary information.

【0068】ここで、前側に接続される単位パーツに対
応する末尾画像IDは、接続パーツの直前の画像フレー
ムを示しており、また、後ろ側に接続される単位パーツ
に対応する先頭画像IDは、接続パーツの直後に表示さ
れる画像フレームを示している。したがって、上述した
二つの画像IDは、必要とされている接続パーツが満た
すべき境界条件を示しており、請求項5で述べた境界情
報に相当するものである。なお、以下の説明では、前側
に接続される単位パーツに対応する末尾画像IDを直前
画像IDと称し、後ろ側に接続される単位パーツに対応
する先頭画像IDを直後画像IDと称する。
Here, the tail image ID corresponding to the unit part connected to the front side indicates the image frame immediately before the connection part, and the head image ID corresponding to the unit part connected to the back side is , An image frame displayed immediately after the connection part. Therefore, the two image IDs described above indicate the boundary conditions to be satisfied by the required connection parts, and correspond to the boundary information described in claim 5. In the following description, the last image ID corresponding to the unit part connected to the front side is referred to as the immediately preceding image ID, and the leading image ID corresponding to the unit part connected to the rear side is referred to as the immediately following image ID.

【0069】一方、上述したようにして送出された自然
化要求を受け取った場合は、図8に示した要求解析部2
25によって種別フラグを判別すると(図11のステッ
プ302)、接続パーツを示す種別フラグの検出に応じ
てステップ303の肯定判定となる。この場合に、要求
解析部225は、自然化要求に含まれている境界情報を
抽出し(ステップ304)、自然化パーツデータベース
204に接続パーツとして登録された単位パーツの中か
ら、この境界情報を検索条件として候補パーツを検索す
る旨を自然化パーツ検索部222に指示すればよい。
On the other hand, when the naturalization request sent as described above is received, the request analysis unit 2 shown in FIG.
When the type flag is determined based on 25 (step 302 in FIG. 11), an affirmative determination is made in step 303 according to the detection of the type flag indicating the connected part. In this case, the request analysis unit 225 extracts the boundary information included in the naturalization request (step 304), and extracts this boundary information from the unit parts registered as connection parts in the naturalization part database 204. What is necessary is just to instruct the naturalized parts search unit 222 to search for candidate parts as search conditions.

【0070】これに応じて、自然化パーツ検索部222
は、接続パーツを示す種別タグに対応して保持された単
位パーツに対応する属性情報テーブルを参照し(図9
(b)参照)、境界情報で示された直前画像IDを前側接
続可能リストに含み、かつ、直後画像IDを後側接続可
能リストに含む単位パーツを検索すればよい(ステップ
305)。
In response, the naturalized parts search unit 222
Refers to the attribute information table corresponding to the unit part held corresponding to the type tag indicating the connection part (FIG. 9).
(b)), a unit part that includes the immediately preceding image ID indicated by the boundary information in the front connectable list and the immediately subsequent image ID in the rear connectable list may be searched (step 305).

【0071】ここで、図9(b)に示した属性情報テーブ
ルは、請求項6で述べた接続情報保持手段134の機能
を果たしており、予め、各接続パーツに対応する前側接
続可能リストおよび後側接続可能リストとして、該当す
る接続パーツとの間の遷移が発生した場合に、滑らかに
遷移した印象を与える画像フレームを示す画像IDを登
録しておけばよい。
Here, the attribute information table shown in FIG. 9 (b) fulfills the function of the connection information holding means 134 described in claim 6, and includes a front side connectable list corresponding to each connection part and a rear side connectable list in advance. As a side connectable list, an image ID indicating an image frame that gives an impression of a smooth transition when a transition to the corresponding connection part occurs may be registered.

【0072】この場合は、接続情報によって、該当する
接続パーツとその前後の画像フレームとの連続性が保証
されているから、上述したように、自然化パーツ検索部
222が、要求解析部225から受け取った直前画像I
Dおよび直後画像IDに基づいて検索動作を行うことに
より、請求項6で述べた検索手段115の機能を果た
し、前後の単位パーツを滑らかに接続する単位パーツを
迅速かつ確実に検索することが可能となる。
In this case, the continuity between the corresponding connection part and the image frames before and after the connection part is ensured by the connection information. Therefore, as described above, the naturalization part search unit 222 sends the request analysis unit 225 Immediately before image I received
By performing the search operation based on D and the immediately following image ID, the function of the search means 115 described in claim 6 is achieved, and a unit part that smoothly connects the preceding and following unit parts can be quickly and reliably searched. Becomes

【0073】このようにして検索された単位パーツを示
すパーツIDは、順次にパーツ候補保持部226に保持
され、ランダム選択部227の処理に供される。このよ
うにして、パーツ候補保持部226によって検索された
すべての候補パーツが保持されたときに、ランダム選択
部227は、これらの候補パーツのいずれかを自然化パ
ーツとして選択し(ステップ306)、該当するパーツ
IDをパーツデータ出力部228に渡せばよい。
The part IDs indicating the unit parts searched in this way are sequentially held in the part candidate holding section 226 and provided to the processing of the random selection section 227. When all the candidate parts searched by the part candidate holding unit 226 are held in this way, the random selection unit 227 selects one of these candidate parts as a naturalized part (step 306), The corresponding part ID may be passed to the part data output unit 228.

【0074】これに応じて、パーツデータ出力部228
は、ランダム選択部227から受け取ったパーツIDを
通信機能205を介して出力し(ステップ307)、図
7に示したアニメーション作成装置210に返した後
に、処理を終了すればよい。このようにして、自然化編
集装置112によって自動的に求められた自然化パーツ
を示すパーツIDを通信機能205を介して受け取った
ときに、図7に示した要求側制御部214は動作を開始
し、この要求側制御部214からの指示に応じて、パー
ツ列編成部213により、上述した自然化パーツを含む
パーツ列が編成される(図12に示すステップ31
8)。
In response, the parts data output unit 228
Outputs the part ID received from the random selection unit 227 via the communication function 205 (step 307), and returns it to the animation creating apparatus 210 shown in FIG. In this way, when the part ID indicating the naturalized part automatically obtained by the naturalization editing apparatus 112 is received via the communication function 205, the request side control unit 214 shown in FIG. Then, in response to the instruction from the request-side control unit 214, the part sequence knitting unit 213 knits the part sequence including the naturalized parts described above (step 31 shown in FIG. 12).
8).

【0075】このとき、パーツ列編成部213は、要求
側制御部214を介して自然化パーツを示すパーツID
を受け取り、このパーツIDを接続対象となる二つの単
位パーツを示すパーツIDの間に挿入して、パーツID
列を形成すればよい。
At this time, the part sequence forming unit 213 sends the part ID indicating the naturalized part via the request side control unit 214.
And insert this part ID between the part IDs indicating the two unit parts to be connected, and
A row may be formed.

【0076】このように、要求側制御部214からの指
示に応じて、パーツ列編成部213が動作することによ
り、請求項1で述べた合成手段113の機能を接続パー
ツについて実現し、アニメーションシーケンスに含まれ
る相異なる有意パーツを適切な接続パーツを挟んで合成
することができる。その後、すべてのシナリオの入力が
終了したか否かを判定し(ステップ329)、否定判定
の場合は、ステップ321に戻って新たなシナリオを入
力すればよい。
As described above, the function of the synthesizing means 113 described in claim 1 is realized for the connected parts by the operation of the part sequence organizing section 213 in response to the instruction from the request side control section 214, and the animation sequence Can be combined with appropriate connecting parts. Thereafter, it is determined whether or not the input of all the scenarios has been completed (step 329), and in the case of a negative determination, the process returns to step 321 to input a new scenario.

【0077】さて、次に入力されたシナリオによって、
発話動作を表す単位パーツが必要である旨が示された場
合に、要求側制御部214は、シナリオ解析部212に
よる解析結果に応じて、ステップ323の否定判定を経
てステップ330の肯定判定となる。この場合に、要求
側制御部214は、図13(b)に示すように、発話パー
ツを示す種別フラグ(図12においては、該当個所に文
字列「発話」を付して示した)を含む自然化要求を作成
し、この自然化要求を通信機能205を介して自然化編
集装置112に送出することによって発話パーツを要求
し(ステップ331)、この自然化要求に対する応答を
待てばよい。
Now, according to the scenario entered next,
When it is indicated that the unit part representing the utterance operation is necessary, the request side control unit 214 makes a negative determination in step 323 and a positive determination in step 330 according to the analysis result by the scenario analysis unit 212. . In this case, as shown in FIG. 13B, the request-side control unit 214 includes a type flag indicating the utterance part (in FIG. 12, a character string “utterance” is added to the corresponding part). A naturalization request is created, and the naturalization request is sent to the naturalization editing apparatus 112 via the communication function 205 to request an utterance part (step 331), and a response to the naturalization request may be waited.

【0078】このとき、要求側制御部214は、シナリ
オ解析部212からシナリオによって指定された発話数
を受け取り、この発話数を請求項13で述べた発話情報
として自然化要求に付加すればよい(図13(b)参
照)。また、要求側制御部214は、パーツ列編成部2
13から発話パーツが連結される単位パーツを示すパー
ツIDを受け取り、このパーツIDに基づいて、有意パ
ーツデータベース203に備えられた属性情報テーブル
から該当する単位パーツの末尾の画像フレームを示す画
像IDを読み出して、直前画像IDとして自然化要求に
付加すればよい。
At this time, the request-side control unit 214 receives the number of utterances specified by the scenario from the scenario analysis unit 212, and adds this number of utterances to the naturalization request as the utterance information described in claim 13. FIG. 13 (b)). Further, the request side control unit 214 is a
13, a part ID indicating a unit part to which the utterance part is connected is received, and based on the part ID, an image ID indicating an end image frame of the corresponding unit part is obtained from an attribute information table provided in the significant part database 203. It may be read out and added to the naturalization request as the immediately preceding image ID.

【0079】この場合は、図8に示した要求解析部22
5によるフラグ判別処理により、上述した発話パーツを
示す種別フラグが検出され、ステップ303の否定判定
を経てステップ308の肯定判定となる。このとき、要
求解析部225は、自然化要求に含まれる直前画像ID
を抽出し、発話パーツに対応する種別タグとこの直前画
像IDとを含む検索条件を作成して(ステップ30
9)、自然化パーツ検索部222の処理に供すればよ
い。
In this case, the request analysis unit 22 shown in FIG.
By the flag discriminating process of No. 5, the type flag indicating the utterance part described above is detected, and the negative judgment of Step 303 is followed by the positive judgment of Step 308. At this time, the request analysis unit 225 determines the immediately preceding image ID included in the naturalization request.
And a search condition including the type tag corresponding to the utterance part and the immediately preceding image ID is created (step 30).
9), the processing of the naturalized parts search unit 222 may be used.

【0080】これに応じて、自然化パーツ検索部222
は、発話パーツを示す種別タグに対応して保持された属
性情報テーブルを参照し(図10(b)参照)、前側接続
可能リストが上述した直前画像IDを含んでいる発話パ
ーツを候補パーツとして検索し(ステップ310)、パ
ーツ候補保持部226を介してランダム選択部227に
よる選択処理に供すればよい。
In response, the naturalized parts search unit 222
Refers to the attribute information table held corresponding to the type tag indicating the utterance part (see FIG. 10B), and sets the utterance part whose front-side connectable list includes the immediately preceding image ID as a candidate part. A search may be performed (step 310), and the selection may be performed by the random selection unit 227 via the part candidate holding unit 226.

【0081】この場合は、ランダム選択部227によ
り、上述したステップ306と同様の選択処理を行った
後に(ステップ311)、パーツデータ出力部228
が、自然化要求で指定された発話数に応じて、上述した
ステップ311で選択された単位パーツを含む適切な長
さのパーツ列を作成し(ステップ312)、ステップ3
07に進めばよい。
In this case, after the same selection processing as in step 306 described above is performed by the random selection section 227 (step 311), the parts data output section 228
Creates a part row of an appropriate length including the unit part selected in step 311 according to the number of utterances specified in the naturalization request (step 312), and step 3
You can proceed to 07.

【0082】パーツデータ出力部228は、自然化要求
に含まれていた発話情報を要求解析部225を介して受
け取っておき、ランダム選択部227から選択結果を受
け取ったときに、該当する単位パーツに対応する属性情
報テーブル(図10(b)参照)を参照し、得られた発話
数に基づいて、上述した発話情報で示された発話数を表
現するために必要な分だけ、該当する単位パーツを示す
パーツIDを繰り返し出力すればよい。
The parts data output unit 228 receives the utterance information included in the naturalization request via the request analysis unit 225 and, when receiving the selection result from the random selection unit 227, responds to the corresponding unit part. With reference to the attribute information table (see FIG. 10B), based on the obtained number of utterances, the corresponding unit parts are represented by an amount necessary to express the number of utterances indicated by the above-mentioned utterance information. The indicated part ID may be output repeatedly.

【0083】なお、このように、要求解析部225から
受け取った発話情報に応じて、パーツデータ出力部22
8が動作することにより、請求項13で述べたパーツ数
算出手段156およびシーケンス作成手段157の機能
を実現し、必要とされる分の発話動作を表すアニメーシ
ョンシーケンスを構成する単位パーツ列を自動的に作成
し、アニメーション作成装置210に供給することがで
きる。
As described above, according to the utterance information received from the request analysis unit 225, the parts data output unit 22
8 realizes the functions of the number-of-parts calculating means 156 and the sequence creating means 157 described in claim 13, and automatically generates a unit part sequence constituting an animation sequence representing a required utterance operation. , And can be supplied to the animation creation device 210.

【0084】これに応じて、図7に示した要求側制御部
214は動作を再開し、この要求側制御部214からの
指示に応じて、パーツ列編成部213は、図12に示し
たステップ318において、それまでに編成されたパー
ツ列の末尾に、要求側制御部214を介して受け取った
単位パーツ列を示す一連のパーツIDを付加すればよ
い。
In response to this, the request side control unit 214 shown in FIG. 7 resumes the operation, and in response to the instruction from the request side control unit 214, the part sequence organization unit 213 executes the step shown in FIG. At 318, a series of part IDs indicating the unit part sequence received via the request-side control unit 214 may be added to the end of the previously organized part sequence.

【0085】このように、要求側制御部214からの指
示に応じて、パーツ列編成部213が動作することによ
り、請求項1で述べた合成手段113の機能を発話パー
ツについて実現し、自然化編集装置112によって自動
的に作成された発話動作を表すアニメーションシーケン
スとシナリオに従って作成されたアニメーションシーケ
ンスとを合成することができる。
As described above, by operating the part sequence organizing unit 213 in response to the instruction from the request side control unit 214, the function of the synthesizing unit 113 described in claim 1 is realized for the utterance parts, and naturalization is performed. It is possible to combine an animation sequence representing a speech operation automatically created by the editing device 112 with an animation sequence created according to a scenario.

【0086】その後、すべてのシナリオの入力が終了し
たか否かを判定し(ステップ329)、否定判定の場合
は、ステップ321に戻って新たなシナリオを入力すれ
ばよい。一方、次に入力されたシナリオによって、無意
識動作を表す単位パーツが必要である旨が示された場合
に、要求側制御部214は、シナリオ解析部212によ
る解析結果に応じて、ステップ323の否定判定を経て
ステップ330の否定判定判定となる。
Thereafter, it is determined whether or not the input of all the scenarios has been completed (step 329). In the case of a negative determination, the process returns to step 321 to input a new scenario. On the other hand, if the next input scenario indicates that a unit part representing an unconscious operation is necessary, the request-side control unit 214 responds to the analysis result of the scenario analysis unit 212 to make a negative determination in step 323. After the determination, a negative determination is made in step 330.

【0087】この場合に、要求側制御部212は、図1
3(c)に示すように、無意識パーツを示す種別フラグ
(図13においては、該当個所に文字列「無意識」を付
して示した)とを含む自然化要求を作成し、この自然化
要求を通信機能205を介して自然化編集装置112に
送出することによって無意識パーツを要求し(ステップ
332)、この自然化要求に対する応答を待てばよい。
In this case, the request side control unit 212
As shown in FIG. 3C, a naturalization request including a type flag indicating an unconscious part (in FIG. 13, a character string “unconscious” is added to a corresponding portion) is created, and the naturalization request is generated. Is sent to the naturalization editing apparatus 112 via the communication function 205 to request an unconscious part (step 332), and wait for a response to the naturalization request.

【0088】このとき、要求側制御部214は、パーツ
列編成部213からパーツ列の末尾に連結されたパーツ
IDを受け取り、このパーツIDに基づいて、有意パー
ツデータベース203に備えられた属性情報テーブルを
参照し、該当する末尾画像IDを読み出して、請求項6
で述べた境界情報として自然化要求に付加すればよい
(図13(c)参照)。
At this time, the request-side control unit 214 receives the part ID linked to the end of the part sequence from the part sequence organization unit 213, and based on this part ID, the attribute information table provided in the significant parts database 203. And reads the corresponding end image ID with reference to
It may be added to the naturalization request as the boundary information described in (1) (see FIG. 13C).

【0089】この場合は、図8に示した要求解析部22
5によるフラグ判別処理(図11のステップ302)に
より、上述した無意識パーツを示す種別フラグが検出さ
れ、ステップ303の否定判定を経てステップ308の
否定判定となる。このとき、要求解析部225は、自然
化要求に含まれる直前画像IDを抽出し、無意識パーツ
に対応する種別タグとこの直前画像IDとを含む検索条
件を作成して(ステップ309)、自然化パーツ検索部
222の処理に供すればよい。
In this case, the request analysis unit 22 shown in FIG.
By the flag discrimination process 5 (step 302 in FIG. 11), the type flag indicating the unconscious part described above is detected, and the negative determination is made in step 308 after the negative determination in step 303. At this time, the request analysis unit 225 extracts the immediately preceding image ID included in the naturalization request, creates a search condition including the type tag corresponding to the unconscious part, and the immediately preceding image ID (step 309), and What is necessary is just to provide to the process of the parts search part 222.

【0090】これに応じて、自然化パーツ検索部222
は、無意識パーツを示す種別タグに対応して保持された
属性情報テーブルを参照し(図10(a)参照)、前側接
続可能リストが上述した直前画像IDを含んでいる無意
識パーツを候補パーツとして検索し(ステップ31
0)、該当する単位パーツを示すパーツIDをパーツ候
補保持部226を介してランダム選択部227による選
択処理に供すればよい。
In response, the naturalized parts search unit 222
Refers to the attribute information table held corresponding to the type tag indicating the unconscious part (see FIG. 10A), and selects the unconscious part whose front-side connectable list includes the immediately preceding image ID as a candidate part. Search (Step 31
0), the part ID indicating the corresponding unit part may be subjected to selection processing by the random selection unit 227 via the part candidate holding unit 226.

【0091】この場合は、上述した接続パーツの場合と
同様にして、ランダム選択部227により、上述した候
補パーツのいずれかを自然化パーツとして選択し(ステ
ップ306)、次いで、パーツデータ出力部228が、
この自然化パーツを示すパーツIDを通信機能205を
介して図7に示したアニメーション作成装置210に返
して(ステップ307)、処理を終了すればよい。
In this case, in the same manner as in the case of the connection parts described above, one of the above-described candidate parts is selected as a naturalized part by the random selection unit 227 (step 306), and then the parts data output unit 228 But,
The part ID indicating the naturalized part may be returned to the animation creating apparatus 210 shown in FIG. 7 via the communication function 205 (step 307), and the process may be terminated.

【0092】これに応じて、図7に示した要求側制御部
214は動作を再開し、この要求側制御部214からの
指示に応じて、パーツ列編成部213は、図12に示し
たステップ318において、それまでに編成されたパー
ツ列の末尾に、要求側制御部214を介して受け取った
単位パーツ列を示す一連のパーツIDを付加すればよ
い。
In response to this, the request side control unit 214 shown in FIG. 7 resumes the operation, and in response to the instruction from the request side control unit 214, the parts row organization unit 213 executes the step shown in FIG. At 318, a series of part IDs indicating the unit part sequence received via the request-side control unit 214 may be added to the end of the previously organized part sequence.

【0093】このように、要求側制御部214からの指
示に応じて、パーツ列編成部213が動作することによ
り、請求項1で述べた合成手段113の機能を無意識パ
ーツについて実現し、自然化編集装置112によって自
動的に作成された発話動作を表すアニメーションシーケ
ンスとシナリオに従って作成されたアニメーションシー
ケンスとを合成することができる。
In this way, the function of the synthesizing means 113 described in claim 1 is realized for the unconscious parts by operating the parts train organization unit 213 in response to the instruction from the request side control unit 214, and the naturalization is realized. It is possible to combine an animation sequence representing a speech operation automatically created by the editing device 112 with an animation sequence created according to a scenario.

【0094】その後、すべてのシナリオの入力が終了し
たか否かを判定し(ステップ329)、このステップ3
29の肯定判定に応じて、図7に示したアニメーション
合成部435は、上述したパーツ列編成部213から受
け取ったパーツ列に含まれる一連のパーツIDに基づい
て、有意パーツデータベース203および自然化パーツ
データベース204から必要な単位パーツを順次に読み
出し、結合していくことにより、アニメーションリソー
スが形成される(ステップ333)。
Thereafter, it is determined whether or not all scenarios have been input (step 329).
In response to the affirmative determination of No. 29, the animation compositing unit 435 shown in FIG. 7 executes the significant parts database 203 and the naturalized parts based on the series of part IDs included in the parts sequence received from the parts sequence organization unit 213 described above. By sequentially reading out necessary unit parts from the database 204 and combining them, an animation resource is formed (step 333).

【0095】上述したように、アニメーション作成装置
210からの自然化要求に応じて、自然化編集装置11
2が動作する構成とすることにより、自然化要求で示さ
れた情報に従って、必要とされる接続パーツや発話パー
ツおよび無意識パーツを含む自然化アニメーションシー
ケンスを自動的に作成し、この自然化アニメーションシ
ーケンスとシナリオに従って形成されたアニメーション
シーケンスとを合成し、目的となるアニメーションリソ
ースを簡単に作成することができる。
As described above, in response to the naturalization request from the animation creation device 210, the naturalization editing device 11
2 automatically generates a naturalized animation sequence including necessary connection parts, utterance parts, and unconscious parts in accordance with the information indicated by the naturalization request, And an animation sequence formed according to the scenario, and a desired animation resource can be easily created.

【0096】この場合は、アニメーションリソースの開
発者が、意味のある動作を指定するための属性情報のみ
を含んだシナリオを入力することにより、該当する有意
パーツとこれらの有意パーツを相互に接続する接続パー
ツとを含んだアニメーションリソースを得ることができ
るので、アニメーションリソースの開発者が、有意動作
を表す単位パーツ相互の不連続性についての考慮を不要
とすることができる。
In this case, the developer of the animation resource inputs a scenario including only attribute information for designating a meaningful operation, thereby connecting the relevant significant parts with each other. Since the animation resource including the connection part can be obtained, the developer of the animation resource does not need to consider the discontinuity between the unit parts indicating the significant operation.

【0097】また、シナリオに含まれた発話動作や無意
識動作を指定する旨の記述に応じて、要求側制御部21
4が自然化要求を送出し、これに応じて、自然化編集装
置112が動作する構成としたことにより、アニメーシ
ョンリソースの開発において、頻繁に出現する発話動作
や無意識動作を表すアニメーションシーケンスの作成を
自動化することが可能である。
The request-side control unit 21 responds to the description of specifying the utterance operation or the unconscious operation included in the scenario.
4 sends a naturalization request, and the naturalization editing device 112 operates in response to the request. Thus, in the development of animation resources, an animation sequence representing a utterance operation or an unconscious operation that appears frequently can be created. It can be automated.

【0098】このようにして、発話動作を表すアニメー
ションシーケンスの作成を自動化することにより、アニ
メーションリソースの開発者を決まり切った単調な作業
から解放し、より創造的な作業に注力することを可能と
することができる。また、無意識動作を表すアニメーシ
ョンシーケンスの作成を自動化することにより、例え
ば、意味を持った動作の合間に無意識動作を表すアニメ
ーションを表示する旨の記述を含んだシナリオを入力す
ることにより、任意の動作の合間に「間」をとることが
可能となり、アニメーションリソースによって表される
キャラクタの動作をより自然に見せることができる。
In this way, by automating the creation of an animation sequence representing an utterance operation, it is possible to relieve the developer of animation resources from routine monotonous work and to focus on more creative work. can do. In addition, by automating the creation of an animation sequence representing an unconscious movement, for example, by inputting a scenario including a description indicating that an animation representing an unconscious movement is displayed between meaningful movements, an arbitrary movement can be performed. It is possible to take a "interval" between the characters, and to make the movement of the character represented by the animation resource look more natural.

【0099】このように、本発明のアニメーション編集
システムを適用することにより、アニメーションリソー
スの開発作業に含まれる繁雑な作業を自動化することが
可能となるので、開発者の作業負担を大幅に軽減するこ
とができる。ところで、接続パーツに対応する属性情報
テーブルとして、図9(c)に示すように、前側接続可能
画像IDと後側接続可能画像IDとの組み合わせそれぞ
れについて、パーツIDを与えた構成を採用することも
可能である。
As described above, by applying the animation editing system of the present invention, it becomes possible to automate complicated work included in the development work of the animation resource, so that the work load on the developer is greatly reduced. be able to. By the way, as shown in FIG. 9C, a configuration in which a part ID is given to each combination of the front connectable image ID and the rear connectable image ID as the attribute information table corresponding to the connection parts is adopted. Is also possible.

【0100】この場合は、自然化パーツ検索部222に
よる検索処理が非常に簡易になるので、検索条件を満た
す候補パーツを更に迅速に検索し、パーツ選択部223
の処理に供することができる。なお、上述したアニメー
ションリソース作成装置210及び自然化編集装置22
0が、例えば、ウィンドウズAPIを共通プラットホー
ムとするアプリケーションソフトウェアとして構成され
ていれば、このウィンドウズAPIで提供されている通
信機能を図7に示した通信機能205として利用して相
互に情報の授受を行うことができる。
In this case, the search processing by the naturalized part search unit 222 is extremely simplified, so that a candidate part that satisfies the search condition is searched more quickly, and the part selection unit 223 is searched.
Can be provided. The animation resource creating device 210 and the naturalization editing device 22 described above
0 is configured as application software using the Windows API as a common platform, the communication function provided by the Windows API is used as the communication function 205 shown in FIG. It can be carried out.

【0101】また、このように、自然化編集装置220
を独立したアプリケーションソフトウェアとして構成し
た場合は、当然ながら、アニメーションリソース作成装
置210とは全く独立に動作可能であるから、この自然
化編集装置220を自然化アニメーションシーケンスを
作成する独立したエンジンとして、他のアプリケーショ
ンソフトウェアからの自然化要求に応じて動作させるこ
とが可能である。
Also, as described above, the naturalization editing device 220
Of course, can be operated completely independently of the animation resource creating device 210, so that the naturalized editing device 220 can be used as an independent engine for creating a naturalized animation sequence. Can be operated in response to a naturalization request from the application software.

【0102】また、この場合は、上述した自然化編集装
置220の各部により、請求項14で述べた受付手順、
条件指定手順、検索手順、選択手順および結果出力手順
をコンピュータにそれぞれ実行させるプログラムから構
成されており、これらのプログラムをCD−ROMなど
の記録媒体に記録すれば、幅広い利用者に自然化編集装
置によって実現されるアニメーション作成環境を提供す
ることができる。
In this case, the receiving procedure described in claim 14 is performed by each unit of the naturalization editing apparatus 220 described above.
The program comprises programs for causing a computer to execute a condition designation procedure, a search procedure, a selection procedure, and a result output procedure. If these programs are recorded on a recording medium such as a CD-ROM, a naturalization editing apparatus can be provided to a wide range of users. Can be provided.

【0103】ところで、アニメーションを利用したGU
Iを構築する場合には、利用者が類似した操作をした場
合に、その操作に応じて再生されるアニメーションそれ
ぞれの再生時間をほぼ同一とすることに留意する必要が
ある。以下、アニメーションリソースの再生時間を考慮
しながらアニメーションリソースの編集作業を進めるた
めの支援技術について説明する。
By the way, GU using animation
When constructing I, it is necessary to keep in mind that when the user performs a similar operation, the reproduction time of each animation reproduced according to the operation is substantially the same. In the following, a description will be given of a support technology for proceeding with the editing operation of the animation resource while considering the reproduction time of the animation resource.

【0104】図14に、請求項11のアニメーション編
集システムを適用したアニメーションリソース作成装置
の詳細構成を示す。図14に示したアニメーション作成
装置210は、図7に示したアニメーションリソース作
成装置210に作成制御部217および合成支援部21
8を付加し、アニメーションリソースの開発者がマウス
403などの入力装置を操作して入力した指示に応じ
て、作成制御部217が合成支援部218およびリソー
ス編成部216の動作を制御する構成となっている。
FIG. 14 shows a detailed configuration of an animation resource creating apparatus to which the animation editing system of claim 11 is applied. The animation creation device 210 shown in FIG. 14 includes the creation control unit 217 and the synthesis support unit 21 in the animation resource creation device 210 shown in FIG.
8, the creation control unit 217 controls the operations of the synthesis support unit 218 and the resource organization unit 216 in accordance with an instruction input by operating the input device such as the mouse 403 by the developer of the animation resource. ing.

【0105】この図14に示した合成支援部218にお
いて、再生時間算出部231は、タイムチャート作成部
232からの指示に応じてDBMS202を介して有意
パーツデータベース203および自然化パーツデータベ
ース204にそれぞれ備えられた属性情報テーブルを参
照し、指定された単位パーツに対応する属性情報に基づ
いて、該当する単位パーツの再生に要する時間を算出
し、得られた再生時間をタイムチャート作成部232に
通知する構成となっている。
In the synthesis support unit 218 shown in FIG. 14, the reproduction time calculation unit 231 is provided in the significant parts database 203 and the naturalized parts database 204 via the DBMS 202 in accordance with an instruction from the time chart creation unit 232. With reference to the attribute information table thus obtained, the time required for reproducing the corresponding unit part is calculated based on the attribute information corresponding to the specified unit part, and the obtained reproduction time is notified to the time chart creation unit 232. It has a configuration.

【0106】また、このタイムチャート作成部232
は、例えば、作成制御部217からの指示に応じて、パ
ーツ列編成部213に備えられたパーツ列保持部233
から一連のパーツIDを読み出し、これらのパーツID
を再生時間算出部231に指定して各単位パーツの再生
時間の算出を指示し、得られた再生時間に基づいて、例
えば、図16に示すように、各単位パーツの再生時間を
矩形の横幅として表すタイムチャートを表示するための
表示情報を作成する構成となっている。
The time chart creating section 232
Is, for example, in response to an instruction from the creation control unit 217, the parts row holding unit 233 provided in the parts row knitting unit 213.
Read out a series of part IDs from
To the reproduction time calculation unit 231 to instruct the calculation of the reproduction time of each unit part. Based on the obtained reproduction time, for example, as shown in FIG. It is configured to create display information for displaying a time chart expressed as.

【0107】上述したタイムチャート作成部232は、
このようにして得られた表示情報を表示制御部(図示せ
ず)を介してCRTディスプレイ装置(CRT)206
などの出力装置に送出し、CRTディスプレイ装置20
6による表示処理に供する構成となっている。また、図
14に示したパーツ列編成部213において、編成制御
部234は、作成制御部217からの指示に応じて、結
合箇所検出部215の動作を制御するとともに、有意パ
ーツ検索部211および要求側制御部214から受け取
ったパーツID列をパーツ列保持部233に書き込む構
成となっている。
The time chart creating section 232 described above
The display information thus obtained is transmitted to a CRT display device (CRT) 206 via a display control unit (not shown).
To an output device such as the CRT display device 20.
6 for display processing. In addition, in the part sequence knitting unit 213 shown in FIG. 14, the knitting control unit 234 controls the operation of the joining point detection unit 215 in accordance with an instruction from the creation control unit 217, The part ID sequence received from the side control unit 214 is written into the part sequence holding unit 233.

【0108】また、このとき、図14に示した境界情報
抽出部235は、編成制御部234によって書き込まれ
た各パーツIDに基づいて、有意パーツデータベース2
03および自然化パーツデータベースに備えられた属性
情報テーブルを参照し、該当する単位パーツの先頭画像
IDおよび末尾画像IDを抽出し、パーツ列保持部23
3に保持された該当するパーツIDに付加すればよい。
At this time, the boundary information extraction unit 235 shown in FIG. 14 uses the significant part database 2 based on each part ID written by the composition control unit 234.
03 and the attribute information table provided in the naturalized parts database, the head image ID and the end image ID of the corresponding unit part are extracted, and the part row holding unit 23
3 may be added to the corresponding part ID held.

【0109】ここで、有意パーツデータベース203お
よび自然化パーツデータベース204に備えられた属性
情報テーブルに含まれている先頭画像IDおよび末尾画
像IDは、請求項8で述べたパーツ境界情報に相当する
ものであり、この属性情報テーブルにより、請求項8で
述べた境界情報保持手段141の機能が果たされてい
る。また、上述したパーツIDは、まさに、請求項8で
述べたパーツ識別情報である。
Here, the first image ID and the last image ID included in the attribute information tables provided in the significant part database 203 and the naturalized part database 204 correspond to the part boundary information described in claim 8. According to the attribute information table, the function of the boundary information holding means 141 described in claim 8 is fulfilled. Further, the above-described part ID is exactly the part identification information described in claim 8.

【0110】したがって、上述したように、請求項8で
述べたパーツ検索手段142に相当する有意パーツ検索
部211によって新たな有意パーツが検索される度に、
境界情報抽出部235および編成制御部234が動作
し、該当する単位パーツを示すパーツIDおよびパーツ
境界情報をパーツ列保持部233に書き込むことによ
り、請求項8で述べた境界情報抽出手段143およびパ
ーツ列形成手段144の機能を実現し、図15に示すよ
うに、パーツIDとパーツ境界情報とを含むパーツデー
タからなるパーツ列を形成して、結合箇所検出部215
の処理に供することができる。
Therefore, as described above, every time a new significant part is searched by the significant part search unit 211 corresponding to the part search means 142 described in claim 8,
The boundary information extracting unit 143 and the parts described in claim 8 are written by operating the boundary information extracting unit 235 and the knitting control unit 234 to write the part ID and the part boundary information indicating the corresponding unit part in the part row holding unit 233. The function of the row forming means 144 is realized, and as shown in FIG. 15, a part row including part data including a part ID and part boundary information is formed, and
Can be provided.

【0111】例えば、作成制御部217により、不連続
箇所の発生に応じて逐次に自然化パーツを挿入する旨の
逐次挿入モードが指示された場合に、図14に示した編
成制御部234は、有意パーツ検索部211から新たな
有意パーツを示すパーツIDを受け取るごとに、結合箇
所検出部215に不連続箇所の検出を指示すればよい。
このとき、結合箇所検出部215は、例えば、上述した
編成制御部234からの指示に応じてパーツ列保持部2
33を参照し、新たにパーツ列に連結されたパーツID
およびその直前のパーツIDを得て、これらのパーツI
Dに対応して、有意パーツデータベース203に備えら
れた属性情報テーブルに保持された属性情報を参照すれ
ばよい。次いで、上述した二つのパーツIDに対応する
属性情報を比較し、この比較結果に基づいて、該当する
二つの単位パーツが不連続であるか否かを判定すればよ
い。
For example, when the creation control unit 217 instructs a sequential insertion mode for sequentially inserting naturalized parts in response to occurrence of a discontinuous portion, the knitting control unit 234 shown in FIG. Each time a part ID indicating a new significant part is received from the significant part search unit 211, the detection of a discontinuous point may be instructed to the joint point detection unit 215.
At this time, the connection point detection unit 215 may, for example, respond to the instruction from the knitting control unit 234 described above,
33, the part ID newly connected to the parts row
And the part ID immediately before the part I
The attribute information stored in the attribute information table provided in the significant parts database 203 may be referred to in correspondence with D. Next, the attribute information corresponding to the two part IDs described above may be compared, and based on the result of the comparison, it may be determined whether the two corresponding unit parts are discontinuous.

【0112】このようにして不連続を検出した場合に、
結合箇所検出部215は、不連続箇所を編成制御部23
4に通知するとともに、該当する二つの単位パーツに対
応するパーツデータの一部としてパーツ列保持部233
に保持されたパーツ境界情報を読み出して、要求側制御
部214の処理に供すればよい。これに応じて、要求側
制御部214は、結合箇所検出部215から受け取った
パーツ境界情報から直前画像IDおよび直後画像IDを
抽出し、この直前画像IDおよび直後画像IDと接続パ
ーツを示す種別フラグとを含む自然化要求(図13(a)
参照)を作成して、通信機能205を介して自然化編集
装置112に送出すればよい(図15(a)参照)。
When discontinuity is detected in this way,
The joining point detection unit 215 determines the discontinuous point by the knitting control unit 23.
4 as well as the part row holding unit 233 as part of the part data corresponding to the two corresponding unit parts.
May be read and provided to the request-side control unit 214 for processing. In response to this, the request side control unit 214 extracts the immediately preceding image ID and the immediately following image ID from the part boundary information received from the joining point detection unit 215, and outputs the immediately preceding image ID, the immediately following image ID, and the type flag indicating the connected part. (Fig. 13 (a)
(See FIG. 15A) may be created and transmitted to the naturalization editing apparatus 112 via the communication function 205.

【0113】このように、編成制御部234からの指示
に応じて、結合箇所検出部215および要求側制御部2
14が動作することにより、請求項8で述べた第1自然
化要求手段111の機能を実現し、異なる特徴を有する
単位パーツの結合に応じて、これらの単位パーツに対応
するパーツ境界情報を含んだ自然化要求を送出し、自然
化編集装置112の処理に供することが可能となる。
In this way, in response to an instruction from the knitting control section 234, the connection point detecting section 215 and the request side control section 2
14 operates to realize the function of the first naturalization request unit 111 described in claim 8, and includes, in accordance with the combination of unit parts having different characteristics, part boundary information corresponding to these unit parts. It is possible to send a naturalization request and to provide the processing to the naturalization editing device 112.

【0114】また、この場合に、編成制御部234は、
要求側制御部214を介して自然化パーツを示すパーツ
IDを受け取ったときに、結合箇所検出部215から受
け取った通知で示された不連続箇所に応じてパーツ列保
持部233を書き換え、図15(b)に示すように、該当
する二つのパーツIDの間に自然化パーツを示すパーツ
IDを挿入すればよい。このとき、境界情報抽出部23
5により、このパーツIDに対応するパーツ境界情報が
抽出され、自然化パーツ(図15においては、接続パー
ツとして示す)に対応するパーツデータの一部としてパ
ーツ列保持部233に保持される。
Also, in this case, the knitting control section 234
When the part ID indicating the naturalized part is received via the request-side control unit 214, the part sequence holding unit 233 is rewritten in accordance with the discontinuous part indicated by the notification received from the joint part detecting unit 215, and FIG. As shown in (b), a part ID indicating a naturalized part may be inserted between the two corresponding part IDs. At this time, the boundary information extraction unit 23
5, the part boundary information corresponding to the part ID is extracted and held in the part row holding unit 233 as a part of the part data corresponding to the naturalized part (shown as a connection part in FIG. 15).

【0115】このように、編成制御部234、結合箇所
検出部215および要求制御部214が、作成制御部2
17からの指示に応じて動作することにより、請求項1
1で述べた第1自然化要求手段111および合成手段1
13の機能を実現し、シナリオで示された個々の動作を
表す単位パーツをパーツ列に連結するごとに、必要な自
然化パーツの作成を自然化編集装置112に要求し、作
成された自然化パーツをパーツ列に合成することができ
る。
As described above, the knitting control section 234, the connection point detecting section 215, and the request control section 214 make the creation control section 2
17 by operating in response to an instruction from the
First naturalization requesting means 111 and synthesizing means 1 described in 1.
13 is realized, and every time a unit part representing an individual operation shown in the scenario is connected to a part row, a request for creation of a necessary naturalized part is issued to the naturalization editing apparatus 112, and the created naturalized Parts can be combined into part rows.

【0116】この場合は、新たな有意パーツをパーツ列
に編入したことにより不連続が発生したときには、逐次
に自然化パーツが作成され、この自然化パーツをパーツ
列に編入するためにパーツ列保持部233の内容が更新
され、合成支援部218の処理に供される。
In this case, when discontinuity occurs due to the incorporation of a new significant part into the part row, naturalized parts are sequentially created, and the part row holding is performed to incorporate the naturalized part into the part row. The content of the unit 233 is updated and provided to the processing of the combination support unit 218.

【0117】これに応じて、タイムチャート作成部23
2と再生時間算出部231とが、請求項11で述べた時
間情報作成手段152および作成時間推定手段151と
して動作することにより、例えば、シナリオで示された
動作を表す単位パーツ(以下、シナリオパーツと称す
る)パーツに続いて、新たなシナリオパーツがパー
ツ列に編入されると(図15(a)参照)、図16(a)に
示すように、これらのシナリオパーツ、の再生時間
に相当する横幅を持った矩形によって表されたタイムチ
ャートを表す表示情報が作成され、CRTディスプレイ
装置206を介してアニメーションリソースの開発者に
提供することができる。
In response, the time chart creating section 23
2 and the playback time calculation unit 231 operate as the time information creation unit 152 and the creation time estimation unit 151 described in claim 11, so that, for example, a unit part (hereinafter, a scenario part) representing an operation shown in a scenario 15), new scenario parts are incorporated into the part row (see FIG. 15A), which corresponds to the playback time of these scenario parts as shown in FIG. 16A. Display information representing a time chart represented by a rectangle having a horizontal width is created and can be provided to the developer of the animation resource via the CRT display device 206.

【0118】また、このとき、上述したシナリオパーツ
、の連結箇所について接続パーツを要求する自然化
要求が送出され、これに応じて、自然化編集装置112
側から条件に適合する接続パーツを示すパーツIDが返
されると、上述した編成制御部234による挿入処理に
より(図15(b)参照)、図16(b)に示すように、こ
のパーツID示される接続パーツIの再生時間を反映し
たタイムチャートをアニメーションリソースの開発者に
提供することができる。
At this time, a naturalization request for requesting a connection part for a connection point of the above-mentioned scenario parts is sent out.
When the part ID indicating the connected part that satisfies the condition is returned from the side, the insertion processing by the knitting control unit 234 described above (see FIG. 15B) causes the part ID to be displayed as shown in FIG. A time chart reflecting the reproduction time of the connected part I to be provided can be provided to the developer of the animation resource.

【0119】同様にして、シナリオパーツの編入に応
じて、このシナリオパーツの再生時間を反映したタイ
ムチャート(図16(c)参照)を提供し、更に、このシ
ナリオパーツの連結によって生じた不連続を解消する
ための接続パーツIIを自然化編集装置112から受け取
ったときに、この接続パーツIIの再生時間を反映したタ
イムチャート(図16(d)参照)を提供することができ
る。
Similarly, a time chart (see FIG. 16C) reflecting the reproduction time of this scenario part is provided according to the incorporation of the scenario part, and further a discontinuity caused by the connection of this scenario part is provided. When the connection part II for solving the problem is received from the naturalization editing device 112, a time chart (see FIG. 16D) reflecting the reproduction time of the connection part II can be provided.

【0120】このように、新たなシナリオパーツをパー
ツ列に編入したことにより不連続が発生したときには、
逐次に接続パーツを作成し、各シナリオパーツおよび接
続パーツの再生時間を反映したタイムチャートを提供す
ることにより、アニメーションリソースの開発者は、各
単位パーツの再生時間を逐次に把握しながらアニメーシ
ョンリソースの開発作業を進めることができる。
As described above, when discontinuity occurs due to the incorporation of a new scenario part into the part row,
By creating connection parts one by one and providing a time chart reflecting the playback time of each scenario part and connection part, the developer of animation resources allows the animation resource developer Development work can proceed.

【0121】なお、上述したシナリオパーツは、シナリ
オによってあからさまに属性情報が指定された有意パー
ツとともに、自然化編集装置112を利用して得られる
発話パーツおよび無意識パーツを含んでいる。上述した
ように、自然化編集装置112において直前画像IDを
考慮して発話パーツおよび無意識パーツを検索した場合
は、自然化編集装置112側から供給される発話パーツ
および無意識パーツとその直前の単位パーツとの間の連
続性が保証されているので、発話パーツおよび無意識パ
ーツについては、これらの単位パーツを単純にパーツ列
に編入すれば十分であり、接続パーツを挿入する必要が
ない。
The above-mentioned scenario parts include utterance parts and unconscious parts obtained by using the naturalization editing device 112, together with significant parts whose attribute information is explicitly specified by the scenario. As described above, when the naturalization editing device 112 searches for the utterance part and the unconscious part in consideration of the immediately preceding image ID, the utterance part and the unconscious part supplied from the naturalization editing device 112 and the unit part immediately before the part are searched. Since the continuity between the utterance part and the unconscious part is guaranteed, it is sufficient to simply incorporate these unit parts into the part row, and there is no need to insert a connection part.

【0122】したがって、発話パーツおよび無意識パー
ツがパーツ列に編入される場合は、直前の単位パーツの
直後に、発話パーツおよび無意識パーツに関するパーツ
データが単純に連結され、これに応じて、それぞれの再
生時間を反映したタイムチャートが提供される。一方、
作成制御部217により、シナリオで記述した一連の動
作を表すシナリオパーツの連なりについて一括して接続
パーツを挿入する旨の一括挿入モードが指示された場合
に、編成制御部234は、有意パーツ検索部211およ
び要求側制御部214から受け取ったパーツIDを順次
にパーツ列保持部233に書き込んでいき、シナリオ解
析部212から一連の動作に関する解析処理が完了した
旨の通知を受け取ったときに、結合箇所検出部215に
不連続箇所の検出動作を指示すればよい。
Therefore, when the utterance part and the unconscious part are incorporated into the part row, the part data relating to the utterance part and the unconscious part are simply connected immediately after the immediately preceding unit part. A time chart reflecting time is provided. on the other hand,
When the creation control unit 217 instructs the batch insertion mode of inserting connection parts collectively for a series of scenario parts representing a series of operations described in the scenario, the composition control unit 234 sets the significant part search unit The part ID received from the request side control unit 214 and the part ID received from the request side control unit 214 are sequentially written into the part sequence holding unit 233. When the scenario analysis unit 212 receives a notification from the scenario analysis unit 212 that analysis processing regarding a series of operations has been completed, What is necessary is just to instruct the detection unit 215 to perform the operation of detecting the discontinuous point.

【0123】この場合に、要求側制御部214は、結合
箇所検出部215によって検出された各不連続箇所につ
いて、それぞれ接続パーツを要求する自然化要求を送出
し、これに応じて、自然化編集装置112から受け取っ
たパーツIDを該当する不連続箇所を示す挿入箇所情報
とともに、順次に編成制御部234による書込処理に供
すればよい。
In this case, the request-side control section 214 sends a naturalization request requesting a connection part for each discontinuous point detected by the connection point detecting section 215, and accordingly, the naturalization editing is performed. The part ID received from the device 112 may be sequentially provided to the writing process by the knitting control unit 234 together with the insertion point information indicating the corresponding discontinuous point.

【0124】また、このとき、編成制御部234は、要
求側制御部214から受け取った挿入箇所情報に基づい
て、接続パーツを示すパーツIDを用いてパーツ列保持
部233を書き換え、すべての不連続箇所に対応する接
続パーツについての挿入処理が完了したときに、パーツ
列保持部233の内容を合成支援部218の処理に供す
ればよい。
At this time, the knitting control unit 234 rewrites the part sequence holding unit 233 using the part ID indicating the connected part based on the insertion point information received from the request side control unit 214, and When the insertion process for the connection part corresponding to the location is completed, the contents of the part sequence holding unit 233 may be provided to the processing of the combination support unit 218.

【0125】このように、編成制御部234、結合箇所
検出部215および要求制御部214が、作成制御部2
17からの指示に応じて動作することにより、請求項1
2で述べた第1自然化要求手段111および合成手段1
13の機能を実現し、シナリオで示された一連の動作を
表す単位パーツを連結した後に、必要な自然化パーツの
作成を自然化編集装置112に一括して要求し、作成さ
れた自然化パーツをパーツ列に合成することができる。
As described above, the knitting control unit 234, the connection point detecting unit 215, and the request control unit 214
17 by operating in response to an instruction from the
First naturalization requesting means 111 and combining means 1 described in 2
13 after realizing the functions of 13 and linking the unit parts representing the series of operations shown in the scenario, requesting the naturalization editing apparatus 112 to create necessary naturalized parts at once, and creating the naturalized parts. Can be combined into a part row.

【0126】この場合は、シナリオに記述された指示に
応じてシナリオパーツ、、がパーツ列に編入され
た段階で(図15(c)参照)、まず、これらのシナリオ
パーツ、、の再生時間を反映したタイムチャート
(図16(e)参照)が提供される。その後、これらのシ
ナリオパーツ、、相互の境界において生じた不連
続を解消するための接続パーツI、IIを要求する自然化
要求が、自然化編集装置112に対して送出される(図
15(c)参照)。
In this case, at the stage when the scenario parts are incorporated into the parts row in accordance with the instruction described in the scenario (see FIG. 15C), first, the reproduction time of these scenario parts is determined. A reflected time chart (see FIG. 16E) is provided. After that, a naturalization request for requesting these scenario parts and connection parts I and II for eliminating discontinuities generated at the boundary between them is sent to the naturalization editing apparatus 112 (FIG. 15 (c)). )reference).

【0127】この自然化要求に対する応答として、これ
らの接続パーツI、IIを自然化編集装置112から受け
取ったときに、上述したパーツ列編成処理により、図1
5(c)に示すように、これらの接続パーツI、IIに対応
するパーツデータを含むパーツ列が形成され、この接続
パーツI、IIの再生時間を反映したタイムチャート(図
16(d)参照)が提供される。
When these connection parts I and II are received from the naturalization editing device 112 as a response to the naturalization request, the above-described parts row organization process performs the processing shown in FIG.
As shown in FIG. 5C, a part row including part data corresponding to these connection parts I and II is formed, and a time chart reflecting the reproduction time of the connection parts I and II (see FIG. 16D) ) Is provided.

【0128】このように、まず、シナリオで指定された
一連の動作を表す単位パーツの再生時間を反映したタイ
ムチャートを提供し、その後に、これらの単位パーツの
境界で生じた不連続を解消するための自然化パーツの再
生時間を反映したタイムチャートを提供することによ
り、アニメーションリソースの開発者は、一連の動作の
流れを把握しながらアニメーションリソースの開発作業
を進めることができる。
As described above, first, a time chart reflecting the playback time of the unit parts representing a series of operations specified in the scenario is provided, and then, the discontinuity generated at the boundary between these unit parts is eliminated. By providing a time chart that reflects the reproduction time of the naturalized parts for the animation resource, the developer of the animation resource can proceed with the development of the animation resource while grasping the flow of a series of operations.

【0129】このようにしてアニメーションリソースの
再生時間を単位パーツごとに表すタイムチャートを提供
することにより、アニメーションリソースの開発者は、
このタイムチャートを指標として、複数のアニメーショ
ンリソースの再生時間を調整する作業を容易に進めるこ
とが可能となる。例えば、マウス403などの入力装置
を操作して接続パーツや無意識パーツを指定し、作成制
御部217を介して要求側制御部214に該当する自然
化パーツに代わる自然化パーツを要求する旨を指示すれ
ばよい。
By providing a time chart representing the reproduction time of the animation resource for each unit part in this way, the developer of the animation resource can
Using this time chart as an index, it is possible to easily proceed with the operation of adjusting the reproduction time of a plurality of animation resources. For example, the user operates the input device such as the mouse 403 to specify a connection part or an unconscious part, and instructs the request-side control unit 214 via the creation control unit 217 to request a naturalized part to replace the corresponding naturalized part. do it.

【0130】ところで、それぞれのアニメーションリソ
ースが利用者に提供される場面は様々であり、例えば、
待ち時間が発生した場合に、アニメーションリソースに
よって表現されるキャラクタが変化に富んだ動作をする
方が好ましい場面がある反面、むしろ、キャラクタが特
定の動作を頻繁に行う方が好ましい場面も考えられる。
次に、各単位パーツの使用履歴を考慮して、候補パーツ
から自然化パーツを選択する方法について説明する。
By the way, there are various scenes in which each animation resource is provided to the user.
When a waiting time occurs, it is preferable that the character represented by the animation resource perform a variety of movements, but rather, it is preferable that the character performs a specific movement frequently.
Next, a method of selecting a naturalized part from candidate parts in consideration of the usage history of each unit part will be described.

【0131】図17に、請求項6のアニメーション編集
システムの実施形態を示す。図17に示した自然化パー
ツデータベース204は、図18に示すように、自然化
用属性情報として、各パーツが使用された回数を示す使
用履歴情報を含んだ属性情報テーブルを備えた構成とな
っている。この使用履歴情報は、請求項6で述べた履歴
情報に相当するものであるから、この場合は、自然化パ
ーツデータベース204に備えられた属性情報テーブル
によって、請求項6で述べた履歴情報保持手段135の
機能が果たされている。
FIG. 17 shows an embodiment of the animation editing system according to claim 6. As illustrated in FIG. 18, the naturalized parts database 204 illustrated in FIG. 17 has a configuration including an attribute information table including usage history information indicating the number of times each part has been used, as the naturalized attribute information. ing. Since this usage history information corresponds to the history information described in claim 6, in this case, the history information holding means described in claim 6 is obtained by using the attribute information table provided in the naturalized parts database 204. 135 functions are performed.

【0132】また、図17に示した自然化編集装置11
2において、パーツ選択部223は、図8に示したラン
ダム選択部227に代えて、度数比較部241、選択パ
ーツ決定部242および履歴情報更新部243を備えた
構成となっている。このパーツ選択部223において、
度数比較部241は、パーツ候補保持部に保持された各
候補パーツについて、自然化パーツデータベース204
に備えられた属性情報を参照し、履歴情報として保持さ
れた使用回数を互いに比較し、この比較結果を選択パー
ツ決定部242に送出する構成となっている。
Further, the naturalization editing device 11 shown in FIG.
2, the parts selection unit 223 includes a frequency comparison unit 241, a selected parts determination unit 242, and a history information update unit 243, instead of the random selection unit 227 shown in FIG. In this part selection unit 223,
For each candidate part held in the part candidate holding unit, the frequency comparison unit 241
, The number of times of use stored as history information is compared with each other, and the comparison result is sent to the selected part determination unit 242.

【0133】これに応じて、選択パーツ決定部242
は、例えば、使用回数が最少である候補パーツを自然化
パーツとして選択し、供給側制御部221に送出すると
ともに、履歴情報更新部243を介して、該当する候補
パーツに対応する履歴情報を更新する構成となってい
る。このように、度数比較部241による比較結果に応
じて、選択パーツ決定部242が動作することにより、
請求項6で述べた決定手段137の機能を実現し、履歴
情報を考慮して、自然化パーツを選択することができ
る。
In response to this, the selected parts determining unit 242
For example, a candidate part having the least number of uses is selected as a naturalized part, sent to the supply-side control unit 221, and the history information corresponding to the candidate part is updated via the history information updating unit 243. Configuration. As described above, the selected part determining unit 242 operates according to the comparison result by the frequency comparing unit 241,
By realizing the function of the determining means 137 described in claim 6, it is possible to select a naturalized part in consideration of history information.

【0134】また、選択パーツ決定部242からの指示
に応じて、履歴情報更新部243が動作することによ
り、請求項6で述べた履歴情報更新手段138の機能を
果たし、自然化パーツの選択に応じて、該当する単位パ
ーツの履歴情報を更新し、以降の選択処理に供すること
ができる。この場合は、例えば、待ち時間の発生などに
応じて、自然化編集装置112が無意識パーツを供給す
る際に、その時点で最も使用回数の少ない無意識パーツ
を選択するので、供給する無意識パーツにばらつきを持
たせることが可能であり、キャラクタが変化に富んだ動
作を行うアニメーションを提供することができる。
The history information updating unit 243 operates in response to an instruction from the selected parts determining unit 242, thereby performing the function of the history information updating unit 138 described in claim 6 and selecting naturalized parts. Accordingly, the history information of the corresponding unit part is updated, and can be used for the subsequent selection processing. In this case, for example, when the naturalization editing apparatus 112 supplies the unconscious parts according to the occurrence of the waiting time, the unconscious parts that are used least frequently at that time are selected, and therefore, the supplied unconscious parts vary. Can be provided, and it is possible to provide an animation in which the character performs various actions.

【0135】一方、選択パーツ決定部242により、使
用回数が最大である候補パーツを選択すれば、例えば、
意味のある動作から次の意味のある動作に移る際に、キ
ャラクタが特定の動作を高い頻度で行うアニメーション
を提供することができ、キャラクタに擬似的な個性を与
えることが可能である。なお、図18(b)に示したよう
に、発話パーツを示す種別タグに対応する属性情報テー
ブルが、直前画像IDを含まない構成である場合に、要
求側制御部214は、図13(d)に示したように、直前
画像IDの代わりに、必要とされる発話パーツの特徴を
表す属性情報そのもの(例えば、属性情報「笑顔」)を
含んだ自然化要求を作成し、発話パーツを要求すればよ
い。
On the other hand, if the selected part determining unit 242 selects the candidate part having the maximum number of uses, for example,
When moving from a meaningful motion to a next meaningful motion, an animation in which the character performs a specific motion at a high frequency can be provided, and it is possible to give the character a pseudo personality. Note that, as shown in FIG. 18B, when the attribute information table corresponding to the type tag indicating the utterance part does not include the immediately preceding image ID, the request side control unit 214 As shown in), a naturalization request including the attribute information itself (for example, attribute information “smile”) representing the required feature of the utterance part is created in place of the immediately preceding image ID, and the utterance part is requested. do it.

【0136】また、この場合は、図12に示したステッ
プ331の終了後に、ステップ328に進む代わりに、
図12において、点線で示したように、発話パーツの供
給に応じてステップ325に進み、この発話パーツを有
意パーツと同様にしてパーツ列に編入し、結合箇所検出
部215の処理に供すればよい。さて、上述したように
して作成されたアニメーションリソースは、GUIの一
部として利用者に提供されることを前提として作成され
ており、このような用途では、利用者の入力を待ってい
る場合などのように、待ち時間の発生に応じて自然化パ
ーツを要求すべきタイミングが発生する場面が予測可能
である場合が多い。
In this case, instead of proceeding to step 328 after step 331 shown in FIG.
In FIG. 12, as indicated by the dotted line, the process proceeds to step 325 in response to the supply of the utterance part, the utterance part is incorporated into the part row in the same manner as the significant part, and the utterance part is subjected to the processing of the connection point detection unit 215. Good. By the way, the animation resources created as described above are created on the assumption that they are provided to the user as a part of the GUI. As described above, it is often possible to predict a scene in which a timing at which a request for a naturalized part is required occurs according to the occurrence of a waiting time.

【0137】次に、上述したようなアニメーションリソ
ースの特徴を利用して、GUI開発作業の負担を軽減す
る方法について説明する。図19に、請求項7のアニメ
ーション編集システムの実施形態を示す。図19に示し
たリソース編成部216おいて、フラグ保持部251
は、無意識パーツを示す種別フラグを保持し、付加情報
結合部252の処理に供する構成となっている。
Next, a description will be given of a method of reducing the burden of GUI development work by utilizing the above-described features of the animation resource. FIG. 19 shows an embodiment of the animation editing system according to claim 7. In the resource organizing unit 216 shown in FIG.
Is configured to hold a type flag indicating an unconscious part and to provide the type flag to the processing of the additional information combining unit 252.

【0138】この付加情報結合部252は、例えば、シ
ナリオ入力部433によるシナリオの入力処理が完了し
た旨の入力完了通知に応じて、パーツ編成部213によ
って編成されたパーツ列(図15参照)に、上述したフ
ラグ保持部251に保持された種別フラグを含む付加情
報を結合し、これをアニメーションリソースとして出力
する構成とすればよい。
[0138] The additional information combining unit 252, for example, responds to the input completion notification indicating that the scenario input processing by the scenario input unit 433 has been completed by adding the part sequence (see FIG. 15) organized by the parts organization unit 213. Alternatively, the additional information including the type flag held in the flag holding unit 251 described above may be combined and output as an animation resource.

【0139】上述したように、種別フラグは、自然化要
求に含まれた場合に、該当するようとに適合する自然化
パーツを要求する旨の指示を示すものであり、請求項7
で述べた要求指示に相当している。
As described above, when included in the request for naturalization, the type flag indicates an instruction to request a naturalized part suitable for the request.
This corresponds to the request instruction described above.

【0140】したがって、上述したように、付加情報結
合部252がフラグ保持部251に保持された種別フラ
グを付加情報としてパーツ列に付加することにより、請
求項7で述べた指示追加手段119の機能を実現し、パ
ーツ列の末尾に、無意識動作を表す自然化パーツを要求
する旨の要求指示を追加することができる。ここで、ア
ニメーションリソースをGUIの一部として利用する場
合には、それぞれのアニメーションリソースの再生が終
了してから、利用者が次の操作をするまでにほぼ確実に
待ち時間が生じる。
Therefore, as described above, the additional information linking unit 252 adds the type flag held in the flag holding unit 251 to the part sequence as additional information, so that the function of the instruction adding unit 119 described in claim 7 can be achieved. And a request instruction for requesting a naturalized part representing an unconscious operation can be added to the end of the parts row. Here, when the animation resources are used as a part of the GUI, there is almost certainly a waiting time between the end of the reproduction of each animation resource and the next operation by the user.

【0141】したがって、上述したようにして、アニメ
ーションリソースの末尾に種別フラグを予め組み込んで
おくことにより、後述するGUIシステムに、自然化パ
ーツを要求すべき適切なタイミングを指定することがで
きる。次に、上述したようにして形成されたアニメーシ
ョンリソースに基づいて、GUIシステムにおいて、単
位パーツからなるアニメーションシーケンスについて、
自然化編集処理を行う方法について説明する。
Therefore, by incorporating the type flag at the end of the animation resource in advance as described above, it is possible to specify an appropriate timing for requesting a naturalized part to a GUI system described later. Next, based on the animation resources formed as described above, in the GUI system, for an animation sequence composed of unit parts,
A method for performing the naturalization editing process will be described.

【0142】図20に、GUIアプリケーションの開発
環境を説明する図を示す。図20に示すGUI画面作成
装置260において、手続き記述部261は、指示解析
部262を介して、GUI開発者がマウス403やキー
ボード404を操作して入力した指示を受け取り、この
指示に基づいて、指定されたリソースに関する手続きを
作成する構成となっている。
FIG. 20 is a diagram for explaining a GUI application development environment. In the GUI screen creation device 260 shown in FIG. 20, the procedure description unit 261 receives an instruction input by the GUI developer operating the mouse 403 or the keyboard 404 via the instruction analysis unit 262, and based on the instruction, It is configured to create a procedure for the specified resource.

【0143】また、GUI作成装置260において、オ
ブジェクト形成部263は、この手続き記述部261に
よって得られた手続きと指定されたアニメーションリソ
ースおよび音声リソースとを結合し、アニメーションオ
ブジェクトを形成する構成となっている。ここで、図2
0に示したアニメーションリソースは、一連の単位パー
ツに関するパーツデータと、無意識パーツを指定する種
別フラグとを含んだ構成となっている。
In the GUI creation device 260, the object forming unit 263 combines the procedure obtained by the procedure description unit 261 with the specified animation resource and audio resource to form an animation object. I have. Here, FIG.
The animation resource 0 is configured to include part data relating to a series of unit parts and a type flag for specifying an unconscious part.

【0144】一方、図20に示したプレビュー制御部2
64は、GUI開発者がマウス403やキーボード40
4を操作して入力した指示を指示解析部262を介して
受け取り、この指示で指定された指定されたアニメーシ
ョンオブジェクトに結合された手続きに従って、必要な
らば画面操作制御部265に適切な画面変更を指示する
とともに、該当するアニメーションリソースおよび音声
リソースをビデオ再生エンジン266に渡して、該当す
るアニメーションオブジェクトの再生を依頼する構成と
なっている。
On the other hand, preview control unit 2 shown in FIG.
64 is a GUI developer using a mouse 403 or a keyboard 40
4 is received via the instruction analysis unit 262 via the instruction analysis unit 262, and if necessary, the screen operation control unit 265 makes an appropriate screen change according to the procedure linked to the specified animation object specified by the instruction. At the same time, the animation resource and the audio resource are passed to the video reproduction engine 266 to request the reproduction of the animation object.

【0145】このビデオ再生エンジン266は、音声デ
ータベース267および画像データベース268にそれ
ぞれ蓄積された音声情報および画像情報に基づいて、受
け取ったアニメーションオブジェクトに含まれる音声リ
ソースおよびアニメーションリソースの再生を行う構成
となっている。この画像データベース268は、例え
ば、上述したパーツデータベース201を含んでおり、
ビデオ再生エンジン266に備えられた動画再生制御部
269は、アニメーションリソースを構成している各パ
ーツデータで示される単位パーツを画像データベース2
68に含まれているパーツデータベース(図示せず)か
ら順次に受け取って、順次に表示制御部270による表
示処理に供することにより、CRTディスプレイ装置2
06を介してアニメーションを表示する構成となってい
る。
The video playback engine 266 plays back audio resources and animation resources included in the received animation object based on the audio information and the image information stored in the audio database 267 and the image database 268, respectively. ing. This image database 268 includes, for example, the parts database 201 described above,
The moving image reproduction control unit 269 provided in the video reproduction engine 266 converts a unit part indicated by each part data constituting the animation resource into the image database 2
68 are sequentially received from a parts database (not shown) included in the CRT display device 68 and sequentially provided for display processing by the display control unit 270.
It is configured to display an animation via 06.

【0146】一方、音声データベース237は、例え
ば、各音声リソースに対応する音声情報を蓄積する構成
であり、音声再生制御部271は、受け取った音声リソ
ースに対応する音声情報を音声データベースから受け取
って、音声再生部272およびスピーカ273を介して
再生する構成となっている。このようなGUIアプリケ
ーション開発環境を利用して、GUI開発者は、上述し
たプレビュー機能を用いて、各アニメーションオブジェ
クトを形成しているアニメーションリソースおよび音声
リソースと手続きで記述された振る舞いとを確認しつ
つ、様々なイベントに応じたアニメーションオブジェク
トを作成し、これらのアニメーションオブジェクトを含
んだGUIアプリケーションソフトウェアの開発を行っ
ている。
On the other hand, the audio database 237 stores, for example, audio information corresponding to each audio resource. The audio reproduction control unit 271 receives the audio information corresponding to the received audio resource from the audio database. It is configured to reproduce through the audio reproducing unit 272 and the speaker 273. Using such a GUI application development environment, the GUI developer uses the above-described preview function while checking the animation resources and audio resources forming each animation object and the behavior described in the procedure. Has created animation objects corresponding to various events, and is developing GUI application software including these animation objects.

【0147】このようにして開発されたGUIアプリケ
ーションソフトウェアを適切な画像表示装置および音声
出力装置を備えたハードウェアに実装することにより、
このハードウェアをアニメーションインタフェース提供
するアニメーションインタフェースシステムとして動作
させることができる。図21に、請求項2のアニメーシ
ョン編集システムの実施形態を示す。
By mounting the GUI application software thus developed on hardware having an appropriate image display device and audio output device,
This hardware can be operated as an animation interface system that provides an animation interface. FIG. 21 shows an embodiment of the animation editing system according to claim 2.

【0148】図21に示したオブジェクト処理部280
は、GUIアプリケーションソフトウェアによって構成
されており、ボタンオブジェクトやテキストボックスオ
ブジェクトなどとともに、アニメーションオブジェクト
を含んだオブジェクト群を備えて構成されている。この
オブジェクト処理部280において、手続き制御部28
1は、請求項2で述べた再生制御手段104に相当する
ものであり、利用者がマウス403などを操作して入力
した指示を指示受付部282を介して受け取り、この指
示で指定されたオブジェクトに含まれる手続きに従っ
て、画面操作制御部265に適切な画面変更を指示する
とともに、該当するアニメーションリソースおよび音声
リソースをビデオ再生エンジン266に渡して、該当す
るアニメーションオブジェクトの再生を依頼する構成と
なっている。
The object processing section 280 shown in FIG.
Is configured by GUI application software, and includes an object group including an animation object in addition to a button object and a text box object. In the object processing unit 280, the procedure control unit 28
Numeral 1 corresponds to the reproduction control means 104 described in claim 2, receives an instruction input by the user operating the mouse 403 or the like via the instruction receiving unit 282, and receives the object designated by the instruction. In accordance with the procedure included in the above, the appropriate screen change is instructed to the screen operation control unit 265, and the relevant animation resource and audio resource are passed to the video reproduction engine 266 to request the reproduction of the relevant animation object. I have.

【0149】この場合は、上述したビデオ再生エンジン
266により、請求項2で述べた再生手段105の機能
が果たされており、このビデオ再生エンジン266によ
って作成された動画情報は、表示制御部270を介して
CRTディスプレイ装置206などの出力手段107に
供給されている。一方、ビデオ再生エンジン266によ
って作成された音声情報は、音声再生部272を介して
スピーカ273に供給されている。
In this case, the function of the reproduction means 105 described in claim 2 is fulfilled by the above-mentioned video reproduction engine 266, and the moving picture information created by the video reproduction engine 266 is transmitted to the display control unit 270. Of the CRT display device 206 and the like. On the other hand, the audio information created by the video reproduction engine 266 is supplied to the speaker 273 via the audio reproduction unit 272.

【0150】また、この手続き制御部281は、アニメ
ーションオブジェクトに含まれた編集指示に応じて、通
信機能205を介して自然化編集装置112に自然化要
求を送出し、この自然化要求に応じて、自然化編集装置
112が自然化パーツデータベース204に基づいて作
成した自然化パーツを通信機能205を介して受け取っ
て、ビデオ再生エンジン266の処理に供する構成とな
っている。
The procedure control unit 281 sends a naturalization request to the naturalization editing device 112 via the communication function 205 in response to the editing instruction included in the animation object, and responds to the naturalization request. The naturalization editing device 112 receives the naturalized parts created based on the naturalized parts database 204 via the communication function 205 and supplies the naturalized parts to the processing of the video reproduction engine 266.

【0151】例えば、アニメーションリソースに結合さ
れた手続きの一部として、無意識動作を表現する単位パ
ーツを再生する旨が指示された場合に、手続き制御部2
81は、請求項2で述べた第2自然化要求手段121と
して動作し、該当するアニメーションリソースの特徴を
示す情報とともに、無意識パーツを示す種別フラグを含
んだ自然化要求を通信機能205を介して送出すればよ
い。
For example, when an instruction to reproduce a unit part expressing an unconscious action is given as part of a procedure linked to an animation resource, the procedure control unit 2
81 operates as the second naturalization requesting means 121 described in claim 2, and transmits a naturalization request including a type flag indicating an unconscious part together with information indicating a feature of the corresponding animation resource via the communication function 205. Just send it.

【0152】ここで、図15に示したように、アニメー
ションリソースに含まれるパーツ列に、各単位パーツを
示すパーツIDとともにパーツ境界情報が含まれている
場合に、手続き制御部281は、アニメーションリソー
スの末尾のパーツデータに含まれるパーツ境界情報を抽
出し、該当する単位パーツの末尾画像を示す画像IDを
このアニメーションリソースの特徴を示す情報として自
然化要求に含めればよい。
Here, as shown in FIG. 15, when the part sequence included in the animation resource includes part boundary information together with the part ID indicating each unit part, the procedure control unit 281 sets the animation resource , Part boundary information included in the end part data of the corresponding unit part may be extracted, and an image ID indicating the end image of the corresponding unit part may be included in the naturalization request as information indicating the feature of the animation resource.

【0153】一方、図20に示したように、アニメーシ
ョンリソースが要求指示に相当する種別フラグを含んだ
構成となっている場合は、手続き制御部281が、請求
項9で述べた指示検出手段123として動作して、この
アニメーションリソースをビデオ再生エンジン266に
渡す際に、パーツデータ列の末尾に付加された種別フラ
グを検出し、次に、第2自然化要求手段121として動
作して、この種別フラグを含む自然化要求を通信機能2
05を介して送出すればよい。
On the other hand, as shown in FIG. 20, when the animation resource includes a type flag corresponding to the request instruction, the procedure control unit 281 causes the instruction detecting unit 123 to execute the procedure. When the animation resource is passed to the video reproduction engine 266, the type flag added to the end of the part data string is detected, and then the second naturalization requesting unit 121 operates to Communication function 2 for naturalization request including flag
05.

【0154】この場合は、GUI開発環境において、G
UI開発者がアニメーションリソースに対応する手続き
としてあからさまに自然化編集処理を指示する必要がな
いので、GUI開発者の作業負担を軽減することができ
る。
In this case, in the GUI development environment, G
Since there is no need for the UI developer to explicitly instruct the naturalization editing process as a procedure corresponding to the animation resource, the work load on the GUI developer can be reduced.

【0155】なお、ビデオ再生エンジンによる動画情報
作成処理に供する画像データベースとして、フレーム単
位で画像情報を蓄積した構成を採用してもよい。この場
合は、例えば、ビデオ再生エンジン266内部に、パー
ツIDごとに該当する単位パーツを構成する画像フレー
ムを示すフレームID列を保持するパーツ変換テーブル
を備えておき、指定されたパーツIDに応じて、このパ
ーツ変換テーブルに基づいて、必要な画像フレームを示
すフレームID列を取得する構成とすればよい。
It is to be noted that a configuration in which image information is stored in units of frames may be employed as an image database to be used for the moving image information creation processing by the video reproduction engine. In this case, for example, the video playback engine 266 is provided with a part conversion table that holds a frame ID sequence indicating an image frame that constitutes a unit part corresponding to each part ID, and according to the specified part ID. The configuration may be such that a frame ID sequence indicating a required image frame is acquired based on the parts conversion table.

【0156】また、図22に示すように、すべての単位
パーツにそれぞれ適合可能な種別タグを与えるととも
に、該当する種別タグに応じた自然化用属性情報を付加
することにより、有意パーツデータベースと自然化パー
ツデータベースとを統合してもよい。この場合は、意味
のある動作を表現するために作成された有意パーツを無
意識動作などを表す自然化パーツとして流用することが
可能となるので、変化に富んだアニメーションリソース
を作成することができる。
Further, as shown in FIG. 22, by assigning compatible type tags to all the unit parts and adding naturalization attribute information corresponding to the corresponding type tags, the significant part database and the natural part database are added. It may be integrated with a structured parts database. In this case, it is possible to use a significant part created for expressing a meaningful movement as a naturalized part representing an unconscious movement or the like, so that a variety of animation resources can be created.

【0157】これにより、例えば、キャラクタのくせに
相当する動作を表す有意パーツを無意識動作として組み
込んで、キャラクタの個性を演出することが可能であ
る。その反面、有意パーツを無闇に流用したことによ
り、利用者に無用な情報を与えてしまい、混乱させてし
まう危険性があり、また、属性情報テーブルの容量も大
幅に増大する。
Thus, for example, it is possible to produce a character's individuality by incorporating significant parts representing a motion corresponding to the character's habit as unconscious motions. On the other hand, there is a danger that unnecessary information will be given to the user and confused by diverting the meaningful parts indiscriminately, and the capacity of the attribute information table will be greatly increased.

【0158】ところで、上述したように、自然化編集装
置112は、一般的な共通プラットホーム上で独立に動
作可能なエンジンとして構成されているから、キャラク
タの動作をパーツごとに組み立てたアニメーションを表
示可能な様々なシステムで利用可能である。図23に、
請求項2のアニメーション編集システムの別実施形態を
示す。
By the way, as described above, the naturalization editing device 112 is configured as an engine that can operate independently on a general common platform, so that it is possible to display an animation in which the motion of a character is assembled for each part. It can be used in various systems. In FIG.
Another embodiment of the animation editing system according to claim 2 is shown.

【0159】図23に示したクライアント装置290に
おいて、閲覧制御部291は、図21に示したオブジェ
クト処理部280と同様に、手続き制御部281と指示
受付部282とを備え、ドキュメントの閲覧作業を進め
る構成となっている。この閲覧制御部291において、
手続き制御部281は、指示受付部282を介して受け
取った指示に応じて、ドキュメントに含まれているオブ
ジェクト内に記述された手続きを実行し、画面操作制御
部265、ビデオ再生エンジン266および自然化編集
装置112に対して適切な指示を送出することによって
これらの各部の動作を制御して構成となっている。
In the client device 290 shown in FIG. 23, the browsing control unit 291 includes a procedure control unit 281 and an instruction receiving unit 282 similarly to the object processing unit 280 shown in FIG. It is configured to proceed. In this browsing control unit 291,
The procedure control unit 281 executes the procedure described in the object included in the document according to the instruction received via the instruction reception unit 282, and performs the screen operation control unit 265, the video playback engine 266, and the naturalization. By transmitting appropriate instructions to the editing device 112, the operation of each of these units is controlled.

【0160】また、図23に示したビデオ再生エンジン
266および自然化編集装置112は、通信制御部29
2およびネットワークを介してアニメーションサーバ装
置293にアクセスし、このアニメーションサーバ装置
293から必要な音声情報および画像情報を取得し、そ
れぞれ音声再生部と表示制御部とに送出する構成となっ
ている。
The video playback engine 266 and the naturalization editing device 112 shown in FIG.
2 and access the animation server device 293 via the network, acquire necessary audio information and image information from the animation server device 293, and send them to the audio reproduction unit and the display control unit, respectively.

【0161】一方、図23に示したアニメーションサー
バ装置293は、音声データベース267および画像デ
ータベース268とともに、自然化パーツデータベース
204を備えて構成されており、検索制御部294が通
信制御部295を介して受け取った指示に応じて動作
し、DBMS202を介してこれらのデータベースから
適切な情報を検索して、クライアント装置290側に返
す構成となっている。
On the other hand, the animation server device 293 shown in FIG. 23 includes a voice database 267 and an image database 268 and a naturalized parts database 204, and a search control unit 294 operates via a communication control unit 295. It operates in response to the received instruction, retrieves appropriate information from these databases via the DBMS 202, and returns it to the client device 290 side.

【0162】このようにして、アニメーションサーバ装
置293側に備えられた音声データベース267、画像
データベース268および自然化パーツデータベース2
04に蓄積された音声情報および画像情報に基づいて、
クライアント装置290側でキャラクタの動作および音
声を表すビデオ映像を再生することができる。つまり、
アニメーションオブジェクトを含んだドキュメントと自
然化編集装置112を形成するためのソフトウェアをク
ライアント装置290側に渡しておけば、ドキュメント
に含まれるアニメーションオブジェクトに対応するイベ
ントの発生に応じて、アニメーションサーバ装置293
側から、アニメーションおよび音声を出力するために必
要な情報を供給し、クライアント装置290側で再生す
ることができる。
As described above, the audio database 267, the image database 268, and the naturalized parts database 2 provided in the animation server device 293 are provided.
04 based on the audio information and the image information stored in
On the client device 290 side, a video image representing the motion and sound of the character can be reproduced. That is,
If software for forming the naturalization editing device 112 with the document including the animation object is passed to the client device 290, the animation server device 293 can be used in response to the occurrence of an event corresponding to the animation object included in the document.
From the side, information necessary for outputting animation and sound can be supplied and played back on the client device 290 side.

【0163】これにより、例えば、自作のキャラクタを
動作させた様子を表すアニメーションリソースを用いて
構成されたアニメーションオブジェクトを含むドキュメ
ントおよび自然化編集装置112を構成するためのプロ
グラムを電子メールとして送信し、この電子メールの閲
覧に応じて、上述した自作のキャラクタの動作を表すア
ニメーションを相手先で再生させることが可能となるか
ら、豊かな表現力を持ったコミニュケーションツールと
して利用することができる。
Thus, for example, a document including an animation object constituted by using an animation resource representing a state in which a self-made character is operated and a program for configuring the naturalization editing device 112 are transmitted as an e-mail, In response to the reading of the e-mail, it is possible to reproduce the above-described animation representing the action of the self-made character at the other party, so that it can be used as a communication tool having rich expressive power.

【0164】また、請求項1に記載のアニメーション編
集システムは、上述したようなアニメーションリソース
の開発作業に限らず、映画やテレビ番組用の長編のセル
アニメーションの制作作業およびCGアニメーションの
制作作業にも応用することができる。特に、CGアニメ
ーションを使ったゲームにおいて、キャラクタの一連の
動作を表すCGデータからなる単位パーツの連鎖によっ
てCGアニメーションを形成し、プレーヤーによる入力
を待つ間に無意識パーツを用いたり、会話場面に発話パ
ーツを用いたりすることで、ゲームに登場するキャラク
タを一層活き活きと表現することが可能となるととも
に、ゲーム制作者の労力を大幅に削減することができ
る。
Further, the animation editing system according to the present invention is not limited to the above-described animation resource development work, but is also applicable to the production work of a long-length cell animation and CG animation for movies and television programs. Can be applied. Particularly, in a game using CG animation, a CG animation is formed by a chain of unit parts composed of CG data representing a series of movements of a character, and an unconscious part is used while waiting for input by a player, or an utterance part is used in a conversation scene. Or the like, the characters appearing in the game can be more vividly expressed, and the labor of the game creator can be greatly reduced.

【0165】[0165]

【発明の効果】以上に説明したように、請求項1の発明
によれば、自然化編集装置によって、例えば、シナリオ
に明示された動作を表す単位パーツを滑らかに接続する
ための動作を表す単位パーツを含む自然化アニメーショ
ンシーケンスを自動的に作成し、パーツ編成手段によっ
て作成されたアニメーションシーケンスと合成すること
ができるので、人物や擬人化された動物などが自然な動
作を行う様子を表すアニメーションシーケンスを作成す
る作業負担を軽減することができる。
As described above, according to the first aspect of the present invention, for example, the unit representing the operation for smoothly connecting the unit parts representing the operation specified in the scenario by the naturalization editing apparatus. An animation sequence that shows the natural behavior of a person or anthropomorphic animal, because a naturalized animation sequence including parts can be automatically created and combined with the animation sequence created by the parts organization means Can be reduced.

【0166】一方、請求項2の発明によれば、自然化編
集装置によって、例えば、一連の動作を表すアニメーシ
ョンシーケンスの再生が完了した後に生じる待ち時間な
どに、このアニメーションシーケンスに滑らかに連結す
る自然化アニメーションシーケンスを自動的に作成し、
上述したアニメーションシーケンスに続いて再生するこ
とができる。これにより、アニメーションインタフェー
スシステムにおいて、待ち時間の発生などに応じて、適
切な自然化アニメーションシーケンスを再生し、利用者
に提供することができる。
On the other hand, according to the second aspect of the present invention, the naturalization editing device smoothly connects the animation sequence to the animation sequence, for example, during a waiting time generated after the reproduction of the animation sequence representing a series of operations is completed. Automatically create animated animation sequences,
Playback can be performed following the animation sequence described above. As a result, in the animation interface system, an appropriate naturalized animation sequence can be reproduced and provided to the user according to occurrence of a waiting time or the like.

【0167】また、請求項3の発明によれば、共通イン
タフェース手段に適合する受付手段および結果出力手段
を備えて自然化編集装置を構成することにより、自然化
編集装置を独立して動作可能なエンジンとして扱うこと
ができるので、単位パーツを連結した構成のアニメーシ
ョンシーケンスを扱う様々なシステムに適用することが
可能となる。
According to the third aspect of the present invention, the naturalized editing apparatus is configured to include the receiving means and the result output means adapted to the common interface means, so that the naturalized editing apparatus can operate independently. Since it can be handled as an engine, it can be applied to various systems that handle animation sequences in which unit parts are connected.

【0168】特に、請求項8の発明を適用して、パーツ
境界情報を含む自然化要求を自然化編集装置に送出する
とともに、自然化編集装置に請求項4および請求項5の
発明を適用し、種別フラグとともに上述したパーツ境界
情報を候補パーツの検索処理に利用することにより、条
件を満たす候補パーツを迅速に検索することが可能とな
り、自然化編集装置による自然化アニメーションシーケ
ンスの作成処理の高速化を図ることができる。
In particular, by applying the invention of claim 8, a naturalization request including part boundary information is sent to the naturalization editing apparatus, and the invention of claims 4 and 5 is applied to the naturalization editing apparatus. By using the above-described part boundary information together with the type flag in the candidate part search processing, it is possible to quickly search for candidate parts satisfying the conditions, and to speed up the processing of creating a naturalized animation sequence by the naturalization editing apparatus. Can be achieved.

【0169】また、自然化編集装置に請求項6の発明を
適用し、各単位パーツに対応する履歴情報を選択処理に
利用することにより、各単位パーツが自然化アニメーシ
ョンシーケンスの一部として採用される頻度を制御する
ことが可能となる。例えば、各単位パーツに対応する頻
度を均等とすることにより、変化に富んだ自然化アニメ
ーションシーケンスを作成することができ、逆に、各単
位パーツに対応する頻度に偏りを持たせることにより、
アニメーションシーケンスによって表現されるキャラク
タの個性に相当するものを演出することができる。
Also, by applying the invention of claim 6 to the naturalization editing apparatus and using the history information corresponding to each unit part for selection processing, each unit part is adopted as a part of the naturalization animation sequence. Frequency can be controlled. For example, by equalizing the frequency corresponding to each unit part, it is possible to create a varied naturalized animation sequence, and conversely, by imparting a bias to the frequency corresponding to each unit part,
It is possible to produce what is equivalent to the personality of the character represented by the animation sequence.

【0170】一方、請求項7の発明を適用して、アニメ
ーションシーケンスの末尾に所定の指示を付加するとと
もに、このアニメーションシーケンスを利用したアニメ
ーションインタフェースシステムに請求項9の発明を適
用し、上述した所定の指示に応じて、自然化編集装置に
適切な自然化アニメーションシーケンスの作成を要求す
ることにより、アニメーションシーケンスの作成段階に
おいて、アニメーションインタフェースシステム側で自
然化アニメーションシーケンスを作成すべきタイミング
を制御することが可能である。
On the other hand, a predetermined instruction is added to the end of the animation sequence by applying the invention of claim 7, and the invention of claim 9 is applied to an animation interface system using this animation sequence, and Controlling the timing at which the animation interface system side should create a naturalized animation sequence in the animation sequence creation stage by requesting the naturalized editing device to create an appropriate naturalized animation sequence in response to the instruction of Is possible.

【0171】また、請求項10乃至請求項12の発明に
よれば、アニメーションシーケンスの作成段階におい
て、自然化編集装置によって作成された自然化アニメー
ションシーケンスを含んだアニメーションシーケンスに
ついて、その再生に要する時間に関する情報を出力し
て、アニメーションシーケンスの開発者に提供すること
により、各単位パーツごとおよびアニメーションシーケ
ンス全体の再生時間を考慮しつつ、アニメーションシー
ケンスの作成作業を進めることができる。
According to the tenth to twelfth aspects of the present invention, in the animation sequence creating step, the animation sequence including the naturalized animation sequence created by the naturalized editing apparatus is related to the time required for reproduction. By outputting the information and providing it to the developer of the animation sequence, the creation of the animation sequence can be advanced while considering the playback time of each unit part and the entire animation sequence.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1および請求項7、8のアニメーション
編集システムの原理ブロック図である。
FIG. 1 is a principle block diagram of an animation editing system according to claims 1 and 7 and 8;

【図2】請求項2および請求項9のアニメーション編集
システムの原理ブロック図である。
FIG. 2 is a block diagram showing the principle of the animation editing system according to claims 2 and 9;

【図3】請求項3および請求項4のアニメーション編集
システムの要部構成を示す図である。
FIG. 3 is a diagram showing a main configuration of an animation editing system according to claims 3 and 4;

【図4】請求項5および請求項6のアニメーション編集
システムの要部構成を示す図である。
FIG. 4 is a diagram showing a main configuration of an animation editing system according to claims 5 and 6;

【図5】請求項10および請求項11のアニメーション
編集システムの原理ブロック図である。
FIG. 5 is a block diagram showing the principle of the animation editing system according to claims 10 and 11;

【図6】請求項12のアニメーション編集システムの原
理ブロック図である。
FIG. 6 is a block diagram showing the principle of the animation editing system according to claim 12;

【図7】本発明のアニメーション編集システムの実施形
態を示す図である。
FIG. 7 is a diagram showing an embodiment of the animation editing system of the present invention.

【図8】自然化編集装置の詳細構成を示す図である。FIG. 8 is a diagram showing a detailed configuration of a naturalization editing device.

【図9】属性情報テーブルを説明する図である。FIG. 9 is a diagram illustrating an attribute information table.

【図10】属性情報テーブルを説明する図である。FIG. 10 is a diagram illustrating an attribute information table.

【図11】自然化アニメーションシーケンス作成動作を
表す流れ図である。
FIG. 11 is a flowchart showing a naturalized animation sequence creation operation.

【図12】アニメーションリソース作成動作を表す流れ
図である。
FIG. 12 is a flowchart showing an animation resource creation operation.

【図13】自然化要求を説明する図である。FIG. 13 is a diagram illustrating a naturalization request.

【図14】アニメーションリソース作成装置の詳細構成
図である。
FIG. 14 is a detailed configuration diagram of an animation resource creation device.

【図15】パーツ列の形成動作を説明する図である。FIG. 15 is a diagram illustrating an operation of forming a part row.

【図16】自然化パーツを含んだパーツ列の再生時間を
反映する動作を説明する図である。
FIG. 16 is a diagram illustrating an operation of reflecting a reproduction time of a part sequence including naturalized parts.

【図17】請求項6のアニメーション編集システムの実
施形態を示す図である。
FIG. 17 is a diagram showing an embodiment of an animation editing system according to claim 6;

【図18】属性情報テーブルを説明する図である。FIG. 18 is a diagram illustrating an attribute information table.

【図19】請求項7のアニメーション編集システムの実
施形態を示す図である。
FIG. 19 is a diagram showing an embodiment of an animation editing system according to claim 7;

【図20】GUIアプリケーション開発環境を説明する
図である。
FIG. 20 is a diagram illustrating a GUI application development environment.

【図21】請求項2のアニメーション編集システムの実
施形態を示す図である。
FIG. 21 is a diagram showing an embodiment of an animation editing system according to claim 2;

【図22】属性情報テーブルを説明する図である。FIG. 22 is a diagram illustrating an attribute information table.

【図23】アニメーションインタフェース提供装置の別
構成例を示す図である。
FIG. 23 is a diagram illustrating another configuration example of the animation interface providing apparatus.

【図24】GUIを利用した操作画面の例を示す。FIG. 24 shows an example of an operation screen using a GUI.

【図25】従来のアニメーション作成装置の構成例示す
図である。
FIG. 25 is a diagram illustrating a configuration example of a conventional animation creation device.

【図26】アニメーション作成装置の構成例を示す図で
ある。
FIG. 26 is a diagram illustrating a configuration example of an animation creating apparatus.

【図27】属性情報テーブルを説明する図である。FIG. 27 is a diagram illustrating an attribute information table.

【図28】アニメーションリソースの例を示す図であ
る。
FIG. 28 is a diagram illustrating an example of an animation resource.

【符号の説明】[Explanation of symbols]

100 共通インタフェース手段 102 パーツ編成手段 101 パーツデータベース 103 指示入力手段 104 再生制御手段 105 再生手段 106 画像データベース 107 出力手段 111 第1自然化要求手段 112 自然化編集装置 113 合成手段 114 受付手段 115 条件指定手段 116 検索手段 117 選択手段 118 結果出力手段 119 指示追加手段 121 第2自然化要求手段 122 追加手段 123 指示検出手段 131 タグ情報保持手段 132 範囲指定手段 133 条件結合手段 135 接続情報保持手段 136 履歴情報保持手段 137 決定手段 138 履歴情報更新手段 141 境界情報保持手段 142 パーツ検索手段 143 画像ID抽出手段 144 パーツ列形成手段 151 再生時間推定手段 152 時間情報作成手段 153 パーツ連結手段 154 パーツ挿入手段 155 発話情報保持手段 156 パーツ数算出手段 157 シーケンス作成手段 201、401 パーツデータベース 202、402 データベース管理システム(DBM
S) 203 有意パーツデータベース 204 自然化パーツデータベース 205 通信機能 206 CRTディスプレイ装置(CRT) 210 アニメーションリソース作成装置 211 有意パーツ検索部 212 シナリオ解析部 213、434 パーツ列編成部 214 要求側制御部 215 結合箇所検出部 216 リソース編成部 217 作成制御部 218 合成支援部 221 供給側制御部 222 自然化パーツ検索部 223 パーツ選択部 224 要求受付部 225 要求解析部 226 パーツ候補保持部 227 ランダム選択部 228 パーツデータ作成部 231 再生時間算出部 232 タイムチャート作成部 233 パーツ列保持部 234 編成制御部 235 境界情報抽出部 241 度数比較部 242 選択パーツ決定部 243 履歴情報更新部 251 フラグ保持部 252 付加情報結合部 260 GUI画面作成装置 261 手続き記述部 262 指示解析部 263 オブジェクト形成部 264 プレビュー制御部 265 画面操作制御部 266 ビデオ再生エンジン 267 音声データベース 268 画像データベース 269 動画再生制御部 270 表示制御部 271 音声再生制御部 272 音声再生部 273 スピーカ 281 手続き制御部 282 指示受付部 290 クライアント装置 291 閲覧制御部 292、295 通信制御部 293 アニメーションサーバ装置 294 検索制御部 403 マウス 404 キーボード 411、431 パーツ検索部 412 指示入力部 413 パーツ合成部 432 属性情報抽出部 433 シナリオ入力部 435 アニメーション合成部
REFERENCE SIGNS LIST 100 common interface means 102 parts organization means 101 parts database 103 instruction input means 104 reproduction control means 105 reproduction means 106 image database 107 output means 111 first naturalization request means 112 naturalization editing device 113 synthesis means 114 reception means 115 condition specification means 116 search means 117 selection means 118 result output means 119 instruction addition means 121 second naturalization request means 122 addition means 123 instruction detection means 131 tag information holding means 132 range designation means 133 condition combining means 135 connection information holding means 136 history information holding Means 137 Decision means 138 History information update means 141 Boundary information holding means 142 Parts search means 143 Image ID extraction means 144 Parts sequence formation means 151 Playback time estimation means 152 Information creating means 153 parts connecting means 154 parts insertion means 155 speech information holding means 156 Part number calculating means 157 sequence creating means 201 and 401 parts database 202, 402 database management system (DBM
S) 203 Significant parts database 204 Naturalized parts database 205 Communication function 206 CRT display device (CRT) 210 Animation resource creation device 211 Significant parts search unit 212 Scenario analysis unit 213, 434 Parts column organization unit 214 Request side control unit 215 Connection point Detection unit 216 Resource organization unit 217 Creation control unit 218 Combination support unit 221 Supply-side control unit 222 Naturalized parts search unit 223 Parts selection unit 224 Request reception unit 225 Request analysis unit 226 Parts candidate holding unit 227 Random selection unit 228 Parts data generation Unit 231 playback time calculation unit 232 time chart creation unit 233 parts row holding unit 234 knitting control unit 235 boundary information extraction unit 241 frequency comparison unit 242 selected part determination unit 243 history information update unit 251 Flag holding unit 252 Additional information combining unit 260 GUI screen creation device 261 Procedure description unit 262 Instruction analysis unit 263 Object formation unit 264 Preview control unit 265 Screen operation control unit 266 Video playback engine 267 Audio database 268 Image database 269 Video playback control unit 270 display control unit 271 audio reproduction control unit 272 audio reproduction unit 273 speaker 281 procedure control unit 282 instruction reception unit 290 client device 291 browse control unit 292, 295 communication control unit 293 animation server device 294 search control unit 403 mouse 404 keyboard 411, 431 Parts search unit 412 Instruction input unit 413 Parts synthesis unit 432 Attribute information extraction unit 433 Scenario input unit 435 Animation synthesis unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 勇治 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 Fターム(参考) 5B050 BA08 CA07 FA19 5E501 AC16 BA05 CA03  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Yuji Takahashi 4-1-1, Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa F-term in Fujitsu Limited (Reference) 5B050 BA08 CA07 FA19 5E501 AC16 BA05 CA03

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 キャラクタのまとまった動作を表す画像
情報を含む単位パーツをパーツデータベースに蓄積して
おき、前記キャラクタの動作を表すアニメーションを前
記キャラクタの動作や表情を示す属性情報の連なりとし
て記述したシナリオに基づいて、パーツ編成手段が前記
パーツデータベースに蓄積された該当する単位パーツを
連結してアニメーションシーケンスを編成する作業を支
援するアニメーション編集システムにおいて、 所定のインタフェース仕様に従って、それぞれ独立した
機能を有する装置相互の情報授受を媒介する共通インタ
フェース手段と、 前記パーツ編成手段によるアニメーションシーケンスの
編成過程において、必要に応じて、前記アニメーション
シーケンスに対する自然化処理を指示する自然化要求を
前記共通インタフェース手段に送出する第1自然化要求
手段と、 前記共通インタフェース手段を介して前記自然化要求を
受け取り、指定されたアニメーションシーケンスの特徴
を示す情報に基づいて、前記アニメーションシーケンス
によって表現されるアニメーションをより自然に見せる
ために必要なキャラクタの動作および表情を表す単位パ
ーツからなる自然化アニメーションシーケンスを作成す
る自然化編集装置と、 前記自然化アニメーションシーケンスを前記共通インタ
フェース手段を介して受け取り、前記自然化アニメーシ
ョンシーケンスと前記アニメーションシーケンスとを合
成し、アニメーションシーケンスとして出力する合成手
段とを備えたことを特徴とするアニメーション編集シス
テム。
1. A unit part including image information representing a collective movement of a character is stored in a parts database, and an animation representing the movement of the character is described as a series of attribute information indicating the movement and expression of the character. In an animation editing system that supports a task of organizing an animation sequence by linking corresponding unit parts stored in the parts database based on a scenario, a part knitting unit has independent functions according to predetermined interface specifications. A common interface unit for mediating information exchange between devices; and a naturalization request for instructing a naturalization process for the animation sequence, if necessary, in an animation sequence forming process by the parts forming unit. First naturalization requesting means for sending to the interface means, and receiving the naturalization request via the common interface means, and generating an animation represented by the animation sequence based on information indicating characteristics of the specified animation sequence. A naturalization editing apparatus for creating a naturalized animation sequence consisting of unit parts representing the motion and expression of the character necessary to make the naturalization look more natural, receiving the naturalized animation sequence via the common interface means, An animation editing system comprising: a synthesizing unit that synthesizes an animation sequence and the animation sequence and outputs the synthesized animation sequence.
【請求項2】 キャラクタのまとまった動作を表す画像
情報を含む単位パーツを連結して構成された複数のアニ
メーションシーケンスからなるアニメーションシーケン
ス群を備え、指示入力手段を介して入力された指示に応
じて、再生制御手段が該当するアニメーションシーケン
スの再生を再生手段に指示し、これに応じて、前記再生
手段が、前記アニメーションシーケンスに含まれる各単
位パーツに対応する画像情報の集まりを画像データベー
ス106から抽出して順次に出力手段を介して出力する
ことにより、利用者による入力に応じてキャラクタが動
作するアニメーションインタフェースを提供するアニメ
ーションインタフェースシステムにおいて、 所定のインタフェース仕様に従って、それぞれ独立した
機能を有する装置相互の情報授受を媒介する共通インタ
フェース手段と、 キャラクタの様々な動作および表情を表す画像情報を含
む単位パーツを蓄積しているパーツデータベースと、 前記再生制御手段からの指示に応じて、前記アニメーシ
ョンシーケンスに連結すべき自然化パーツを要求する自
然化要求を前記共通インタフェース手段に送出する第2
自然化要求手段と、 前記共通インタフェース手段を介して前記自然化要求を
受け取り、指定されたアニメーションシーケンスの特徴
を示す情報に基づいて、前記アニメーションシーケンス
によって表現されるアニメーションをより自然に見せる
ために必要なキャラクタの動作および表情を表す単位パ
ーツからなる自然化アニメーションシーケンスを作成す
る自然化編集装置と、 前記自然化アニメーションシーケンスを前記共通インタ
フェース手段を介して受け取り、前記自然化アニメーシ
ョンシーケンスを前記再生制御手段を介して前記再生手
段の処理に供し、前記アニメーションシーケンスに追加
する追加手段とを備えたことを特徴とするアニメーショ
ン編集システム。
2. An animation sequence group comprising a plurality of animation sequences formed by linking unit parts including image information representing a collective motion of a character, according to an instruction input via an instruction input means. The playback control unit instructs the playback unit to play back the corresponding animation sequence. In response, the playback unit extracts from the image database 106 a set of image information corresponding to each unit part included in the animation sequence. An animation interface system that provides an animation interface in which a character operates in response to a user's input by sequentially outputting the characters via an output unit. information Common interface means for mediating reception, a part database storing unit parts including image information representing various actions and facial expressions of the character, and connecting to the animation sequence in accordance with an instruction from the reproduction control means. Sending a naturalization request to the common interface means requesting a naturalized part to be powered;
A request for receiving the naturalization request via the common interface means and the naturalization request means, based on information indicating characteristics of the specified animation sequence, necessary to make the animation represented by the animation sequence look more natural A naturalization editing device that creates a naturalized animation sequence consisting of unit parts representing the movement and expression of a character, receiving the naturalized animation sequence via the common interface unit, and transmitting the naturalized animation sequence to the playback control unit And an additional unit for providing the processing to the animation sequence through the processing unit and adding to the animation sequence.
【請求項3】 請求項1または請求項2に記載のアニメ
ーション編集システムにおいて、 自然化編集装置は、 共通インタフェース手段を介して自然化対象のアニメー
ションシーケンスの特徴を示す特徴情報を含む自然化要
求を受け取る受取手段と、 前記特徴情報に基づいて、前記アニメーションシーケン
スを自然化するために必要な単位パーツが満たすべき検
索条件を指定する条件指定手段と、 前記検索条件に従って、パーツデータベースから少なく
とも一つの単位パーツを候補パーツとしてそれぞれ検索
する検索手段と、 前記各検索条件に対応する前記候補パーツのいずれか一
つをそれぞれ選択する選択手段と、 前記選択手段によって選択された単位パーツを含む自然
化アニメーションシーケンスを前記共通インタフェース
手段に送出する結果出力手段とを備えた構成であること
を特徴とするアニメーション編集システム。
3. The animation editing system according to claim 1, wherein the naturalization editing device sends a naturalization request including feature information indicating a feature of the animation sequence to be naturalized via a common interface unit. Receiving means for receiving, based on the characteristic information, condition specifying means for specifying a search condition to be satisfied by a unit part necessary for naturalizing the animation sequence, and at least one unit from a parts database according to the search condition Search means for searching each part as a candidate part; selection means for selecting any one of the candidate parts corresponding to each of the search conditions; and a naturalized animation sequence including a unit part selected by the selection means To the common interface means. And a result output unit.
【請求項4】 請求項3に記載のアニメーション編集シ
ステムにおいて、 パーツデータベースは、 自然化アニメーションシーケンスに用いるための自然化
パーツそれぞれに対応して、適合する用途を示す種別タ
グを保持するタグ情報保持手段を備えた構成であり、 条件指定手段は、 入力された自然化要求に含まれる所定の種別フラグに応
じて前記タグ情報保持手段を参照し、該当する種別タグ
に対応する自然化パーツの集合を示す検索範囲を求める
範囲指定手段と、 自然化対象のアニメーションシーケンスの特徴を示す特
徴情報を含む自然化要求と、前記検索範囲指定手段によ
って得られた検索範囲と結合し、検索条件として検索手
段に指定する条件結合手段とを備えた構成であることを
特徴とするアニメーション編集システム。
4. The animation editing system according to claim 3, wherein the parts database holds tag information for holding a type tag indicating a suitable use corresponding to each of the naturalized parts used for the naturalized animation sequence. The condition specifying means refers to the tag information holding means according to a predetermined type flag included in the input naturalization request, and sets a set of naturalized parts corresponding to the corresponding type tag. A search range for obtaining a search range indicating a naturalization request, a naturalization request including feature information indicating characteristics of an animation sequence to be naturalized, and a search range obtained by the search range specifying unit, and a search condition is set as a search condition. An animation editing system characterized in that the animation editing system comprises:
【請求項5】 請求項3に記載のアニメーション編集シ
ステムにおいて、 パーツデータベースは、自然化アニメーションシーケン
スに用いるための自然化パーツそれぞれに対応して、各
自然化パーツの前側に連結可能な画像フレームを示すフ
レーム識別情報と後ろ側に連結可能な画像フレームを示
すフレーム識別情報とを接続情報として保持する接続情
報保持手段とを備えた構成であり、 条件指定手段は、自然化対象のアニメーションシーケン
スと作成すべき自然化アニメーションシーケンスとの境
界となる画像フレームを示す境界情報を含んだ自然化要
求を受け取り、前記境界情報を検索条件の一部として検
索手段の処理に供する構成であり、 前記検索手段は、前記検索条件の入力に応じて前記接続
情報保持手段を参照し、前記境界情報と接続情報とに基
づいて候補パーツを検索する構成であることを特徴とす
るアニメーション編集システム。
5. The animation editing system according to claim 3, wherein the parts database stores an image frame connectable to a front side of each naturalized part corresponding to each of the naturalized parts used for the naturalized animation sequence. And connection information holding means for holding, as connection information, frame identification information indicating frame images that can be connected to the rear side as connection information. Receiving a naturalization request including boundary information indicating an image frame that is a boundary with a naturalized animation sequence to be provided, and providing the boundary information to a search unit as a part of a search condition. Referring to the connection information holding means in response to the input of the search condition, the boundary information and An animation editing system characterized in that a candidate part is searched based on connection information.
【請求項6】 請求項3に記載のアニメーション編集シ
ステムにおいて、 パーツデータベースは、 自然化アニメーションシーケンスに用いるための自然化
パーツを蓄積する自然化パーツそれぞれに対応して、各
自然化パーツが自然化アニメーションシーケンスの一部
として選択された履歴に関する履歴情報を保持する履歴
情報保持手段とを備えた構成であり、 選択手段は、 少なくとも一つの候補パーツの入力に応じて前記履歴情
報保持手段を参照し、各候補パーツに対応する履歴情報
に基づいて、自然化アニメーションシーケンスの一部と
して選択する候補パーツを決定し、結果出力手段の処理
に供する決定手段と、 前記決定手段によって選択された候補パーツに対応する
履歴情報を更新する履歴情報更新手段とを備えた構成で
あることを特徴とするアニメーション編集システム。
6. The animation editing system according to claim 3, wherein the parts database corresponds to each of the naturalized parts that store the naturalized parts to be used in the naturalized animation sequence, and the naturalized parts are naturalized. History information holding means for holding history information relating to a history selected as part of the animation sequence, wherein the selection means refers to the history information holding means in response to input of at least one candidate part. Determining, based on the history information corresponding to each candidate part, a candidate part to be selected as a part of the naturalized animation sequence, determining means for processing by a result output means, and a candidate part selected by the determining means. History information updating means for updating the corresponding history information. Animation editing system and butterflies.
【請求項7】 請求項1に記載のアニメーション編集シ
ステムにおいて、 合成手段によって得られたアニメーションシーケンスの
末尾に、自然化アニメーションシーケンスの作成を要求
する旨の要求指示を追加する指示追加手段を備えたこと
を特徴とするアニメーション編集システム。
7. The animation editing system according to claim 1, further comprising an instruction adding unit that adds a request instruction for requesting creation of a naturalized animation sequence to the end of the animation sequence obtained by the combining unit. An animation editing system characterized by the following.
【請求項8】 請求項1に記載のアニメーション編集シ
ステムにおいて、 パーツデータベースは、単位パーツそれぞれに対応し
て、各単位パーツの先頭画像および末尾画像を示すフレ
ーム識別情報からなるパーツ境界情報を保持する境界情
報保持手段を備えた構成であり、 パーツ編成手段は、 入力されたシナリオに基づいて、前記パーツデータベー
スから適切な単位パーツを検索するパーツ検索手段と、 前記パーツ検索手段による検索結果で示された各単位パ
ーツに対応するパーツ境界情報を抽出する境界情報抽出
手段と、 前記パーツ検索手段による検索された単位パーツを示す
パーツ識別情報と、前記境界情報抽出手段によって抽出
されたパーツ境界情報とを含んだパーツ列を形成するパ
ーツ列形成手段とを備えた構成であり、 第1自然化要求手段は、前記パーツ境界情報を自然化対
象のアニメーションシーケンスの特徴を示す情報として
含む自然化要求を共通インタフェース手段に送出する構
成であることを特徴とするアニメーション編集システ
ム。
8. The animation editing system according to claim 1, wherein the parts database holds, for each unit part, parts boundary information including frame identification information indicating a leading image and a trailing image of each unit part. It is a configuration provided with boundary information holding means, wherein the parts organization means is represented by a parts search means for searching for an appropriate unit part from the parts database based on the input scenario, and a search result by the parts search means. Boundary information extraction means for extracting part boundary information corresponding to each unit part, part identification information indicating a unit part searched by the part search means, and part boundary information extracted by the boundary information extraction means. And a part row forming means for forming a part row including the first part. The animation editing system is characterized in that the naturalization request means is configured to send a naturalization request including the part boundary information as information indicating characteristics of an animation sequence to be naturalized to a common interface means.
【請求項9】 請求項2に記載のアニメーション編集シ
ステムにおいて、 再生制御手段は、アニメーションシーケンスに含まれる
要求指示を検出し、この検出結果を第2自然化要求手段
に通知する指示検出手段を備えた構成であり、 前記第2自然化要求手段は、前記指示検出手段から受け
取った検出結果に応じて、共通インタフェース手段に該
当するアニメーションシーケンスについての自然化要求
を送出する構成であることを特徴とするアニメーション
編集システム。
9. The animation editing system according to claim 2, wherein the reproduction control means includes an instruction detection means for detecting a request instruction included in the animation sequence and notifying the detection result to the second naturalization request means. Wherein the second naturalization requesting unit sends out a naturalization request for an animation sequence corresponding to the common interface unit in accordance with a detection result received from the instruction detecting unit. Animation editing system.
【請求項10】 請求項1に記載のアニメーション編集
システムにおいて、 合成手段によって得られたアニメーションシーケンスに
含まれる各単位パーツを再生するために要する時間を推
定する再生時間推定手段と、 前記再生時間推定手段による推定結果に基づいて、前記
各単位パーツおよび前記アニメーションシーケンス全体
を再生するために要する時間に関する情報を表示出力す
るための時間情報を作成する時間情報作成手段とを備
え、 第1自然化要求手段は、パーツ編成手段によって新たな
単位パーツがアニメーションシーケンスへの連結対象と
なるごとに、自然化アニメーションシーケンスを作成す
る必要が生じたと判断し、自然化編集装置に自然化要求
を送出する構成であり、 前記合成手段は、前記パーツ編成手段によって新たに連
結対象とされた単位パーツに先立って、前記自然化編集
装置によって作成された自然化アニメーションシーケン
スを既存のアニメーションシーケンスに連結するパーツ
連結手段を備えた構成であることを特徴とするアニメー
ション編集システム。
10. The animation editing system according to claim 1, wherein a reproduction time estimating means for estimating a time required for reproducing each unit part included in the animation sequence obtained by the synthesizing means; Means for generating time information for displaying and outputting information relating to the time required to reproduce each of the unit parts and the entire animation sequence based on the estimation result by the means; The means determines that it is necessary to create a naturalized animation sequence each time a new unit part is connected to the animation sequence by the parts organization means, and sends a naturalization request to the naturalization editing device. Yes, the synthesizing means is newly added by the parts knitting means. Prior to the unit parts are consolidated, animation editing system, characterized in that said a configuration in which a part connecting means for connecting the naturalization animation sequence created in an existing animation sequence by naturalization editing apparatus.
【請求項11】 請求項1に記載のアニメーション編集
システムにおいて、 合成手段によって得られたアニメーションシーケンスに
含まれる各単位パーツを再生するために要する時間を推
定する再生時間推定手段と、 前記再生時間推定手段による推定結果に基づいて、前記
各単位パーツおよび前記アニメーションシーケンス全体
を再生するために要する時間に関する情報を表示出力す
るための時間情報を作成する時間情報作成手段とを備
え、 第1自然化要求手段は、パーツ編成手段によって得られ
たアニメーションシーケンスにおいて相異なる特徴を有
する単位パーツが連結されている連結箇所を検出し、前
記連結箇所ごとに自然化編集装置に自然化要求を送出す
るとともに、前記連結箇所を合成手段に通知する構成で
あり、 合成手段は、第1自然化要求手段によって通知された連
結箇所に、自然化編集装置から受け取った該当する自然
化アニメーションシーケンスを挿入して、アニメーショ
ンシーケンスを完成するパーツ挿入手段を備えた構成で
あることを特徴とするアニメーション編集システム。
11. The animation editing system according to claim 1, wherein a reproduction time estimating means for estimating a time required for reproducing each unit part included in the animation sequence obtained by the synthesizing means; Means for generating time information for displaying and outputting information relating to the time required to reproduce each of the unit parts and the entire animation sequence based on the estimation result by the means; The means detects a connection point where unit parts having different characteristics are connected in the animation sequence obtained by the part knitting means, and sends a naturalization request to the naturalization editing device for each connection point, This is a configuration for notifying the combining unit to the combining unit. (1) A configuration is provided that includes a part insertion unit that completes the animation sequence by inserting a corresponding naturalized animation sequence received from the naturalization editing device into a connection point notified by the naturalization request unit. Animation editing system.
【請求項12】 請求項3または請求項4に記載のアニ
メーション編集システムにおいて、 合成手段によって得られたアニメーションシーケンスに
含まれる各単位パーツを再生するために要する時間を推
定する再生時間推定手段と、 前記再生時間推定手段による推定結果に基づいて、前記
各単位パーツおよび前記アニメーションシーケンス全体
を再生するために要する時間に関する情報を表示出力す
るための時間情報を作成する時間情報作成手段とを備
え、 パーツデータベースは、発話動作の表現に用いられる単
位パーツそれぞれに対応して、その特徴を示す属性情報
とともに、該当する単位パーツによって表現される発声
動作の回数を示す発話数および1回の発声動作に要する
時間を示す情報を含む発話情報を保持する発話情報保持
手段を備えた構成であり、 パーツ編成手段は、シナリオに記述された発話動作を示
す属性情報に応じて、発話動作を伴う単位パーツを含む
自然化アニメーションシーケンスの作成が必要である旨
とともに必要な発話数に関する情報を第1自然化要求手
段に通知する構成であり、 第1自然化要求手段は、パーツ編成手段からの通知に応
じて、自然化対象のアニメーションシーケンスの特徴を
示す特徴情報とともに、前記発話数に関する情報を含ん
だ自然化要求を自然化編集装置に送出する構成であり、 自然化編集装置に備えられた結果出力手段は、 選択手段によって自然化パーツとして選択された単位パ
ーツについて、前記発話情報保持手段を参照し、得られ
た発話情報と前記発話数に関する情報とに基づいて、自
然化アニメーションシーケンスに必要な前記自然化パー
ツの個数を算出するパーツ数算出手段と、 前記パーツ数算出手段による算出結果に基づいて、前記
自然化パーツを適切な個数だけ連結して自然化アニメー
ションシーケンスを作成するシーケンス作成手段とを備
えた構成であることを特徴とするアニメーション編集シ
ステム。
12. The animation editing system according to claim 3, wherein a reproduction time estimating means for estimating a time required for reproducing each unit part included in the animation sequence obtained by the synthesizing means, A time information generating means for generating time information for displaying and outputting information relating to the time required to reproduce the respective unit parts and the entire animation sequence based on the estimation result by the reproduction time estimating means; The database is associated with each of the unit parts used for expressing the utterance operation, and together with attribute information indicating the feature thereof, the number of utterances indicating the number of utterance operations expressed by the corresponding unit part, and one utterance operation. Utterance information holding means for holding utterance information including information indicating time; The parts knitting means, in accordance with the attribute information indicating the utterance operation described in the scenario, indicates that it is necessary to create a naturalized animation sequence including unit parts accompanied by the utterance operation, and indicates the number of necessary utterances The first naturalization requesting means, in response to the notification from the parts organization means, together with the characteristic information indicating the characteristics of the animation sequence to be naturalized, A naturalization request including information about the number is sent to the naturalization editing apparatus. The result output means provided in the naturalization editing apparatus includes: Referring to the information holding means, based on the obtained utterance information and the information on the number of utterances, a naturalized animation sequence is generated. A number-of-parts calculating means for calculating the required number of the naturalized parts; and a sequence creation for generating a naturalized animation sequence by connecting an appropriate number of the naturalized parts based on a calculation result by the number-of-parts calculating means. An animation editing system characterized by comprising:
【請求項13】 所定のインタフェース仕様に従って、
それぞれ独立した機能を有する装置相互の情報授受を媒
介する共通インタフェース手段と、キャラクタのまとま
った動作を表す画像情報を含む単位パーツを蓄積したパ
ーツデータベースを有する情報処理システムに備えら
れ、自然化要求の入力に応じて、自然化対象のアニメー
ションシーケンスに適合する自然化アニメーションシー
ケンスを作成する自然化編集装置において、 前記共通インタフェース手段を介して自然化対象のアニ
メーションシーケンスの特徴を示す特徴情報を含む自然
化要求を受け取る受取手順と、 前記特徴情報に基づいて、前記アニメーションシーケン
スを自然化するために必要な単位パーツが満たすべき検
索条件を指定する条件指定手順と、 前記検索条件に従って、パーツデータベースから少なく
とも一つの単位パーツを候補パーツとしてそれぞれ検索
する検索手順と、 前記各検索条件に対応する前記候補パーツのいずれか一
つをそれぞれ選択する選択手順と、 前記選択手順において選択された単位パーツを含む自然
化アニメーションシーケンスを前記共通インタフェース
手段に送出する結果出力手順とをコンピュータに実行さ
せるためのプログラムを記録した記憶媒体。
13. According to a predetermined interface specification,
Provided in an information processing system having a common interface means for mediating information exchange between devices having independent functions, and a parts database storing unit parts including image information representing a group of movements of a character, and A naturalization editing device that creates a naturalized animation sequence that matches a naturalized animation sequence in response to an input, wherein the naturalization includes feature information indicating characteristics of the naturalized animation sequence via the common interface unit. A receiving procedure for receiving a request; a condition specifying procedure for specifying a search condition to be satisfied by a unit part necessary to naturalize the animation sequence based on the feature information; and at least one part database from a parts database according to the search condition. Unit A search procedure for searching for each of the candidate parts as candidate parts, a selection procedure for selecting any one of the candidate parts corresponding to each of the search conditions, and a naturalized animation sequence including the unit parts selected in the selection procedure And a result output procedure for sending the result to the common interface means.
JP20821399A 1999-07-22 1999-07-22 Animation editing system and storage medium where animation editing program is recorded Pending JP2001034776A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20821399A JP2001034776A (en) 1999-07-22 1999-07-22 Animation editing system and storage medium where animation editing program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20821399A JP2001034776A (en) 1999-07-22 1999-07-22 Animation editing system and storage medium where animation editing program is recorded

Publications (1)

Publication Number Publication Date
JP2001034776A true JP2001034776A (en) 2001-02-09

Family

ID=16552560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20821399A Pending JP2001034776A (en) 1999-07-22 1999-07-22 Animation editing system and storage medium where animation editing program is recorded

Country Status (1)

Country Link
JP (1) JP2001034776A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156650A (en) * 2005-12-01 2007-06-21 Sony Corp Image processing unit
JP2015064659A (en) * 2013-09-24 2015-04-09 Kddi株式会社 Gesture generating device, gesture generating method, and computer program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162168A (en) * 1992-11-20 1994-06-10 Fujitsu Ltd Composite image display system
JPH06251123A (en) * 1993-02-25 1994-09-09 Hitachi Ltd Device for generating talking with hands
JPH08180208A (en) * 1994-01-07 1996-07-12 Fujitsu Ltd Image generating device
JPH08272997A (en) * 1995-03-28 1996-10-18 Matsushita Electric Ind Co Ltd Virtual environmewnt recording device
JPH09311946A (en) * 1996-05-23 1997-12-02 Hitachi Plant Eng & Constr Co Ltd Animation production method and device
JPH1169249A (en) * 1997-06-12 1999-03-09 Toshiba Corp Information display controlling method, information transmitting method, information display device and record medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162168A (en) * 1992-11-20 1994-06-10 Fujitsu Ltd Composite image display system
JPH06251123A (en) * 1993-02-25 1994-09-09 Hitachi Ltd Device for generating talking with hands
JPH08180208A (en) * 1994-01-07 1996-07-12 Fujitsu Ltd Image generating device
JPH08272997A (en) * 1995-03-28 1996-10-18 Matsushita Electric Ind Co Ltd Virtual environmewnt recording device
JPH09311946A (en) * 1996-05-23 1997-12-02 Hitachi Plant Eng & Constr Co Ltd Animation production method and device
JPH1169249A (en) * 1997-06-12 1999-03-09 Toshiba Corp Information display controlling method, information transmitting method, information display device and record medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156650A (en) * 2005-12-01 2007-06-21 Sony Corp Image processing unit
US8269794B2 (en) 2005-12-01 2012-09-18 Sony Corporation Image processing apparatus
JP2015064659A (en) * 2013-09-24 2015-04-09 Kddi株式会社 Gesture generating device, gesture generating method, and computer program

Similar Documents

Publication Publication Date Title
JP7150778B2 (en) EDITING METHOD, APPARATUS, DEVICE, AND READABLE STORAGE MEDIUM FOR VOICE SKILL GAME
US7752189B2 (en) Signal processing apparatus and method thereof
US20110161348A1 (en) System and Method for Automatically Creating a Media Compilation
US9454838B2 (en) Multi-character authoring interface for large scale animations
CN110782900A (en) Collaborative AI storytelling
CN109474843A (en) The method of speech control terminal, client, server
US20180143741A1 (en) Intelligent graphical feature generation for user content
JP2000242661A (en) Relating information retrieval device and storage medium recording program for executing relating information retrieval processing
JP2001034776A (en) Animation editing system and storage medium where animation editing program is recorded
JP2006235671A (en) Conversation device and computer readable record medium
JP2001312513A (en) Information processing system, information processing method, and program housing medium
JPH1078947A (en) Reproduction device for multimedia title
KR100554374B1 (en) A Method for manufacuturing and displaying a real type 2D video information program including a video, a audio, a caption and a message information, and a memory devices recorded a program for displaying thereof
JP2005228297A (en) Production method of real character type moving image object, reproduction method of real character type moving image information object, and recording medium
JPH1032773A (en) Summary video browsing method/device
JP2005167822A (en) Information reproducing device and information reproduction method
JP2001195604A (en) Method for editing moving picture information
CN111443794A (en) Reading interaction method, device, equipment, server and storage medium
US10885943B1 (en) Multimedia authoring apparatus with synchronized motion and voice feature and method for the same
JP3987483B2 (en) Multimedia content distribution system
JP6773349B1 (en) Information processing equipment and programs
JP2001076165A (en) Animation editing system and storage medium with animation editing program recorded therein
JP2008299493A (en) Content creation support system and computer program
TWI780333B (en) Method for dynamically processing and playing multimedia files and multimedia play apparatus
CA2717555A1 (en) Photo realistic talking head creation, content creation, and distribution system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081118