JPH08249496A - Method and device for presenting image - Google Patents

Method and device for presenting image

Info

Publication number
JPH08249496A
JPH08249496A JP4835895A JP4835895A JPH08249496A JP H08249496 A JPH08249496 A JP H08249496A JP 4835895 A JP4835895 A JP 4835895A JP 4835895 A JP4835895 A JP 4835895A JP H08249496 A JPH08249496 A JP H08249496A
Authority
JP
Japan
Prior art keywords
operation unit
unit
event
scenario
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4835895A
Other languages
Japanese (ja)
Other versions
JP2842283B2 (en
Inventor
Shigeo Nakagawa
滋雄 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7048358A priority Critical patent/JP2842283B2/en
Publication of JPH08249496A publication Critical patent/JPH08249496A/en
Application granted granted Critical
Publication of JP2842283B2 publication Critical patent/JP2842283B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: To provide a means with which even a generator without special knowledge and technique for programming can generate an interactive animationan by intuitionally and easily describing an action even for a character of a complicated action procedure, generating an interactive animation by a small number of manhours and describing the action procedure of the charactor by not using any scripts. CONSTITUTION: The action unit list of a charactor within scenarios inputted from a scenario input part 1 is stored in an action unit storing part 2 and the geometrical form of the charactor is in a video generating part 6. When the start condition of the action unit which is read by an action unit designating part 5 is established by a user input from a user input part 3, frame information is calculated based on the action which is described at every action unit. The video generating part 6 generates an image based on the geometrical form stored inside and frame information calculated by the frame information calculating part 4 so as to present it.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明はユーザ操作に基づいて変
化するアニメーション映像を生成して提示する映像提示
方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image presentation method and apparatus for producing and presenting an animation image that changes according to a user operation.

【0002】[0002]

【従来の技術】3次元コンピュータグラフィクス(C
G)映像を実時間で生成することにより、ユーザの入力
に応じてアニメーション中の登場物体の動作を変える対
話型の3次元CGアニメーションを実現することができ
る。対話型の3次元CGアニメーションの利用例とし
て、フライト/ドライブシミュレーション、3次元CG
ゲームや、建築物内部を視点移動するウオークスルーシ
ミュレーション、機械、人体、分子構造などの3次元物
体のビジュアル・プレゼンテーションなどのアプリケー
ションがある。
2. Description of the Related Art Three-dimensional computer graphics (C
G) By generating the video in real time, it is possible to realize an interactive three-dimensional CG animation in which the motion of the appearing object in the animation is changed according to the user's input. As an example of using interactive 3D CG animation, flight / drive simulation, 3D CG
There are applications such as games, walk-through simulation that moves the viewpoint inside a building, and visual presentation of three-dimensional objects such as machines, human bodies, and molecular structures.

【0003】ユーザの操作に応じてアニメーションを構
成する方法として、スクリプトアニメーションと呼ばれ
る方法が知られている。スクリプトアニメーションに関
しては文献[1982年、クレイグ・ダブリュー・レイ
ノルズ「コンピューター・アニメーション・ウィズ・ス
クリプツ・アンド・アクターズ」、コンピューター・グ
ラフィックス、第16巻第3号、エイシーエムシググラ
フ、289頁−296頁、(Craig W.Reyn
olds,“Computer Animation
with Scripts and Actors”,
Computer Graphics,Vol.16,
No.3,July 1982,ACMSIGGRAP
H,pp.289−296)]に記載がある。
A method called script animation is known as a method of constructing an animation according to a user's operation. Regarding script animation, refer to [1982, Craig W. Reynolds, "Computer Animation with Scripts and Actors", Computer Graphics, Vol. 16, No. 3, ACM Siggraph, pp. 289-296, (Craig W. Reyn
olds, “Computer Animation
with Scripts and Actors ",
Computer Graphics, Vol. 16,
No. 3, Jully 1982, ACM SIGGRAP
H, pp. 289-296)].

【0004】スクリプトアニメーションでは、登場物体
の動作の変化およびその手順を、アニメーション専用言
語であるスクリプトによって定める。動作およびその実
行手順は登場物体ごとに個別に定め、アニメーションの
実行時にユーザ操作や時間経過などに応じて各スクリプ
トを解釈・実行して、得られた各登場物体の動作をグロ
ーバルな時間軸と空間座標にマッピングする。そして、
マッピングした結果に基づいてアニメーション映像を生
成する。
In the script animation, the change of the action of the appearing object and its procedure are defined by a script which is a language dedicated to animation. The action and its execution procedure are individually defined for each appearing object, and when the animation is executed, each script is interpreted and executed according to the user operation or the elapsed time, and the obtained action of each appearing object is set as a global time axis. Map to spatial coordinates. And
An animation image is generated based on the mapping result.

【0005】スクリプトアニメーションは、登場物体の
空間座標、動作の開始時刻、動作の種別をユーザの操作
に応じて個別に変化させることができるため、対話型ア
ニメーションの記述に特に適している。
The script animation is particularly suitable for the description of the interactive animation because the spatial coordinates of the appearing object, the start time of the action, and the type of the action can be individually changed according to the user's operation.

【0006】一方、スクリプトの記述の際にアニメーシ
ョン実行中に発生するさまざまな事象(イベント)を登
場物体の動作の起動のためのトリガとして記述する方法
があり、このようなスクリプトアニメーションの方法を
イベント駆動型と呼ぶことがある。
On the other hand, there is a method of describing various events (events) that occur during the execution of an animation when writing a script as a trigger for activating the action of an appearing object. It may be called a drive type.

【0007】イベント駆動型アニメーションでは、ユー
ザ入力、登場物体同士の衝突、設定した時間の経過など
の対話型アニメーションの実行中に発生する任意の事象
をイベントとして設定し、これを実行中に検出して登場
物体の動作変更のトリガとする。また、登場物体同士の
間の通信メッセージをイベントとして扱い、登場物体間
の動作の同期を行う。イベント駆動型アニメーションは
状況に応じてストーリー進行を詳細に設定でき、現実感
の高い対話型アニメーションを実現できる。
In the event-driven animation, an arbitrary event that occurs during the execution of the interactive animation such as user input, collision between appearing objects, and passage of a set time is set as an event, which is detected during the execution. It is used as a trigger to change the behavior of the appearing object. Also, the communication messages between the appearing objects are treated as events, and the actions of the appearing objects are synchronized. Event-driven animation can set the story progress in detail according to the situation, and can realize highly interactive dialogue animation.

【0008】イベント駆動型のスクリプトアニメーショ
ンの例については特開平3−168877号公報に記載
がある。
An example of event-driven script animation is described in Japanese Patent Application Laid-Open No. 3-168877.

【0009】[0009]

【発明が解決しようとする課題】従来のスクリプト型の
対話型アニメーションでは、登場物体の逐次、条件分
岐、繰り返しの手順にしたがって動作させる場合、一連
の動作の間の状態遷移をプログラムにより記述してい
た。このため、動作手順が複雑になるに従ってプログラ
ム内容の把握が困難となり、動作の記述および検証のた
めに多大な工数が必要になるという問題があった。
In the conventional script-type interactive animation, when operating an appearing object according to a sequence of sequential, conditional branching and repeating, a state transition between a series of actions is described by a program. It was Therefore, as the operation procedure becomes more complicated, it becomes more difficult to grasp the contents of the program, and there is a problem that a large number of man-hours are required for describing and verifying the operation.

【0010】また、スクリプトをプログラミング言語の
ソースコードとして記述する必要があり、記述に際して
専門的なプログラミング知識と技能が必要であった。こ
のため、このような知識をもたないアニメーション作成
者が対話型アニメーションを作成することが難しいとい
う問題があった。
Further, it is necessary to describe the script as a source code of a programming language, which requires specialized programming knowledge and skill. Therefore, it is difficult for an animation creator who does not have such knowledge to create an interactive animation.

【0011】本発明はこのような事情に鑑みてなされた
ものであり、その目的は、動作手順が複雑な登場物体で
あっても直観的かつ容易に動作を記述して、少ない工数
で対話型アニメーションを作成する手段を提供すること
にある。
The present invention has been made in view of such circumstances, and an object thereof is to describe an operation intuitively and easily even for an appearing object whose operation procedure is complicated, and to interactively operate with a small number of steps. It is to provide a means of creating animations.

【0012】また、スクリプトによらずに登場物体の動
作手順を記述して、その結果、専門的なプログラミング
の知識と技能をもたない作成者であっても対話型アニメ
ーションを作成する手段を提供することにある。
[0012] In addition, a means for describing an operation procedure of an appearing object without using a script and, as a result, creating an interactive animation even by a creator who does not have specialized programming knowledge and skills is provided. To do.

【0013】[0013]

【課題を解決するための手段】本発明の映像提示方法
は、複数の物体を空間中に配置して、フレームごとに前
記物体の画像を生成することで一連の映像を提示する映
像提示方法において、前記物体の動作と前記動作を起動
するための起動条件とからなる動作単位を実行順に接続
した動作単位リスト、および前記物体の幾何属性とから
シナリオを構成し、前記シナリオ中から動作単位を読み
出して前記動作単位の動作を実行し、前記動作単位に接
続した動作単位の起動条件が成立すれば、成立した起動
条件を要素とする動作単位を新たに読み出す一連の処理
を繰り返し、前記シナリオの幾何属性と前記動作とに基
づいてフレームごとに前記物体の画像を生成することを
特徴とする。
A video presenting method according to the present invention is a video presenting method for presenting a series of videos by arranging a plurality of objects in a space and generating images of the objects for each frame. , A motion unit list in which motion units consisting of the motion of the object and a start condition for activating the motion are connected in the order of execution, and a geometric attribute of the object to form a scenario, and the motion unit is read from the scenario. If the start condition of the operation unit connected to the operation unit is satisfied, a series of processes for newly reading out the operation unit having the satisfied start condition as an element is repeated to execute the operation of the scenario unit. An image of the object is generated for each frame based on an attribute and the action.

【0014】また、本発明の映像提示装置は、複数の物
体を空間中に配置して、フレームごとに前記物体の画像
を生成することで一連の映像を提示する映像提示装置に
おいて、ユーザ入力を取り込むユーザ入力部と、前記物
体の動作と前記動作を起動するための起動条件とからな
る動作単位を実行順に接続した動作単位リスト、および
前記物体の幾何属性とから構成するシナリオを入力する
シナリオ入力部と、前記シナリオの動作単位リストを格
納して動作単位を出力する動作単位格納部と、前記動作
単位に接続した動作単位の起動条件を前記動作単位格納
部から読み出し、前記起動条件が前記ユーザ入力によっ
て成立すれば成立した起動条件を要素とする動作単位を
前記動作単位格納部に出力させる動作単位指定部と、前
記動作単位の動作と前記ユーザ入力とに基づいてフレー
ムごとに前記物体の位置および変形を計算してフレーム
情報として出力するフレーム情報計算部と、前記シナリ
オの幾何属性と前記フレーム情報とに基づいて映像を生
成する映像生成部とからなることを特徴とする。
The image presenting apparatus of the present invention is a video presenting apparatus that presents a series of images by arranging a plurality of objects in space and generating images of the objects for each frame, so that user input is performed. Scenario input for inputting a user input unit for capturing, a motion unit list in which motion units including motions of the object and activation conditions for activating the motions are connected in the execution order, and a geometrical attribute of the object Unit, an operation unit storage unit that stores the operation unit list of the scenario and outputs the operation unit, and the activation condition of the operation unit connected to the operation unit is read from the operation unit storage unit, and the activation condition is the user. An operation unit designating section for outputting an operation unit having an established start condition as an element to the operation unit storing section if the input is satisfied, and an operation of the operation unit A frame information calculation unit that calculates the position and deformation of the object for each frame based on the user input and outputs the frame information as frame information, and image generation that generates an image based on the geometric attribute of the scenario and the frame information. It is characterized in that it is composed of a section.

【0015】また、本発明の映像提示装置は、前記ユー
ザ入力、前記幾何属性および前記フレーム情報とに基づ
いて発生するイベントを検出して出力するイベント検出
部を有し、前記動作単位指定部が、前記動作単位に接続
した動作単位の起動条件を前記動作単位格納部から読み
出し、前記イベントによって前記起動条件が成立すれば
成立した起動条件を要素とする動作単位を前記動作単位
格納部に出力させることを特徴とする。
Further, the video presenting apparatus of the present invention has an event detecting section for detecting and outputting an event occurring based on the user input, the geometric attribute and the frame information, and the operation unit designating section is provided. Reading the activation condition of the operation unit connected to the operation unit from the operation unit storage unit, and outputting the operation unit having the established activation condition as an element to the operation unit storage unit if the activation condition is satisfied by the event It is characterized by

【0016】更に、本発明の映像提示装置は、前記動作
単位指定部が、前記動作単位に接続した動作単位の起動
条件を前記動作単位格納部から読み出し、前記起動条件
の入力となるイベントを前記イベント検出部に検出さ
せ、前記イベントによって前記起動条件が成立すれば成
立した起動条件を要素とする動作単位を前記動作単位格
納部に出力させることを特徴とする。
Further, in the video presenting apparatus of the present invention, the operation unit designating section reads out the activation condition of the operation unit connected to the operation unit from the operation unit storage section, and the event to be the input of the activation condition is described. When the event detection unit detects the activation condition and the activation condition is satisfied by the event, the operation unit including the established activation condition as an element is output to the operation unit storage unit.

【0017】[0017]

【作用】本発明の映像提示方法および装置においては、
対話型アニメーションの登場物体を「ある特定の情報が
入力されたとき、現在実行中の動作を中断して、入力情
報に応じた新しい動作の実行を開始する」という手順を
繰り返すものとして定義し、単一の動作およびその開始
条件(動作条件)の組を動作の基本単位(動作単位)と
して、動作単位を接続したリストデータによって一連の
動作手順を記述する。
In the image presentation method and apparatus of the present invention,
Define the appearance object of the interactive animation as repeating the procedure of "When certain information is input, the operation currently being executed is interrupted and a new operation is started according to the input information", A set of a single operation and its start condition (operation condition) is used as a basic unit (operation unit) of the operation, and a series of operation procedures are described by list data connecting the operation units.

【0018】本映像提示装置では、動作単位のリストデ
ータを格納し、格納した動作単位リストから新しく実行
する動作単位を次々に読み出す。新しく実行する動作単
位は現在実行中の動作単位に接続した動作単位をリスト
を辿って探索する。
In this video presenting apparatus, list data of operation units is stored, and operation units to be newly executed are sequentially read out from the stored operation unit list. The newly executed operation unit searches the list for an operation unit connected to the currently executed operation unit.

【0019】そして、読み出した動作単位の動作データ
に基づいて登場物体の空間中の位置をフレームごとに計
算し、計算結果に基づいて映像を生成して提示する。
Then, the position of the appearance object in the space is calculated for each frame based on the read operation data of the operation unit, and an image is generated and presented based on the calculation result.

【0020】新しい動作単位の決定は、ユーザ入力など
のあるごとに探索した動作単位の動作条件を評価し、評
価結果にしたがって行う。
The new motion unit is determined by evaluating the motion condition of the motion unit searched every time there is a user input or the like and according to the evaluation result.

【0021】以上のような一連の手続きによって対話型
アニメーションの実行を行うために、対話型アニメーシ
ョンの作成者は「ある条件が満たされたならば、このよ
うな動作を始める」という直観的に理解しやすい因果関
係を動作単位として設定しておき、さらにこうした動作
単位を実行順に接続するという作業によって対話型アニ
メーションを記述することが可能になる。
In order to execute the interactive animation by the series of procedures as described above, the creator of the interactive animation intuitively understands that "when a certain condition is satisfied, such an operation is started". It is possible to describe an interactive animation by setting a causal relationship that is easy to do as a motion unit and connecting these motion units in the order of execution.

【0022】動作単位は動作データとその開始のトリガ
となるデータの組合せにより記述し、動作単位の実行順
序は動作単位間のリンクにより設定する。このため、プ
ログラミング言語を使用せずに登場物体の動作の記述を
行うことが可能になる。
The operation unit is described by a combination of operation data and data which is a trigger for starting the operation, and the execution order of the operation unit is set by a link between the operation units. Therefore, it is possible to describe the behavior of the appearing object without using a programming language.

【0023】[0023]

【実施例】次に、本発明の映像提示装置の第1の実施例
について図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, a first embodiment of the video presenting apparatus of the present invention will be described in detail with reference to the drawings.

【0024】図1は本発明の第1の映像提示装置の一実
施例を示すブロック図である。この実施例の映像生成装
置は、シナリオ入力部1と、動作単位格納部2と、ユー
ザ入力部3と、フレーム情報計算部4と、動作単位指定
部5と、映像生成部6とから構成している。
FIG. 1 is a block diagram showing an embodiment of the first video presentation device of the present invention. The video generation apparatus of this embodiment includes a scenario input unit 1, a motion unit storage unit 2, a user input unit 3, a frame information calculation unit 4, a motion unit designation unit 5, and a video generation unit 6. ing.

【0025】以下本実施例の構成に従って動作を説明す
る。以下の説明では3次元CG技術を使用した映像生成
を行う場合で説明するが、スプライト画像の合成表示な
どの2次元映像を用いる場合においても全く同様に実施
できる。
The operation will be described below according to the configuration of this embodiment. In the following description, a case where image generation is performed using the three-dimensional CG technology will be described, but the same can be applied to the case where a two-dimensional image such as a sprite image composite display is used.

【0026】シナリオ入力部1は以下で説明するシナリ
オデータを外部から取り込み、シナリオ1001として
出力する。また、ユーザ入力部3はユーザが操作するマ
ウス、キーボードなどが出力するデータを取り込み、ユ
ーザ入力1003として出力する。
The scenario input unit 1 fetches the scenario data described below from the outside and outputs it as a scenario 1001. The user input unit 3 also takes in data output by a mouse, keyboard, etc. operated by the user and outputs it as user input 1003.

【0027】シナリオ入力部1およびユーザ入力部3に
おいて取り込むデータは、例えばユーザがキーボード、
マウス、3次元座標入力装置などを操作して得られたデ
ータや、磁気テープ、磁気ディスク等の記憶装置にあら
かじめ記録しておいたデータ、同一の計算機上で稼働す
る別のプログラムにより生成してメモリ上に格納したデ
ータ、あるいは通信回線によって接続した他の計算機ま
たは映像生成装置との通信結果をメモリ上に格納したデ
ータなどを用いることができる。
The data captured by the scenario input section 1 and the user input section 3 is, for example, a user's keyboard,
Data obtained by operating a mouse, three-dimensional coordinate input device, etc., data recorded in advance in a storage device such as a magnetic tape or magnetic disk, or generated by another program running on the same computer. It is possible to use the data stored in the memory, or the data stored in the memory as a result of communication with another computer or a video generation device connected by a communication line.

【0028】シナリオ1001は以下に説明する(1)
動作単位リストおよび(2)幾何属性とから構成する。
The scenario 1001 will be described below (1).
It is composed of an operation unit list and (2) geometric attributes.

【0029】なお、本実施例では光源および視点はそれ
ぞれ配光特性および視野特性などの特殊な幾何属性をも
つ登場物体として他と同様に扱う。
In this embodiment, the light source and the viewpoint are treated in the same manner as other objects as appearing objects having special geometric attributes such as light distribution characteristics and visual field characteristics.

【0030】(1)動作単位リスト 動作単位リストは登場物体の(A)動作、(B)起動条
件、および(C)接続情報により構成する動作単位を、
実行順に接続したリストである。図6は動作単位61〜
64によって構成した動作単位リストの説明図である。
(1) Action Unit List The action unit list includes action units composed of (A) actions of the appearing object, (B) activation conditions, and (C) connection information.
It is a list connected in the order of execution. FIG. 6 shows operation units 61 to
It is an explanatory view of an operation unit list constituted by 64.

【0031】(A)動作 後述の起動条件の評価の結果が成立する場合に登場物体
が実行する動きの情報を動作として記述する。
(A) Operation The information of the movement executed by the appearing object when the result of the evaluation of the starting condition described later is satisfied is described as the operation.

【0032】登場物体の空間中の動き情報は、登場物体
の属する座標系から、その上位の座標系またはワールド
座標系への対応関係の時間変化によって定義することが
できる。
The motion information of the appearing object in the space can be defined by the temporal change of the correspondence relationship from the coordinate system to which the appearing object belongs to the coordinate system of the higher order or the world coordinate system.

【0033】一例として、登場物体の属する物体座標系
から上位座標系への平行移動、回転、スケーリング(拡
大、縮小)およびその組み合わせを行う同次座標行列M
について、フレーム間隔ごとの時刻(t1、t2、…、
tn−1、tn)のサンプリング記録(M(t1)、M
(t2)、…、M(tn−1)、M(tn))を動き情
報として定義することができる。フレーム間隔として、
例えばTV放送(NTSC方式)のフィールド時間(1
/60秒)またはフレーム時間(1/30秒)などを設
定することで、滑らかな動きの映像を生成できる。
As an example, a homogeneous coordinate matrix M for performing parallel movement, rotation, scaling (enlargement, reduction), and combination thereof from the object coordinate system to which the appearing object belongs to the upper coordinate system.
For each frame interval (t1, t2, ...,
tn-1, tn) sampling recording (M (t1), M
(T2), ..., M (tn−1), M (tn)) can be defined as motion information. As the frame interval,
For example, the field time of TV broadcasting (NTSC system) (1
/ 60 seconds) or the frame time (1/30 seconds) or the like can be set to generate an image with smooth movement.

【0034】また、時刻tをパラメータとする関数Dに
よって時刻tでの同次座標行列に等価な対応関係D
(t)を定義し、関数Dおよびパラメータtの組合せを
物体の動き情報としてもよい。たとえば、スプライン曲
線関数(D)とその入力パラメータ(t)によって物体
の動きを記述してもよい。
Further, a correspondence D equivalent to a homogeneous coordinate matrix at time t is obtained by a function D having time t as a parameter.
(T) may be defined and the combination of the function D and the parameter t may be used as the motion information of the object. For example, the movement of the object may be described by the spline curve function (D) and its input parameter (t).

【0035】なお、たとえば人体のように部分的な物体
が関節によって接合している物体を使用したり、あるい
は登場物体をさらに複数の部分により階層的に構成する
場合には、部分物体間の接続にそれぞれ対応する動き情
報を定義し、これらの動き情報の集合によって登場物体
の動きを定義することができる。
When an object such as a human body in which partial objects are joined by joints is used, or when an appearing object is further hierarchically composed of a plurality of parts, connection between the partial objects is performed. It is possible to define the motion information corresponding to each of, and the motion of the appearing object can be defined by a set of these motion information.

【0036】とくに関節によって部分物体を結合して構
成する物体の場合は、部分物体を定義した物体座標系間
の関節における回転角の時間変化によって動きを記述し
てもよい。
Particularly, in the case of an object formed by connecting partial objects by joints, the movement may be described by the temporal change of the rotation angle at the joint between the object coordinate systems defining the partial objects.

【0037】さらに、登場物体を変形させるためのパラ
メータの時間変化を動き情報として記述してもよい。例
えば、登場物体に対してアフィン変換などの一次変換を
行って変形させる場合には、時系列順に記述したアフィ
ン変換行列の集合によって変形を記述してもよい。
Furthermore, the time change of the parameter for deforming the appearing object may be described as the motion information. For example, when performing a primary transformation such as an affine transformation on a appearing object to transform it, the transformation may be described by a set of affine transformation matrices described in chronological order.

【0038】以上説明した登場物体の動き情報は、動き
の計算アルゴリズムが固定であれば入力となるパラメー
タだけで記述することができる。また、計算アルゴリズ
ムを場合によって変更する場合には、アルゴリズムまた
はその種別とパラメータとを組み合わせて動き情報とす
ることができる。
The motion information of the appearing object described above can be described only by input parameters if the motion calculation algorithm is fixed. Further, when the calculation algorithm is changed depending on the case, the motion information can be obtained by combining the algorithm or its type and the parameter.

【0039】(B)起動条件 前述の動作の開始を決定する関数として起動条件を設定
する。ユーザのキーボードやマウスの操作によるイベン
トなどが発生するたびに、これらの発生イベントを関数
の入力として起動条件を評価する。
(B) Start condition The start condition is set as a function for determining the start of the above-mentioned operation. Each time an event such as a user's operation of the keyboard or mouse occurs, the activation condition is evaluated by using these generated events as the input of the function.

【0040】起動条件関数の入力値は必ずしもユーザ入
力だけに限らず、後述の動作単位指定部5の内部に以前
の起動条件の評価結果などを格納する領域を設け、この
値を入力として用いてもよい。例えば、動作単位を繰り
返し実行する際の繰り返し回数などを格納して使用して
もよい。この場合の変数領域への演算操作も動作条件の
一部として扱う。
The input value of the activation condition function is not necessarily limited to the user input, and an area for storing the evaluation result of the previous activation condition is provided inside the operation unit designating unit 5 described later, and this value is used as the input. Good. For example, the number of repetitions when the operation unit is repeatedly executed may be stored and used. The arithmetic operation to the variable area in this case is also treated as a part of the operating condition.

【0041】(C)接続情報 動作単位の実行を終了した後、続けて実行する動作単位
への接続情報を設定する。
(C) Connection Information After the execution of the operation unit is completed, the connection information for the operation unit to be executed subsequently is set.

【0042】接続情報はポインタ(動作単位が格納され
ている記憶領域のアドレス)により記述する。また、シ
ナリオをファイルに書き出して記録する場合などでは、
動作単位リストを構成する全ての動作単位に対して重複
しないインデックス番号を割り振っておき、インデック
ス番号によって接続情報を記述してもよい。
The connection information is described by a pointer (address of a storage area in which an operation unit is stored). Also, when writing a scenario to a file for recording,
A unique index number may be assigned to all the operation units that make up the operation unit list, and the connection information may be described by the index number.

【0043】接続情報で接続することにより動作単位の
集合は全体としてリストまたはグラフ構造を構成する。
By connecting with the connection information, the set of operation units constitutes a list or graph structure as a whole.

【0044】動作単位を接続したリストは接続情報によ
って動作単位を次々に連結して動作の逐次実行を記述す
る。また、条件分岐または繰り返しなどの制御を行う際
には、ひとつの動作単位に対して複数個の接続情報を設
けて分岐先の動作単位をそれぞれ記述する。
The list in which the operation units are connected describes the sequential execution of the operations by connecting the operation units one after another according to the connection information. Further, when performing control such as conditional branching or repetition, a plurality of connection information is provided for one operation unit and each branch destination operation unit is described.

【0045】(2)幾何属性 登場物体の形状や形状表面の輝度や材質、テクスチャマ
ッピングするテクスチャ画像、テクスチャ画像と形状表
面との対応関係などを幾何属性として記述する。
(2) Geometric Attribute Geometry describes the shape of the appearance object, the brightness and material of the surface of the shape, the texture image to be texture-mapped, the correspondence between the texture image and the shape surface, and the like.

【0046】形状データはたとえば物体座標系における
ポリゴンなどの座標データ、またはスプライン曲面の制
御点データなどにより記述する。また、形状表面の材質
は色輝度値や反射係数などにより記述する。
The shape data is described by, for example, coordinate data of a polygon in the object coordinate system, control point data of a spline curved surface, or the like. In addition, the material of the shape surface is described by the color brightness value, the reflection coefficient, and the like.

【0047】また、関節をもつ物体など、登場物体がさ
らに部分的な登場物体の階層的な接続により構成される
場合には、階層関係の管理情報と、部分登場物体間の位
置関係を幾何属性として記述する。
When an appearing object such as an object having joints is configured by hierarchically connecting the partial appearing objects, the hierarchical relation management information and the positional relationship between the partially appearing objects are set as geometric attributes. As.

【0048】動作単位格納部2はシナリオ1001の動
作単位リストを格納して、後述の動作単位指定1005
に指定された動作単位を動作単位1002として出力す
る。
The operation unit storage unit 2 stores the operation unit list of the scenario 1001 and specifies the operation unit 1005 described later.
The operation unit designated in 1 is output as the operation unit 1002.

【0049】動作単位格納部2は出力する動作単位の種
別を表す符号または情報を付加して動作単位1002を
出力することができる。たとえば、後述のフレーム情報
計算部4において動作の実行を行うかどうかを、動作単
位指定1005の指定に応じて符号を付加して動作単位
1002として出力し、後述の実行動作単位か接続動作
単位のどちらを出力するかを区別することができる。
The operation unit storage unit 2 can output the operation unit 1002 by adding a code or information indicating the type of the operation unit to be output. For example, whether or not to execute an operation in the frame information calculation unit 4 to be described later is added as a code according to the specification of the operation unit specification 1005 and is output as the operation unit 1002. It is possible to distinguish which is output.

【0050】なお、動作単位指定1002に複数個の動
作単位を出力する指定がある場合は、動作単位格納部2
は指定の動作単位を複数個出力する。
When the operation unit specification 1002 includes an instruction to output a plurality of operation units, the operation unit storage unit 2
Outputs multiple specified operation units.

【0051】フレーム情報計算部4の動作フローを図4
(B)に示す。
The operation flow of the frame information calculation unit 4 is shown in FIG.
It shows in (B).

【0052】フレーム情報計算部4は初期処理として動
作単位リストの最初の動作単位(初期動作単位)の動作
を読み出す(4B1)。
The frame information calculation unit 4 reads the operation of the first operation unit (initial operation unit) in the operation unit list as an initial process (4B1).

【0053】そして、動作単位1002の入力があるご
とに、入力された動作単位について起動条件がすでに成
立しており、実行の対象となる実行動作単位かどうかを
調べ(4B2)、実行動作単位であればその動作を読み
出す(4B6)。実行動作単位かどうかは動作単位に付
加した識別情報などで判定する。
Then, every time the operation unit 1002 is input, it is checked whether or not the start condition is already satisfied for the input operation unit and it is the execution operation unit to be executed (4B2). If there is, the operation is read (4B6). Whether it is an execution operation unit or not is determined by identification information or the like added to the operation unit.

【0054】動作の入力後、ユーザ入力1003に基づ
いて1フレーム分のフレーム情報を計算し(4B3)、
1フレームタイムの経過後にフレーム情報1004とし
て出力する(4B4、4B5)。フレーム情報計算部4
は以上の一連の処理を繰り返してフレーム情報1004
を出力する。
After inputting the motion, the frame information for one frame is calculated based on the user input 1003 (4B3),
After one frame time has elapsed, it is output as frame information 1004 (4B4, 4B5). Frame information calculation unit 4
The frame information 1004 is obtained by repeating the above series of processing.
Is output.

【0055】フレーム情報1004はあるフレームにお
ける登場物体の位置および回転の情報として記述する。
たとえば、登場物体にローカルな物体座標系からワール
ド座標系への座標変換行列を登場物体ごとに定めてフレ
ーム情報1004を定義することができる。また、登場
物体に形状の変形を行わせる場合には、変形アルゴリズ
ムを定め、アルゴリズムのパラメータとともにフレーム
情報1004の一部として扱ってもよい。
The frame information 1004 is described as information on the position and rotation of the appearing object in a certain frame.
For example, the frame information 1004 can be defined by defining a coordinate transformation matrix from the object coordinate system local to the appearing object to the world coordinate system for each appearing object. When the appearance object is to be deformed in shape, a deformation algorithm may be determined and treated as a part of the frame information 1004 together with the algorithm parameter.

【0056】なお、フレーム情報1004は、動作の動
き情報だけでなくユーザ入力1003に基づいて、また
はその両方に基づいて計算してもよい。
The frame information 1004 may be calculated not only based on the motion information of the motion, but also based on the user input 1003 or both.

【0057】ユーザ入力1003に基づいてフレーム情
報を計算する一例として、視点の位置座標および視線方
向の3軸廻りの回転角などのパラメータをユーザ入力1
003に応じて変化させ、その結果に基づいてフレーム
情報1004を計算するなどの場合がある。このように
すれば、視点の位置と視線の方向とを3次元入力デバイ
スの操作などに応じてリアルタイムに変化させることが
でき、建築物の内部を視点の位置を変化させながら移動
するウォークスルーシミュレーションなどを実現でき
る。
As an example of calculating the frame information based on the user input 1003, the parameters such as the position coordinate of the viewpoint and the rotation angle around the three axes in the line-of-sight direction are input by the user.
The frame information 1004 may be calculated based on the result of the change. In this way, the position of the viewpoint and the direction of the line of sight can be changed in real time according to the operation of the three-dimensional input device, and the walk-through simulation of moving inside the building while changing the position of the viewpoint. Can be realized.

【0058】動作単位指定部5は動作単位1002の起
動条件と接続情報、およびユーザ入力1003とに基づ
いて、動作指定単位1005を計算して出力する。
The operation unit designation unit 5 calculates and outputs the operation designation unit 1005 based on the activation condition and connection information of the operation unit 1002 and the user input 1003.

【0059】動作単位指定部5の動作フローを図4
(A)に示す。
The operation flow of the operation unit designating section 5 is shown in FIG.
It shows in (A).

【0060】動作単位指定部5は初期処理として動作単
位リストの最初の動作単位(初期動作単位)の接続情報
を読み出す(4A1)。
The operation unit designating section 5 reads the connection information of the first operation unit (initial operation unit) in the operation unit list as an initial process (4A1).

【0061】そして、接続情報によって接続された動作
単位(接続動作単位)の出力を指定する動作単位指定1
005を動作単位格納部2に対して出力し(4A2)、
その結果出力された接続動作単位の起動条件を読み出す
(4A3)。
Then, the operation unit specification 1 for specifying the output of the operation unit (connection operation unit) connected by the connection information.
005 to the operation unit storage unit 2 (4A2),
The activation condition of the connection operation unit output as a result is read (4A3).

【0062】このとき、出力させる動作単位の指定に
は、ポインタまたはインデックス番号などを用いる。そ
して、動作単位格納部2に出力させる動作単位の種別の
指定は、たとえば動作単位格納部に識別のための符号を
付加させるなどの方法で行うことができる。
At this time, a pointer or index number is used to specify the operation unit to be output. Then, the type of the operation unit to be output to the operation unit storage unit 2 can be designated by, for example, a method of adding a code for identification to the operation unit storage unit.

【0063】接続動作単位の起動条件を入力した後、動
作単位指定部5はユーザ入力1003があるごとに起動
条件が成立するかどうかの評価を繰り返す(4A4、4
A5)。
After inputting the start condition of the connection operation unit, the operation unit designation unit 5 repeats the evaluation as to whether the start condition is satisfied each time there is a user input 1003 (4A4, 4A4,
A5).

【0064】もし条件が成立すれば、成立した起動条件
を要素とする動作単位を実行動作単位として出力するこ
とを指定する動作単位指定1005を動作単位指定部2
に出力する(4A6)。
If the condition is satisfied, the operation unit designating unit 2 outputs the operation unit specification 1005 that specifies that the operation unit having the satisfied start condition as an element is output as the execution operation unit.
(4A6).

【0065】そして、出力された実行動作単位の起動条
件と接続情報とを新たに読み出し(4A7)、以上の一
連の処理を繰り返し行う。
Then, the output start condition and connection information for each execution operation unit are newly read (4A7), and the above series of processing is repeated.

【0066】なお、動作単位1002の接続情報として
複数の動作単位ポインタが設定されている場合には、全
ての接続動作単位の起動条件を読み出し、各起動条件を
順次評価し、成立する起動条件の動作単位を実行動作単
位とする。
When a plurality of operation unit pointers are set as the connection information of the operation unit 1002, the activation conditions of all the connection operation units are read, each activation condition is sequentially evaluated, and the activation conditions that are satisfied are determined. The operation unit is the execution operation unit.

【0067】複数の前提条件が同時に成立するような場
合は、たとえば評価の実行順などによって優先順位を設
定してもよい。
When a plurality of preconditions are satisfied at the same time, the priority order may be set, for example, according to the execution order of evaluation.

【0068】例えば、図6では、動作単位62に対して
動作単位63および動作単位64の2個の動作単位を接
続している。この場合、接続した2個の動作単位の起動
条件3および起動条件4を順次評価し、その結果に応じ
て次に実行する動作(動作3または動作4のいずれか)
を選択して決定する。
For example, in FIG. 6, two operation units, an operation unit 63 and an operation unit 64, are connected to the operation unit 62. In this case, the start condition 3 and the start condition 4 of the two connected operation units are sequentially evaluated, and the operation to be executed next according to the result (either the operation 3 or the operation 4).
Select to determine.

【0069】図7は前述の動作の選択処理の説明図であ
る。図7において、最初に動作1を実行したのち、起動
条件2によって動作2が実行され、起動条件3が成立す
る場合の動作を71に、同様に動作2の実行の後に起動
条件4が成立する場合の動作を72に示す。
FIG. 7 is an explanatory diagram of the above-described operation selection processing. In FIG. 7, after first performing the operation 1, the operation 2 is executed under the activation condition 2 and the operation when the activation condition 3 is satisfied is designated as 71, and similarly, the activation condition 4 is satisfied after the execution of the operation 2. The operation in this case is shown at 72.

【0070】さらに、一連の動作単位の実行をあらかじ
め定めた回数だけ行うような場合では、繰り返しの回数
を格納するための変数領域を動作単位指定部の内部に確
保し、繰り返しごとに変数値に対して演算(変数のイン
クリメントまたはデクリメント操作など)を行い、演算
結果を起動条件の入力としてもよい。
Further, in the case where a series of operation units is executed a predetermined number of times, a variable area for storing the number of repetitions is secured inside the operation unit designating section, and a variable value is set for each repetition. It is also possible to perform an operation (increment or decrement operation of a variable, etc.) on the other hand and use the operation result as the input of the activation condition.

【0071】例えば、ある動作単位をN回繰り返して実
行する場合、最初に動作単位に対応する変数領域を確保
し、正整数Nを代入する。この後接続条件をたどって動
作単位の実行を繰り返した後、Nから1をデクリメント
して、結果が正整数であれば同様の実行を繰り返し、結
果が0となれば繰り返し処理を終了して次の動作単位の
実行を行うようにする。
For example, when a certain operation unit is repeatedly executed N times, a variable area corresponding to the operation unit is first secured and a positive integer N is substituted. After this, after repeating the execution of the operation unit by tracing the connection condition, decrementing 1 from N, if the result is a positive integer, the same execution is repeated, and if the result is 0, repeat processing is terminated and the next The operation unit of is executed.

【0072】図6には動作単位64に対して動作単位6
4自身を次の動作単位として接続して、さらに起動条件
4に繰り返しループの脱出条件を記述する場合を示す。
動作単位64は起動条件4の脱出条件が成立するまで繰
り返して実行する。
In FIG. 6, the operation unit 6 is different from the operation unit 64.
4 shows a case in which 4 itself is connected as the next operation unit, and the exit condition of the repeated loop is described in the start condition 4.
The operation unit 64 is repeatedly executed until the escape condition of the start condition 4 is satisfied.

【0073】映像生成部6はシナリオ1001から登場
物体の幾何属性を格納し、格納した幾何属性とフレーム
情報1004に基づいてフレームごとに画像を生成し、
一連の生成画像によって映像を提示する。
The video generation unit 6 stores the geometric attribute of the appearance object from the scenario 1001, generates an image for each frame based on the stored geometric attribute and the frame information 1004,
The video is presented by a series of generated images.

【0074】映像生成部6における画像生成では、視点
や光源を含む登場物体の空間中の位置と形状および表面
の属性に基づいて、座標変換、クリッピング、輝度計
算、透視投影計算、シェーディング、隠面消去処理など
の一連の3次元コンピュータグラフィクス技術による画
像生成処理を行う。
In the image generation in the image generation section 6, coordinate conversion, clipping, brightness calculation, perspective projection calculation, shading, hidden surface are performed based on the position and shape in space of the appearing object including the viewpoint and the light source and the attributes of the surface. Image generation processing is performed by a series of three-dimensional computer graphics techniques such as erasing processing.

【0075】このとき、フレーム情報に登場物体の形状
の変形が指定されている場合には、指定の変形アルゴリ
ズムおよびパラメータに基づいて形状を変形させて映像
を生成する。
At this time, if the deformation of the shape of the appearing object is designated in the frame information, the shape is transformed based on the designated transformation algorithm and parameters to generate the image.

【0076】次に、本発明の映像提示装置の第2の実施
例について説明する。
Next, a second embodiment of the image presentation device of the present invention will be described.

【0077】図2は、本発明の第2の映像提示装置の一
実施例を示すブロック図である。
FIG. 2 is a block diagram showing an embodiment of the second video presentation device of the present invention.

【0078】この実施例の映像提示装置は第1の実施例
に対してイベント検出部26を付加し、イベント検出部
26で検出したイベントに基づいて動作単位指定部25
が起動条件の評価を行うことを特徴とする。
The video presenting apparatus of this embodiment is different from the first embodiment in that the event detecting unit 26 is added, and the action unit designating unit 25 is based on the event detected by the event detecting unit 26.
Is to evaluate the starting conditions.

【0079】以下では図2の動作単位指定部25とイベ
ント検出部26の動作について説明する。
The operations of the operation unit designating section 25 and the event detecting section 26 shown in FIG. 2 will be described below.

【0080】図5(A)に動作単位指定部25の動作フ
ローを示す。動作単位指定部25は起動条件の評価にイ
ベント2006を入力として行う(5A4)。その他の
一連の処理については第1の実施例における動作単位指
定部における処理と同様に行う。
FIG. 5A shows an operation flow of the operation unit designating section 25. The operation unit designating unit 25 inputs the event 2006 as an input for the evaluation of the activation condition (5A4). The other series of processing is performed in the same manner as the processing in the operation unit designating unit in the first embodiment.

【0081】なお、イベント駆動型アニメーションでは
登場物体の間でメッセージ通信を専用のメッセージイベ
ントを登場物体間でやりとりして通信し、ある登場物体
の状態に応じて他の登場物体の動作を変更させるなどし
て、アニメーションの進行を変化させる場合がある。
In the event-driven animation, message communication between appearing objects is performed by exchanging a dedicated message event between appearing objects to change the behavior of another appearing object according to the state of the appearing object. For example, the progress of the animation may be changed.

【0082】このような場合、本実施例では動作単位指
定部24の内部にメッセージ通信のための領域を登場物
体ごとに設け、この領域へのメッセージイベントの書き
込み操作と読み出しおよび消去の操作をフレームごとに
行って、メッセージの送信および受信を実行することが
できる。
In such a case, in this embodiment, an area for message communication is provided for each appearing object inside the operation unit designating section 24, and a writing operation and a reading / erasing operation of a message event to this area are framed. Messages can be sent and received.

【0083】上の場合では、メッセージイベントの送信
を登場物体の動作の一部として扱うように動作を拡張
し、さらに起動条件の入力値として前述のメッセージイ
ベントの受信値を用いることで、メッセージ通信による
登場物体の変更を行って対話型アニメーションを実行す
ることができる。
In the above case, the message communication is performed by expanding the operation so that the transmission of the message event is treated as a part of the operation of the appearance object, and further using the received value of the above-mentioned message event as the input value of the activation condition. You can change the appearing object by and execute interactive animation.

【0084】イベント検出部26はシナリオ2001の
幾何属性を格納し、幾何属性とフレーム情報2004か
ら登場物体がワールド空間中に占める位置と形状を計算
し、登場物体間での衝突イベントを検出する。
The event detection unit 26 stores the geometric attribute of the scenario 2001, calculates the position and shape of the appearing object in the world space from the geometric attribute and frame information 2004, and detects a collision event between the appearing objects.

【0085】また、イベント検出部26の内部に時間経
過の検出のためのカウンタを設けておき、フレームタイ
ムの経過ごとにカウンタ値を更新し、対話型アニメーシ
ョンのグローバルな経過時間としてカウンタ値を利用す
る。
Further, a counter for detecting the passage of time is provided inside the event detection unit 26, the counter value is updated every time the frame time passes, and the counter value is used as the global elapsed time of the interactive animation. To do.

【0086】そして、ユーザ入力2003からユーザ入
力イベントを検出する。
Then, a user input event is detected from the user input 2003.

【0087】イベント検出部26は上記のように検出し
た各種イベントまたはカウンタ値をイベント2006と
して出力する。
The event detector 26 outputs various events or counter values detected as described above as an event 2006.

【0088】次に、本発明の映像提示装置の第3の実施
例について説明する。
Next, a third embodiment of the video presenting apparatus of the present invention will be described.

【0089】図3は本発明の第3の映像提示装置の一実
施例を示すブロック図である。
FIG. 3 is a block diagram showing an embodiment of the third image presentation device of the present invention.

【0090】この実施例の映像提示装置は第2の実施例
に対して、動作単位指定部35が起動条件の評価に必要
なイベントの種別およびパラメータをあらかじめイベン
ト検出部36に指定しておくことを特徴とする。また、
イベント検出部36が前述の検出イベントの指定情報に
基づいてイベントを検出することを特徴とする。
In the video presentation apparatus of this embodiment, the operation unit designating section 35 designates the event type and parameters necessary for the evaluation of the activation condition in the event detecting section 36 in advance, as compared with the second embodiment. Is characterized by. Also,
The event detecting unit 36 is characterized by detecting an event based on the above-mentioned specified information of the detected event.

【0091】以下では図3の動作単位指定部35とイベ
ント検出部36の動作について説明する。
The operations of the operation unit designating section 35 and the event detecting section 36 shown in FIG. 3 will be described below.

【0092】図5(B)に動作単位指定部35の動作フ
ローを示す。動作単位指定部35は起動条件を入力した
のち(5B3)、起動条件の評価に必要なイベントの種
別とパラメータを求めて、イベント検出指定3007と
してイベント検出部36に出力する(5B4)。その他
の一連の処理については第2の実施例の動作単位指定部
と同様に行う。
FIG. 5B shows an operation flow of the operation unit designating section 35. After inputting the activation condition (5B3), the operation unit designating unit 35 obtains the event type and parameters required for the evaluation of the activation condition, and outputs the event detection designation 3007 to the event detecting unit 36 (5B4). The other series of processing is performed in the same manner as the operation unit designating unit of the second embodiment.

【0093】イベント検出指定3007において、起動
条件が登場物体間の衝突により成立する場合には、たと
えば衝突の対象となる物体の名称または登録番号の組を
衝突検出を表す種別指定と組合せて指定する。
In the event detection designation 3007, when the activation condition is satisfied by the collision between the appearing objects, for example, the combination of the name or registration number of the object of the collision is designated in combination with the type designation representing the collision detection. .

【0094】また、起動条件が設定時間の経過(リアル
タイム)により成立する場合には、動作を開始してから
イベント発生までの設定時間を種別指定とともに指定す
る。同様に、ユーザ入力が起動条件となる場合は起動条
件が成立するためのユーザ入力値を種別指定とともにイ
ベント検出指定3007として出力する。
When the activation condition is satisfied when the set time elapses (real time), the set time from the start of the operation to the event occurrence is designated together with the type designation. Similarly, when the user input is the activation condition, the user input value for satisfying the activation condition is output as the event detection designation 3007 together with the type designation.

【0095】なお、イベントの種別およびパラメータは
前述のように起動条件から求めてもよく、あらかじめ起
動条件の一部として記述しておいてもよい。
The event type and parameters may be obtained from the start condition as described above, or may be described in advance as part of the start condition.

【0096】イベント検出指定3007によりイベント
検出の前に検出すべきイベントの種別とパラメータを指
定することにより、後述のイベント検出部36が出力す
るイベント3006の数を減らすことができ、動作単位
指定部35における起動条件の評価のための計算量を削
減することができる。また、動作の実行開始から起算す
る経過時間を設定し、タイムアウトによる登場物体の動
作の変更を実行することができる。
By designating the event type and parameters to be detected before event detection by the event detection designation 3007, the number of events 3006 output by the event detection unit 36, which will be described later, can be reduced, and the operation unit designation unit It is possible to reduce the amount of calculation for the evaluation of the start condition in 35. Further, it is possible to set the elapsed time counted from the start of execution of the operation and change the operation of the appearing object due to the timeout.

【0097】イベント検出部36はシナリオ3001の
幾何属性を格納し、幾何属性とフレーム情報3004か
ら登場物体がワールド空間中に占める位置と形状を計算
し、イベント検出指定3007に基づいて指定の登場物
体間での衝突または干渉を検出する。
The event detection unit 36 stores the geometric attribute of the scenario 3001, calculates the position and shape of the appearing object in the world space from the geometric attribute and the frame information 3004, and specifies the appearing object based on the event detection designation 3007. Detect collisions or interference between them.

【0098】また、イベント検出部36の内部に時間経
過の検出のためのカウンタを設けておき、フレームタイ
ムの経過ごとにカウンタ値を更新して、イベント検出指
定3007に基づいて設定時間の経過を検出する。
Further, a counter for detecting the passage of time is provided inside the event detecting section 36, the counter value is updated every time the frame time passes, and the set time elapses based on the event detection designation 3007. To detect.

【0099】そして、ユーザ入力3003およびイベン
ト検出指定3007に基づいてユーザ入力イベントを検
出する。
Then, the user input event is detected based on the user input 3003 and the event detection designation 3007.

【0100】イベント検出部36は以上のように検出し
た各種イベントをイベント3006として出力する。
The event detector 36 outputs various events detected as described above as an event 3006.

【0101】[0101]

【発明の効果】以上説明したように、本発明の映像生成
装置においては、動作およびその開始条件を設定した動
作単位データをリスト接続したデータから動作単位を実
行順に次々に読み出しながら対話型アニメーションを実
行するため、対話型アニメーション作成者が動作手順を
直観的に把握して理解しながら登場物体の動作を記述で
き、複雑かつ大規模なアニメーションを容易に記述作成
することができるという効果を有する。
As described above, in the image generating apparatus of the present invention, interactive animation is performed while sequentially reading out the operation units in the order of execution from the data in which the operation unit data in which the operation and its start condition are set are connected in a list. Since the execution is performed, the interactive animation creator can describe the motion of the appearing object while intuitively understanding and understanding the motion procedure, and can easily describe and create a complicated and large-scale animation.

【0102】また、動作単位データを動作データとその
トリガとなるイベントを組み合わせることにより記述で
き、動作単位の実行順序も動作単位間のリンクにより設
定できるため、プログラミング言語仕様などの知識やプ
ログラミングの技能をもたないアニメーション作成者で
あっても、登場物体の動作およびその手順を記述するこ
とができるという効果を有する。
Further, since the operation unit data can be described by combining the operation data and the event that serves as the trigger, and the execution order of the operation units can also be set by the link between the operation units, knowledge of programming language specifications and programming skills. Even an animation creator who does not have the effect of being able to describe the action of an appearing object and its procedure.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の映像提示装置の実施例を示すブ
ロック図。
FIG. 1 is a block diagram showing an embodiment of a first video presentation device of the present invention.

【図2】本発明の第2の映像提示装置の実施例を示すブ
ロック図。
FIG. 2 is a block diagram showing an embodiment of a second video presentation device of the present invention.

【図3】本発明の第3の映像提示装置の実施例を示すブ
ロック図。
FIG. 3 is a block diagram showing an embodiment of a third video presentation device of the present invention.

【図4】(A)本発明の第1の映像提示装置の実施例の
動作フロー図。 (B)本発明の第1の映像提示装置の実施例の動作フロ
ー図。
FIG. 4 (A) is an operational flowchart of the embodiment of the first video presentation device of the present invention. (B) An operation flow chart of the embodiment of the first video presentation device of the present invention.

【図5】(A)本発明の第2の映像提示装置の実施例の
動作フロー図。 (B)本発明の第3の映像提示装置の実施例の動作フロ
ー図。
FIG. 5 (A) is an operation flow diagram of the embodiment of the second video presentation device of the present invention. (B) An operation flow chart of the embodiment of the third video presentation device of the present invention.

【図6】動作単位リストの説明図。FIG. 6 is an explanatory diagram of an operation unit list.

【図7】条件分岐動作の説明図。FIG. 7 is an explanatory diagram of conditional branching operation.

【符号の説明】 1,21,31 シナリオ入力部 2,22,32 動作単位格納部 3,23,33 ユーザ入力部 4,24,34 フレーム情報計算部 5,25,35 動作単位指定部 26,36 イベント検出部 6,27,37 映像生成部 1001,2001,3001 シナリオ 1002,2002,3002 動作単位 1003,2003,3003 ユーザ入力 1004,2004,3004 フレーム情報 1005,2005,3005 動作単位指定 2006,3006 イベント 3007 イベント検出指定 61,62,63,64 動作単位 71 起動条件3が成立する場合の動作説明 72 起動条件4が成立する場合の動作説明[Explanation of reference symbols] 1,21,31 Scenario input unit 2,22,32 Motion unit storage unit 3,23,33 User input unit 4,24,34 Frame information calculation unit 5,25,35 Motion unit designation unit 26, 36 Event detection unit 6, 27, 37 Video generation unit 1001, 2001, 3001 Scenario 1002, 2002, 3002 Action unit 1003, 2003, 3003 User input 1004, 2004, 3004 Frame information 1005, 2005, 3005 Action unit designation 2006, 3006 Event 3007 Event detection specification 61, 62, 63, 64 Operation unit 71 Operation description when start condition 3 is satisfied 72 Operation description when start condition 4 is satisfied

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】複数の物体を空間中に配置して、フレーム
ごとに前記物体の画像を生成することで一連の映像を提
示する映像提示方法において、 前記物体の動作と前記動作を起動するための起動条件と
からなる動作単位を実行順に接続した動作単位リスト、
および前記物体の幾何属性とからシナリオを構成し、 前記シナリオ中から動作単位を読み出して前記動作単位
の動作を実行し、 前記動作単位に接続した動作単位の起動条件が成立すれ
ば、成立した起動条件を要素とする動作単位を新たに読
み出す一連の処理を繰り返し、 前記シナリオの幾何属性と前記動作とに基づいてフレー
ムごとに前記物体の画像を生成することを特徴とする映
像提示方法。
1. A video presentation method for presenting a series of videos by arranging a plurality of objects in space and generating an image of the object for each frame, in order to activate the motion of the object and the motion. An operation unit list in which the operation units consisting of
And a geometrical attribute of the object, a scenario is configured, an operation unit is read from the scenario, the operation of the operation unit is executed, and if the activation condition of the operation unit connected to the operation unit is satisfied, the established activation is performed. A method for presenting a video, characterized in that a series of processes for newly reading an action unit having a condition as an element is repeated to generate an image of the object for each frame based on the geometric attribute of the scenario and the action.
【請求項2】複数の物体を空間中に配置して、フレーム
ごとに前記物体の画像を生成することで一連の映像を提
示する映像提示装置において、 ユーザ入力を取り込むユーザ入力部と、 前記物体の動作と前記動作を起動するための起動条件と
からなる動作単位を実行順に接続した動作単位リスト、
および前記物体の幾何属性とから構成するシナリオを入
力するシナリオ入力部と、 前記シナリオの動作単位リストを格納して動作単位を出
力する動作単位格納部と、 前記動作単位に接続した動作単位の起動条件を前記動作
単位格納部から読み出し、前記起動条件が前記ユーザ入
力によって成立すれば成立した起動条件を要素とする動
作単位を前記動作単位格納部に出力させる動作単位指定
部と、 前記動作単位の動作と前記ユーザ入力とに基づいてフレ
ームごとに前記物体の位置および変形を計算してフレー
ム情報として出力するフレーム情報計算部と、 前記シナリオの幾何属性と前記フレーム情報とに基づい
て映像を生成する映像生成部とからなることを特徴とす
る映像提示装置。
2. A video presentation device for presenting a series of videos by arranging a plurality of objects in space and generating images of the objects for each frame, and a user input section for receiving a user input; An operation unit list in which operation units, each of which is composed of an operation and a start condition for starting the operation, are connected in the execution order,
And a scenario input section for inputting a scenario composed of the geometrical attributes of the object, an operation unit storage section for storing an operation unit list of the scenario and outputting an operation unit, and an activation of an operation unit connected to the operation unit An operation unit designating unit for reading out a condition from the operation unit storage unit and outputting an operation unit having the established activation condition as an element to the operation unit storage unit when the activation condition is satisfied by the user input; A frame information calculation unit that calculates the position and deformation of the object for each frame based on a motion and the user input, and outputs the frame information as frame information, and generates an image based on the geometric attribute of the scenario and the frame information. An image presentation device comprising: an image generation unit.
【請求項3】前記ユーザ入力、前記幾何属性および前記
フレーム情報とに基づいて発生するイベントを検出して
出力するイベント検出部を有し、 前記動作単位指定部が、前記動作単位に接続した動作単
位の起動条件を前記動作単位格納部から読み出し、前記
イベントによって前記起動条件が成立すれば成立した起
動条件を要素とする動作単位を前記動作単位格納部に出
力させることを特徴とする請求項2に記載の映像提示装
置。
3. An operation detecting section that detects and outputs an event that occurs based on the user input, the geometric attribute, and the frame information, and the operation unit specifying section is an operation connected to the operation unit. 3. The unit activation condition is read from the operation unit storage unit, and if the activation condition is satisfied by the event, an operation unit having the established activation condition as an element is output to the operation unit storage unit. The video presentation device described in 1.
【請求項4】前記動作単位指定部が、前記動作単位に接
続した動作単位の起動条件を前記動作単位格納部から読
み出し、前記起動条件の入力となるイベントを前記イベ
ント検出部に検出させ、前記イベントによって前記起動
条件が成立すれば成立した起動条件を要素とする動作単
位を前記動作単位格納部に出力させることを特徴とする
請求項3に記載の映像提示装置。
4. The operation unit designating section reads out a start condition of an operation unit connected to the operation unit from the operation unit storing section, and causes the event detecting section to detect an event which is an input of the start condition, The video presentation device according to claim 3, wherein if the activation condition is satisfied by an event, an operation unit having the satisfied activation condition as an element is output to the operation unit storage unit.
JP7048358A 1995-03-08 1995-03-08 Video presentation method and apparatus Expired - Lifetime JP2842283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7048358A JP2842283B2 (en) 1995-03-08 1995-03-08 Video presentation method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7048358A JP2842283B2 (en) 1995-03-08 1995-03-08 Video presentation method and apparatus

Publications (2)

Publication Number Publication Date
JPH08249496A true JPH08249496A (en) 1996-09-27
JP2842283B2 JP2842283B2 (en) 1998-12-24

Family

ID=12801137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7048358A Expired - Lifetime JP2842283B2 (en) 1995-03-08 1995-03-08 Video presentation method and apparatus

Country Status (1)

Country Link
JP (1) JP2842283B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002035409A (en) * 2000-07-28 2002-02-05 Namco Ltd Game system and information recording medium
KR20020049384A (en) * 2000-12-19 2002-06-26 이형민 System for generating character animation and method for generating character animation using the same
JP2002197480A (en) * 2000-12-26 2002-07-12 Namco Ltd Image generation system, program and information storage medium
JP2017162451A (en) * 2016-03-07 2017-09-14 フラミー インクFramy Inc. Method and system for editing scene in three-dimensional space
CN108242082A (en) * 2016-12-26 2018-07-03 粉迷科技股份有限公司 The scene edit methods and system of solid space

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274419A (en) * 1991-07-12 1993-10-22 Matsushita Electric Ind Co Ltd Information display device and display information generating device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274419A (en) * 1991-07-12 1993-10-22 Matsushita Electric Ind Co Ltd Information display device and display information generating device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002035409A (en) * 2000-07-28 2002-02-05 Namco Ltd Game system and information recording medium
JP4544555B2 (en) * 2000-07-28 2010-09-15 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
KR20020049384A (en) * 2000-12-19 2002-06-26 이형민 System for generating character animation and method for generating character animation using the same
JP2002197480A (en) * 2000-12-26 2002-07-12 Namco Ltd Image generation system, program and information storage medium
JP2017162451A (en) * 2016-03-07 2017-09-14 フラミー インクFramy Inc. Method and system for editing scene in three-dimensional space
EP3217258B1 (en) * 2016-03-07 2019-05-22 Framy Inc. Method and system for editing scene in three-dimensional space
CN108242082A (en) * 2016-12-26 2018-07-03 粉迷科技股份有限公司 The scene edit methods and system of solid space

Also Published As

Publication number Publication date
JP2842283B2 (en) 1998-12-24

Similar Documents

Publication Publication Date Title
US5261041A (en) Computer controlled animation system based on definitional animated objects and methods of manipulating same
Zachmann Virtual reality in assembly simulation-collision detection, simulation algorithms, and interaction techniques
Jordao et al. Crowd sculpting: A space‐time sculpting method for populating virtual environments
Bijl et al. Advanced 3D visualization for simulation using game technology
Kirner et al. Virtual reality and augmented reality applied to simulation visualization
US10242498B1 (en) Physics based garment simulation systems and methods
CN110503581A (en) Visualization training system based on Unity3D
JP2022500795A (en) Avatar animation
JP2727974B2 (en) Video presentation device
US5689437A (en) Video display method and apparatus
CN116778038A (en) Animation editor and animation design method based on three-dimensional map visualization platform
El Nimr et al. Application of gaming engines in simulation driven visualization of construction operations
JP2907089B2 (en) Interactive video presentation device
JP2842283B2 (en) Video presentation method and apparatus
Mousas et al. Performance-driven hybrid full-body character control for navigation and interaction in virtual environments
CN111739134B (en) Model processing method and device for virtual character and readable storage medium
Fu et al. Real-time multimodal human–avatar interaction
US20220028146A1 (en) Method and system for identifying incompatibility between versions of compiled software code
Jung et al. Extending H-Anim and X3D for advanced animation control
JP2850851B2 (en) Video display method and video display device
Stasko et al. Real clock time animation support for developing software visualisations
JPH10111934A (en) Method and medium for three-dimensional shape model generation
US20220028147A1 (en) Operating animation controls using evaluation logic
JPH10507860A (en) Video controller
JPH03168877A (en) Moving image forming system