JPH0488575A - Animation display system - Google Patents

Animation display system

Info

Publication number
JPH0488575A
JPH0488575A JP20408490A JP20408490A JPH0488575A JP H0488575 A JPH0488575 A JP H0488575A JP 20408490 A JP20408490 A JP 20408490A JP 20408490 A JP20408490 A JP 20408490A JP H0488575 A JPH0488575 A JP H0488575A
Authority
JP
Japan
Prior art keywords
animation
model
data
animation display
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP20408490A
Other languages
Japanese (ja)
Other versions
JP2869163B2 (en
Inventor
Masaki Hiraga
正樹 平賀
Munetoshi Umahara
馬原 宗俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP20408490A priority Critical patent/JP2869163B2/en
Publication of JPH0488575A publication Critical patent/JPH0488575A/en
Application granted granted Critical
Publication of JP2869163B2 publication Critical patent/JP2869163B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To reduce the burden of a person for preparing teaching materials by making a part to operate a model independent of a part to execute animation display. CONSTITUTION:An operation control data 10, pre-model 12, demonstration 13, animation execution data 14 and monitor part 15 are inputted from an input device 10 and stored in a memory 30. A processing part 22 executes an operation inference processing and an animation display processing. An operation inference processing part 23 first generates a post-model 31 from the pre-model 12 by utilizing the demonstration 13 according to the contents of the operation control data 11 and next generates a possession information data 32 from the operation control data 11 and the post-model 31. A animation display processing part 24 first updates the animation execution data 14 based on the possession information data 32 and next executes the animation display according to the updated animation display execution data 33. The post-model 31 is outputted to the animation display area of a display device according to the updated animation execution data 33 by the instruction from the monitor part 15.

Description

【発明の詳細な説明】 [概要コ 教材作成支援システムにおけるアニメーション表示方式
に関し、 教材の設計、開発が簡単となり、教材作成者の負担を軽
減させるようにしたアニメーション表示方式を提供する
ことを目的とし、 物理モデルのような何らかの意味のある構造を持ち、ア
ニメーション表示させる前の状態を有する前モデルと、
モデルを構成する部品のひとってあってシステムが自動
的に動作を推論する対象であるオブジェクトに関する情
報などが設定されている動作制御データと、個々のオブ
ジェクトから、ある条件のもとで起動されるプログラム
の集合であるデモンと、モデルに対する操作を管理する
ものである監視部と、アニメーション表示を制御するア
ニメーション実行データを入力する入力装置と、 動作制御データの内容に従い、デモンを利用して前モデ
ルから後モデルを生成し、動作制御データと後モデルと
から、獲得情報データを生成する動作推論処理部と、ア
ニメーション実行データを獲得情報データに基づき更新
し、その更新したアニメーション実行データによりアニ
メーション表示を行うアニメーション表示処理部からな
る処理部と、後モデル、各データを生成するためのワー
クエリアとしての機能を有するメモリからなる処理装置
を備え、 モデルを操作する部分と独立してアニメーション表示を
行うように構成する。
[Detailed Description of the Invention] [Summary] Regarding the animation display method in a teaching material creation support system, the purpose is to provide an animation display method that simplifies the design and development of teaching materials and reduces the burden on the teaching material creator. , a previous model that has some meaningful structure like a physical model and has a state before displaying the animation;
It is one of the parts that make up the model, and the system automatically infers its motion from motion control data that contains information about the object, and from each object, it is activated under certain conditions. A demon is a collection of programs that control the model; a monitoring unit that manages operations on the model; an input device that inputs animation execution data that controls animation display; A motion inference processing unit that generates a post-model from the model and generates acquired information data from the motion control data and the post-model, updates animation execution data based on the acquired information data, and displays animation using the updated animation execution data. It is equipped with a processing unit consisting of an animation display processing unit that performs operations, and a processing unit consisting of a memory that functions as a work area for generating post-models and various data, and performs animation display independently of the part that operates the model. Configure it as follows.

[産業上の利用分野] 本発明は、教材作成支援システムにおけるアニメーショ
ン表示方式に関する。
[Industrial Application Field] The present invention relates to an animation display method in a teaching material creation support system.

オブジェクト指向技法による構造を有するようなモデル
は、人工知能(AI)分野で、よく利用される。また、
コンピュータ援用学習/教育(CAL/CAI)の分野
では、シミュレーション型のCAL教材の中に、このよ
うなモデルを内部に有しているものが少なくない。
Models having a structure based on object-oriented techniques are often used in the field of artificial intelligence (AI). Also,
In the field of computer-aided learning/education (CAL/CAI), many simulation-type CAL teaching materials include such models.

オブジェクト指向技法による構造を有するようなモデル
を対象とし、汎用的なアニメーション表示を実現させる
方式の開発が要望されている。
There is a need for the development of a method for realizing general-purpose animation display for models that have a structure based on object-oriented techniques.

[従来の技術および発明が解決しようとする課題]従来
の教材作成支援システムにあっては、作成されたCAL
教材は、主として学習者の入力した解答データと、予め
設定された固定的正答データを照合するだけのものであ
り、シミュレーション型のCAL教材を実現するような
高度なアニメーションの表示も一連のプログラミングで
処理しなければならなかった。
[Problems to be solved by the conventional technology and invention] In the conventional teaching material creation support system, the created CAL
The teaching materials mainly consist of comparing the answer data entered by the learner with the fixed correct answer data set in advance, and the display of advanced animations to realize simulation-type CAL teaching materials is also done through a series of programming. had to be processed.

また、アニメーションの表示をオブジェクト指向型のプ
ログラム言語などでプログラミングで処理する場合、ア
ニメーション表示を行う部分がモデルを操作する部分に
依存するようになっているために、CAL教材の設計、
開発が容易でなく、教材作成者の負担が大きかった。
In addition, when displaying animations by programming using an object-oriented programming language, the part that displays the animation depends on the part that manipulates the model, so it is difficult to design CAL teaching materials.
It was not easy to develop and placed a heavy burden on the creators of teaching materials.

本発明は、このような従来の問題点に鑑みてなされたも
のであって、教材の設計、開発が簡単となり、教材作成
者の負担を軽減させるようにしたアニメーション表示方
式を提供することを目的としている。
The present invention has been made in view of these conventional problems, and an object of the present invention is to provide an animation display method that simplifies the design and development of teaching materials and reduces the burden on the creator of teaching materials. It is said that

[課題を解決するための手段] 第1図は本発明の原理説明図である。[Means to solve the problem] FIG. 1 is a diagram explaining the principle of the present invention.

第1図において、10は物理モデルのような何らかの意
味のある構造を持ち、アニメーション表示させる前の状
態を有する前モデル12と、モデルを構成する部品のひ
とつであってシステムが自動的に動作を推論する対象で
あるオブジェクトに関する情報などが設定されている動
作制御データ11と、個々のオブジェクトがら、ある条
件のもとで起動されるプログラムの集合であるデモン1
3と、モデルに対する操作を管理するものである監視部
15と、アニメーション表示を制御するアニメーション
実行データ14を入力する入力装置、20は動作制御デ
ータ11の内容に従い、デモン13を利用して前モデル
12から後モデル31を生成し、動作制御データ11と
後モデル31とから、獲得情報データ32を生成する動
作推論処理部23と、アニメーション実行データ14を
獲得情報データ32に基づき更新し、その更新したアニ
メーション実行データ33によりアニメーション表示を
行うアニメーション表示処理部24からなる処理部22
と、後モデル31、各データを生成するためのワークエ
リアとしての機能を有するメモリ30からなる処理装置
である。
In FIG. 1, numeral 10 indicates a previous model 12 which has some kind of meaningful structure such as a physical model and has a state before displaying the animation, and one of the parts that constitute the model and which the system automatically operates. Operation control data 11 in which information regarding the object to be inferred is set, and a demon 1 which is a collection of individual objects and programs that are activated under certain conditions.
3, a monitoring unit 15 that manages operations on the model, an input device that inputs animation execution data 14 that controls animation display; a motion inference processing unit 23 that generates a rear model 31 from the motion control data 11 and the rear model 31 and generates acquired information data 32 from the motion control data 11 and the rear model 31; and updates the animation execution data 14 based on the acquired information data 32; A processing unit 22 that includes an animation display processing unit 24 that displays an animation based on the animation execution data 33
This is a processing device consisting of a rear model 31, and a memory 30 having a function as a work area for generating each data.

[作用] 本発明では、入力装置10から、動作制御データ11、
前モデル12、デモン13、アニメーション実行データ
14、および監視部15が入力され、メモリ30に格納
される。
[Operation] In the present invention, the operation control data 11,
The previous model 12, the demon 13, the animation execution data 14, and the monitoring section 15 are input and stored in the memory 30.

処理部22により、動作推論処理およびアニメーション
表示処理が、順に実行される。
The processing unit 22 sequentially executes motion inference processing and animation display processing.

動作推論処理部23により、まず、動作制御データ11
の内容に従って、デモン13が利用され前モデル12か
ら後モデル31が生成され、次に、動作制御データ11
と後モデル31とから、獲得情報データ32が生成され
る。
The motion inference processing unit 23 first extracts the motion control data 11.
The demon 13 is used to generate the rear model 31 from the front model 12 according to the contents of the operation control data 11
Acquired information data 32 is generated from the and rear model 31.

アニメーション表示処理部24により、まず、アニメー
ション実行データ14が獲得情報データ32に基づき更
新され、次に、その更新したアニメーション実行データ
33によりアニメーション表示が行われる。
The animation display processing unit 24 first updates the animation execution data 14 based on the acquired information data 32, and then displays the animation using the updated animation execution data 33.

監視部15からの指示で、後モデル31が、更新アニメ
ーション実行データ33に従い、表示装置のアニメーシ
ョン表示域に出力される。
In response to instructions from the monitoring unit 15, the rear model 31 is output to the animation display area of the display device according to the updated animation execution data 33.

このように、モデルを操作する部分と、アニメーション
表示を行う部分を独立させたので、すなわちモデルを操
作する部分にアニメーション表示を行う部分が依存しな
いので、各々別々に考えればよく、このため、例えば、
CAL/CA 1の分野で、シミュレーション型のCA
L教材作成に関し、教材作成者の負担を軽減させること
ができ、学習者に知的な印象を与えることができるCA
L教材を提供することができる。
In this way, since the part that manipulates the model and the part that displays animation are made independent, that is, the part that displays animation does not depend on the part that manipulates the model, so each can be considered separately. ,
In the field of CAL/CA 1, simulation type CA
CA that can reduce the burden on the creator of teaching materials and give an impression of intelligence to the learners.
L teaching materials can be provided.

[実施例] 以下、本発明の実施例を図面に基づいて説明する。[Example] Embodiments of the present invention will be described below based on the drawings.

第2図〜第10図は本発明の一実施例を示す図である。FIGS. 2 to 10 are diagrams showing an embodiment of the present invention.

第2図において、10は入力装置であり、入力装置10
は、動作制御データ11、前モデル12、デモン13、
アニメーション実行データ14、および監視部150人
力を行う。
In FIG. 2, 10 is an input device, and the input device 10
are motion control data 11, previous model 12, demon 13,
Animation execution data 14 and monitoring unit 150 perform human effort.

動作制御データ11は、モデルを構成する部品のひとつ
であり、かつ、システムが自動的に動作を推論する対象
であるオブジェクトに関する情報である。ここでは、対
象(条件)と属性(名)を設定している。
The motion control data 11 is information regarding an object that is one of the components of the model and whose motion is automatically inferred by the system. Here, the target (condition) and attribute (name) are set.

前モデル12は、物理モデルのような何らかの意味のあ
る構造を持ち、これからアニメーション表示させる前の
状態を有するものである。
The previous model 12 has some meaningful structure like a physical model, and has a state before the animation is displayed.

デモン13は、個々のオブジェクトから、ある条件のも
とで起動されるプログラムの集合である。
The demon 13 is a collection of programs that are activated from individual objects under certain conditions.

アニメーション実行データ14は、アニメーション表示
を制御する情報である。
Animation execution data 14 is information that controls animation display.

監視部15は、モデルを構成する部品(オブジェクト)
の置換、削除、追加、比較、挿入や、モデルの表示など
、モデルに対する操作を管理するものである。モデルへ
の諸操作は、この監視部15を通して行われる。
The monitoring unit 15 monitors parts (objects) that make up the model.
It manages operations on models, such as replacing, deleting, adding, comparing, inserting, and displaying models. Various operations on the model are performed through this monitoring section 15.

20は処理装置であり、処理装置20は、入力部21、
処理部22、出力部25およびメモリ30から構成され
、処理部22は、動作推論処理部23およびアニメーシ
ョン表示処理部24から構成される。
20 is a processing device, and the processing device 20 includes an input unit 21,
It is composed of a processing section 22, an output section 25, and a memory 30, and the processing section 22 is composed of a motion inference processing section 23 and an animation display processing section 24.

入力部21は入力部![10から、動作制御データ11
、前モデル12、デモン13、アニメーション実行デー
タ14、および監視部15を受は取り、メモリ30に格
納する。
The input section 21 is an input section! [From 10, operation control data 11
, the previous model 12, the demon 13, the animation execution data 14, and the monitoring section 15 are received and stored in the memory 30.

処理部22は、動作推論処理およびアニメーション表示
処理を、順に実行する。
The processing unit 22 sequentially executes motion inference processing and animation display processing.

動作推論処理部23は、まず、動作制御データ11の内
容に従い、デモン13を利用して前モデル12から後モ
デル31を生成する(監視部15も経由する)。次に、
動作制御データ11と後モデル31とから、獲得情報デ
ータ32を生成する(監視部15も経由する)。
The motion inference processing section 23 first generates the subsequent model 31 from the previous model 12 using the demon 13 according to the contents of the motion control data 11 (also via the monitoring section 15). next,
Acquired information data 32 is generated from the motion control data 11 and the rear model 31 (also via the monitoring unit 15).

アニメーション表示処理部24は、まず、アニメーショ
ン実行データ14を獲得情報データ32に基づき更新す
る。次に、その更新したアニメーション実行データ33
によりアニメーション表示を行う(監視部15および出
力部25を経由する)出力部25は、監視部15からの
指示により、後モデル31を、更新アニメーション実行
データ33に従って、表示装置40のアニメーション表
示域41に出力する。
The animation display processing unit 24 first updates the animation execution data 14 based on the acquired information data 32. Next, the updated animation execution data 33
The output unit 25 (via the monitoring unit 15 and the output unit 25) displays the animation by displaying the rear model 31 in the animation display area 41 of the display device 40 according to the updated animation execution data 33 according to instructions from the monitoring unit 15. Output to.

メモリ30は、動作推論処理部23およびアニメーショ
ン表示処理部24からアクセスされる。
The memory 30 is accessed by the motion inference processing section 23 and the animation display processing section 24.

表示装置40はアニメーション表示域41をもつ0 なお、第3図に前記監視部15の手続モジュール名の概
要を示す。
The display device 40 has an animation display area 41. Note that FIG. 3 shows an outline of procedure module names of the monitoring section 15.

次に、動作を説明する。Next, the operation will be explained.

第4図は本発明の一実施例を示すメイン処理のフローを
示す図である。
FIG. 4 is a diagram showing a flow of main processing showing an embodiment of the present invention.

第4図に示す「メイン処理」では、(a)、 (b)の
処理を実行する。
In the "main process" shown in FIG. 4, processes (a) and (b) are executed.

(a)まず、■「動作推論処理」を実行する。(a) First, ``motion inference processing'' is executed.

(b)次に、■「アニメーション表示処理」を実行する
(b) Next, execute ``Animation display processing''.

第4図に示す■「動作推論処理」では、第5図に示す(
a)〜(c)の処理を実行する(第8図も参照)。
■ "Motion inference processing" shown in Fig. 4 is shown in Fig. 5 (
Processes a) to (c) are executed (see also FIG. 8).

(a)動作制御データ11の対象および属性の値に対応
する、前モデル12内のオブジェクトの属性情報に起動
をかける。
(a) Activate the attribute information of the object in the previous model 12 that corresponds to the target and attribute value of the motion control data 11.

(b)デモン13が起動され、最終的に、そのオブジェ
クトの属性情報に値が転記される(後モデル31を生成
する)。
(b) The demon 13 is activated, and finally the value is transferred to the attribute information of the object (generating the post-model 31).

(C)後モデル31内のそのオブジェクト名および属性
情報の値と、動作制御データ11とから、獲得情報デー
タ32を生成する。
(C) Generate acquired information data 32 from the object name and attribute information value in the rear model 31 and the motion control data 11.

第4図に示す■[アニメーション表示処理」では、第6
図に示す(a)、 (b)の処理を実行する(第10図
も参照)。
■ [Animation display processing] shown in Fig. 4, the 6th
The processes (a) and (b) shown in the figure are executed (see also FIG. 10).

(a)アニメーション実行データ14を、獲得情報デー
タ32の内容をもとに、更新する。
(a) The animation execution data 14 is updated based on the contents of the acquired information data 32.

■対象に対応するグラフィックパターンに着目する。■Focus on graphic patterns that correspond to the target.

■そのグラフィックパターンの最初の表示位置と、動作
推論結果による値から、後の表示位置を算出する。
(2) Calculate the subsequent display position from the initial display position of the graphic pattern and the value obtained from the motion inference result.

■キーフレーム法の考え方により、最初の表示位置と後
の表示位置から、その間の表示位置を算出する。
■Using the idea of the key frame method, the display position between the first display position and the subsequent display position is calculated.

(b’l その更新したアニメーション実行データ33
1こ基づき、アニメーションを表示する。
(b'l The updated animation execution data 33
Display animation based on 1.

次に、第7図■は人Aが仕事をする前の状態を示し、第
7図■は人Aが仕事をした後の状態を示す。すなわち、
人Aに仕事率(kg重量/秒)、時間3(秒)を与えた
ときの物体A(50kg)の移動をアニメーション表示
している。以下、この問題を例として動作を具体的に説
明する。
Next, FIG. 7 (■) shows the state before person A works, and FIG. 7 (2) shows the state after person A does work. That is,
An animation is displayed of the movement of object A (50 kg) when work rate (kg weight/second) and time 3 (seconds) are given to person A. Hereinafter, the operation will be specifically explained using this problem as an example.

まず、第8図に基づいて動作推論処理を説明する。First, motion inference processing will be explained based on FIG.

動作制御データ11の対象は(上位概念カリ物体であり
、属性は後の位置である。この対象および属性の値に対
応する前モデル12内のオブジェクトの属性情報に起動
をかける。
The target of the motion control data 11 is a (superordinate concept) object, and the attribute is the subsequent position. The attribute information of the object in the previous model 12 corresponding to this target and the value of the attribute is activated.

第9図にオブジェクトに設定されるデモンの例を示す。FIG. 9 shows an example of a demon set as an object.

人Xついては、仕事、仕事率、時間、物体Xについては
、後の位置、前の位置、仕事、摩擦力、移動距離の各公
式が与えられている。この例では、 後の位置=前の位置土移動距離 移動距離−仕事÷摩擦力 仕  事=仕事率X時間 というデモン13が起動される。こうして、人Aについ
ては仕事→450が、物体Aについては仕事→450、
移動距離−9、後の位置−15の各値が転記されて、後
モデル31が生成される。そして、後モデル31内のオ
ブジェクト名と属性情報の値と、動作制御データ11か
ら獲得情報データ32が生成される。獲得情報データ3
2の対象は物体A1属性は後の位置、値は15となる。
For person X, formulas for work, power rate, and time are given; for object X, formulas are given for backward position, previous position, work, frictional force, and distance traveled. In this example, a demon 13 is activated in which the following position = previous position, soil movement distance, movement distance - work ÷ frictional force, work = power rate x time. In this way, work → 450 for person A, work → 450 for object A,
The values of movement distance -9 and subsequent position -15 are transferred to generate the subsequent model 31. Then, acquisition information data 32 is generated from the object name and attribute information value in the rear model 31 and the motion control data 11. Acquired information data 3
For the object No. 2, the object A1 attribute is at the rear position and the value is 15.

次に、第10図に示すように、人Aが仕事をする前のア
ニメーション実行データ14を獲得情報データ32によ
り更新する。
Next, as shown in FIG. 10, the animation execution data 14 before the person A works is updated with the acquired information data 32.

グラフィックパターンは物体A(P5)であり、最初の
表示位置は(30,80)である。この最初の表示位I
I(30,80)と動作推論結果の値(15)により後
の表示位置(270,80)を算出する。
The graphic pattern is object A (P5), and the first display position is (30, 80). This first display position I
The subsequent display position (270, 80) is calculated from I (30, 80) and the value (15) of the motion inference result.

そして、最初の表示位置(30,80)と後の表示位置
(270,80)間の中間表示位置(60,80)、(
90,80)、(120,80)、(150,80)、
(180,80)、(21080)、(240,80)
を算出する。
Then, intermediate display positions (60, 80), (
90,80), (120,80), (150,80),
(180,80), (21080), (240,80)
Calculate.

こうして更新したアニメーション実行データ33に基づ
いて第7図■のような、アニメーションを表示する。
Based on the animation execution data 33 updated in this way, an animation like the one shown in FIG. 7 is displayed.

[発明の効果] 以上説明したように、本発明によれば、モデルを操作す
る部分と、アニメーション表示を行う部分を独立させる
ようにしたため、設計、開発が楽になる。したがって、
例えば、CAL/CAIの分野で、シミュレーション型
のCAL教材作成に関し、教材作成者の負担を軽減させ
ることができ、学習者に知的な印象を与えることができ
るCAL教材を提供することができる。
[Effects of the Invention] As described above, according to the present invention, the part for manipulating the model and the part for displaying animation are made independent, which facilitates design and development. therefore,
For example, in the field of CAL/CAI, it is possible to reduce the burden on the creator of simulation-type CAL teaching materials and provide CAL teaching materials that give an intellectual impression to learners.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図(A)、  (B)は本発明の原理説明図、第2
図は本発明の一実施例を示すブロック図、第3図は監視
部の手続モジュール名の説明図、第4図はメイン処理の
フローを示す図、第5図は動作推論処理のフローを示す
図、第6図はアニメーション表示処理のフローを示す図
、 第7図はアニメーション表示の一例を示す図、第8図は
デモンによる動作の推論を示す図、第9図はオブジェク
トに設定されるデモン例を示す図、 第10図はアニメーション実行データの更新を示す図で
ある。 図中、 10・・・入力装置、 11・・・動作制御データ、 12・・・前モデル、 13・・・デモン、 4・・・アニメーション実行データ、 5・・・監視部、 O・・・処理装置、 1・・・入力部、 2・・・処理部、 3・・・動作推論処理部、 4・・・アニメーション表示処理部、 5・・・出力部、 0・・・メモリ、 1・・・後モデル、 2・・・獲得情報データ、 3・・・更新アニメーション実行データ、0・・・表示
装置、 1・・・アニメーション表示域。
Figures 1 (A) and (B) are diagrams explaining the principle of the present invention;
Figure 3 is a block diagram showing an embodiment of the present invention, Figure 3 is an explanatory diagram of procedure module names of the monitoring section, Figure 4 is a diagram showing the flow of main processing, and Figure 5 is a flowchart of behavioral inference processing. Figure 6 is a diagram showing the flow of animation display processing, Figure 7 is a diagram showing an example of animation display, Figure 8 is a diagram showing inference of motion by a demon, and Figure 9 is a diagram showing a demon set in an object. A diagram showing an example, FIG. 10 is a diagram showing updating of animation execution data. In the figure, 10... Input device, 11... Operation control data, 12... Previous model, 13... Demon, 4... Animation execution data, 5... Monitoring unit, O... Processing device, 1... Input section, 2... Processing section, 3... Motion inference processing section, 4... Animation display processing section, 5... Output section, 0... Memory, 1. ... Back model, 2... Acquired information data, 3... Update animation execution data, 0... Display device, 1... Animation display area.

Claims (1)

【特許請求の範囲】 物理モデルのような何らかの意味のある構造を持ち、ア
ニメーション表示させる前の状態を有する前モデル(1
2)と、モデルを構成する部品のひとつであってシステ
ムが自動的に動作を推論する対象であるオブジェクトに
関する情報などが設定されている動作制御データ(11
)と、個々のオブジェクトから、ある条件のもとで起動
されるプログラムの集合であるデモン(13)と、モデ
ルに対する操作を管理するものである監視部(15)と
、アニメーション表示を制御するアニメーション実行デ
ータ(14)を入力する入力装置(10)と、 動作制御データ(11)の内容に従い、デモン(13)
を利用して前モデル(12)から後モデル(31)を生
成し、動作制御データ(11)と後モデル(31)とか
ら、獲得情報データ(32)を生成する動作推論処理部
(23)と、アニメーション実行データ(14)を獲得
情報データ(32)に基づき更新し、その更新したアニ
メーション実行データ(33)によりアニメーション表
示を行うアニメーション表示処理部(24)からなる処
理部(22)と、後モデル、各データを生成するための
ワークエリアとしての機能を有するメモリ(30)から
なる処理装置(20)を備え、 モデルを操作する部分と独立してアニメーション表示を
行うことを特徴とするアニメーション表示方式。
[Claims] A previous model (1
2), and motion control data (11
), a demon (13) which is a collection of programs started from individual objects under certain conditions, a monitoring unit (15) which manages operations on the model, and an animation which controls animation display. An input device (10) for inputting execution data (14) and a demon (13) according to the contents of the operation control data (11).
a motion inference processing unit (23) that generates a posterior model (31) from the previous model (12) using the motion control data (11) and the posterior model (31) and generates acquired information data (32); and a processing unit (22) comprising an animation display processing unit (24) that updates the animation execution data (14) based on the acquired information data (32) and displays the animation based on the updated animation execution data (33); An animation characterized by comprising a processing device (20) consisting of a memory (30) having a function as a work area for generating a rear model and each data, and displaying animation independently of a part that operates the model. Display method.
JP20408490A 1990-08-01 1990-08-01 Animation display method Expired - Lifetime JP2869163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20408490A JP2869163B2 (en) 1990-08-01 1990-08-01 Animation display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20408490A JP2869163B2 (en) 1990-08-01 1990-08-01 Animation display method

Publications (2)

Publication Number Publication Date
JPH0488575A true JPH0488575A (en) 1992-03-23
JP2869163B2 JP2869163B2 (en) 1999-03-10

Family

ID=16484522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20408490A Expired - Lifetime JP2869163B2 (en) 1990-08-01 1990-08-01 Animation display method

Country Status (1)

Country Link
JP (1) JP2869163B2 (en)

Also Published As

Publication number Publication date
JP2869163B2 (en) 1999-03-10

Similar Documents

Publication Publication Date Title
US6718231B2 (en) Authoring system and authoring method, and storage medium
Cohen Interactive spacetime control for animation
US5883639A (en) Visual software engineering system and method for developing visual prototypes and for connecting user code to them
CN104541306A (en) System for neurobehavioural animation
Panëels et al. Prototyping 3D haptic data visualizations
Li et al. A low-complexity method for authoring an interactive virtual maintenance training system of hydroelectric generating equipment
Cannavò et al. A visual editing tool supporting the production of 3D interactive graphics assets for public exhibitions
Esteves et al. OOP-Anim, a system to support learning of basic object oriented programming concepts.
Badler Artificial intelligence, natural language, and simulation for human animation
JPH0488575A (en) Animation display system
Wolber Pavlov: an interface builder for designing animated interfaces
Palmieri et al. A flexible framework for FMI-based co-simulation of human-centred cyber-physical systems
Cremer et al. Simulation and scenario support for virtual environments
Cardoso et al. MathTutor: a multi-agent intelligent tutoring system
JPH08329272A (en) Animation generator method
Quintana et al. Authoring tools for procedural modeling of virtual reality-based rehabilitation exercises
CN110597594B (en) Processing method and device of virtual teaching aid, electronic equipment and teaching aid system
Acosta Haptic virtual environment
JPH10507860A (en) Video controller
JPH04151689A (en) Producing system for teaching material
Li et al. Procedural rhythmic character animation: an interactive Chinese lion dance
Pellicer et al. Using processing. org in an introductory computer graphics course
Gutierrez et al. Reflex movements for a virtual human: a biology inspired approach
JPH04270470A (en) Animation preparing method
Gavrilova et al. An approach to learning software based on Student Modelling

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071225

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081225

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091225

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091225

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101225

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101225

Year of fee payment: 12