JPH06348438A - Scenario editor and scenatio executing device - Google Patents

Scenario editor and scenatio executing device

Info

Publication number
JPH06348438A
JPH06348438A JP5135536A JP13553693A JPH06348438A JP H06348438 A JPH06348438 A JP H06348438A JP 5135536 A JP5135536 A JP 5135536A JP 13553693 A JP13553693 A JP 13553693A JP H06348438 A JPH06348438 A JP H06348438A
Authority
JP
Japan
Prior art keywords
screen
area
displayed
effect
definition area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5135536A
Other languages
Japanese (ja)
Other versions
JP3715993B2 (en
Inventor
Shigeru Suzuki
滋 鈴木
Teruo Shimomura
照雄 下村
Yoshinobu Higuchi
美宣 樋口
Osamu Mifune
修 三船
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP13553693A priority Critical patent/JP3715993B2/en
Publication of JPH06348438A publication Critical patent/JPH06348438A/en
Application granted granted Critical
Publication of JP3715993B2 publication Critical patent/JP3715993B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)

Abstract

PURPOSE:To prepare a conversational scenario by displaying an initial picture definition area on a scenario editing screen, displaying a candidate picture group to be stored in the definition area on a selection screen, storing a user selecting picture in the definition area, and displaying the succeeding definition area corresponding to the number of buttons in the selecting picture. CONSTITUTION:The picture definition area 2 is displayed and a candidate picture group to be stored in the area 2 is displayed on the selection screen 3. A picture 21 selected from the screen 3 by a user is stored and displayed on the area 2 and the succeeding picture definition area 2 corresponding to the number of buttons in the selected picture is prepared and displayed. Sound, a screen effect and a sound effect to be used for the picture definition area (screen) are selected from respective selecting pictures (for the sound, the screen effect and the sound effect) 3 and stored and displayed on the area 2. Constitution for repeating the processing is adopted. Consequently a scenario capable of conversationally, efficiently and simply constituting respective picture defintion areas 2 like a tree structure can be prepared while checking the flow of the whole scenario and the picture 21.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画面を表示する順序を
編集および編集したシナリオを実行するシナリオ編集装
置およびシナリオ実行装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a scenario editing device and a scenario executing device for editing a screen display sequence and executing a scenario in which the edited sequence is executed.

【0002】[0002]

【従来の技術】従来、画面を表示する順序を決めるシナ
リオは、オーサリングツール独自の言語による文字情報
を使って最初にある画面0を初期表示し、次に画面1を
表示するというように、いずれの画面をどのような順番
で表示するかを順次決定して作成していた。
2. Description of the Related Art Conventionally, a scenario for determining the order of displaying screens is such that the first screen 0 is initially displayed using character information in a language unique to the authoring tool, and then the screen 1 is displayed. It was created by sequentially deciding in what order the screens of will be displayed.

【0003】また、記号を用いて図式化した手法によ
り、シナリオを編集するツールが登場し、ファイル中心
による記述によってシナリオを作成していた。
In addition, a tool for editing a scenario has appeared by a method of making a diagram using symbols, and a scenario is created by a description centered on a file.

【0004】[0004]

【発明が解決しようとする課題】上述したように、従来
の前者のオーサリングツール独自の言語を使って画面を
表示する順番を記述してシナリオを編集していたので
は、独自の言語学習や記述ミスが発生し、多大の時間が
必要となってしまう問題があった。
As described above, if the scenario is edited by describing the order in which the screens are displayed by using the language of the former former authoring tool, the language learning and description of the original language may be performed. There was a problem that mistakes occurred and required a lot of time.

【0005】また、後者の手法によれば、ファイル中心
による記述や難解な図式化などにより、前者に比して大
幅な作業時間の削減に至らないという問題があった。本
発明は、これらの問題を解決するため、シナリオ全体の
流れや画面を確認しながら会話的に効率的かつ簡単にシ
ナリオの作成を可能にすると共に作成したシナリオを実
行することを目的としている。
Further, the latter method has a problem that the work time cannot be significantly reduced as compared with the former method due to the file-based description and the difficult graphic representation. In order to solve these problems, an object of the present invention is to enable a scenario to be created interactively, efficiently and easily while checking the flow and screen of the entire scenario and to execute the created scenario.

【0006】[0006]

【課題を解決するための手段】図1は、本発明の原理構
成図を示す。図1において、シナリオ編集画面1は、画
面定義領域2をツリー構造に編集するための画面であ
る。
FIG. 1 is a block diagram showing the principle of the present invention. In FIG. 1, a scenario edit screen 1 is a screen for editing the screen definition area 2 in a tree structure.

【0007】画面定義領域2は、画面領域22、画面効
果領域23、音声効果領域24、および音声領域25を
設けたものである。画面21は、画像やボタンを表示す
る画面である。
The screen definition area 2 is provided with a screen area 22, a screen effect area 23, a sound effect area 24, and a sound area 25. The screen 21 is a screen for displaying images and buttons.

【0008】画面領域22は、画面21を格納表示する
領域である。画面効果領域23は、画面21を表示/非
表示するときの画面効果を格納表示する領域である。
The screen area 22 is an area for storing and displaying the screen 21. The screen effect area 23 is an area for storing and displaying the screen effect when the screen 21 is displayed / hidden.

【0009】音声効果領域24は、画面21を切り替え
るときの音声効果を格納表示する領域である。音声領域
25は、音声(音声イメージ)を格納表示する領域であ
る。
The voice effect area 24 is an area for storing and displaying a voice effect when the screen 21 is switched. The voice area 25 is an area for storing and displaying voice (voice image).

【0010】選択画面3は、画面定義領域2に格納する
候補の画面21、画面効果、音声効果、音声(音声イメ
ージ)を表示して選択するための画面である。
The selection screen 3 is a screen for displaying and selecting a candidate screen 21 to be stored in the screen definition area 2, a screen effect, a sound effect, and a sound (sound image).

【0011】[0011]

【作用】本発明は、図1に示すように、シナリオ編集画
面1上に初期の画面定義領域2を表示すると共に当該画
面定義領域2に格納する候補の画面群を選択画面3に表
示し、利用者から当該選択画面3中から選択された画面
21を画面定義領域2に格納して表示および当該選択さ
れた画面21中のボタンの数に対応した次の画面定義領
域2を作成表示することを繰り返すようにしている。
According to the present invention, as shown in FIG. 1, the initial screen definition area 2 is displayed on the scenario editing screen 1, and the candidate screen group to be stored in the screen definition area 2 is displayed on the selection screen 3. To store and display the screen 21 selected from the selection screen 3 by the user in the screen definition region 2, and to create and display the next screen definition region 2 corresponding to the number of buttons in the selected screen 21. Is repeated.

【0012】この際、選択画面3上に縮小した候補の画
面群を表示するようにしている。また、画面定義領域2
中に画面効果(画面を表示/非表示する際の表示方法)
を格納する画面効果領域23を設け、利用者により選択
画面3から選択された画面効果を当該画面効果領域23
に格納表示するようにしている。
At this time, a reduced candidate screen group is displayed on the selection screen 3. Also, screen definition area 2
Screen effect during (display method when displaying / hiding the screen)
Is provided in the screen effect area 23 for storing the screen effect selected from the selection screen 3 by the user.
It is stored and displayed in.

【0013】また、画面定義領域2中に音声を格納する
音声領域25を設け、利用者により選択画面3から選択
された音声イメージを当該音声領域25に格納表示する
ようにしている。
Further, a voice area 25 for storing voice is provided in the screen definition area 2, and the voice image selected by the user from the selection screen 3 is stored and displayed in the voice area 25.

【0014】また、画面定義領域2中に音声効果(表示
している画面を次の画面に切り替える間に再生する音声
効果)を格納する音声効果領域24を設け、利用者によ
り選択画面3から選択された音声効果を当該音声効果領
域24に格納表示するようにしている。
Further, in the screen definition area 2, a sound effect area 24 for storing a sound effect (a sound effect reproduced while switching the displayed screen to the next screen) is provided, and the user selects from the selection screen 3. The voice effect thus created is stored and displayed in the voice effect area 24.

【0015】また、編集されたツリー構造の先頭の画面
定義領域2から情報を取り出して組み立てて画面を表示
し、画面中で選択されたボタンに対応する画面定義領域
2について繰り返して画面を表示するようにしている。
Further, information is taken out from the screen definition area 2 at the head of the edited tree structure, the screen is assembled and displayed, and the screen is repeatedly displayed for the screen definition area 2 corresponding to the button selected in the screen. I am trying.

【0016】また、編集されたツリー構造の先頭の画面
定義領域2から情報を取り出して組み立て、画像効果領
域23に格納されていた画面効果に従って画面を表示お
よび音声効果領域24に格納されていた音声効果に従っ
て音声を出力した後、表示された画面21上で音声図形
が選択されたときに音声領域25に格納されていた音声
を出力し、画面上で選択されたボタン22に対応する画
面定義領域2について繰り返して画面、画面効果、音声
効果、音声を出力するようにしている。
Further, information is taken out from the screen definition area 2 at the head of the edited tree structure, assembled, a screen is displayed according to the screen effect stored in the image effect area 23, and a sound stored in the sound effect area 24 is displayed. After outputting the voice according to the effect, the voice stored in the voice region 25 when the voice figure is selected on the displayed screen 21 is output, and the screen definition region corresponding to the button 22 selected on the screen is output. 2 is repeated to output the screen, the screen effect, the sound effect, and the sound.

【0017】従って、シナリオ全体の流れや画面21を
確認しながら会話的に効率的かつ簡単にシナリオの作成
を行なうことが可能となる。この際、画面21のみでな
く、画面効果、音声、音声効果を併せて会話的に効率的
かつ簡単に作成することが可能となる。更に、作成した
リナリオの画面定義領域2の先頭からその情報を取り出
して組立てて表示、音声出力したり、更に選択されたボ
タンの画面定義領域3の情報を取り出して組み立てて表
示、音声出力したりすることを繰り返し、シナリオを実
行することが可能となる。
Therefore, it is possible to interactively and efficiently and easily create a scenario while checking the flow of the entire scenario and the screen 21. At this time, not only the screen 21, but also the screen effect, the voice, and the voice effect can be efficiently and easily created interactively. Further, the information is taken out from the head of the created screen definition area 2 of Linario and assembled, displayed, and output by voice, or the information of the screen definition area 3 of the selected button is taken out, assembled, displayed, and output by voice. It is possible to execute the scenario repeatedly.

【0018】[0018]

【実施例】次に、図1から図4を用いて本発明の実施例
の構成および動作を順次詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the construction and operation of an embodiment of the present invention will be described in detail with reference to FIGS.

【0019】図1は、本発明の原理構成図を示す。図1
の(a)は、シナリオ編集画面1を示す。これは、画面
上で会話的に選択、入力してツリー構造の画面定義領域
2を作成するための編集画面である。このシナリオ編集
画面1には、図示のように、ツリー構造に画面定義領域
2を順次作成したものを表示したり、画面21、画面効
果、音声効果、および音声(音声イメージ)を選択する
それぞれの選択画面3を表示したりなどする。
FIG. 1 is a block diagram showing the principle of the present invention. Figure 1
(A) shows the scenario edit screen 1. This is an edit screen for interactively selecting and inputting on the screen to create the screen definition area 2 having a tree structure. As shown in the figure, the scenario edit screen 1 displays a screen structure in which a screen definition area 2 is sequentially created, and selects a screen 21, a screen effect, a sound effect, and a sound (sound image). For example, the selection screen 3 is displayed.

【0020】画面定義領域2は、画面を格納する画面領
域22、画面効果を格納する画面効果領域23、音声効
果を格納する音声効果領域24、および音声を格納する
音声領域25から構成されるものである。
The screen definition area 2 is composed of a screen area 22 for storing a screen, a screen effect area 23 for storing a screen effect, a voice effect area 24 for storing a voice effect, and a voice area 25 for storing a voice. Is.

【0021】選択画面3は、選択画面(画面)3、選択
画面(画面効果)3、選択画面(音声効果)3、および
選択画面(音声)3などであって、画面、画面効果、音
声効果および音声(音声イメージ)などを選択したり、
入力したりする画面である。この選択画面3から選択、
入力された情報(画面(縮小画面)、画面効果、音声効
果、および音声など)は、図1の(b)に示すように各
画面定義領域2中の画面領域22、画面効果領域23、
音声効果領域24、および音声領域25にそれぞれ格納
する。
The selection screen 3 includes a selection screen (screen) 3, a selection screen (screen effect) 3, a selection screen (sound effect) 3, a selection screen (sound) 3, and the like. And select audio (audio image),
This is a screen for inputting. Select from this selection screen 3,
The input information (screen (reduced screen), screen effect, voice effect, voice, and the like) has a screen area 22, a screen effect area 23, and a screen effect area 23 in each screen definition area 2 as shown in FIG.
The voice effect area 24 and the voice effect area 25 are stored respectively.

【0022】図1の(b)は、画面定義領域を示す。こ
の画面定義領域2に設けた画面領域22、画面効果領域
23、音声効果領域24、および音声領域25には、画
面(縮小画面)、画面効果、音声効果、および音声をそ
れぞれ格納するものである。
FIG. 1B shows the screen definition area. The screen area 22, the screen effect area 23, the sound effect area 24, and the sound area 25 provided in the screen definition area 2 store the screen (reduced screen), the screen effect, the sound effect, and the sound, respectively. .

【0023】・画面領域22には、図示のように、イメ
ージの画面、テキストの画面、ボタンの画面をそれぞれ
図示のように格納する。ボタンの画面は、次に表示する
画面を格納した画面定義領域2にリンクするためのもの
である。従って、図示の画面領域22には、ボタン1、
ボタン2、ボタン3の3つが格納されているので、これ
らボタン1、ボタン2、ボタン3からそれぞれ次の画面
定義領域2がリンクされ、ツリー構造を構築する(図1
の(a)の画面定義領域のボタン1によって画面定義
領域にリンクし、ボタン2によって画面定義領域に
リンクし、ボタン3によって画面定義領域にリンクす
る)。従って、実行時に、ボタン1、ボタン2、ボタン
3のうちのマウスでクリックされたボタンの画面定義領
域2の画面が次に表示されることとなる。また、各画面
(イメージ、テキスト)やボタンは、その表示する位
置、サイズを図示のように予め設定して格納しておく。
イメージは、写真などの静止画像や映像などの動画像で
ある。
In the screen area 22, as shown, an image screen, a text screen, and a button screen are stored as shown. The button screen is for linking to the screen definition area 2 in which the screen to be displayed next is stored. Therefore, in the illustrated screen area 22, the buttons 1,
Since three buttons 2 and 3 are stored, the next screen definition area 2 is linked from each of these buttons 1, 2 and 3 to build a tree structure (see FIG. 1).
(A) of the screen definition area, button 1 links to the screen definition area, button 2 links to the screen definition area, and button 3 links to the screen definition area). Therefore, at the time of execution, the screen of the screen definition area 2 of the button clicked by the mouse among the buttons 1, 2, and 3 is displayed next. Further, the display position and size of each screen (image, text) and button are preset and stored as shown in the figure.
The image is a still image such as a photograph or a moving image such as a video.

【0024】・画面効果領域23には、図示のように画
面効果を格納する。画面効果は、後述する図3に示す表
示属性のうちの表示方法であり、例えばFADE(ゆっ
くりと画面を消去または表示する)などである。
The screen effect area 23 stores screen effects as shown in the figure. The screen effect is a display method of the display attributes shown in FIG. 3 described later, and is, for example, FADE (slowly erase or display the screen).

【0025】・音声効果領域24には、図示のように音
声効果を格納する。音声効果は、後述する図3に示す音
声情報のうちの音声効果であり、例えば音声C(画面か
ら次の画面に切り替わるときの音声による説明)などで
ある。
The voice effect area 24 stores voice effects as shown in the figure. The voice effect is a voice effect in the voice information shown in FIG. 3 to be described later, and is, for example, voice C (description by voice when switching from one screen to the next screen).

【0026】・音声領域25には、図示のように音声を
格納する。音声は、後述する図3に示す音声情報のうち
の音声情報であり、例えば画面全体に対する音声A、更
に画面内の音声図形が選択されたときの音声Bなどであ
る。
The voice area 25 stores voices as shown in the figure. The voice is voice information in the voice information shown in FIG. 3 described later, and is, for example, voice A for the entire screen, voice B when a voice figure in the screen is selected, and the like.

【0027】以上のように、画面定義領域2には、画面
領域22、画面効果領域23、音声効果領域24、およ
び音声領域25を設け、選択画面3から選択、入力して
下記のようにそれぞれ格納する。
As described above, the screen definition area 2 is provided with the screen area 22, the screen effect area 23, the sound effect area 24, and the sound area 25, which are selected and input from the selection screen 3 as follows. Store.

【0028】・画面領域22には、画面(イメージ、テ
キスト)、ボタンを格納する。 ・画面効果領域23には、画面効果を格納する。 ・音声効果領域24には、音声効果を格納する。
The screen area 22 stores screens (images, texts) and buttons. The screen effect area 23 stores screen effects. The voice effect area 24 stores voice effects.

【0029】・音声領域25には、音声を格納する。 そして、これら各領域に格納した情報は、内部形式で
は、後述する図3の画面定義体情報4として格納して保
存する。
The voice area 25 stores voice. Then, the information stored in each of these areas is stored and saved as the screen definition information 4 of FIG. 3 described later in the internal format.

【0030】次に、図2のツリー構造のシナリオ編集フ
ローチャートに示す順序に従い、図1の構成の動作を詳
細に説明する。図2において、S1は、初期画面表示す
る。これは、図1の(a)の初期画面(開始−画面定義
領域)を表示する。
Next, the operation of the configuration of FIG. 1 will be described in detail according to the order shown in the scenario editing flowchart of the tree structure of FIG. In FIG. 2, S1 displays an initial screen. This displays the initial screen (start-screen definition area) of FIG. 1 (a).

【0031】S2は、何を選択するかオペレータが指示
する。画面の選択が指示された場合には、S3からS6
の処理を行なう。一方、音声、画面効果、音声効果が選
択された場合には、S7からS9の処理を行なう。
In S2, the operator instructs what to select. When screen selection is instructed, S3 to S6
Is processed. On the other hand, when the voice, screen effect, or voice effect is selected, the processes of S7 to S9 are performed.

【0032】S3は、S2で画面の選択が指示されたの
で、現在の画面定義領域2に格納する画面を選択するた
めの選択画面(画面)3(例えば図1の(a)の選択画
面(画面)3を表示する。
In S3, since the screen selection is instructed in S2, the selection screen (screen) 3 for selecting the screen to be stored in the current screen definition area 2 (for example, the selection screen ((a) in FIG. 1) ( Screen) 3 is displayed.

【0033】S4は、最初に表示させたい画面選択をオ
ペレータが行なう。オペレータが例えば図1の(a)の
選択画面(画面)3に表示した画面である縮小1(縮小
画面1を表す)、縮小2、縮小3、縮小4、縮小5、縮
小6などのうちから最初に表示させたい画面(例えば縮
小1)をマウスでクリックして選択する。
In S4, the operator first selects the screen to be displayed. For example, reduction 1 (representing reduction screen 1), reduction 2, reduction 3, reduction 4, reduction 5, reduction 6, which is a screen displayed by the operator on the selection screen (screen) 3 in FIG. First, select the screen to be displayed (for example, reduction 1) by clicking it with the mouse.

【0034】S5は、選択された画面を画面定義領域2
に格納表示する。これは、S4で選択された画面(例え
ば縮小1)を画面定義領域2中の画面領域22内に格納
して表示(例えば図1の(b)の画面領域22内にイメ
ージA、テキストA、ボタン1、ボタン2、ボタン3を
格納して表示)する。
In step S5, the selected screen is displayed in the screen definition area 2
Store and display in. This is because the screen (for example, reduction 1) selected in S4 is stored and displayed in the screen area 22 in the screen definition area 2 (for example, image A, text A, in the screen area 22 of FIG. 1B). Button 1, button 2, and button 3 are stored and displayed).

【0035】S6は、選択された画面中のボタン数だけ
画面定義領域2を作成表示する。これは、S4で選択さ
れた画面をS5で画面定義領域2の画面領域22に格納
した後、当該画面領域22に格納した例えばボタン1、
ボタン2、ボタン3の場合には当該ボタン1、ボタン
2、ボタン3からリンクして画面定義領域2を3つ図1
の(a)の画面定義領域、画面定義領域、画面定義
領域として作成し、表示する。これより、図1の
(a)の場合には、先頭の画面定義領域からボタン1
によって画面定義領域がリンクされ、ボタン2によっ
て画面定義領域がリンクされ、ボタン3によって画面
定義領域がリンクされたこととなる。
In step S6, the screen definition area 2 is created and displayed by the number of buttons in the selected screen. This is because, for example, the button 1 stored in the screen area 22 after the screen selected in S4 is stored in the screen area 22 of the screen definition area 2 in S5.
In the case of button 2 and button 3, there are three screen definition areas 2 linked from button 1, button 2 and button 3 as shown in FIG.
It is created and displayed as the screen definition area of (a), the screen definition area, and the screen definition area. From this, in the case of FIG. 1A, the button 1
The screen definition area is linked with, the screen definition area is linked with button 2, and the screen definition area is linked with button 3.

【0036】S10は、終わりか判別する。YESの場
合には、S22で保存し、終了する(END)。一方、
NOの場合には、S11で次の画面に進み、S12以降
を行なう。
In step S10, it is determined whether the process is finished. In the case of YES, it is saved in S22 and the process ends (END). on the other hand,
In the case of NO, the process proceeds to the next screen in S11 and S12 and subsequent steps are performed.

【0037】以上のS3からS6によって、最初の画面
定義領域2に、最初に表示させたい画面を選択画面(画
面)3から選択されたことに対応して、選択された画面
を最初の画面定義領域2の画面領域22に格納表示する
と共に当該格納した画面のボタンからリンクして当該ボ
タンの数だけ次の画面定義領域2を作成して表示し、自
動的にツリー構造の画面定義領域2を作成表示すること
が可能となる。
By the above S3 to S6, in response to the selection of the screen to be displayed first in the first screen definition area 2 from the selection screen (screen) 3, the selected screen is defined as the first screen definition. The screen definition area 2 is stored and displayed in the screen area 22 of the area 2, and the next screen definition area 2 is created and displayed as many times as the number of the buttons by linking from the stored screen buttons, and the screen definition area 2 of the tree structure is automatically displayed. It is possible to create and display.

【0038】S7は、S2で音声、画面効果、あるいは
音声効果のいずれか1つの選択が指示されたことに対応
して、現在の画面定義領域2に格納する音声、画面効
果、あるいは音声効果を選択するための図1の(a)に
示す選択画面(音声)3、選択画面(画面効果)3、あ
るいは選択画面(音声効果)3を表示する。
In S7, in response to the selection of any one of the sound, the screen effect, and the sound effect in S2, the sound, the screen effect, or the sound effect stored in the current screen definition area 2 is selected. A selection screen (sound) 3, a selection screen (screen effect) 3, or a selection screen (sound effect) 3 shown in FIG. 1A for selection is displayed.

【0039】S8は、最初に表示させた画面に利用する
もの(音声、画面効果、あるいは音声効果)を選択す
る。オペレータが例えば図3の音声情報である音声A、
表示属性の表示方法(画面効果)であるFADE(ゆっ
くりと画面を消去または表示する)、あるいは音声情報
の音声効果である音声Cをマウスでクリックして選択し
たり、入力したりする。
In step S8, the one (voice, screen effect, or voice effect) to be used for the initially displayed screen is selected. The operator, for example, voice A, which is the voice information in FIG. 3,
FADE (slowly erase or display the screen) which is a display method (screen effect) of display attributes, or voice C which is a voice effect of voice information is clicked with a mouse to select or input.

【0040】S9は、選択されたもの(音声、画面効
果、あるいは音声効果)を画面定義領域2に格納表示す
る。これは、S8で選択されたもの(音声、画面効果、
あるいは音声効果)を画面定義領域2中の音声領域2
5、画面効果領域23、あるいは音声効果領域24のい
ずれかに格納して表示する。そして、S2に戻り、残り
の他の音声、画面効果、あるいは音声効果について繰り
返す。
In step S9, the selected one (sound, screen effect, or sound effect) is stored and displayed in the screen definition area 2. This is the one selected in S8 (voice, screen effect,
(Or voice effect) is set to the voice area 2 in the screen definition area 2.
5, stored in either the screen effect area 23 or the sound effect area 24 and displayed. Then, the process returns to S2 and is repeated for the other remaining voices, screen effects, or voice effects.

【0041】以上のS7からS9によって、最初の画面
定義領域2に、最初に表示させた画面に利用する音声、
画面効果、音声効果を選択画面(音声)3、選択画面
(画面効果)3、あるいは選択画面(音声効果)3から
順次選択されたことに対応して、画面定義領域2中の音
声領域25、画面効果領域23、あるいは音声効果領域
24に格納して表示し、ツリー構造の画面定義領域2の
画面が利用する音声、画面効果、音声効果を簡易に画面
上から登録することが可能となる。
By the above S7 to S9, the voice used for the first screen displayed in the first screen definition area 2,
In response to the selection of the screen effect and the sound effect from the selection screen (sound) 3, the selection screen (screen effect) 3, or the selection screen (sound effect) 3, the sound area 25 in the screen definition area 2, It is possible to store and display in the screen effect area 23 or the sound effect area 24, and easily register the sound, screen effect, and sound effect used by the screen of the screen definition area 2 having a tree structure on the screen.

【0042】S11は、S10のNOで終わりでないの
で、次の画面に進む。S12は、何を選択するかオペレ
ータが指示する。画面の選択が指示された場合には、S
13からS16の処理(S3からS16の処理と同一)
を行い、現在の画面定義領域2に表示させたい画面を選
択画面(画面)3から選択されたことに対応して、選択
された画面を現在の画面定義領域2の画面領域22に格
納して表示すると共に当該格納した画面のボタンからリ
ンクして当該ボタンの数だけ次の画面定義領域2を作成
して表示し、自動的にツリー構造の画面定義領域2を作
成表示することが簡易に可能となる。。
Since S11 does not end with NO in S10, the process proceeds to the next screen. In S12, the operator instructs what to select. When the screen selection is instructed, S
Processing from 13 to S16 (same as processing from S3 to S16)
Then, in response to the screen to be displayed in the current screen definition area 2 being selected from the selection screen (screen) 3, the selected screen is stored in the screen area 22 of the current screen definition area 2. It is possible to display and link the buttons on the stored screen to create and display the next screen definition area 2 as many times as the number of the buttons, and to automatically create and display the screen definition area 2 with a tree structure. Becomes .

【0043】一方、S12で音声、画面効果、あるいは
音声効果が選択された場合には、S17からS19の処
理(S7からS9の処理と同一)を行い、現在の画面定
義領域2に表示させた画面に利用する音声、画面効果、
音声効果を選択画面(音声)3、選択画面(画面効果)
3、あるいは選択画面(音声効果)3から順次選択され
たことに対応して、画面定義領域2中の音声領域25、
画面効果領域23、あるいは音声効果領域24に格納し
て表示し、ツリー構造の画面定義領域2の画面が利用す
る音声、画面効果、音声効果を画面上から簡易に登録す
ることが可能となる。
On the other hand, when the voice, the screen effect, or the voice effect is selected in S12, the processes of S17 to S19 (the same as the processes of S7 to S9) are performed, and the current screen definition area 2 is displayed. Audio used for screen, screen effect,
Voice effect selection screen (voice) 3, selection screen (screen effect)
3 or the sound area 25 in the screen definition area 2 in response to the selection from the selection screen (sound effect) 3 in sequence,
It is possible to store and display in the screen effect area 23 or the sound effect area 24, and easily register the sound, screen effect, and sound effect used by the screen of the screen definition area 2 having a tree structure from the screen.

【0044】S20は、終わりか判別する。YESの場
合には、S22で保存(図3の画面定義体情報4として
保存)し、終了する(END)。一方、NOの場合に
は、S21に進む。
In step S20, it is determined whether or not the process is finished. In the case of YES, it is saved in S22 (saved as the screen definition information 4 in FIG. 3), and the process ends (END). On the other hand, if NO, the process proceeds to S21.

【0045】S21は、次の画面に進むかオペレータか
らの指示を判断する。YESの場合には、S11に戻
り、次の画面に進む。一方、NOの場合には、現在の画
面についてS12に戻って繰り返す。
In step S21, it is determined whether to proceed to the next screen or an instruction from the operator. If YES, the process returns to S11 and proceeds to the next screen. On the other hand, in the case of NO, the process returns to S12 and is repeated for the current screen.

【0046】以上によって、図1の(a)の場合には、
初期画面上の先頭の画面定義領域に表示する画面を選
択画面(画面)3から選択して格納表示すると共にこの
画面のボタン1、ボタン2、ボタン3からリンクして次
の画面定義領域、画面定義領域、画面定義領域を
作成表示し、更に当該画面定義領域の画面に利用する
音声、画面効果、音声効果を選択画面(音声、画面効
果、音声効果)3から選択してそれぞれ音声領域25、
画面効果領域23、音声効果領域24に格納表示する。
そして、次の画面定義領域、画面定義領域、画面定
義領域について同様に繰り返し行なう。これらによ
り、シナリオ編集画面1上でツリー構造の画面定義領域
2を構築することが可能となると共に、各画面定義領域
2に格納した画面が利用する音声、画面効果、音声効果
も併せて格納表示することが可能となり、ツリー構造の
シナリオを簡易に編集することができる。
From the above, in the case of FIG.
The screen to be displayed in the first screen definition area on the initial screen is selected from the selection screen (screen) 3, stored and displayed, and linked from button 1, button 2, and button 3 of this screen to the next screen definition area, screen A definition area and a screen definition area are created and displayed, and a sound, a screen effect, and a sound effect to be used for the screen of the screen definition area are selected from a selection screen (sound, screen effect, sound effect) 3, and a sound area 25,
It is stored and displayed in the screen effect area 23 and the sound effect area 24.
Then, the same process is repeated for the next screen definition area, screen definition area, and screen definition area. As a result, the screen definition area 2 having a tree structure can be constructed on the scenario edit screen 1, and the sound, screen effect, and sound effect used by the screens stored in each screen definition area 2 are also stored and displayed. It is possible to edit the tree structure scenario easily.

【0047】図3は、本発明の画面定義体情報例を示
す。これは、図2のシナリオ編集フローチャートに従っ
て作成した画面定義領域2のツリー構造の情報を、内部
形式のイメージにまとめたものである。
FIG. 3 shows an example of screen definition information according to the present invention. This is a summary of the information of the tree structure of the screen definition area 2 created according to the scenario editing flowchart of FIG. 2 in the image of the internal format.

【0048】ラベルは、識別子であって、図1の画面定
義領域(画面)に付与した識別子である。表示属性
のうちの表示方法(画面効果)は、画面の表示方法であ
って、下記に示すようなものである。
The label is an identifier and is an identifier given to the screen definition area (screen) of FIG. The display method (screen effect) of the display attributes is a screen display method and is as follows.

【0049】・FADE:ゆっくりと画面を消去または
表示する ・WIPE:画面をある部分からぬぐい去るように消し
ていく、または表示していく ・COVER:画面の上に別の画面を重ねていく ・CLOSE:画面が左右、または上下から閉じていく ・OPEN:画面が左右、または上下から開いていく ・ZOOM:画面の中央から外へ、または外から中央に
消去・表示する ・その他 画像情報には、イメージ情報とテキスト情報とがある。
FADE: slowly erase or display the screen WIPE: erase or display the screen so that it wipes away from a part of the screen COVER: overlay another screen on the screen CLOSE: The screen closes from the left and right, or from the top and bottom ・ OPEN: The screen opens from the left and right, or from the top and bottom ・ ZOOM: Erases / displays from the center of the screen to the outside or from the center of the screen ・ Other image information There are image information and text information.

【0050】・イメージ情報は、イメージ(位置、サイ
ズ)からなる。 ・テキスト情報は、テキスト(位置、サイズ)からな
る。 音声情報には、音声情報と音声効果とがある。
The image information consists of an image (position, size). -The text information consists of text (position, size). The voice information includes voice information and voice effects.

【0051】・音声情報は、画面全体に利用する音声
と、図形に利用(図形Aがマウスでクリックされたとき
に発声)する音声とがある。 ・音声効果は、表示している画面を次の画面に切り替え
る間に再生する音声であって、例えば音声Cである。
The voice information includes a voice used for the entire screen and a voice used for a figure (spoken when the figure A is clicked by the mouse). The voice effect is a voice played while switching the displayed screen to the next screen, for example, the voice C.

【0052】イベント情報には、ボタン情報などがあ
る。 ・ボタン情報は、画面上に配置するボタン(リンク先の
画面、位置、サイズ)からなる。例えば図1の(a)の
画面(画面定義領域)のボタン1は、画面(画面
定義領域)にリンクし、位置、サイズは図示のように
位置、サイズである。図中に示すようにイベント情報が
登録されると、図1の(a)に示すように画面(画面
定義領域)から画面(画面定義領域)がツリー構
造にリンクされることとなる。
The event information includes button information and the like. -Button information consists of buttons (link destination screen, position, size) to be placed on the screen. For example, button 1 on the screen (screen definition area) of FIG. 1A is linked to the screen (screen definition area), and the position and size are the position and size as shown in the figure. When the event information is registered as shown in the figure, the screen (screen definition area) is linked to the screen (screen definition area) in a tree structure as shown in FIG.

【0053】次に、図4を用いて、図1から図3によっ
て説明したツリー構造に画面(画面定義領域)を編集し
たシナリオについて、実行時の動作を詳細に説明する。
図4において、S31は、シナリオの選択画面定義領域
の情報を取り出す。これは、選択されたシナリオの画面
定義領域2の全ての情報(画面、音声、画面効果、音声
効果など)を取り出す。
Next, the operation at the time of execution of the scenario in which the screen (screen definition area) is edited in the tree structure described with reference to FIGS. 1 to 3 will be described in detail with reference to FIG.
In FIG. 4, a step S31 takes out information of the scenario selection screen definition area. This retrieves all information (screen, voice, screen effect, voice effect, etc.) in the screen definition area 2 of the selected scenario.

【0054】S32は、全情報の名前、位置、サイズを
元に組み立てて表示及び音声出力する。これは、S21
で取り出した画面定義領域2の全ての情報(画面、音
声、画面効果、音声効果など)を取り出し、これらをも
とに組立て図1の(b)の画面(イメージ、テキスト)
やボタンを画面効果に従って表示および音声効果に従っ
て音声を発声する。
In step S32, the information is assembled based on the name, position, and size of all information, and then displayed and output as voice. This is S21
All the information (screen, voice, screen effects, voice effects, etc.) in the screen definition area 2 extracted in step 3) is extracted and assembled based on these information (screen, image, text) in FIG.
Display buttons and buttons according to the screen effect and speak according to the sound effect.

【0055】S33は、ボタン選択か判別する。これ
は、S22で表示した画面、ボタンのうちのボタンがオ
ペレータによってマウスでクリックされて選択されたか
判別する。YESの場合には、S34に進む。NOの場
合には、S33を繰り返し、ボタン選択されるのを待機
する。
In S33, it is determined whether the button is selected. This determines whether or not one of the screens and buttons displayed in S22 has been selected by the operator clicking with the mouse. If YES, the process proceeds to S34. In the case of NO, S33 is repeated until the button is selected.

【0056】S34は、終了ボタンが選択されたか判別
する。YESの場合には、終了する(END)。NOの
場合には、S35に進む。S35は、音声発声図形(音
声図形)が選択されたか判別する。YESの場合には、
S36で選択された図形に対応する音声の再生を行い、
S33に戻る。一方、NOの場合には、S37で押され
たボタンに対応するシナリオの画面定義領域2の情報を
取り出し、S32に戻り、次の画面定義領域(画面)に
ついて繰り返す。
In step S34, it is determined whether the end button has been selected. If YES, the process ends (END). If NO, the process proceeds to S35. In S35, it is determined whether a voice utterance figure (voice figure) has been selected. If yes,
The sound corresponding to the figure selected in S36 is reproduced,
Return to S33. On the other hand, in the case of NO, the information of the screen definition area 2 of the scenario corresponding to the button pressed in S37 is taken out, the process returns to S32, and the next screen definition area (screen) is repeated.

【0057】以上によって、シナリオの選択された画面
定義領域(画面)の情報(画面(イメージ、テキス
ト)、ボタン、音声、画面効果、音声効果など)を取り
出して組立てて表示、音声出力する。ボタンが押下され
た場合には、次の画面定義領域(画面)の情報を取り出
して組立てて表示、音声出力することを繰り返す。これ
らにより、ツリー構造の先頭の画面定義領域2から順次
ボタンの選択された画面定義情報2をもとに表示・音声
出力することが可能となる。
As described above, the information (screen (image, text), button, voice, screen effect, voice effect, etc.) in the selected screen definition area (screen) of the scenario is taken out, assembled, displayed, and output as voice. When the button is pressed, the information of the next screen definition area (screen) is taken out, assembled, displayed, and output by voice repeatedly. As a result, it is possible to display and output audio from the screen definition area 2 at the top of the tree structure based on the screen definition information 2 in which buttons are sequentially selected.

【0058】[0058]

【発明の効果】以上説明したように、本発明によれば、
画面定義領域2を表示すると共に当該画面定義領域2に
格納する候補の画面群を選択画面3に表示し、利用者か
ら当該選択画面3中から選択された画面21を画面定義
領域2に格納表示および当該選択された画面中のボタン
の数に対応した次の画面定義領域2を作成表示すると共
に、画面定義領域(画面)で利用する音声、画面効果、
音声効果をそれぞれ選択画面(音声、画面効果、音声効
果)3から選択して画面定義領域2に格納表示すること
を繰り返す構成を採用しているため、シナリオ全体の流
れや画面21を確認しながら会話的に効率的かつ簡単に
画面定義領域2をツリー構造にしたシナリオを作成する
ことができる。そして、この作成したリナリオの画面定
義領域2の先頭からその情報を取り出して組立て表示、
音声出力したり、更に選択されたボタンの画面定義領域
3の情報を取り出して組み立て表示、音声出力したりす
ることを繰り返し、シナリオを実行することができる。
As described above, according to the present invention,
The screen definition area 2 is displayed, the candidate screen group to be stored in the screen definition area 2 is displayed on the selection screen 3, and the screen 21 selected from the selection screen 3 by the user is stored and displayed in the screen definition area 2. And the next screen definition area 2 corresponding to the number of buttons in the selected screen is created and displayed, and the sound and screen effect used in the screen definition area (screen),
While adopting a configuration in which the voice effect is repeatedly selected from the selection screens (voice, screen effect, voice effect) 3 and stored and displayed in the screen definition area 2, while confirming the flow of the entire scenario and the screen 21, A scenario in which the screen definition area 2 has a tree structure can be interactively and efficiently and easily created. Then, the information is taken out from the beginning of the created screen definition area 2 of Linario, and is assembled and displayed.
The scenario can be executed by repeating voice output, and further retrieving information in the screen definition area 3 of the selected button by assembling and displaying and outputting voice.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】本発明のツリー構造のシナリオ編集フローチャ
ートである。
FIG. 2 is a flowchart for editing a tree-structured scenario according to the present invention.

【図3】本発明の画面定義体情報例である。FIG. 3 is an example of screen definition information according to the present invention.

【図4】本発明のシナリオ実行フローチャートである。FIG. 4 is a scenario execution flowchart of the present invention.

【符号の説明】[Explanation of symbols]

1:シナリオ編集画面 2:画面定義領域 21:画面(縮小画面) 22:画面領域 23:画面効果領域 24:音声効果領域 25:音声領域 3:選択画面(画面、音声、画面効果、音声効果) 4:画面定義体情報 1: Scenario edit screen 2: Screen definition area 21: Screen (reduced screen) 22: Screen area 23: Screen effect area 24: Voice effect area 25: Voice area 3: Selection screen (screen, voice, screen effect, voice effect) 4: Screen definition information

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三船 修 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Osamu Mifune 1015 Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Fujitsu Limited

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】画面を表示する順序を編集するシナリオ編
集装置において、 画面定義領域(2)を表示すると共に当該画面定義領域
(2)に格納する候補の画面群を選択画面(3)に表示
し、利用者から当該選択画面(3)中から選択された画
面(21)を上記画面定義領域(2)に格納表示および
当該選択された画面(21)中のボタンの数に対応した
次の画面定義領域(2)を作成表示することを繰り返
し、ツリー構造にてシナリオを編集するシナリオ編集画
面(1)を備えたことを特徴とするシナリオ編集装置。
1. A scenario editing device for editing the order of displaying screens, which displays a screen definition area (2) and a candidate screen group to be stored in the screen definition area (2) on a selection screen (3). Then, the screen (21) selected from the selection screen (3) by the user is stored and displayed in the screen definition area (2), and the next screen corresponding to the number of buttons in the selected screen (21) is displayed. A scenario editing device comprising a scenario editing screen (1) for editing a scenario in a tree structure by repeatedly creating and displaying a screen definition area (2).
【請求項2】上記選択画面(3)上に縮小した候補の画
面群を表示することを特徴とする請求項1記載のシナリ
オ編集装置。
2. The scenario editing apparatus according to claim 1, wherein a reduced candidate screen group is displayed on the selection screen (3).
【請求項3】上記画面定義領域(2)中に画面効果を格
納する画面効果領域(23)を設け、利用者により選択
画面(3)から選択された画面効果を当該画面効果領域
(23)に格納表示することを特徴とする請求項1また
は請求項2記載のシナリオ編集装置。
3. A screen effect area (23) for storing a screen effect is provided in the screen definition area (2), and the screen effect selected from the selection screen (3) by the user is the screen effect area (23). 3. The scenario editing device according to claim 1, wherein the scenario editing device is stored and displayed in.
【請求項4】上記画面定義領域(2)中に音声を格納す
る音声領域(25)を設け、利用者により選択画面
(3)から選択された音声イメージを当該音声領域(2
5)に格納表示することを特徴とする請求項1ないし請
求項3記載のシナリオ編集装置。
4. An audio area (25) for storing audio is provided in the screen definition area (2), and an audio image selected by a user from a selection screen (3) is displayed in the audio area (2).
5. The scenario editing device according to claim 1, wherein the scenario editing device stores and displays in 5).
【請求項5】上記画面定義領域(2)中に音声効果を格
納する音声効果領域(24)を設け、利用者により選択
画面(3)から選択された音声効果を当該音声効果領域
(24)に格納表示することを特徴とする請求項1ない
し請求項4記載のシナリオ編集装置。
5. A sound effect area (24) for storing a sound effect is provided in the screen definition area (2), and a sound effect selected by a user from a selection screen (3) is displayed in the sound effect area (24). 5. The scenario editing device according to claim 1, wherein the scenario editing device is stored and displayed in.
【請求項6】上記編集されたツリー構造の先頭の画面定
義領域(2)から情報を取り出して組み立てて画面を表
示し、この画面上で選択されたボタンに対応する画面定
義領域(2)について繰り返し、ツリー構造にてシナリ
オを順次実行することを特徴とするシナリオ実行装置。
6. A screen definition area (2) corresponding to a button selected on the screen by extracting and assembling information from the screen definition area (2) at the head of the edited tree structure, and displaying the screen. A scenario execution device characterized by repeatedly executing scenarios in a tree structure in sequence.
【請求項7】上記編集されたツリー構造の先頭の画面定
義領域(2)から情報を取り出して組み立て、画面効果
領域(23)に格納されていた画面効果に従って画面を
表示および音声効果領域(24)に格納されていた音声
効果に従って音声を出力した後、表示された画面上で音
声図形が選択されたときに音声領域(25)に格納され
ている音声を出力し、選択されたボタンに対応する画面
定義領域(2)について繰り返し、ツリー構造にてシナ
リオを順次実行することを特徴とするシナリオ実行装
置。
7. Information is taken out from a screen definition area (2) at the head of the edited tree structure and assembled, and a screen is displayed and a sound effect area (24) is displayed according to the screen effect stored in the screen effect area (23). After outputting the sound according to the sound effect stored in), when the sound figure is selected on the displayed screen, the sound stored in the sound area (25) is output and corresponds to the selected button. A scenario execution device characterized in that a scenario is sequentially executed in a tree structure by repeating the screen definition area (2).
JP13553693A 1993-06-07 1993-06-07 Scenario editing device and scenario execution device Expired - Fee Related JP3715993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13553693A JP3715993B2 (en) 1993-06-07 1993-06-07 Scenario editing device and scenario execution device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13553693A JP3715993B2 (en) 1993-06-07 1993-06-07 Scenario editing device and scenario execution device

Publications (2)

Publication Number Publication Date
JPH06348438A true JPH06348438A (en) 1994-12-22
JP3715993B2 JP3715993B2 (en) 2005-11-16

Family

ID=15154077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13553693A Expired - Fee Related JP3715993B2 (en) 1993-06-07 1993-06-07 Scenario editing device and scenario execution device

Country Status (1)

Country Link
JP (1) JP3715993B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997039A (en) * 1995-09-29 1997-04-08 Nec Corp Method and device for supporting presentation
JPH10312260A (en) * 1997-05-14 1998-11-24 Fujitsu Ltd Link destination information indication device and recording medium recording program for executing operation
JP2000066799A (en) * 1998-08-19 2000-03-03 Nec Corp Display controller, display control method and recording medium
JP2005295527A (en) * 2004-03-10 2005-10-20 Matsushita Electric Ind Co Ltd Authoring system, program, and authoring method
CN107072510A (en) * 2015-10-28 2017-08-18 Hoya株式会社 Endoscope processor, the signal processing method of endoscope processor and control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101736570B1 (en) * 2015-05-29 2017-05-17 주식회사 포스코 Apparatus for virtual reality operation of rolling process reflecting interlock condition and method using thererof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0374769A (en) * 1989-08-16 1991-03-29 Hitachi Ltd Multi-medium presentation system
JPH0456890A (en) * 1990-06-22 1992-02-24 Hitachi Ltd Presentation system and its scenario editing method
JPH04243419A (en) * 1991-01-18 1992-08-31 Fujitsu Ltd Card type processing device
JPH04320551A (en) * 1991-04-19 1992-11-11 Fuji Xerox Co Ltd Hypertext device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0374769A (en) * 1989-08-16 1991-03-29 Hitachi Ltd Multi-medium presentation system
JPH0456890A (en) * 1990-06-22 1992-02-24 Hitachi Ltd Presentation system and its scenario editing method
JPH04243419A (en) * 1991-01-18 1992-08-31 Fujitsu Ltd Card type processing device
JPH04320551A (en) * 1991-04-19 1992-11-11 Fuji Xerox Co Ltd Hypertext device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0997039A (en) * 1995-09-29 1997-04-08 Nec Corp Method and device for supporting presentation
JPH10312260A (en) * 1997-05-14 1998-11-24 Fujitsu Ltd Link destination information indication device and recording medium recording program for executing operation
JP2000066799A (en) * 1998-08-19 2000-03-03 Nec Corp Display controller, display control method and recording medium
JP2005295527A (en) * 2004-03-10 2005-10-20 Matsushita Electric Ind Co Ltd Authoring system, program, and authoring method
CN107072510A (en) * 2015-10-28 2017-08-18 Hoya株式会社 Endoscope processor, the signal processing method of endoscope processor and control program
CN107072510B (en) * 2015-10-28 2020-02-21 Hoya株式会社 Endoscope processor, signal processing method for endoscope processor, and control program

Also Published As

Publication number Publication date
JP3715993B2 (en) 2005-11-16

Similar Documents

Publication Publication Date Title
JPH08315168A (en) Device and method for converting presentation data
JP3191266B2 (en) Image simulation system
US5289568A (en) Apparatus and method for drawing figures
JPH06243023A (en) Scenario editing device
JPH06348438A (en) Scenario editor and scenatio executing device
JP3288460B2 (en) Display data generation apparatus and method
US6211868B1 (en) Editing method in a multimedia synchronous training system
JPH05242166A (en) Multi-media data editing and display system
US5890179A (en) Figure editing apparatus and method for displaying edited objects in a form different from objects not yet edited
JPH06103018A (en) Display system
JPH09305787A (en) Animation production and reproduction device and animation retrieval device
JPH08286882A (en) Information processing unit and page turn-over method for the information processing unit
JP3469231B2 (en) Animation search device
JPH07129615A (en) Data processor and data processing method
JP3619005B2 (en) Image processing system control method and apparatus, and program recording medium thereof
JPH06149956A (en) Method and device for editing media data
JPH08115311A (en) Authoring system
JP2732645B2 (en) Video production and screening device, video production device and video screening device
JPH06149829A (en) Presentation material producing device
JP3154790B2 (en) Optical character reader
JPH1055364A (en) Character and figure editing device
JPH08147264A (en) Multimedia presentation editing executing device
JPH06259477A (en) Link editing method
JPH09114632A (en) Information editing device and information reproducing device
JPH0581393A (en) Document editing device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080902

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090902

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090902

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100902

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100902

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110902

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees