JP3171632B2 - Video display processor - Google Patents

Video display processor

Info

Publication number
JP3171632B2
JP3171632B2 JP01191292A JP1191292A JP3171632B2 JP 3171632 B2 JP3171632 B2 JP 3171632B2 JP 01191292 A JP01191292 A JP 01191292A JP 1191292 A JP1191292 A JP 1191292A JP 3171632 B2 JP3171632 B2 JP 3171632B2
Authority
JP
Japan
Prior art keywords
moving image
image display
window
display unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01191292A
Other languages
Japanese (ja)
Other versions
JPH0581406A (en
Inventor
里枝子 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP01191292A priority Critical patent/JP3171632B2/en
Publication of JPH0581406A publication Critical patent/JPH0581406A/en
Application granted granted Critical
Publication of JP3171632B2 publication Critical patent/JP3171632B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ディスプレイ上の複数
のウィンドウに動画を表示する動画表示処理装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture display processing apparatus for displaying a moving picture in a plurality of windows on a display.

【0002】[0002]

【従来の技術】ワークステーション等のディスプレイ上
に動画を表示する技術が開発されつつある。
2. Description of the Related Art A technique for displaying a moving image on a display such as a workstation is being developed.

【0003】このような動画表示処理の従来技術とし
て、ある時間単位に従う各時刻毎に画像を画面表示用の
ビットマップ等として構築し、それらの画像をディスプ
レイ上に時間順に表示していくという方式が最も一般的
に用いられている。この場合、動画は、ディスプレイ上
で、ウィンドウ毎に独立に表示される。
[0003] As a conventional technique of such a moving image display processing, an image is constructed as a bitmap for screen display at each time according to a certain time unit, and the images are displayed on a display in chronological order. Is most commonly used. In this case, the moving image is displayed independently for each window on the display.

【0004】また、動画表示処理の他の従来技術とし
て、次のようなものがある。まず、ある時刻における画
面の状態が何らかの手法によりデータ化される。次に、
その後の任意の時刻における画面の状態が同様にデータ
化される。そして、その間の各時刻における画面の状態
が上述の2組の画面データから補間して求められる。こ
のようにして求められた各時刻の画面の状態がディスプ
レイに順次表示されることにより動画が表示される。こ
の場合にも、動画は、ディスプレイ上で、ウィンドウ毎
に独立に表示される。
[0004] As another conventional technique of the moving image display processing, there is the following one. First, the state of the screen at a certain time is converted into data by some method. next,
The state of the screen at an arbitrary time thereafter is similarly converted into data. Then, the state of the screen at each time during that time is obtained by interpolation from the above two sets of screen data. The moving image is displayed by sequentially displaying the screen states at each time thus obtained on the display. Also in this case, the moving image is displayed independently for each window on the display.

【0005】[0005]

【発明が解決しようとする課題】しかし、上述したよう
な従来技術(注:複数形)では、関連的な意味を持つ動
画を同時にディスプレイ上に表示できないために、ワー
クステーション等における動画の利用が限られてしまう
という問題点があった。例えば、ディスプレイ上にコン
ピュータシステムにおけるソフトウェアの動作説明を表
示する場合に、説明内容の文章とその説明に合わせて動
作を図解する動画とを同時に同期をとりながら表示して
いく構成を採ると、極めて容易にソフトウェア動作を説
明できることが予想されるが、上述した従来技術のよう
にウィンドウ毎に独立に動画を表示していく方式では、
このような要求に全く対応できなかった。
However, in the above-described prior art (note: plural forms), moving images having a relevant meaning cannot be simultaneously displayed on a display. There was a problem that it was limited. For example, when a description of the operation of software in a computer system is displayed on a display, if a configuration is adopted in which a sentence of the content of the description and a moving image illustrating the operation are displayed simultaneously in synchronization with the description, it is extremely It is expected that the software operation can be easily explained. However, in the method of displaying a moving image independently for each window as in the above-described conventional technology,
Such a request could not be met at all.

【0006】また、従来の動画表示処理においては、あ
たかもフィルムを回すように、時間的な流れに沿ってデ
ィスプレイ上に一連の動画が表示されてゆく構成が採ら
れていた。このため、動画の表示内容が固定的になって
しまい、ワークステーション等における動画の利用が限
られてしまうという問題点があった。例えば、上述のよ
うにディスプレイ上にコンピュータシステムにおけるソ
フトウェアの動作説明を表示する場合に仮に動画を表示
できたとしても、ユーザが希望する説明部分に関してよ
り詳しい説明を望むような場合、ダイナミックに動画の
表示内容を変化させることはできないため、そのような
要求に全く対応できなかった。
In the conventional moving image display processing, a series of moving images is displayed on a display in a time-wise manner as if a film is being rotated. For this reason, the display content of the moving image is fixed, and there is a problem that the use of the moving image in a workstation or the like is limited. For example, as described above, even if a moving image could be displayed when the operation description of the software in the computer system is displayed on the display, if the user desires a more detailed description of the desired description portion, the moving image is dynamically generated. Since the display content cannot be changed, such a request cannot be met at all.

【0007】しかも、従来の動画表示処理では、表示さ
れる動画はあたかもフィルムのように1つにまとめて管
理されていたため、例えば動画の内容の一部を変更する
ためには、その長い動画データの中から該当する部分を
探し出して編集しなければならず、非常な手間を要する
という問題点もあった。
Moreover, in the conventional moving image display processing, the moving images to be displayed are managed together as if they were a film. For example, in order to change a part of the contents of the moving image, long moving image data There is also a problem that it is necessary to find the corresponding part from among the parts and edit it, which requires a great deal of trouble.

【0008】本発明は、関連的な意味を持つ動画をディ
スプレイ上の複数のウィンドウに表示可能とすることを
目的とする。
An object of the present invention is to enable a moving image having a relevant meaning to be displayed in a plurality of windows on a display.

【0009】[0009]

【課題を解決するための手段】図1に本発明の原理構成
を図示する。データ処理装置1は動画表示処理を実行す
る。データ入力装置2は、動画表示のためのシナリオ記
述をユーザに入力させる。マンマシン・インタフェース
(MMI)3はデータ処理装置1及びデータ入力装置2
に接続される。
FIG. 1 shows the principle configuration of the present invention. The data processing device 1 executes a moving image display process. The data input device 2 allows a user to input a scenario description for displaying a moving image. The man-machine interface (MMI) 3 is a data processing device 1 and a data input device 2
Connected to.

【0010】データ処理装置1は、例えば補助記憶装置
等によって実現される動画表示単位管理手段4及びシナ
リオ記述管理手段5と、動画表示制御手段6と、動画履
歴管理手段7と、動作モード制御手段8と、インタフェ
ース手段9を備える。
The data processing apparatus 1 includes a moving image display unit managing means 4 and a scenario description managing means 5 realized by, for example, an auxiliary storage device, a moving image display controlling means 6, a moving image history managing means 7, an operation mode controlling means. 8 and an interface means 9.

【0011】動画表示単位管理手段4は、画面表示定義
を記述する1つ又は複数のフレームから構成される動画
表示単位を、複数単位分管理する。ここで、各動画表示
単位を構成するフレームは、規定の表示単位時間毎の各
画面表示定義を記述するデータセットであって、例えば
ディスプレイ上に表示される図形の種類とその図形の特
性情報とが図形IDが付されて記述される。
The moving image display unit management means 4 manages a plurality of moving image display units each composed of one or a plurality of frames for describing a screen display definition. Here, the frame constituting each moving image display unit is a data set describing each screen display definition for each prescribed display unit time, and includes, for example, a type of a figure displayed on a display and characteristic information of the figure. Is described with a graphic ID.

【0012】シナリオ記述管理手段5は、各ウィンドウ
のディスプレイ上でのオープン又はクローズのタイミン
グ及びその位置などの状態、各ウィンドウに表示される
動画表示単位の時間的順序関係、又は各ウィンドウに表
示される各動画表示単位間の同期関係をそれぞれ記述す
るシナリオ記述を管理する。ここで、上述の時間的順序
関係は、1つの動画表示単位からそれが表示されるウィ
ンドウと同一又は異なるウィンドウに表示される他の動
画表示単位への任意の時間的遷移関係を含むように構成
することができる。また、上述の時間的遷移関係は、現
在表示されている動画表示単位中の所定の画面部分がユ
ーザによって指定された場合に有効となるような識別情
報を含むように構成することができる。更に、上述のシ
ナリオ記述は、複数の動画表示単位のグループが1つの
動画表示単位として扱われるようなグループ情報を含む
ように構成することができる。
The scenario description management means 5 includes a state such as a timing of opening or closing each window on a display and a position thereof, a temporal order relation of a moving image display unit displayed in each window, or a display in each window. Manages a scenario description that describes the synchronization relationship between each moving image display unit. Here, the temporal order relation described above is configured to include an arbitrary temporal transition relation from one moving image display unit to another moving image display unit displayed in the same or different window as the window in which it is displayed. can do. In addition, the above-described temporal transition relationship can be configured to include identification information that is valid when a predetermined screen portion in the currently displayed moving image display unit is specified by the user. Further, the above-described scenario description can be configured to include group information such that a group of a plurality of moving image display units is treated as one moving image display unit.

【0013】動画表示制御手段6は、シナリオ記述管理
手段5の管理するシナリオ記述を解釈し、この解釈に従
って各ウィンドウに動画表示単位の時系列データを順次
表示する。
The moving picture display control means 6 interprets the scenario description managed by the scenario description managing means 5, and sequentially displays time-series data in moving picture display units in each window according to the interpretation.

【0014】動画履歴管理手段7は、任意の時間的遷移
を行う動画表示単位に基づいて表示される動画の履歴を
管理する。動作モード制御手段8は、マンマシン・イン
タフェース3からの指示に応答して動画履歴管理手段7
の管理機能を動作させないように制御する。
The moving image history management means 7 manages the history of moving images displayed on the basis of moving image display units which make arbitrary temporal transitions. The operation mode control means 8 responds to an instruction from the man-machine interface 3 and
Is controlled not to operate the management function.

【0015】インタフェース手段9は、マンマシン・イ
ンタフェース3からの指示に応答して動画表示制御手段
6の実行状態を制御する。より具体的には、インタフェ
ース手段9は、動画表示制御手段6の動画表示処理の進
行を停止させる機能、動画表示制御手段6を制御するこ
とで停止させた動画表示単位を1つずつ前後に移動させ
る機能、動画表示制御手段6を制御することで停止させ
た動画表示単位の有するフレームを1つずつ前後に移動
させる機能などを備える。
The interface means 9 controls the execution state of the moving picture display control means 6 in response to an instruction from the man-machine interface 3. More specifically, the interface unit 9 has a function of stopping the progress of the moving image display process of the moving image display control unit 6, and moving the moving image display unit stopped by controlling the moving image display control unit 6 back and forth one by one. And a function of moving the frames of the moving image display unit stopped by controlling the moving image display control means 6 back and forth one by one.

【0016】次に、データ入力装置は、動画入力制御手
段10と、図形編集手段11と、動画表示単位編集手段
12と、シナリオ記述編集手段13とを有する。動画入
力制御手段10は、マンマシン・インタフェース3と、
図形編集手段11、動画表示単位編集手段12又はシナ
リオ記述編集手段13との間のデータの入出力を制御す
る。
Next, the data input device has a moving picture input control means 10, a graphic editing means 11, a moving picture display unit editing means 12, and a scenario description editing means 13. The moving image input control means 10 includes: a man-machine interface 3;
The input / output of data between the graphic editing unit 11, the moving image display unit editing unit 12, and the scenario description editing unit 13 is controlled.

【0017】図形編集手段11は、汎用又は専用の図形
エディタであり、ユーザに、マンマシン・インタフェー
ス3によって、各動画表示単位の各フレームの図形定義
をグラフィック形式で編集させる。
The graphic editing means 11 is a general-purpose or dedicated graphic editor, and allows the user to edit the graphic definition of each frame of each moving image display unit in a graphic format by the man-machine interface 3.

【0018】動画表示単位編集手段12は、図形編集手
段11がユーザに編集させた各動画表示単位の各フレー
ムの図形定義を1つの動画表示単位としてまとめ、その
動画表示単位を動画表示単位管理手段4に格納する。
The moving image display unit editing means 12 collects the graphic definition of each frame of each moving image display unit edited by the user by the graphic editing means 11 as one moving image display unit, and converts the moving image display unit into a moving image display unit managing means. 4 is stored.

【0019】シナリオ記述編集手段13は、ユーザに、
マンマシン・インタフェース3によって、シナリオ記述
管理手段5が管理するシナリオ記述を、図形シンボル編
集処理を含む編集処理によって編集させる。
The scenario description editing means 13 provides the user with
The scenario description managed by the scenario description management means 5 is edited by the man-machine interface 3 by editing processing including graphic symbol editing processing.

【0020】具体的には、シナリオ記述編集手段13
は、ユーザに、編集時にディスプレイ上にオープンされ
た編集用ウィンドウ上で、動画表示時の各ウィンドウの
位置をテキスト形式で編集させると共に、各ウィンドウ
に表示される動画表示単位の時間的順序関係又は各ウィ
ンドウに表示される各動画表示単位間の同期関係を図形
シンボルを用いたグラフィック形式で編集させる。ま
た、シナリオ記述編集手段13は、ユーザに、編集用ウ
ィンドウ上で、動画表示時の各ウィンドウに表示される
動画表示単位の表示タイミングをテキスト形式で更に編
集させるようにしてもよい。
Specifically, the scenario description editing means 13
Allows the user to edit the position of each window at the time of displaying a moving image in a text format on the editing window opened on the display at the time of editing, and the temporal order relation of the moving image display unit displayed in each window or The synchronization relationship between the moving image display units displayed in each window is edited in a graphic format using graphic symbols. Further, the scenario description editing unit 13 may allow the user to further edit the display timing of a moving image display unit displayed in each window at the time of displaying a moving image in a text format on the editing window.

【0021】上述の動画表示単位の編集に加えて、シナ
リオ記述編集手段13は、ユーザに、編集用ウィンドウ
上に表示されるディスプレイ画面が時間軸方向に3次元
グラフィック表示された直方体上で、動画表示時の各ウ
ィンドウのディスプレイ上でのオープン又はクローズの
タイミング及びその位置を編集させる。或いは、シナリ
オ記述編集手段13は、ユーザに、編集用ウィンドウ上
で、動画表示時の各ウィンドウのディスプレイ上でのオ
ープン又はクローズのタイミングをテキスト形式で編集
させると共に、動画表示時の各ウィンドウを編集用ウィ
ンドウ上の所定領域内に配置させることにより動画表示
の各ウィンドウのディスプレイ上での位置を編集させ
る。
In addition to the above-described editing of the moving image display unit, the scenario description editing means 13 provides the user with a moving image on a rectangular parallelepiped in which the display screen displayed on the editing window is three-dimensionally displayed in the time axis direction. The user is allowed to edit the timing of opening or closing each window on the display at the time of display and its position. Alternatively, the scenario description editing means 13 allows the user to edit, in a text format, the timing of opening or closing each window on the display at the time of displaying a moving image on the editing window, and edit each window at the time of displaying the moving image. The position of each window for displaying a moving image on the display is edited by disposing the window in a predetermined area on the window.

【0022】[0022]

【作用】動画表示単位管理手段4は、画面表示定義を記
述する1つ又は複数のフレームから構成される動画表示
単位を複数単位分管理する。また、シナリオ記述管理手
段5は、シナリオ記述に従って、各ウィンドウのディス
プレイ上での状態、各ウィンドウでの表示対象である各
動画表示単位の時間的順序関係、又は各ウィンドウの各
動画表示単位間の同期関係を管理する。そして、この管
理処理を受けて、動画表示制御手段6が、シナリオ記述
管理手段5の管理するシナリオ記述を解釈し、この解釈
に従って、ディスプレイ上にオープンされる複数のウィ
ンドウに動画表示単位の時系列データを表示していくこ
とで、関連的な意味を持つ動画をディスプレイ上に表示
していく。
The moving image display unit management means manages a plurality of moving image display units each composed of one or a plurality of frames that describe a screen display definition. In addition, the scenario description management unit 5 is configured to, according to the scenario description, display the state of each window on the display, the temporal order of each moving image display unit to be displayed in each window, or the time order between each moving image display unit of each window. Manage synchronization relationships. Then, in response to the management processing, the moving image display control means 6 interprets the scenario description managed by the scenario description managing means 5, and in accordance with the interpretation, displays the time series of the moving image display unit in a plurality of windows opened on the display. By displaying the data, moving images having a relevant meaning are displayed on the display.

【0023】このように、本発明では、マルチウィンド
ウに従って関連的な意味を持つ動画をディスプレイ上に
表示できるようになることから、例えば、説明内容の文
章と、その説明に合わせて動作を図解する動画とを同時
に同期をとりながら表示していくといったアニュメーシ
ョン・マニュアルを構築することが可能になる。しか
も、表示対象である動画が動画表示単位を単位として管
理されるので、動画の編集効率が高められるという利点
もでてくることになる。
As described above, according to the present invention, a moving image having a relevant meaning can be displayed on the display in accordance with the multi-window. For example, a sentence of the explanation content and the operation are illustrated in accordance with the explanation. This makes it possible to construct an announcement manual that displays video images while synchronizing them. In addition, since the moving image to be displayed is managed in units of a moving image display unit, there is an advantage that the editing efficiency of the moving image is improved.

【0024】ここで、シナリオ記述により記述される動
画表示単位の時間的順序関係が、ある動画表示単位から
それが表示されるウィンドウと同一又は異なるウィンド
ウに表示される別の動画表示単位への任意の時間的遷移
関係を含み、この任意の時間的遷移関係が、表示されて
いる動画表示単位中の特定の画面部分がユーザによって
指定されたときに有効となるような識別情報を含む構成
が採られた場合、動画表示制御手段6は、この任意の時
間的遷移関係に従って動的に動画の表示内容を変化させ
ることが可能になる。
Here, the temporal order relation of the moving image display unit described by the scenario description is arbitrary from one moving image display unit to another moving image display unit displayed in the same or different window as the window in which it is displayed. The temporal transition relation includes an identification information that is effective when a specific screen portion in the displayed moving image display unit is designated by the user. In this case, the moving image display control means 6 can dynamically change the display content of the moving image according to the arbitrary temporal transition relation.

【0025】更に、シナリオ記述において、複数の動画
表示単位のグループが1つの動画表示単位として扱われ
るようなグループ情報を含む構成が採られた場合、動画
表示制御手段6は、グループ化された動画表示単位で、
ディスプレイ上の表示を進めたり戻したりすることが可
能になる。
Further, when the scenario description includes a configuration including group information such that a group of a plurality of moving image display units is treated as one moving image display unit, the moving image display control means 6 In display units,
The display on the display can be moved forward and backward.

【0026】動画履歴管理手段7は、任意の時間的遷移
を行う動画表示単位に基づいて表示される動画の履歴を
管理し、動画表示制御手段6は、ユーザからの要求に応
答して、動画履歴管理手段7の管理データに従って、任
意の時間的遷移を行う動画表示単位の逆戻り表示処理を
実行する。これにより、シナリオ記述が別の動画表示単
位への任意の時間的遷移関係を含む場合でも、時間順序
を戻ることが可能になる。
The moving image history management means 7 manages the history of moving images displayed on the basis of moving image display units which make arbitrary temporal transitions. The moving image display control means 6 responds to a request from the user and In accordance with the management data of the history management unit 7, a backward display process of a moving image display unit that performs an arbitrary temporal transition is executed. Thus, even when the scenario description includes an arbitrary temporal transition relation to another moving image display unit, the temporal order can be returned.

【0027】動画履歴管理手段7が動作状態に入ると、
動画履歴を管理していくためにメモリ容量が多く消費さ
れてしまう。そこで、シナリオ記述が別の動画表示単位
への任意の時間的遷移関係を含む場合において、ユーザ
が時間順序を戻ることを要求しない場合には、動作モー
ド制御手段8は、例えば装置の稼働時に、動画履歴管理
手段7の管理機能を動作させないように制御する。これ
により、メモリ容量の浪費をなくすことができる。
When the moving image history management means 7 enters the operating state,
A large amount of memory is consumed to manage the video history. Therefore, in a case where the scenario description includes an arbitrary temporal transition relation to another moving image display unit, if the user does not request to return to the temporal order, the operation mode control unit 8 performs, for example, when the apparatus operates, Control is performed so that the management function of the moving image history management unit 7 is not operated. As a result, waste of memory capacity can be eliminated.

【0028】そして、動画表示制御手段6は、インタフ
ェース手段9の制御処理に従って、動画表示処理の進行
を停止し、あるいは、停止させた動画表示単位を1つず
つ前後に移動し、あるいは、停止させた動画表示単位の
持つフレームを1つずつ前後に移動する。これにより、
ユーザは、ディスプレイ上に表示される動画を正確に理
解していくことが可能になる。
The moving picture display control means 6 stops the moving picture display processing in accordance with the control processing of the interface means 9 or moves the stopped moving picture display unit back and forth one by one or stops it. The moving image display unit is moved forward and backward by one frame. This allows
The user can accurately understand the moving image displayed on the display.

【0029】一方、ユーザは、データ入力装置2によっ
て、動画表示単位管理手段4が管理する動画表示単位
と、シナリオ記述管理手段5が管理するシナリオ記述を
編集することができる。
On the other hand, the user can edit the moving image display unit managed by the moving image display unit management means 4 and the scenario description managed by the scenario description management means 5 by using the data input device 2.

【0030】特に、シナリオ記述編集手段13によっ
て、シナリオ記述をグラフィカルに編集することができ
る。具体的には、ユーザは、編集用ウィンドウ上で、動
画表示時の各ウィンドウの位置をテキスト形式で編集
し、各ウィンドウに表示される動画表示単位の時間的順
序関係又は各ウィンドウに表示される各動画表示単位間
の同期関係を図形シンボルを用いたグラフィック形式で
編集することができる。
In particular, the scenario description can be graphically edited by the scenario description editing means 13. Specifically, on the editing window, the user edits the position of each window at the time of displaying a moving image in a text format, and displays the time order relationship of the moving image display unit displayed in each window or is displayed in each window. The synchronization relationship between the moving image display units can be edited in a graphic format using graphic symbols.

【0031】また、編集用ウィンドウ上で動画表示時の
各ウィンドウに表示される動画表示単位の表示タイミン
グをテキスト形式で編集できる構成が採用されれば、ユ
ーザは、各動画表示単位間の同期関係が保存された状態
で各ウィンドウ上に表示される各動画表示単位の表示タ
イミングが明示的に指定されたシナリオ記述を生成する
ことができる。
Further, if a configuration is adopted in which the display timing of a moving image display unit displayed in each window at the time of displaying a moving image on the editing window is edited in a text format, the user can control the synchronization relationship between the moving image display units. Can be generated, in which the display timing of each moving image display unit displayed on each window in a state where is stored is explicitly specified.

【0032】上述の動画表示単位の編集に加えて、ユー
ザは、編集用ウィンドウ上に表示されるディスプレイ画
面が時間軸方向に3次元グラフィック表示された直方体
上で、動画表示時の各ウィンドウのディスプレイ上での
オープン又はクローズのタイミング及びその位置を編集
することができる。或いは、ユーザは、編集用ウィンド
ウ上で、動画表示時の各動画表示用ウィンドウのディス
プレイ上でのオープン又はクローズのタイミングをテキ
スト形式で編集できると共に、各動画表示用ウィンドウ
を編集用ウィンドウ上の所定領域内に配置させることに
より各動画表示用ウィンドウのディスプレイ上での位置
を編集することができる。
In addition to the above-described editing of the moving image display unit, the user can display a display screen displayed on the editing window on a rectangular parallelepiped in which a three-dimensional graphic is displayed in the time axis direction. The timing of opening or closing and the position thereof can be edited. Alternatively, on the editing window, the user can edit the timing of opening or closing each moving image display window on the display at the time of displaying a moving image in a text format, and can set each moving image display window to a predetermined time on the editing window. By arranging in the area, the position of each moving image display window on the display can be edited.

【0033】[0033]

【実施例】次に、本発明の実施例(注:複数形)につい
て説明する。図2に、本発明を実現する動画表示装置の
装置構成の一実施例を図示する。図2において、10は
本発明を実現する動画表示装置、20は動画表示装置1
0の備える入出力装置、30は図1で説明した動画表示
単位を入力する動画表示単位入力装置、31は図1で説
明したシナリオ記述を入力するシナリオ記述入力装置、
40は動画入力装置30により入力される動画表示単位
を管理する動画表示単位格納ファイル、41は動画入力
装置30により入力されるシナリオ記述を管理するシナ
リオ記述格納ファイルである。
Next, embodiments of the present invention (note: plural forms) will be described. FIG. 2 shows an embodiment of a device configuration of a moving image display device for realizing the present invention. In FIG. 2, reference numeral 10 denotes a moving image display device for realizing the present invention, and reference numeral 20 denotes a moving image display device 1.
0, an input / output device 30 for inputting a video display unit described in FIG. 1 for inputting a video display unit, a scenario description input device 31 for inputting a scenario description described in FIG.
Reference numeral 40 denotes a moving image display unit storage file that manages a moving image display unit input by the moving image input device 30, and 41 denotes a scenario description storage file that manages a scenario description input by the moving image input device 30.

【0034】まず、動画表示装置10は、次のような構
成を有する。動画表示単位解釈装置11は、動画表示単
位格納ファイル40に格納される動画表示単位を解釈す
る。シナリオ記述解釈装置12は、動画表示単位解釈装
置11の解釈結果を使用しつつ、シナリオ記述格納ファ
イル41に格納されるシナリオ記述を解釈する。ウィン
ドウシステム13は、例えばXウィンドウシステムであ
り、入出力装置20のディスプレイにウィンドウをオー
プンする。動画内部データ格納ファイル14には、シナ
リオ記述解釈装置12の解釈結果となる動画内部データ
が展開される。動画操作装置15は、入出力装置20と
の間のインタフェース処理を実行する。画面状態作成装
置16は、動画内部データ格納ファイル14に展開され
た動画内部データからディスプレイに表示される画面デ
ータを作成する。画面表示装置17は、ウィンドウシス
テム13を起動して画面状態作成装置16の作成した画
面データをディスプレイ上のウィンドウに表示する。
First, the moving image display device 10 has the following configuration. The moving image display unit interpretation device 11 interprets a moving image display unit stored in the moving image display unit storage file 40. The scenario description interpretation device 12 interprets the scenario description stored in the scenario description storage file 41 using the interpretation result of the moving image display unit interpretation device 11. The window system 13 is, for example, an X window system, and opens a window on the display of the input / output device 20. In the moving image internal data storage file 14, moving image internal data as an interpretation result of the scenario description interpretation device 12 is developed. The moving image operation device 15 performs an interface process with the input / output device 20. The screen state creation device 16 creates screen data to be displayed on the display from the moving image internal data developed in the moving image internal data storage file 14. The screen display device 17 activates the window system 13 and displays the screen data created by the screen state creation device 16 in a window on the display.

【0035】動画入力装置30は、後に詳述するよう
に、専用エディタや汎用エディタを内蔵し、画面表示定
義を記述する1つ又は複数のフレームから構成される動
画表示単位をユーザに入出力装置20から入力させ、そ
の動画表示単位を動画表示単位格納ファイル40に格納
する。
As will be described in detail later, the moving image input device 30 incorporates a dedicated editor or a general-purpose editor, and allows the user to input / output a moving image display unit composed of one or a plurality of frames for describing screen display definitions. 20 and the moving image display unit is stored in the moving image display unit storage file 40.

【0036】図3に、動画表示単位格納ファイル40に
格納される動画表示単位の一実施例を示す。この実施例
は、図4に示される画面表示状態を記述するものであ
る。動画表示単位を構成するフレーム(frame)
は、規定の表示単位時間毎の各画面表示定義を記述する
データセットであって、ディスプレイ上に表示される図
形の種類とその図形の特性情報とが図形ID(identifie
r)が付されて記述される。
FIG. 3 shows an embodiment of the moving image display unit stored in the moving image display unit storage file 40. This embodiment describes the screen display state shown in FIG. Frame that constitutes a moving image display unit
Is a data set describing each screen display definition for each specified display unit time, and the type of figure displayed on the display and the characteristic information of the figure are represented by a figure ID (identifiee).
r) is added and described.

【0037】まず、時刻aの画面表示状態を記述する先
頭のフレームは、7つの図形を記述する。すなわち、図
形ID“arc0”と“arc1”がそれぞれ付された
記号“arc”は、それぞれ円弧の図形を記述する。図
形ID“cir1”が付された記号“circle”
は、円の図形を記述する。図形ID“box1”と“b
ox1 orig”がそれぞれ付された各記号“bo
x”は、それぞれ長方形の図形を記述する。但し、両者
は重なっている。図形ID“s3”が付された記号“s
tring”は、文字列の図形を記述する。図形ID
“al”が付された記号“arrow”は、矢印の図形
を記述する。また、各図形種類を示す記号に続いて、各
図形の位置や大きさを示す特性情報が記述される。例え
ば、記号“cir1”に続いて記述される数値列“40
0 300 20”は、円の中間座標が“400,30
0”で円の半径が“20”であることを記述している。
更に、次のフレームは、上述したのと同様の記述に従っ
て、時刻aの次の時刻(a+1)の画面表示状態を記述
する。ここで、ユーザによる動画表示単位の入力処理の
負荷の軽減を図るために、一度定義された図形に関する
画面表示定義は図形IDを参照することにより再利用が
可能な構成が採られている。
First, the first frame describing the screen display state at time a describes seven figures. That is, the symbols “arc” to which the graphic IDs “arc0” and “arc1” are respectively described describe arc shapes. Symbol "circle" with figure ID "cir1"
Describes the shape of a circle. The figure IDs “box1” and “b
ox1 orig, each symbol “bo”
“x” describes a rectangular figure, but both overlap, and a symbol “s” with a figure ID “s3” is added.
"string" describes a figure of a character string.
The symbol "arrow" to which "al" is attached describes a figure of an arrow. Following the symbol indicating each figure type, characteristic information indicating the position and size of each figure is described. For example, a numeric string “40” described after the symbol “cir1”
0 300 20 ”means that the intermediate coordinates of the circle are“ 400, 30 ”.
"0" describes that the radius of the circle is "20".
Further, the next frame describes the screen display state at the time (a + 1) next to the time a according to the same description as described above. Here, in order to reduce the load of input processing of a moving image display unit by a user, a configuration is adopted in which a screen display definition relating to a graphic once defined can be reused by referring to a graphic ID.

【0038】次に、動画入力装置30は、後に詳述する
ように、ディスプレイ上にオープンされる複数のウィン
ドウに表示される動画表示単位の時間的順序関係を記述
するシナリオ記述と、これらのウィンドウに表示される
動画表示単位の同期関係を記述するシナリオ記述を、ユ
ーザに入出力装置20から入力させ、そのシナリオ記述
をシナリオ記述格納ファイル41に格納する。
Next, as will be described in detail later, the moving image input device 30 includes a scenario description that describes a temporal order relation of moving image display units displayed in a plurality of windows opened on the display, The user inputs a scenario description describing the synchronization relationship of the moving image display unit displayed on the input / output device 20, and stores the scenario description in the scenario description storage file 41.

【0039】動画入力装置30によって入力されるシナ
リオ記述のモデルには、フィルム型とネットワーク型と
いう2種類のモデルがあり、図2の実施例では、フィル
ム型のシナリオ記述を扱う装置構成が開示されている。
フィルム型のシナリオ記述は、図5(a) に示すように、
同一のウィンドウに表示される動画表示単位が時間順に
並べられたモデルであり、図5(a) の破線で示されるよ
うに、この時間順序を崩さずに各ウィンドウ間の同期関
係が規定される。ここで、図中の矩形は動画表示単位を
表し、“→”は時間順序関係を表す。
There are two types of scenario description models input by the moving image input device 30, a film type model and a network type model. In the embodiment of FIG. 2, an apparatus configuration for handling a film type scenario description is disclosed. ing.
The scenario description of the film type is as shown in FIG.
This is a model in which the moving image display units displayed in the same window are arranged in chronological order. As shown by the broken line in FIG. 5A, the synchronization relationship between the windows is defined without breaking this chronological order. . Here, a rectangle in the figure represents a moving image display unit, and “→” represents a time order relationship.

【0040】これに対してネットワーク型のシナリオ記
述は、動画表示単位間の関係の自由度を拡張したモデル
であり、図5(b) の破線で示されるような時間順序が戻
ることや、ユーザとのインタラクション(interaction)
により他の動画表示単位に移動することを許容するモデ
ルである。
On the other hand, the network-type scenario description is a model in which the degree of freedom of the relationship between the moving image display units is expanded, and the time sequence shown by the broken line in FIG. Interaction with
Is a model that allows moving to another moving image display unit.

【0041】次に、シナリオ記述格納ファイル41に格
納されるシナリオ記述の基本フォーマットについて説明
する。 (1) ウィンドウの作成を指示するシナリオ記述として
は、 glueOpen<ウィンドウ名><幅><高さ><x><y> が記述される。この記述は、<幅>と<高さ>の大きさ
を持つウィンドウを<x>と<y>の座標位置にオープ
ンして、そのウィンドウに<ウィンドウ名>というID
を与えることを指示する。この<ウィンドウ名>は、そ
れを含むウィンドウが他のシナリオ記述中で参照される
ときに使用される。
Next, the basic format of the scenario description stored in the scenario description storage file 41 will be described. (1) As a scenario description instructing the creation of a window, glueOpen <window name><width><height><x><y> is described. In this description, a window having the size of <width> and <height> is opened at the coordinates of <x> and <y>, and the window has an ID of <window name>.
To give. This <window name> is used when the window containing it is referred to in another scenario description.

【0042】(2) 動画表示単位の表示を指示するシナリ
オ記述としては、 glue<グルー名><ウィンドウ名><動画表示単位のフ
ァイル名> が記述される。この記述は、<動画表示単位のファイル
名>に格納される動画表示単位を<ウィンドウ名>をI
Dとするウィンドウに表示して、その動画表示単位に<
グルー名>というIDを与えることを指示する。この記
述形式において、同じ<ウィンドウ名>を含む記述が連
続して記述された場合には、その記述の順番に従ってそ
の<ウィンドウ名>をIDとするウィンドウにそれぞれ
指定される動画表示単位を表示していくことを指示する
ことを意味する。ここで、<グルー名>は一意のもので
なければならない。
(2) As a scenario description instructing display of a moving image display unit, glue <glue name><windowname><file name of moving image display unit> is described. This description indicates that the moving image display unit stored in <file name of moving image display unit> is <window name>
D and display it in the video display unit <
Glue name>. In this description format, when descriptions including the same <window name> are described consecutively, a moving image display unit specified in each window having the <window name> as an ID is displayed in the order of the description. Instructs you to go. Here, <glue name> must be unique.

【0043】(3) ウィンドウの消去を指示するシナリオ
記述としては、 glueClose <ウィンドウ名> が記述される。この記述は、オープンされている<ウィ
ンドウ名>をIDとするウィンドウの消去を指示する。
(3) glueClose <window name> is described as the scenario description for instructing the deletion of the window. This description instructs the deletion of the window having the opened <window name> as the ID.

【0044】(4) 異なるウィンドウ間における動画表示
単位の同時表示を指示するシナリオ記述としては、 glueSync<グルー名1><グルー名2> が記述される。この記述は、<グルー名1>をIDとす
る動画表示単位と、<グルー名2>をIDとする動画表
示単位とを同時にそれぞれのウィンドウに表示すること
を指示する。ここで、<グルー名1>と<グルー名2>
は、定義済みである必要がある。
(4) glueSync <Glue name 1><Glue name 2> is described as a scenario description instructing simultaneous display of moving image display units between different windows. This description indicates that a moving image display unit having ID of <glue name 1> and a moving image display unit having ID of <glue name 2> are simultaneously displayed in each window. Here, <Glue name 1> and <Glue name 2>
Must be defined.

【0045】(5) 複数の動画表示単位を図6に例示する
ようにグループ化することを指示するシナリオ記述とし
ては、 group <グループ名>with{グルー名|グループ名} が記述される。この記述は、{グルー名|グループ名}
(グルー名又はグループ名の何れか一方)をIDとする
グルーやグループを1つのグループにして、<グループ
名>のIDを与えることを指示する。この定義されたグ
ループ名は上述のglueSyncで用いることが可能になるも
ので、その場合には、そのグループの先頭のグルー名を
持つ動画表示単位が使われる。
(5) As a scenario description instructing grouping of a plurality of moving image display units as illustrated in FIG. 6, group <group name> with {group name | group name} is described. This description is {Glue name | Group name}
It is instructed that a glue or a group whose ID is (either the glue name or the group name) is made into one group and the ID of <group name> is given. This defined group name can be used in glueSync described above. In this case, a moving image display unit having the first group name of the group is used.

【0046】(6) ネットワーク型のシナリオ記述では、
前述したように、別の動画表示単位への任意の時間的遷
移が許容され、これに対応するシナリオ記述として、 gluebranch from <グルー名1>to<グルー名2> 又は、 gluebranch from <図形名>in<グルー1>to<グルー
名2> が記述される。前者の記述は、<グルー名1>をIDと
する動画表示単位から<グルー名2>をIDとする動画
表示単位への遷移を指示し、後者の記述は、<グルー名
1>をIDとする動画表示単位中の<図形名>を図形I
Dとする図形がユーザにより指定された場合に(マウス
のクリック動作による)、<グルー名2>をIDとする
動画表示単位へ遷移することを指示する。
(6) In the network type scenario description,
As described above, an arbitrary temporal transition to another moving image display unit is permitted, and as a scenario description corresponding to this, gluebranch from <glue name 1> to <glue name 2> or gluebranch from <figure name> in <glue 1> to <glue name 2> are described. The former description instructs a transition from a moving image display unit having <Glue name 1> as an ID to a moving image display unit having <Glue name 2> as an ID, and the latter description has <Glue name 1> as an ID. <Graphic name> in the moving image display unit
When the graphic designated as D is designated by the user (by a mouse click operation), it is instructed to make a transition to the moving image display unit having <Glue name 2> as the ID.

【0047】(7) シナリオ記述にコメントが記述される
場合には、その行頭に“#”が挿入される。このコメン
トの入力により、シナリオ記述の解読が容易になる。図
2の実施例のシナリオ記述格納ファイル41に格納され
るシナリオ記述は、以上に説明した基本フォーマットに
より記述される。
(7) When a comment is described in the scenario description, "#" is inserted at the beginning of the line. The input of the comment facilitates the decoding of the scenario description. The scenario description stored in the scenario description storage file 41 of the embodiment of FIG. 2 is described in the basic format described above.

【0048】図7及び図8に、あるデータ処理装置のマ
ニュアルを図2の動画表示処理装置によるディスプレイ
表示として実現する場合に、シナリオ記述格納ファイル
41に格納されるシナリオ記述の一実施例を図示する。
なお、図7に示されるシナリオ記述に図8に示されるシ
ナリオ記述が続いているものとする。
FIGS. 7 and 8 show an embodiment of a scenario description stored in the scenario description storage file 41 when a manual of a certain data processing device is realized as a display display by the moving image display processing device of FIG. I do.
It is assumed that the scenario description shown in FIG. 7 is followed by the scenario description shown in FIG.

【0049】図7及び図8において、まず、“概要の解
説”を表示するために、座標位置“100,100”
に、幅“640”、高さ“600”の大きさを持つ“s
tagel”というIDを有するウィンドウをオープン
することが指示された後、このウィンドウに、“sho
tman/kaisetsul”、“shotman/
kaisetsu2”、“shotman/kaise
tsu3”,“shotman/kaisetsu4
“という4つの動画表示単位を順番に表示することが指
示される。
In FIG. 7 and FIG. 8, first, the coordinate position “100, 100” is displayed in order to display “summary explanation”.
In addition, “s” having a size of width “640” and height “600”
After the user is instructed to open the window having the ID “tagel”, the window shows “sho
tman / kaisetsul ”,“ shotman /
kaisetsu2 "," shotman / kaise
tsu3 "," shotman / kaisetsu4
It is instructed to display the four moving image display units “in order”.

【0050】次に、上述した“概要の解説”の表示に続
いて“実現図”を表示するために、“booko/ko
useizu0”、“shotman2/kousei
zu1”、“shotman2/kouseizu
2”、“shotman2/kouseizu4”とい
う4つの動画表示単位を上述と同様の“stagel”
というIDを有するウィンドウに順番に表示することが
指示される。その後、このウィンドウを消去することが
指示される。
Next, in order to display the “realization diagram” following the display of the “summary explanation” described above, “bookoko / ko” is displayed.
useiz0 ”,“ shotman2 / kousei
zu1 "," shotman2 / kouseizu
2 "and" shotman2 / kouseiz4 "are displayed in the same" stagel "
Are displayed in order in a window having an ID of Thereafter, the user is instructed to delete this window.

【0051】一方、前述した“概要の解説”の補足とし
て“出力例”を表示するために“stage2”という
IDを有するウィンドウをオープンすることが指示され
た後、このウィンドウに3つの動画表示単位を順番に表
示することが指示される。
On the other hand, after instructing to open a window having an ID “stage2” to display “output example” as a supplement to the above “summary description”, three moving image display units are displayed in this window. Are instructed to be displayed in order.

【0052】次に、前述した“実現図”の表示に合せて
“実現の解説”を表示するために、6つの動画表示単位
を順番に表示することが指示される。その後、このウィ
ンドウを消去することが指示される。
Next, in order to display the "commentary of realization" in accordance with the display of the "realization diagram" described above, it is instructed to sequentially display the six moving image display units. Thereafter, the user is instructed to delete this window.

【0053】更に、前述した“実現の解説”の一部の表
示に合せて“ソースファイル”を表示するために、“s
tage3”というIDを有するウィンドウをオープン
することが指示されてから、このウィンドウに1つの動
画表示単位を表示することが指示される。その後、この
ウィンドウを消去することが指示される。
Further, in order to display the “source file” in accordance with the display of a part of the “explanation of realization”, “s
After instructing to open a window having an ID of “tag3”, an instruction to display one moving image display unit in this window is issued. Thereafter, an instruction to erase this window is issued.

【0054】そして、“同期”というコメントに続い
て、上述の各ウィンドウに表示される各動画表示単位の
同期関係が記述される。例えば、グルー名“kai2”
を有する動画表示単位“shotman/kaiset
su2”と、グルー名“ex1”を有する動画表示単位
“shotman/example1”とを同時にディ
スプレイに表示させることが指示される。図9に、“同
期”というコメントに続く同期関係の記述(注:複数
形)によって規定される各動画表示単位間の同期関係を
図示する。なお、この図では、分かり易さのために、動
画表示単位の実際の時間の長さは適当に修正して示され
ている。
Following the comment "Synchronization", the synchronization relationship of each moving image display unit displayed in each window described above is described. For example, the glue name “kai2”
The video display unit having a “shotman / kaiset”
It is instructed to simultaneously display on the display the moving image display unit “shotman / example1” having the glue name “ex1” and the description of the synchronization relationship following the comment “synchronization” (note: 2 shows the synchronization relationship between the moving image display units defined by the plural form.In this figure, for the sake of simplicity, the actual length of the moving image display unit is appropriately modified and shown. ing.

【0055】図2の動画表示装置10は、シナリオ記述
格納ファイル41に格納されるシナリオ記述と、動画表
示単位格納ファイル40に格納される動画表示単位とを
解釈して、マルチウィンドウを利用して効果的に動画
(上述の例ではデータ処理装置のマニュアル)を表示し
ていくよう処理することになる。
The moving image display device 10 of FIG. 2 interprets the scenario description stored in the scenario description storage file 41 and the moving image display unit stored in the moving image display unit storage file 40, and utilizes a multi-window. Processing is performed so that a moving image (in the above example, the manual of the data processing device) is displayed effectively.

【0056】図10に、シナリオ記述を解釈するシナリ
オ記述解釈装置12の処理フローの一実施例を図示す
る。まず、ステップ(ST)10で、シナリオ記述格納
ファイル41からシナリオ記述が読み込まれる。
FIG. 10 shows an embodiment of the processing flow of the scenario description interpretation device 12 for interpreting a scenario description. First, in step (ST) 10, a scenario description is read from the scenario description storage file 41.

【0057】次に、ステップ11で、シナリオ記述格納
ファイル41にシナリオ記述がなくなったか否かが判定
される。シナリオ記述格納ファイル41にシナリオ記述
がまだありステップ11の判定がNOならば、ステップ
12において、読み込まれたシナリオ記述のフォーマッ
トが識別され、各ウィンドウデータ、各動画表示単位、
それらのリンク関係、グローバル変数(後述する)等が
作成されることにより、シナリオ記述の解釈結果となる
動画内部データが作成される。ここで、動画表示単位に
ついては、後述するステップ14で動画表示単位解釈装
置11が起動されることにより実際の画面データがリン
クされるため、ステップ12が実行された段階では、動
画内部データの一部(以下、部分動画内部データと称す
る)が作成されることになる。
Next, at step 11, it is determined whether or not the scenario description is no longer stored in the scenario description storage file 41. If the scenario description is still present in the scenario description storage file 41 and the determination in step 11 is NO, in step 12, the format of the read scenario description is identified, and each window data, each moving image display unit,
By creating such link relationships, global variables (to be described later), and the like, moving image internal data that is the interpretation result of the scenario description is created. Here, regarding the moving image display unit, since the actual screen data is linked by activating the moving image display unit interpretation device 11 in step 14 described later, at the stage when step 12 is executed, A part (hereinafter, referred to as partial moving image internal data) is created.

【0058】図12に、上述したシナリオ記述解釈装置
12の動作に基づいて作成される部分動画内部データの
一実施例を図示する。例えば、シナリオ記述格納ファイ
ル41から読み込まれたシナリオ記述が前述した(1) の
シナリオ記述“glueOpen”である場合には、図12に示
されるような“ウィンドウ”構造体が作成されると共
に、シナリオ記述に基づくウィンドウの幅、高さ、x座
標、y座標をパラメータとして図2のウィンドウシステ
ム13が起動され、ウィンドウを開設するための制御デ
ータ、例えばX Windowシステムの場合は、Wi
dgetと呼ばれる制御データが作成される。そして、
その制御データへのポインタが上述の“ウィンドウ”構
造体のデータとして設定され、その構造体内の他のデー
タも適切に設定される。
FIG. 12 shows an embodiment of the partial moving image internal data created based on the operation of the scenario description interpretation device 12 described above. For example, if the scenario description read from the scenario description storage file 41 is the above-described (1) scenario description “glueOpen”, a “window” structure as shown in FIG. The window system 13 in FIG. 2 is started using the width, height, x-coordinate, and y-coordinate of the window based on the description as parameters, and control data for opening the window, for example, Wi in the case of the X Window system.
Control data called dget is created. And
A pointer to the control data is set as the data of the above-mentioned "window" structure, and other data in the structure is set appropriately.

【0059】また、シナリオ記述格納ファイル41から
読み込まれたシナリオ記述が前述した(2) のシナリオ記
述“glue”である場合は、図12に示されるような“動
画表示単位”構造体が作成され、ファイル名、グルー名
などがデータとして設定され、この構造体へのポインタ
が、ウィンドウ名で指定されたウィンドウに関する“ウ
ィンドウ”構造体の動画表示単位リストの最後のデータ
として設定される。
When the scenario description read from the scenario description storage file 41 is the above-described scenario description “glue” of (2), a “movie display unit” structure as shown in FIG. 12 is created. , A file name, a glue name, etc. are set as data, and a pointer to this structure is set as the last data of the moving image display unit list of the “window” structure relating to the window specified by the window name.

【0060】また、シナリオ記述格納ファイル41から
読み込まれたシナリオ記述が前述した(4) のシナリオ記
述“glueSync”である場合には、図12に示されるよう
な“動画表示単位”構造体の同期リストのデータとして
新しい要素が1つ追加され、その要素として同期関係に
ある“動画表示単位”構造体へのポインタが設定され
る。また、同期関係にある“動画表示単位”構造体にお
いても、同様の設定が行なわれる。
If the scenario description read from the scenario description storage file 41 is the above-described scenario description “glueSync” of (4), the synchronization of the “movie display unit” structure as shown in FIG. One new element is added as the data of the list, and a pointer to a “moving image display unit” structure having a synchronous relationship is set as the new element. Similar settings are made in the “moving image display unit” structure having a synchronous relationship.

【0061】また、シナリオ記述格納ファイル41から
読み込まれたシナリオ記述が前述した(6) のシナリオ記
述“gluebranch from<グルー名1>to<グルー名2
>”である場合には、グルー名1の“動画表示単位”構
造体のトリガー先リストのデータとして新しい要素が1
つ追加され、その要素としてグルー名2の“動画表示単
位”構造体へのポインタが格納される。
The scenario description read from the scenario description storage file 41 is the same as the scenario description “gluebranch from <glue name 1> to <glue name 2” described in (6) above.
>>, the new element is 1 as the data of the trigger destination list of the “movie display unit” structure of glue name 1
And a pointer to a “moving image display unit” structure of glue name 2 is stored as an element.

【0062】また、シナリオ記述格納ファイル41から
読み込まれたシナリオ記述が前述した(6) のシナリオ記
述“gluebranch from<図形名>in<グルー1>to<グ
ルー名2>”である場合には、グルー名1の“動画表示
単位”構造体のトリガー先リストのデータとして新しい
要素が1つ追加され、その要素として、指定されたテキ
スト形式の図形名と、グルー名2の“動画表示単位”構
造体へのポインタが格納される。
If the scenario description read from the scenario description storage file 41 is the scenario description “gluebranch from <figure name> in <glue 1> to <glue name 2>” described in (6) above, One new element is added as data of the trigger destination list of the “movie display unit” structure of the glue name 1, and the figure name in the specified text format and the “movie display unit” structure of the glue name 2 are added as the elements. A pointer to the body is stored.

【0063】以上の例のようにして、読み込まれたシナ
リオ記述に従って部分動画内部データが作成されると、
処理が図10のステップ10に戻され、シナリオ記述格
納ファイル41から次のシナリオ記述が読み込まれ、ス
テップ12でそのシナリオ記述に対応する部分動画内部
データが作成される。
As described above, when the partial moving image internal data is created in accordance with the read scenario description,
The processing is returned to step 10 in FIG. 10, the next scenario description is read from the scenario description storage file 41, and in step 12, partial moving image internal data corresponding to the scenario description is created.

【0064】上述の処理が繰り返される結果、シナリオ
記述格納ファイル41から読み込まれるべきシナリオ記
述がなくなり、ステップ11の判定がYESとなると、
ステップ13の処理が実行される。
As a result of repeating the above processing, there is no scenario description to be read from the scenario description storage file 41, and if the determination in step 11 becomes YES,
Step 13 is executed.

【0065】ステップ13では、作成された部分動画内
部データの各動画表示単位がたどられることにより、各
動画表示単位のファイル名が抽出される。ファイル名が
抽出されるとステップ14の判定がNOとなり、ステッ
プ15で、このようにして抽出された各動画表示単位の
ファイル名に基づいて、動画表示単位解釈装置11が起
動される。
In step 13, the file name of each moving image display unit is extracted by following each moving image display unit of the created partial moving image internal data. When the file name is extracted, the determination in step 14 is NO, and in step 15, the moving image display unit interpreting apparatus 11 is activated based on the file name of each moving image display unit thus extracted.

【0066】図11に、動画表示単位を解釈する動画表
示単位解釈装置11の処理フローの一実施例を図示す
る。まず、ステップ20で、上述した動画表示単位のフ
ァイル名が参照されることにより、動画表示単位格納フ
ァイル40からそのファイル名に対応する動画表示単位
のデータが読み込まれる。
FIG. 11 shows an embodiment of the processing flow of the moving image display unit interpreting device 11 for interpreting the moving image display unit. First, in step 20, by referring to the file name of the moving image display unit described above, data of the moving image display unit corresponding to the file name is read from the moving image display unit storage file 40.

【0067】次に、ステップ21で、参照された動画表
示単位内の全てのデータがなくなったか否かが判定され
る。動画表示単位内のデータがまだありステップ21の
判定がNOならば、ステップ22で、読み取られた動画
表示単位のデータに従って、表示対象となる画面データ
が作成され、その作成された画面データがシナリオ記述
解釈装置12の作成した上記ファイル名に対応する部分
動画内部データにリンクされる。すなわち、画面データ
は、例えば、各図形の形状、大きさ、位置などを一構造
体としてリスト形式で部分動画内部データに含まれる形
で作成され、そのリストへのポインタが図12に示され
るような“動画表示単位”構造体の画面データとして設
定される。
Next, in step 21, it is determined whether or not all the data in the referenced moving image display unit has disappeared. If there is still data in the moving image display unit and the determination in step 21 is NO, in step 22, screen data to be displayed is created according to the read data of the moving image display unit, and the created screen data is stored in a scenario. The partial moving image internal data corresponding to the file name created by the description interpretation device 12 is linked. That is, the screen data is created, for example, in a form including the shape, size, and position of each figure as one structure and included in the partial moving image internal data in the form of a list. A pointer to the list is as shown in FIG. This is set as the screen data of the “moving image display unit” structure.

【0068】この結果、完全な動画内部データが作成さ
れたことになり、この作成された動画内部データは、動
画内部データ格納ファイル14に格納される。その後、
シナリオ記述解釈装置12に制御が戻され、シナリオ記
述解釈装置12は、図10のステップ13の処理に制御
を戻す。そして、作成された部分動画内部データの各動
画表示単位がたどられることにより、次の動画表示単位
のファイル名が抽出され、それに基づいて動画表示単位
解釈装置11が起動されて画面データが作成され、動画
内部データが作成される。
As a result, complete moving image internal data is created, and the created moving image internal data is stored in the moving image internal data storage file 14. afterwards,
Control is returned to the scenario description interpretation device 12, and the scenario description interpretation device 12 returns control to the process of step 13 in FIG. Then, by following each moving image display unit of the created partial moving image internal data, the file name of the next moving image display unit is extracted, and based on that, the moving image display unit interpreter 11 is activated to create screen data. Then, the moving image internal data is created.

【0069】上述の処理が繰り返される結果、たどられ
るべき動画表示単位のファイル名がなくなり、ステップ
14の判定がYESとなると、ステップ16で、図2の
動画操作装置15が起動され、上述のようにして作成さ
れた動画内部データに基づいて、入出力装置20のディ
スプレイへの動画(前述の例ではデータ処理装置のマニ
ュアル)の表示が行なわれる。すなわち、動画操作装置
15は、始めに、入力装置20のディスプレイ上に後述
するコントロールパネルのウィンドウを表示する。ユー
ザがコントロールパネルに従って動画表示を指示する
と、画面状態作成装置16が、動画内部データ格納ファ
イル14に格納されている動画内部データをたどること
によって画面データを作成し、次に、画面表示装置17
が、ウィンドウシステム13を用いてこの画面データを
ディスプレイ上に表示させる。このようにして、動画を
ディスプレイ上にマルチウィンドウ形式で表示させるこ
とができる。画面状態作成装置16の動作については、
更に後述する図27の説明で詳述する。
As a result of repeating the above processing, there is no longer a file name of the moving image display unit to be traced, and if the determination in step 14 is YES, the moving image operating device 15 of FIG. On the basis of the moving image internal data thus created, a moving image (in the above example, a manual for the data processing device) is displayed on the display of the input / output device 20. That is, first, the moving image operation device 15 displays a control panel window described later on the display of the input device 20. When the user instructs the display of a moving image according to the control panel, the screen state creating device 16 creates the screen data by following the moving image internal data stored in the moving image internal data storage file 14.
Displays the screen data on the display using the window system 13. In this way, a moving image can be displayed on the display in a multi-window format. Regarding the operation of the screen state creation device 16,
This will be described in detail later with reference to FIG.

【0070】図13〜図22に、上述の動画表示処理に
基づき、前述した図7及び図8のシナリオ記述に従って
ディスプレイ上に表示される動画の一例であるデータ処
理装置のマニュアルの一部を図示する。
FIGS. 13 to 22 show a part of a manual of a data processing apparatus which is an example of a moving image displayed on a display in accordance with the above-described scenario description of FIGS. 7 and 8 based on the above moving image display processing. I do.

【0071】まず図13は、ディスプレイ画面上のウィ
ンドウ配置を示した図である。図中、50は図14に図
示するコントロールパネル、51は前述した“stag
e1”というIDを有するウィンドウ、52は前述した
“stage2”というIDを有するウィンドウ、53
は前述した“stage3”というIDを有するウィン
ドウである。
FIG. 13 is a diagram showing the arrangement of windows on the display screen. In the figure, reference numeral 50 denotes the control panel shown in FIG.
a window having an ID of “e1”; a window 52 having an ID of “stage2”;
Is a window having the ID “stage3” described above.

【0072】図14は、コントロールパネル50の画面
構成を示す図である。コントロールパネル50は、アニ
ュメーションの再生を指示する“play”キー、巻き
戻しを指示する“back”キー、停止を指示する“s
top”キー、先頭への移動を指示する“head”キ
ー、末尾への移動を指示する“tail”キー、フレー
ム送りを指示する“fr++”キー、フレーム戻しを指
示する“fr−−”キー、動画表示単位間の前向きの移
動を指示する“sh++”キー、動画表示単位間の後ろ
向きの移動を指示する“sh−−”キー等を備えてい
る。
FIG. 14 is a diagram showing the screen configuration of the control panel 50. The control panel 50 includes a “play” key for instructing reproduction of the animation, a “back” key for instructing rewind, and “s” for instructing stop.
a "top" key, a "head" key for instructing movement to the head, a "tail" key for instructing movement to the end, a "fr ++" key for instructing frame advance, a "fr--" key for instructing frame return, A “sh ++” key for instructing a forward movement between moving image display units, a “sh−−” key for instructing a backward movement between moving image display units, and the like are provided.

【0073】今、図13において、時刻t1におけるウ
ィンドウ表示は図9の画面例1に対応している。この画
面上には、“stage1”というIDを有するウィン
ドウ51がオープンされ、このウィンドウに、“sho
tman/kaisetsu1”というIDを有する動
画表示単位に対応する、図15に例示される“概要の解
説”が表示される。
Now, in FIG. 13, the window display at time t1 corresponds to the screen example 1 in FIG. On this screen, a window 51 having an ID of “stage1” is opened.
“Summary commentary” illustrated in FIG. 15 corresponding to the moving image display unit having the ID “tman / kaisetsu1” is displayed.

【0074】次に、図13の時刻t2におけるウィンド
ウ表示は図9の画面例2に対応している。この画面上に
は、“stage1”というIDを有するウィンドウ5
1に、“shotman/kaisetsu3”という
動画表示単位に対応する、図16に例示される“概要の
解説”が表示される。これと同時に、“stage2”
というIDを有するウィンドウ52がオープンされ、こ
のウィンドウに、“shotman/example
2”という動画表示単位に対応する、図17に例示され
る“出力例”が表示される。なお、ウィンドウ52がオ
ープンされるときには、ユーザの注意を喚起するために
ベルを鳴らす構成が採られる。
Next, the window display at time t2 in FIG. 13 corresponds to the screen example 2 in FIG. On this screen, a window 5 having an ID “stage1” is displayed.
In FIG. 16, the “summary explanation” illustrated in FIG. 16 corresponding to the moving image display unit “shotman / kaisetsu3” is displayed. At the same time, “stage2”
A window 52 having an ID of “shotman / example” is opened.
An "output example" illustrated in Fig. 17 corresponding to the moving image display unit "2" is displayed. When the window 52 is opened, a bell is ringed to draw the user's attention. .

【0075】続いて、図13の時刻t3におけるウィン
ドウ表示は図9の画面例3に対応している。この画面上
には、“stage1”というIDを有するウィンドウ
51に、“booko/kouseizu0”という動
画表示単位に対応する、図18に例示される“実現図”
が表示される。これと同時に、“stage2”という
IDを有するウィンドウ52に、“shotman2/
jitsugen2”という動画表示単位に対応する、
図19に例示される“実現の解説”が表示される。これ
らと同時に、“stage3”というIDを有するウィ
ンドウ53がオープンされ、このウィンドウに“sho
tman2/examplefile”という動画表示
単位に対応する、図20に例示される“ソースファイ
ル”が表示される。
Subsequently, the window display at time t3 in FIG. 13 corresponds to screen example 3 in FIG. On this screen, a window 51 having an ID of “stage1” has a “realization diagram” illustrated in FIG. 18 corresponding to a moving image display unit of “bookoko / kouseizu0”.
Is displayed. At the same time, a window 52 having an ID of “stage2” is displayed as “shotman2 /
jitsugen2 ”corresponding to the video display unit,
The “commentary of realization” illustrated in FIG. 19 is displayed. At the same time, a window 53 having an ID “stage3” is opened, and “sho3” is displayed in this window.
A “source file” illustrated in FIG. 20 corresponding to a moving image display unit of “tman2 / examplefile” is displayed.

【0076】更に、図13の時刻t4におけるウィンド
ウ表示は図9の画面例4に対応している。この画面上に
は、“stage1”というIDのウィンドウ51に、
“booko/kouseizu0”という動画表示単
位に対応する、図21に例示される“実現図”が表示さ
れ、また、“stage2”というIDのウィンドウ5
2に、“shotman/jitsugen3”という
動画表示単位に対応する、図22に例示される“実現の
解説”が表示される。これと共に、“stage3”と
いうIDを有するウィンドウ53が消去される。
Further, the window display at time t4 in FIG. 13 corresponds to screen example 4 in FIG. On this screen, a window 51 with an ID “stage1” is displayed.
A “realization diagram” illustrated in FIG. 21 corresponding to a moving image display unit “booko / kouseiz0” is displayed, and a window 5 having an ID “stage2” is displayed.
In FIG. 2, “commentation of realization” illustrated in FIG. 22 corresponding to the moving image display unit “shotman / jitsugen3” is displayed. At the same time, the window 53 having the ID “stage3” is deleted.

【0077】以上の例のようにして、マルチウィンドウ
に従ってデータ処理装置のマニュアルを効果的に動画表
示することができる。動画表示装置10の他の一実施例 次に、図23に、本発明を実現する動画表示装置の他の
一実施例を図示する。図23で、図2で説明したのと同
じ記号を付した部分は同じ機能を有する。
As in the above example, the manual of the data processing apparatus can be effectively displayed as a moving image according to the multi-window. Another Embodiment of Moving Image Display Device Next, FIG. 23 shows another embodiment of the moving image display device for realizing the present invention. In FIG. 23, portions denoted by the same reference numerals as those described in FIG. 2 have the same functions.

【0078】この実施例では、図5(b) で説明したネッ
トワーク型のシナリオ記述を扱う装置構成が開示されて
おり、動画をダイナミックに変更することができる機能
を有する実施例である。
This embodiment discloses an apparatus configuration for handling the network-type scenario description described with reference to FIG. 5B, and has a function of dynamically changing a moving image.

【0079】図5(a) で説明したフィルム型のシナリオ
記述では、動画表示単位が時間順に並べられているため
任意の時刻の画面状態を簡単に再現でき動画の時間順序
の逆戻りを実現できるのに対して、ネットワーク型のシ
ナリオ記述では、状況に応じて表示内容が変化するの
で、図2の実施例の構成では動画の時間順序の逆戻りを
実現することができない。そこで、図23の実施例で
は、履歴データ格納ファイル18が設けられ、この履歴
データ格納ファイル18に動画表示単位の遷移が記録さ
れ、この記録に従ってネットワーク型のシナリオ記述に
おける動画の時間順序の逆戻り動作が実現される。
In the film type scenario description described with reference to FIG. 5 (a), since the display units of the moving image are arranged in chronological order, the screen state at an arbitrary time can be easily reproduced, and the time order of the moving image can be reversed. On the other hand, in the network-type scenario description, the display content changes according to the situation, and therefore, it is not possible to realize the reversal of the time order of the moving image in the configuration of the embodiment in FIG. Therefore, in the embodiment of FIG. 23, the history data storage file 18 is provided, and the transition of the moving image display unit is recorded in the history data storage file 18. According to this record, the reverse operation of the time order of the moving image in the network type scenario description is performed. Is realized.

【0080】ここで、履歴データ格納ファイル18に動
画表示単位の遷移を無制限に記録していくと、メモリ容
量を多く消費することになる。そこで、図23の実施例
では、ユーザとの対話処理に従ってユーザが時間順序を
戻ることを要求するしかないかを選択するモデル選択装
置19が設けられ、このモデル選択装置19が時間順序
を戻ることを要求しないことを選択するときには、履歴
データ格納ファイル18での保存処理が実行されないよ
うに制御することにより、メモリの浪費をなくす構成が
採られる。
Here, if the transition of the moving image display unit is recorded in the history data storage file 18 without any limitation, a large memory capacity is consumed. Therefore, in the embodiment of FIG. 23, there is provided a model selecting device 19 for selecting whether or not the user has to request that the time order be returned in accordance with the interactive processing with the user. When not selecting is requested, a configuration is adopted in which the storage processing in the history data storage file 18 is controlled so as not to be executed, thereby wasting memory.

【0081】図24及び図25に、図23の実施例のシ
ナリオ記述格納ファイル41に格納されるシナリオ記述
の一実施例を、図26に、図23の実施例の動画内部デ
ータ格納ファイル14に格納される動画内部データの一
実施例をそれぞれ図示する。なお、図24に示されるシ
ナリオ記述に図25に示されるシナリオ記述が続いてい
るものとする。
FIGS. 24 and 25 show one embodiment of the scenario description stored in the scenario description storage file 41 of the embodiment of FIG. 23. FIG. 26 shows the moving image internal data storage file 14 of the embodiment of FIG. One embodiment of the moving image internal data to be stored is illustrated. It is assumed that the scenario description shown in FIG. 25 follows the scenario description shown in FIG.

【0082】図24及び図25の(i) 乃至(iv)に、ネッ
トワーク型に特有な前述した(6) のシナリオ記述“glue
branch from ”が記述されている。また、図24及び図
25の(a) 乃至(c) に示されるように、動画表示単位の
グループ化を指示する前述した(5) のシナリオ記述“gr
oup ”が記述されている。このようなグループ化が行わ
れると、例えば、章節構造を有する文書などを表わす動
画を表示することができ、章節の移動が可能になること
により、ユーザの用途に合わせて柔軟に動画を表示して
いけるようになる。画面状態作成装置16の詳細動作 次に、画面状態作成装置16の実行する図27に示す処
理フローについて詳述する。ここで、画面状態作成装置
16が図2の実施例上に実現される場合には、フィルム
型のシナリオ記述のみが扱われるため、ステップ31〜
36の処理のみが無条件に実行され、画面状態作成装置
16が図23の実施例上に実現される場合には、フィル
ム型のシナリオ記述とネットワーク型のシナリオ記述の
両方が扱われるため、ステップ30〜42までの処理が
実行される。以下では説明の簡単ため、画面状態作成装
置16が図2の実施例上に実現されたものとして説明す
る。
24 and 25, (i) to (iv) show the scenario description "glue
branch from ". As shown in (a) to (c) of FIGS. 24 and 25, the scenario description" gr "of (5) instructing grouping of moving image display units is described.
oup "is described. When such grouping is performed, for example, a moving image representing a document having a chapter section structure can be displayed, and the chapter sections can be moved. The detailed operation of the screen state creation device 16 will now be described in detail with reference to the processing flow shown in Fig. 27 executed by the screen state creation device 16. Here, the screen state creation is performed. If the device 16 is implemented on the embodiment of FIG. 2, only the film type scenario description is handled, so that steps 31 to 31 are performed.
When only the process 36 is executed unconditionally and the screen state creation device 16 is realized on the embodiment in FIG. 23, both the film type scenario description and the network type scenario description are handled. The processes from 30 to 42 are executed. Hereinafter, for the sake of simplicity, the description will be made assuming that the screen state creation device 16 is realized on the embodiment of FIG.

【0083】まず、ステップ30で、動画内部データ格
納ファイル14から前述したグローバル変数が読み出さ
れてその設定値が判定されることにより、シナリオ記述
がフィルム型であるのかネットワーク型であるのかが判
定される。
First, in step 30, the above-described global variables are read from the moving image internal data storage file 14 and their set values are determined, thereby determining whether the scenario description is of a film type or a network type. Is done.

【0084】この判定処理において、シナリオ記述がフ
ィルム型であると判定されると、ステップ31で、コン
トロールパネルにおけるユーザからの入力が待たれる。
入力があると、ステップ32で、それが入力終了を指示
する入力であるか否かが判定される。
If it is determined in this determination process that the scenario description is of a film type, an input from the user on the control panel is awaited in step S31.
If there is an input, it is determined in step 32 whether or not the input is an input for instructing the end of the input.

【0085】この判定処理において、入力が入力終了以
外の入力であ上に実現されたものとして説明する。前述
したグローバル変数が読み出されてその設定値が判定さ
れることにより、シナリオ記述がフィルム型であるのか
ネットワーク型であるのかが判定される。この判定処理
においてされる。このとき、時刻が開始/終了時間を超
えていたら前後の適切な動画表示単位が探索され、それ
に関して同様の処理が実行される。また、入力が例えば
“動画の先頭/末尾への移動”の指示である場合には、
時刻がシナリオ記述の開始/終了時間とされ、その時刻
にオープンされているウィンドウに対して、その時刻の
動画表示単位の画面データが作成される。
In this determination processing, the description will be made assuming that the input is an input other than the end of the input and that the input is realized above. By reading the above-mentioned global variables and determining their set values, it is determined whether the scenario description is of a film type or a network type. This determination is made. At this time, if the time exceeds the start / end time, an appropriate moving image display unit before and after is searched for, and a similar process is executed for that. When the input is, for example, an instruction of “moving to the beginning / end of a moving image”,
The time is set as the start / end time of the scenario description, and the screen data of the moving image display unit at that time is created for the window opened at that time.

【0086】続いて、ステップ34で、画面表示装置1
7が起動される。これにより、画面表示装置17は、画
面データによって示される各図形をウィンドウシステム
13の描画関数を使って該当するウィンドウ内に表示す
る。
Subsequently, at step 34, the screen display device 1
7 is activated. Thus, the screen display device 17 displays each figure indicated by the screen data in the corresponding window using the drawing function of the window system 13.

【0087】続くステップ35では、コントロールパネ
ルからの入力が“再生/逆戻り”であるか、それ以外の
ものであるかが判定される。入力が“再生/逆戻り”で
ある場合には、ステップ36で、自動的に“再生/逆戻
り”の入力が生成されて、ステップ33に制御が戻され
る。これにより、1回の“再生/逆戻り”の入力によ
り、動画表示単位の再生/逆戻りの処理が連続的に実行
される。
In the following step 35, it is determined whether the input from the control panel is "playback / return" or something else. If the input is “playback / return”, an input of “playback / return” is automatically generated in step 36, and control is returned to step 33. Thus, the reproduction / return processing of the moving image display unit is continuously performed by one input of “reproduction / return”.

【0088】入力が“再生/逆戻り”以外のものである
場合には、ステップ35からステップ31に戻って、コ
ントロールパネルの入力が待たれることになる。一方、
ステップ30の判定処理において、シナリオ記述がネッ
トワーク型であると判定されると、ステップ37で、コ
ントロールパネルにおけるユーザからの入力が待たれ
る。
If the input is other than "reproduction / return", the process returns from step 35 to step 31 to wait for input from the control panel. on the other hand,
If it is determined in the determination processing in step 30 that the scenario description is of the network type, an input from the user on the control panel is awaited in step 37.

【0089】入力があると、ステップ38で、それが入
力終了を指示する入力であるか否かが判定される。この
判定処理において、入力が入力終了以外の入力であると
判定されると、ステップ39で、画面データが作成され
る。具体的には、入力が例えば“再生/逆戻り”の指示
である場合には、動画内部データ格納ファイル14にお
いて現在表示中の動画表示単位リストがたどられ、表示
中の画面データの次/前の画面データが作成される。こ
のとき、表示すべき画面データがなければ、現在の動画
表示単位の次/前の動画表示単位の先頭の画面データが
作成される。また、入力が例えば“画面のクリック”の
指示である場合は、クリックされた動画表示単位と図形
IDから移動リスト(図26参照)が検索されウィンド
ウ内に表示される。
If there is an input, it is determined in a step 38 whether or not the input is an input for instructing the end of the input. In this determination processing, if it is determined that the input is an input other than the end of the input, in step 39, screen data is created. Specifically, if the input is, for example, an instruction of “playback / return”, the moving image display unit list currently displayed in the moving image internal data storage file 14 is traced, and the next / previous screen data being displayed is displayed. Screen data is created. At this time, if there is no screen data to be displayed, the first screen data of the next / previous moving image display unit of the current moving image display unit is created. If the input is, for example, an instruction of “clicking on a screen”, a moving list (see FIG. 26) is retrieved from the clicked moving image display unit and the graphic ID and displayed in the window.

【0090】続いて、ステップ40で、画面表示装置1
7が起動される。これにより、画面表示装置17は、画
面データによって示される各図形をウィンドウシステム
13の描画関数を使って該当するウィンドウ内に表示す
る。
Subsequently, at step 40, the screen display device 1
7 is activated. Thus, the screen display device 17 displays each figure indicated by the screen data in the corresponding window using the drawing function of the window system 13.

【0091】続くステップ41では、コントロールパネ
ルからの入力が“再生/逆戻り”であるか、それ以外の
ものであるかが判定される。入力が“再生/逆戻り”で
ある場合には、ステップ42で、自動的に“再生/逆戻
り”の入力が生成されて、ステップ39に制御が戻され
る。これにより、1回の“再生/逆戻り”の入力によ
り、動画表示単位の再生/逆戻りの処理が連続的に実行
される。
In the following step 41, it is determined whether the input from the control panel is "reproduction / return" or something else. If the input is “playback / return”, an input of “playback / return” is automatically generated in step 42, and control is returned to step 39. Thus, the reproduction / return processing of the moving image display unit is continuously performed by one input of “reproduction / return”.

【0092】このようにして、画面状態作成装置16
は、シナリオ記述の種別に応じて画面データを作成して
いく処理を実行する。入力が“再生/逆戻り”以外のも
のである場合には、ステップ41からステップ37に戻
って、コントロールパネルの入力が待たれることにな
る。動画入力装置30の一実施例 最後に、図2又は図23の動画入力装置30の一実施例
を図28に示し、その動作を図29〜図31の処理フロ
ーと図32の説明図に沿って説明する。
In this way, the screen state creation device 16
Executes a process of creating screen data according to the type of scenario description. If the input is something other than "playback / return", the process returns from step 41 to step 37 to wait for input from the control panel. One Embodiment of Moving Image Input Device 30 Lastly, FIG. 28 shows an embodiment of the moving image input device 30 shown in FIG. 2 or FIG. 23, and its operation is shown in FIG. 29 to FIG. Will be explained.

【0093】動画入力装置301は、まず図29のステ
ップ50で、ユーザによる入出力装置20からの指示に
より、動画表示単位又はシナリオ記述の何れかの編集対
象を選択する。
First, in step 50 of FIG. 29, the moving image input device 301 selects one of the moving image display units and the scenario description to be edited in accordance with an instruction from the input / output device 20 by the user.

【0094】ユーザにより動画表示単位の編集が指示さ
れた場合、動画入力装置301は動画表示単位ファイル
制御装置302を起動する。今、各動画表示単位はファ
イル単位で管理されている。それで、動画表示単位ファ
イル制御装置302は、図30のステップ51におい
て、ユーザによって指定されたファイル名に対応するフ
ァイルが動画表示単位格納ファイル40上に存在するか
否かを検索して、存在すればそのファイルを編集対象と
して選択し、存在しなければ新たにファイルを生成しそ
れを編集対象とする。その後、動画表示単位ファイル制
御装置302は、動画表示単位内フレーム指定装置30
3を起動する。
When the user instructs editing of a moving image display unit, the moving image input device 301 activates the moving image display unit file control device 302. Now, each moving image display unit is managed on a file basis. Therefore, the moving image display unit file control device 302 searches for a file corresponding to the file name specified by the user in the moving image display unit storage file 40 in step 51 of FIG. If the file does not exist, the file is selected as an object to be edited. After that, the moving image display unit file control device 302
Start 3

【0095】今、動画表示単位の編集はフレーム(時
刻)単位で行なわれる。そこで、動画表示単位内フレー
ム指定装置303は、ステップ52で、動画表示単位フ
ァイル制御装置302によって設定されたファイル上
で、ユーザによって指定されたフレームを編集対象とし
て指定し、ステップ53で、図形エディタ304を起動
する。この時、ファイルが既に動画表示単位格納ファイ
ル40上に存在し指定されたフレームがそのファイル上
に存在しているならば、そのフレームの動画表示単位の
データが図形エディタ304に読み込まれて表示され
る。
Now, editing of a moving image display unit is performed in a frame (time) unit. Therefore, the moving image display unit within frame designation device 303 specifies the frame specified by the user as an object to be edited on the file set by the moving image display unit file control device 302 in step 52, and in step 53, the graphic editor Activate 304. At this time, if the file already exists in the moving image display unit storage file 40 and the specified frame exists in the file, the data of the moving image display unit of the frame is read into the graphic editor 304 and displayed. You.

【0096】図形エディタ304は、ステップ54と5
5の繰り返しにより、ユーザに該当フレームの画面デー
タを編集させる。図形エディタ304としては、既存の
汎用エディタを利用でき、また、周知の技術に基づいて
新たに専用図形エディタを開発することもできる。この
とき、ユーザが操作を行なう図2又は図23のデータ入
出力装置20と図形エディタ304との間の図形データ
の受け渡しは、動画入力制御装置301が制御する。
The graphic editor 304 executes steps 54 and 5
By repeating step 5, the user edits the screen data of the corresponding frame. As the graphic editor 304, an existing general-purpose editor can be used, and a new dedicated graphic editor can be developed based on a known technique. At this time, the transfer of graphic data between the data input / output device 20 of FIG. 2 or FIG.

【0097】ユーザにより図形エディタ304での編集
終了が指示されると、ステップ55の判定がYESとな
り、編集結果が図形エディタ作成データ305としてデ
ィスク記憶装置などに保存される。その後、動画表示単
位ファイル制御装置302が図形データ解析装置306
を起動する。
When the user instructs the end of editing in the graphic editor 304, the determination in step 55 becomes YES, and the edited result is stored as graphic editor creation data 305 in a disk storage device or the like. After that, the moving image display unit file control device 302
Start

【0098】図形データ解析装置306は、ステップ5
6で、動画表示単位のフォーマット定義307を参照し
ながら、既に図3に例示されているような内部テキスト
形式で表現された動画表示単位のフレームデータを生成
する。
The graphic data analysis device 306 executes step 5
In step 6, referring to the format definition 307 of the moving image display unit, frame data of the moving image display unit expressed in the internal text format as illustrated in FIG. 3 is generated.

【0099】動画表示単位ファイル制御装置302は、
ステップ57で、上述のようにして生成された動画表示
単位のフレームデータを指定されたファイルに追加し、
又はそのフレームデータによってそのファイル上の該当
するフレームデータを置き換える。
The moving image display unit file control device 302
In step 57, the frame data of the moving image display unit generated as described above is added to the specified file,
Alternatively, the corresponding frame data on the file is replaced by the frame data.

【0100】ユーザによって別フレームの編集が指示さ
れたなら、動画表示単位ファイル制御装置302は、ス
テップ58からステップ52に制御を戻し、新たなフレ
ームの編集のための制御処理を繰り返す。
If the editing of another frame is instructed by the user, the moving image display unit file control device 302 returns the control from step 58 to step 52, and repeats the control processing for editing a new frame.

【0101】また、ユーザによって別動画表示単位の編
集が指示されたなら、動画表示単位ファイル制御装置3
02は、ステップ59からステップ51に制御を戻し、
新たな動画表示単位の編集のための制御処理を繰り返
す。
If the user instructs to edit another moving image display unit, the moving image display unit file control device 3
02 returns control from step 59 to step 51,
The control process for editing a new moving image display unit is repeated.

【0102】ユーザによりシナリオ記述の編集が指示さ
れた場合、動画入力装置301はシナリオ記述編集装置
308を起動する。シナリオ記述編集装置308は、ス
テップ60で、シナリオ記述フォーマット定義309と
して予め定義されている編集画面フォーマットに従い、
シナリオ記述編集画面を表示し、ステップ61と62の
繰り返しにより、ユーザに例えば図32に示されるよう
な編集画面上でシナリオ記述を編集させる。このとき、
ユーザが操作を行なう図2又は図23のデータ入出力装
置20とシナリオ記述編集装置308との間のデータの
受け渡しは、動画入力制御装置301が制御する。
When the user instructs to edit the scenario description, the moving image input device 301 activates the scenario description editing device 308. In step 60, the scenario description editing device 308 follows the editing screen format defined in advance as the scenario description format definition 309,
A scenario description editing screen is displayed, and by repeating steps 61 and 62, the user is made to edit the scenario description on the editing screen as shown in FIG. 32, for example. At this time,
The moving image input control device 301 controls the transfer of data between the data input / output device 20 and the scenario description editing device 308 in FIG.

【0103】ユーザは、各ウィンドウの名前、座標又は
大きさ・幅・高さなどは、例えば画面の表の対応する項
目を埋めることによって指定し、各ウィンドウ内の各動
画表示単位の順序関係は、図32のようにファイル名を
表す文字列と共に表示される矩形の順序をマウスなどで
操作することにより編集する。
The user specifies the name, coordinates, size, width, height, etc. of each window, for example, by filling the corresponding items in the table on the screen. 32, the order of the rectangle displayed together with the character string representing the file name is edited by operating the mouse or the like.

【0104】また、ユーザは、動画表示時にマウスをク
リックさせることにより所定の動画表示単位中の所定の
図形から他の動画表示単位への遷移をトリガーさせたい
場合には、例えば、図32に示されるように、トリガー
を許す動画表示単位に対応する矩形内で所望の図形名
(ID)を入力すると共に、トリガーを許す動画表示単
位に対応する矩形から所望の動画表示単位に対応する矩
形へ矢印を設定する。
If the user wants to trigger a transition from a predetermined figure in a predetermined moving image display unit to another moving image display unit by clicking the mouse when displaying a moving image, for example, as shown in FIG. A desired graphic name (ID) is input in a rectangle corresponding to a moving image display unit allowing a trigger, and an arrow is moved from a rectangle corresponding to a moving image display unit allowing a trigger to a rectangle corresponding to a desired moving image display unit. Set.

【0105】ユーザによりシナリオ記述の編集終了が指
示されると、ステップ62の判定がYESとなり、ステ
ップ63で編集結果がシナリオ記述画面データ310と
してディスク記憶装置などに保存される。その後、ステ
ップ64で、シナリオ記述編集装置308がシナリオ記
述入力データ解析装置311を起動する。
When the editing of the scenario description is instructed by the user, the determination in step 62 becomes YES, and in step 63 the editing result is stored as scenario description screen data 310 in a disk storage device or the like. Thereafter, in step 64, the scenario description editing device 308 activates the scenario description input data analysis device 311.

【0106】シナリオ記述入力データ解析装置311
は、ステップ65で、シナリオ記述画面データ310、
シナリオ記述フォーマット定義309として予め定義さ
れている編集画面フォーマット、及びシナリオ記述フォ
ーマット定義309として予め定義されている内部テキ
スト形式のシナリオ記述のフォーマットを参照しなが
ら、既に図7及び図8に例示されているような内部テキ
スト形式で表現されたシナリオ記述のデータを生成す
る。生成されるシナリオ記述としては、図7及び図8を
用いて既に説明したように、各ウィンドウの位置、ウィ
ンドウ内の動画表示単位の順序関係、異なるウィンドウ
上の各動画表示単位間の同期関係、或いは任意の動画表
示単位への遷移を起動する図形と遷移先の動画表示単位
などの各情報が、前述した図2又は図23のシナリオ記
述解釈装置12が認識可能な形式で記述される。
Scenario description input data analyzer 311
In step 65, scenario description screen data 310,
The editing screen format defined in advance as the scenario description format definition 309 and the scenario description format in the internal text format defined in advance as the scenario description format definition 309 are referred to in FIGS. It generates scenario description data expressed in internal text format such as As described with reference to FIGS. 7 and 8, the scenario description to be generated includes the position of each window, the order relation of the moving image display units in the window, the synchronization relation between the moving image display units on different windows, Alternatively, information such as a graphic for activating a transition to an arbitrary moving image display unit and a moving image display unit of a transition destination is described in a format that can be recognized by the scenario description interpretation device 12 in FIG. 2 or FIG. 23 described above.

【0107】シナリオ記述入力データ解析装置311
は、ステップ66で、上述のようにして生成されたシナ
リオ記述を、図2又は図23のシナリオ記述格納ファイ
ル41として格納する。
Scenario description input data analysis device 311
In step 66, the scenario description generated as described above is stored as the scenario description storage file 41 in FIG. 2 or FIG.

【0108】上述のようにシナリオ記述格納ファイル4
1に格納されたシナリオ記述は、図2又は図23のシナ
リオ記述解釈装置12によって解釈される。この場合、
シナリオ記述によって各ウィンドウ上に表示される各動
画表示単位の各フレームの進行時間は、例えば、前述し
た各動画表示単位間の同期関係が保存されるように各フ
レームに適当な表示時間が割り当てられることによっ
て、自動的に決定される。動画入力装置30の他の実施例 図2又は図23の動画入力装置30の構成及び動作は、
上述の図28〜図32で示されるものに限られるもので
はない。
As described above, the scenario description storage file 4
1 is interpreted by the scenario description interpretation device 12 of FIG. 2 or FIG. in this case,
As for the progress time of each frame of each moving image display unit displayed on each window according to the scenario description, for example, an appropriate display time is assigned to each frame so that the synchronization relationship between the above moving image display units is preserved. Is automatically determined by this. Another Embodiment of Moving Image Input Device 30 The configuration and operation of the moving image input device 30 of FIG. 2 or FIG.
The present invention is not limited to those shown in FIGS. 28 to 32 described above.

【0109】第1の他の実施例においては、例えば図3
2の動画表示単位の順序関係の“時刻”の軸に論理的な
時刻が表示され、ユーザは、各動画表示単位の順序関係
を、上述した矩形と上述した論理的な時刻を表す数値と
を用いて入力する。このようにして、ユーザは、前述し
た各動画表示単位間の同期関係が保存された状態で各ウ
ィンドウ上に表示される各動画表示単位の表示タイミン
グが明示的に指定されたシナリオ記述を生成することが
できる。この場合、図2又は図23のシナリオ記述解釈
装置12がシナリオ記述を解釈することによって動画内
部データ格納ファイル14として得られる動画内部デー
タにおいて、各動画表示単位の表示時間は、例えば図1
2の“動画表示単位”構造体における開始時間データ及
び終了時間データとして設定される。
In the first other embodiment, for example, FIG.
The logical time is displayed on the axis of “time” of the order relationship of the moving image display units, and the user sets the order relationship of each moving image display unit by the above-described rectangle and the numerical value representing the above logical time. To enter. In this way, the user generates a scenario description in which the display timing of each moving image display unit displayed on each window in a state where the synchronization relationship between the moving image display units is stored is explicitly specified. be able to. In this case, the display time of each moving image display unit in the moving image internal data obtained as the moving image internal data storage file 14 by the scenario description interpreting device 12 of FIG.
2 is set as start time data and end time data in the “moving image display unit” structure.

【0110】第2の他の実施例においては、図33に示
されるように、図形エディタ上にディスプレイ画面を表
す面が時間軸の方向に重ねられた直方体が表示され、ユ
ーザは、その直方体内でウィンドウの位置、大きさ、表
示タイミングなどを指定し編集する。この結果、ユーザ
は、ウィンドウを制御する記述を含んだシナリオ記述を
生成することができる。そして、このようにして設定さ
れた各ウィンドウの状態毎に、ユーザは、例えば、前述
した図32に示される編集画面上で各動画表示単位の状
態を編集し、その編集操作に対応するシナリオ記述を生
成する。この場合、図2又は図23のシナリオ記述解釈
装置12がシナリオ記述を解釈することによって動画内
部データ格納ファイル14として得られる動画内部デー
タにおいて、各ウィンドウの表示時間は、例えば図12
の“ウィンドウ”構造体におけるオープン時間データ及
びクローズ時間データとして設定される。
In the second other embodiment, as shown in FIG. 33, a rectangular parallelepiped in which the surface representing the display screen is superimposed in the direction of the time axis on the graphic editor is displayed. Specify and edit the position, size, display timing, etc. of the window with. As a result, the user can generate a scenario description including a description for controlling the window. Then, for each window state set in this way, the user edits the state of each moving image display unit on the editing screen shown in FIG. 32, for example, and describes the scenario description corresponding to the editing operation. Generate In this case, in the moving image internal data obtained as the moving image internal data storage file 14 by the scenario description interpreting device 12 of FIG. 2 or FIG.
Are set as open time data and close time data in the "window" structure of the "."

【0111】第3の他の実施例においては、図34に示
されるように、図形エディタ上に2次元のウィンドウ画
面の領域と論理時刻を入力する領域“A”、“B”など
が表示され、ユーザは、この両方の領域を用いてウィン
ドウの位置、大きさ、表示タイミングなどを指定し編集
する。この結果、第2の他の実施例の場合と同様、ユー
ザは、ウィンドウを制御する記述を含んだシナリオ記述
を生成することができる。そして、このようにして設定
された各ウィンドウの状態毎に、ユーザは、例えば、前
述した図32に示される編集画面上で各動画表示単位の
状態を編集し、その編集操作に対応するシナリオ記述を
生成する。
In the third embodiment, as shown in FIG. 34, a two-dimensional window screen area and areas "A" and "B" for inputting a logical time are displayed on the graphic editor. The user designates and edits the position, size, display timing, and the like of the window using these two areas. As a result, as in the case of the second other embodiment, the user can generate a scenario description including a description for controlling the window. Then, for each window state set in this way, the user edits the state of each moving image display unit on the editing screen shown in FIG. 32, for example, and describes the scenario description corresponding to the editing operation. Generate

【0112】[0112]

【発明の効果】本発明によれば、マルチウィンドウを利
用して、相互に関連付けたウィンドウに複数の動画画面
を表示することができ、動画の内容の理解を飛躍的に向
上させることが可能となる。
According to the present invention, it is possible to display a plurality of moving image screens in mutually associated windows by using a multi-window, and it is possible to greatly improve the understanding of the contents of the moving image. Become.

【0113】また、動画をより小さな動画表示単位で時
間的空間的に関連付けるとともに、それらとウィンドウ
とを対応付けることにより、表現の自由度を飛躍的に向
上させることが可能となる。
Also, by associating moving images in time and space in smaller moving image display units and associating them with windows, it is possible to dramatically improve the freedom of expression.

【0114】しかも、動画をいくつかの部分に分解する
ことにより、それらを部品として再利用することが可能
になるので、長い時間の動画の編集も容易に行うことが
できるようになり、動画編集の能率も飛躍的に向上す
る。
Further, since the moving image can be re-used as parts by decomposing the moving image into several parts, it is possible to easily edit the moving image for a long time. Efficiency is also dramatically improved.

【0115】更に、シナリオ記述をグラフィカルに編集
できるため、動画の編集が更に容易になる。
Further, since the scenario description can be graphically edited, the editing of the moving image is further facilitated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】本発明の一実施例の全体構成図である。FIG. 2 is an overall configuration diagram of an embodiment of the present invention.

【図3】動画表示単位の記述形式の一実施例を示した図
である。
FIG. 3 is a diagram showing an embodiment of a description format of a moving image display unit.

【図4】動画表示単位の記述形式の説明図である。FIG. 4 is an explanatory diagram of a description format of a moving image display unit.

【図5】シナリオ記述のモデルの説明図である。FIG. 5 is an explanatory diagram of a scenario description model.

【図6】構造化された動画表示単位の説明図である。FIG. 6 is an explanatory diagram of a structured moving image display unit.

【図7】シナリオ記述の一実施例を示した図(その1)
である。
FIG. 7 is a diagram showing an embodiment of a scenario description (part 1);
It is.

【図8】シナリオ記述の一実施例を示した図(その2)
である。
FIG. 8 is a diagram showing an embodiment of a scenario description (part 2).
It is.

【図9】シナリオ記述の一実施例(図7、図8)におけ
る動画表示単位の同期関係の説明図である。
FIG. 9 is an explanatory diagram of a synchronization relationship of a moving image display unit in one embodiment of the scenario description (FIGS. 7 and 8).

【図10】シナリオ記述解釈装置の処理フローを示した
図である。
FIG. 10 is a diagram showing a processing flow of the scenario description interpretation device.

【図11】動画表示単位解釈装置の処理フローを示した
図である。
FIG. 11 is a diagram showing a processing flow of the moving image display unit interpretation device.

【図12】作成される動画内部データの一実施例を示し
た図である。
FIG. 12 is a diagram showing an example of moving image internal data to be created.

【図13】マニュアルの動画表示処理の説明図である。FIG. 13 is an explanatory diagram of a manual moving image display process.

【図14】コントロールパネル表示の一実施例を示した
図である。
FIG. 14 is a diagram showing one embodiment of a control panel display.

【図15】ウィンドウに表示される画面データの説明図
(その1)である。
FIG. 15 is an explanatory diagram (part 1) of screen data displayed on a window.

【図16】ウィンドウに表示される画面データの説明図
(その2)である。
FIG. 16 is an explanatory view (2) of screen data displayed on a window.

【図17】ウィンドウに表示される画面データの説明図
(その3)である。
FIG. 17 is an explanatory view (3) of screen data displayed on the window.

【図18】ウィンドウに表示される画面データの説明図
(その4)である。
FIG. 18 is an explanatory diagram (part 4) of screen data displayed on a window.

【図19】ウィンドウに表示される画面データの説明図
(その5)である。
FIG. 19 is an explanatory view (5) of screen data displayed on a window.

【図20】ウィンドウに表示される画面データの説明図
(その6)である。
FIG. 20 is an explanatory view (part 6) of screen data displayed on a window.

【図21】ウィンドウに表示される画面データの説明図
(その7)である。
FIG. 21 is an explanatory view (No. 7) of screen data displayed on the window.

【図22】ウィンドウに表示される画面データの説明図
(その8)である。
FIG. 22 is an explanatory view (8) of screen data displayed on the window.

【図23】本発明の他の実施例の全体構成図である。FIG. 23 is an overall configuration diagram of another embodiment of the present invention.

【図24】シナリオ記述の一実施例を示した図(その
1)である
FIG. 24 is a diagram (part 1) illustrating an embodiment of a scenario description.

【図25】シナリオ記述の一実施例を示した図(その
2)である
FIG. 25 is a diagram (part 2) illustrating an embodiment of a scenario description;

【図26】作成される動画内部データの一実施例を示し
た図である。
FIG. 26 is a diagram showing an example of moving image internal data to be created.

【図27】画面状態作成装置が実行する処理フローを示
した図である。
FIG. 27 is a diagram showing a processing flow executed by the screen state creation device.

【図28】動画入力装置の構成の一実施例を示した図で
ある。
FIG. 28 is a diagram illustrating an example of a configuration of a moving image input device.

【図29】動画入力装置の処理フローを示した図(その
1)である。
FIG. 29 is a diagram (part 1) illustrating a processing flow of the moving image input device;

【図30】動画入力装置の処理フローを示した図(その
2)である。
FIG. 30 is a diagram (part 2) illustrating a processing flow of the moving image input device.

【図31】動画入力装置の処理フローを示した図(その
3)である。
FIG. 31 is a diagram (part 3) illustrating a processing flow of the moving image input device.

【図32】2次元表による動画表示単位の編集画面を示
した図である。
FIG. 32 is a diagram showing an editing screen of a moving image display unit using a two-dimensional table.

【図33】直方体表示によるウィンドウの編集画面を示
した図である。
FIG. 33 is a diagram showing a window editing screen in a rectangular parallelepiped display.

【図34】2次元画面表示によるウィンドウの編集画面
を示した図である。
FIG. 34 is a diagram showing a window editing screen by two-dimensional screen display.

【符号の説明】[Explanation of symbols]

1 データ処理装置 2 データ入力装置 3 マンマシン・インタフェース 4 動画表示単位管理手段 5 シナリオ記述管理手段 6 動画表示制御手段 7 動画履歴管理手段 8 動作モード制御手段 9 インタフェース手段 10 動画入力制御手段 11 図形編集手段 12 動画表示単位編集手段 13 シナリオ記述編集手段 Reference Signs List 1 data processing device 2 data input device 3 man-machine interface 4 video display unit management means 5 scenario description management means 6 video display control means 7 video history management means 8 operation mode control means 9 interface means 10 video input control means 11 graphic editing Means 12 Movie display unit editing means 13 Scenario description editing means

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 13/00 G09G 5/00 - 5/40 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int. Cl. 7 , DB name) G06T 13/00 G09G 5/00-5/40

Claims (13)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 ディスプレイ上にオープンされる複数の
ウィンドウ上に動画を表示する動画表示処理装置であっ
て、 画面表示定義を記述する1つ又は複数のフレームから構
成される動画表示単位を複数単位分管理する動画表示単
位管理手段(4)と、 前記各ウィンドウのディスプレイ上での状態、前記各ウ
ィンドウに表示される前記動画表示単位の時間的順序関
を構造体を含むリスト形式で作成し、又は前記各ウィ
ンドウに表示される各動画表示単位間の同期関係を構造
体を含むリスト形式で作成し、それぞれ記述するシナ
リオ記述を管理するシナリオ記述管理手段(5)と、 前記シナリオ記述管理手段(5)の管理するシナリオ記
述を解釈し、この解釈に従って前記各ウィンドウに前記
動画表示単位の時系列データを順次表示する動画表示制
御手段(6)と、 を含むことを特徴とする動画表示処理装置。
1. A moving image display processing device for displaying a moving image on a plurality of windows opened on a display, comprising a plurality of moving image display units each including one or more frames for describing a screen display definition. A moving image display unit managing means (4) for managing minutes, a state of each window on a display, and a temporal order relation of the moving image display units displayed in each window are created in a list format including a structure; Alternatively, the synchronization relationship between the moving image display units displayed in each of the windows is structured.
A scenario description management means (5) for managing scenario descriptions which are created in a list format including a body and describe each of them; and a scenario description managed by the scenario description management means (5) is interpreted, and each of the windows is interpreted in accordance with the interpretation. And a moving image display control means (6) for sequentially displaying the time series data of the moving image display unit.
【請求項2】 前記時間的順序関係は、1つの動画表示
単位からそれが表示されるウィンドウと同一又は異なる
ウィンドウに表示される他の動画表示単位への任意の時
間的遷移関係を含む、 ことを特徴とする請求項1に記載の動画表示処理装置。
2. The temporal order relation includes an arbitrary temporal transition relation from one moving image display unit to another moving image display unit displayed in the same or different window as the window in which the moving image display unit is displayed. The moving image display processing device according to claim 1, wherein:
【請求項3】 前記時間的遷移関係は、現在表示されて
いる動画表示単位中の所定の画面部分がユーザによって
指定された場合に有効となるような識別情報を含む、 ことを特徴とする請求項2に記載の動画表示処理装置。
3. The temporal transition relation includes identification information that becomes valid when a predetermined screen portion in a currently displayed moving image display unit is designated by a user. Item 3. The moving image display processing device according to item 2.
【請求項4】 前記各ウィンドウに表示され前記時間的
遷移関係に従って任意の時間的遷移を行う前記動画表示
単位について、各動画表示の履歴を管理する動画履歴管
理手段(7)を更に含み、 前記動画表示制御手段(6)は、前記動画履歴管理手段
(7)の管理する履歴データに従って、前記各ウィンド
ウに表示され前記時間的遷移関係に従って任意の時間的
遷移を行う前記動画表示単位について、各動画表示の逆
戻り表示処理を行なう、 ことを特徴とする請求項2又は3の何れか1項に記載の
動画表示処理装置。
4. A moving image history management unit (7) for managing a moving image display history for each moving image display unit displayed in each window and performing an arbitrary temporal transition according to the temporal transition relationship, The moving image display control means (6) is configured to perform, for each of the moving image display units displayed in each of the windows and performing an arbitrary temporal transition in accordance with the temporal transition relationship according to the history data managed by the moving image history managing means (7), The moving image display processing device according to claim 2, wherein a reverse display process of moving image display is performed.
【請求項5】 マンマシン・インタフェース(3)から
の指示に応答して前記動画履歴管理手段(7)の履歴管
理機能を動作させないように制御する動作モード制御手
段(8)を更に含む、 ことを特徴とする請求項4に記載の動画表示処理装置。
5. An operation mode control means (8) for controlling not to operate a history management function of said moving picture history management means (7) in response to an instruction from a man-machine interface (3). The moving image display processing device according to claim 4, wherein:
【請求項6】 前記シナリオ記述は、複数の前記動画表
示単位のグループが1つの動画表示単位として扱われる
ようなグループ情報を含む、 ことを特徴とする請求項1乃至5の何れか1項に記載の
動画表示処理装置。
6. The scenario description according to claim 1, wherein the scenario description includes group information such that a group of the plurality of moving image display units is treated as one moving image display unit. Moving image display processing device.
【請求項7】 マンマシン・インタフェースからの指示
に応答して前記動画表示制御手段(6)の実行状態を制
御するインタフェース手段(9)を更に含む、 ことを特徴とする請求項1乃至6の何れか1項に記載の
動画表示処理装置。
7. The system according to claim 1, further comprising an interface means for controlling an execution state of said moving image display control means in response to an instruction from a man-machine interface. The moving image display processing device according to claim 1.
【請求項8】 前記インタフェース手段(9)は、前記
動画表示制御手段(6)の動画表示処理の進行を停止さ
せる機能と、前記動画表示制御手段(6)を制御するこ
とで停止させた前記動画表示単位を1つずつ前後に移動
させる機能と、前記動画表示制御手段(6)を制御する
ことで停止させた前記動画表示単位の有するフレームを
1つずつ前後に移動させる機能とを含む、 ことを特徴とする請求項7に記載の動画表示処理装置。
8. The interface means (9) has a function of stopping the moving image display processing of the moving image display control means (6) and the function of stopping the moving image display control means (6). A function of moving the moving image display units back and forth one by one, and a function of moving the frames of the moving image display units stopped by controlling the moving image display control means (6) one by one, The moving image display processing device according to claim 7, wherein:
【請求項9】 ディスプレイ上にオープンされる複数の
ウィンドウ上に動画を表示する動画表示処理装置であっ
て、 画面表示定義を記述する1つ又は複数のフレームから構
成される動画表示単位を複数単位分管理する動画表示単
位管理手段(4)と、 前記各ウィンドウのディスプレイ上での状態、前記各ウ
ィンドウに表示される前記動画表示単位の時間的順序関
を構造体を含むリスト形式で作成し、又は前記各ウィ
ンドウに表示される各動画表示単位間の同期関係を構造
体を含むリスト形式で作成し、それぞれ記述するシナ
リオ記述を管理するシナリオ記述管理手段(5)と、 前記シナリオ記述管理手段(5)の管理するシナリオ記
述を解釈し、この解釈に従って前記各ウィンドウに前記
動画表示単位の時系列データを順次表示する動画表示制
御手段(6)と、 ユーザに、前記シナリオ記述管理手段(5)が管理する
シナリオ記述を、図形シンボル編集処理を含む編集処理
によって編集させるシナリオ記述編集手段(13)と、 を含むことを特徴とする動画表示処理装置。
9. A moving image display processing device for displaying a moving image on a plurality of windows opened on a display, comprising a plurality of moving image display units each including one or more frames for describing a screen display definition. A moving image display unit managing means (4) for managing minutes, a state of each window on a display, and a temporal order relation of the moving image display units displayed in each window are created in a list format including a structure; Alternatively, the synchronization relationship between the moving image display units displayed in each of the windows is structured.
A scenario description management means (5) for managing scenario descriptions which are created in a list format including a body and describe each of them; and a scenario description managed by the scenario description management means (5) is interpreted, and each of the windows is interpreted in accordance with the interpretation. Moving image display control means (6) for sequentially displaying the time series data of the moving image display unit, and a user edits a scenario description managed by the scenario description managing means (5) by an editing process including a graphic symbol editing process. A moving image display processing device, comprising:
【請求項10】 前記シナリオ記述編集手段(13)
は、ユーザに、編集時にディスプレイ上にオープンされ
た編集用ウィンドウ上で、前記動画表示時の各ウィンド
ウの位置をテキスト形式で編集させると共に、該各ウィ
ンドウに表示される前記動画表示単位の時間的順序関係
又は前記各ウィンドウに表示される各動画表示単位間の
同期関係を図形シンボルを用いたグラフィック形式で編
集させる、 ことを特徴とする請求項9に記載の動画表示処理装置。
10. The scenario description editing means (13)
Allows a user to edit the position of each window at the time of displaying the moving image in a text format on an editing window opened on the display at the time of editing, and to change the time of the moving image display unit displayed in each window. The moving picture display processing device according to claim 9, wherein the order relation or the synchronization relation between the moving picture display units displayed in each window is edited in a graphic format using graphic symbols.
【請求項11】 前記シナリオ記述編集手段(13)
は、ユーザに、前記編集用ウィンドウ上で、前記動画表
示時の各ウィンドウに表示される前記動画表示単位の表
示タイミングをテキスト形式で更に編集させる、 ことを特徴とする請求項10に記載の動画表示処理装
置。
11. The scenario description editing means (13)
11. The moving image according to claim 10, wherein, on the editing window, the user further edits a display timing of the moving image display unit displayed in each window when the moving image is displayed in a text format. 12. Display processing device.
【請求項12】 前記シナリオ記述編集手段(13)
は、ユーザに、編集時にディスプレイ上にオープンされ
た編集用ウィンドウ上に表示されるディスプレイ画面が
時間軸方向に3次元グラフィック表示された直方体上
で、動画表示時の各ウィンドウのディスプレイ上でのオ
ープン又はクローズのタイミング及びその位置を編集さ
せる、 ことを特徴とする請求項10又は11の何れか1項に記
載の動画表示処理装置。
12. The scenario description editing means (13).
The user is required to open the display screen displayed on the editing window opened on the display at the time of editing on a rectangular parallelepiped with three-dimensional graphics displayed in the time axis direction, and to open each window on the display when displaying a moving image 12. The moving image display processing device according to claim 10, wherein a closing timing and a position of the closing are edited. 13.
【請求項13】 前記シナリオ記述編集手段(13)
は、ユーザに、編集時にディスプレイ上にオープンされ
た編集用ウィンドウ上で、動画表示時の各ウィンドウの
ディスプレイ上でのオープン又はクローズのタイミング
をテキスト形式で編集させると共に、該動画表示時の各
ウィンドウを前記編集用ウィンドウ上の所定領域内に配
置させることにより該動画表示時の各ウィンドウのディ
スプレイ上での位置を編集させる、 ことを特徴とする請求項10又は11の何れか1項に記
載の動画表示処理装置。
13. The scenario description editing means (13).
Allows the user to edit the timing of opening or closing each window on the display at the time of displaying a moving image in a text format on the editing window opened on the display at the time of editing, and to display each window at the time of displaying the moving image. The position on the display of each window when the moving image is displayed is arranged by arranging in a predetermined area on the editing window, whereby the moving image is displayed. Video display processing device.
JP01191292A 1991-01-29 1992-01-27 Video display processor Expired - Fee Related JP3171632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01191292A JP3171632B2 (en) 1991-01-29 1992-01-27 Video display processor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2805491 1991-01-29
JP3-28054 1991-01-29
JP01191292A JP3171632B2 (en) 1991-01-29 1992-01-27 Video display processor

Publications (2)

Publication Number Publication Date
JPH0581406A JPH0581406A (en) 1993-04-02
JP3171632B2 true JP3171632B2 (en) 2001-05-28

Family

ID=26347439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01191292A Expired - Fee Related JP3171632B2 (en) 1991-01-29 1992-01-27 Video display processor

Country Status (1)

Country Link
JP (1) JP3171632B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3590639B2 (en) * 1993-01-14 2004-11-17 ソニー株式会社 Information synchronization control method, information transmission device, and information output device
US5339393A (en) * 1993-04-15 1994-08-16 Sony Electronics, Inc. Graphical user interface for displaying available source material for editing
JP3409374B2 (en) * 1993-07-30 2003-05-26 ソニー株式会社 Data output device and method
JP3491981B2 (en) * 1994-07-29 2004-02-03 富士写真フイルム株式会社 Multimedia presentation method and system, and multimedia data creation method and system
JP3521728B2 (en) * 1998-02-05 2004-04-19 日本電信電話株式会社 Multimedia data presentation method and system, and storage medium storing multimedia data presentation program
AU2005202866A1 (en) 2005-06-29 2007-01-18 Canon Kabushiki Kaisha Storing video data in a video file
KR102069538B1 (en) * 2012-07-12 2020-03-23 삼성전자주식회사 Method of composing markup for arranging multimedia component

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
情報処理学会第39回(平成元年後期)全国大会講演論文集(▲II▼),p765−766

Also Published As

Publication number Publication date
JPH0581406A (en) 1993-04-02

Similar Documents

Publication Publication Date Title
US6081262A (en) Method and apparatus for generating multi-media presentations
US5339393A (en) Graphical user interface for displaying available source material for editing
US5893126A (en) Method and apparatus for annotating a computer document incorporating sound
JP3165815B2 (en) Computer display system
EP0497327B1 (en) An animation display processor
US6012074A (en) Document management system with delimiters defined at run-time
JP2541464B2 (en) How to describe and present multimedia documents
JP3279556B2 (en) Data editing method
JP2994164B2 (en) Scenario editing device
JP3171632B2 (en) Video display processor
US20050034148A1 (en) System and method for recording and replaying property changes on graphic elements in a computer environment
JP3214258B2 (en) Video processing device, video anchor display method, video anchor determination method
JP2001238172A (en) Image structure editing device, structure element reconfiguration device and computer readable recording medium with program for executing computer recorded thereon as each means of those device
JPH06231030A (en) Multi-media authoring system
JP2713147B2 (en) How to edit multimedia presentations
JP3299259B2 (en) Program structure diagram editing processing method
Koegel et al. Visual programming abstractions for interactive multimedia presentation authoring
JP3238728B2 (en) Image processing device and user terminal device
JP3371374B2 (en) Data processing device and data processing method
JPH0351961A (en) Data display system for multi-media data base
JPH04113452A (en) Frame editing system
JPH03119465A (en) Document editing device
JPH02151972A (en) Document retrieving system
JP3020213B2 (en) Document processing device
JPH0636004A (en) Information processor

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010313

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080323

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090323

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100323

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees