JPH10290418A - Editor - Google Patents

Editor

Info

Publication number
JPH10290418A
JPH10290418A JP9110492A JP11049297A JPH10290418A JP H10290418 A JPH10290418 A JP H10290418A JP 9110492 A JP9110492 A JP 9110492A JP 11049297 A JP11049297 A JP 11049297A JP H10290418 A JPH10290418 A JP H10290418A
Authority
JP
Japan
Prior art keywords
editing
event
video
data
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9110492A
Other languages
Japanese (ja)
Other versions
JP3951196B2 (en
Inventor
Naomi Egashira
奈緒実 江頭
Akifumi Matsui
昌文 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11049297A priority Critical patent/JP3951196B2/en
Publication of JPH10290418A publication Critical patent/JPH10290418A/en
Application granted granted Critical
Publication of JP3951196B2 publication Critical patent/JP3951196B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To execute designated editing by inserting program information into a prescribed inserting range between edit start and/or end positions and to easily perform speedy editing through the insertion of program information by making this inserting range to the program information displayed on an editing area. SOLUTION: A video signal S2 is inputted through an editing processor 3 to a computer 2 so that the images of respective materials can be displayed on a monitor 2B and the in point (the starting point of an event) or the out point (the ending point of an event) can be instructed while confirming the contents of materials. The images of the event material or the edited program clipped by instructing the in and out points are displayed and they can be confirmed. Since the program can be prepared at an editor 1 while confirming the images of respective materials or the image of the program the monitor 2B, convenience in editing can be improved.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【目次】以下の順序で本発明を説明する。[Table of Contents] The present invention will be described in the following order.

【0002】発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態 (1)装置構成(図1〜図11) (1−1)編集装置の全体構成 (1−2)コンピユータの内部構成 (1−3)編集処理装置の構成 (1−4)ローカルストレージの構成 (2)プログラム編集(図12〜図40) (2−1)プログラム編集用アプリケーシヨン・ソフト
ウエア (2−2)ビユーアウインドウの構成 (2−3)ログウインドウへの編集素材の登録 (2−4)タイムラインによるイベント編集 (2−5)デバイスアイコンの表示 (2−6)ログウインドウへのクリツプの登録 (2−7)クリツプに対するヘツダの設定 (2−8)イン点及びアウト点の設定 (2−9)タイムライン上へのイベントの貼り付け (2−10)ダイアログによるエフエクトの設定 (2−11)パターン・ビツトマツプの登録 (2−12)トランジシヨン・エフエクトの設定 (2−13)アニメーシヨン・エフエクトの設定 (2−14)エフエクトのマニユアル・トランジシヨン
操作 (2−15)エフエクトの修正 (2−16)エフエクトの表現方法 (2−17)オーデイオの出力ルーテイング設定 (2−18)エフエクトの設定手順 (3)実施の形態の動作 (4)実施の形態の効果 (5)他の実施の形態 発明の効果
BACKGROUND OF THE INVENTION Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention (1) Apparatus Configuration (FIGS. 1 to 11) (1-1) Editing Apparatus Overall Configuration (1-2) Internal Configuration of Computer (1-3) Configuration of Editing Processing Device (1-4) Configuration of Local Storage (2) Program Editing (FIGS. 12 to 40) (2-1) Program Editing Application software (2-2) View window configuration (2-3) Registration of editing material in log window (2-4) Event editing by timeline (2-5) Display of device icon (2-5) 6) Registration of clip in log window (2-7) Setting of header for clip (2-8) Setting of in point and out point (2-9) Event on timeline Paste (2-10) Setting of effect by dialog (2-11) Registration of pattern bit map (2-12) Setting of transition effect (2-13) Setting of animation effect (2-14) Effect (2-15) Effect modification (2-16) Effect expression method (2-17) Audio output routing setting (2-18) Effect setting procedure (3) Operation of the embodiment (4) Effects of the embodiment (5) Other embodiments Effects of the invention

【0003】[0003]

【発明の属する技術分野】本発明は編集装置に関し、例
えばニユース素材等を編集対象とする編集装置に適用し
て好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an editing apparatus, and is suitably applied to, for example, an editing apparatus for editing a news material or the like.

【0004】[0004]

【従来の技術】従来、この種の編集装置としては、ニユ
ース素材を記録する記録手段としてビデオテープレコー
ダ(以下、これを略してVTRと呼ぶ)を用いたものが
提案されている。このような編集装置においては、素材
としての映像及び音声をVTRに記録しておき、当該V
TRから所望の映像及び音声を読み出してニユース素材
として使用することによりニユース編集を行うようにな
されている。
2. Description of the Related Art Heretofore, as an editing apparatus of this type, an editing apparatus using a video tape recorder (hereinafter abbreviated as VTR) as a recording means for recording a news material has been proposed. In such an editing device, video and audio as materials are recorded in a VTR,
A desired video and audio are read from the TR and used as a news material to perform news editing.

【0005】[0005]

【発明が解決しようとする課題】ところでニユース番組
においては、各地で起こつた出来事をいち早く視聴者に
提供すること、すなわち速報性が要求される。従つてニ
ユース素材を編集する編集装置においても、迅速性に富
んだ編集ができることが望まれる。
By the way, in a news program, it is required to promptly provide the viewer with the events that occurred in various places, that is, to provide promptness. Therefore, it is desired that an editing apparatus for editing a news material can perform editing with high speed.

【0006】ところでビデオテープ等を用いたリニア編
集の場合、編集カツトを作成するときにテープにイン点
及びアウト点を設定することによつて素材を挿入する際
の目印としていた。ところがデイスク媒体に格納された
フアイルを読み出して、フアイルデータに対してノンリ
ニア編集を行う場合、編集した素材のレコーデイングは
最後に一括して実行するようになされているために、編
集途中においてフアイルデータに対してイン点及びアウ
ト点を設定することができない。このため素材に対する
上書きや挿入等の編集作業をするときに、実際に編集し
ている映像を編集途中において確認しながら行うことが
困難であるという問題があつた。
In the case of linear editing using a video tape or the like, an in-point and an out-point are set on a tape when an editing cut is created, thereby providing a mark when inserting a material. However, when a file stored on a disk medium is read and non-linear editing is performed on the file data, recording of the edited material is performed collectively at the end. On the other hand, the in point and the out point cannot be set. For this reason, when performing an editing operation such as overwriting or inserting a material, it is difficult to confirm the video being actually edited while the editing is being performed.

【0007】本発明は以上の点を考慮してなされたもの
で、迅速な編集ができる使い勝手の向上した編集装置を
提案しようとするものである。
[0007] The present invention has been made in view of the above points, and it is an object of the present invention to propose an editing apparatus capable of quick editing and having improved usability.

【0008】[0008]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、プログラム情報を記憶する記憶手
段と、プログラム情報及びプログラム情報を編集する編
集画面を表示する表示手段と、表示手段によつて編集画
面に表示されるプログラム情報に対する外部からの編集
操作を仲介するユーザインターフエイス手段と、プログ
ラム情報の長さ情報に応じたプログラム領域を編集画面
内に設けられた編集領域に表示してユーザインターフエ
イス手段を介して編集領域上のプログラムに対して編集
開始位置及び又は編集終了位置を設定してしてプログラ
ム情報に対して指定された編集作業を実行する編集処理
手段とを備える。
According to the present invention, there is provided a storage unit for storing program information, a display unit for displaying program information and an editing screen for editing the program information, and a display unit. User interface means for mediating an external editing operation on the program information displayed on the editing screen, and displaying the program area corresponding to the length information of the program information on the editing area provided in the editing screen to allow the user to Editing processing means for setting an editing start position and / or an editing end position for a program in an editing area via an interface means and executing an editing operation specified for the program information;

【0009】これにより編集領域上に表示されたプログ
ラム情報に対して設定された編集開始位置及び又は編集
終了位置間の所定の挿入範囲にプログラム情報を挿入し
て指定された編集作業を実行することができる。
[0009] By executing the specified editing operation by inserting the program information into a predetermined insertion range between the editing start position and / or the editing end position set for the program information displayed on the editing area. Can be.

【0010】[0010]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0011】(1)装置構成 (1−1)編集装置の全体構成 図1において、1は全体として本発明を適用した編集装
置を示し、大きく分けてコンピユータ2と編集処理装置
3からなる。
(1) Apparatus Configuration (1-1) Overall Configuration of Editing Apparatus In FIG. 1, reference numeral 1 denotes an editing apparatus to which the present invention is applied as a whole.

【0012】制御手段としてコンピユータ2はCPU
(中央処理ユニツト)や各種処理回路、或いはフロツピ
ーデイスクドライブ、ハードデイスクドライブ等を備え
る本体2Aと、当該本体2Aに接続される表示手段とし
てのモニタ2Bと、入力手段としてのキーボード2C及
びマウス2Dとを有している。このようなコンピユータ
2は編集のためのアプリケーシヨン・ソフトウエアがハ
ードデイスクドライブに予めインストールされており、
オペレーテイングシステムの基で当該アプリケーシヨン
・ソフトウエアを動作させることにより編集装置用のコ
ンピユータとして起動するようになされている。
The computer 2 is a CPU as a control means.
(Central processing unit), various processing circuits, a main body 2A provided with a floppy disk drive, a hard disk drive, etc., a monitor 2B connected to the main body 2A as display means, a keyboard 2C and a mouse 2D as input means. have. In such a computer 2, application software for editing is pre-installed on a hard disk drive.
By running the application software under the operating system, the computer is started up as a computer for an editing device.

【0013】因みに、このアプリケーシヨン・ソフトウ
エアを動作させたときには、モニタ2B上にGUI(グ
ラフイカル・ユーザ・インターフエイス)のためのグラ
フイツク表示が表示されるようになされている。この編
集装置1では、このグラフイツク表示と上述した入力手
段とによつてユーザインターフエイスを構成し、例えば
マウス2Dを使用して、モニタ2Bに表示される制御コ
マンドボタンを示すグラフイツク表示の中から所望のグ
ラフイツク表示を選択することにより、編集処理の処理
内容を指定するための制御コマンドを入力するようにな
されている。なお、コンピユータ2は、入力された制御
コマンドが編集処理装置3における編集処理動作を制御
するものであれば当該制御コマンドに応じた制御信号S
1を生成し、これを編集処理装置3に送出して編集処理
動作を指示するようになされている。
By the way, when the application software is operated, a graphic display for a GUI (graphical user interface) is displayed on the monitor 2B. In the editing apparatus 1, a user interface is constituted by the graphic display and the above-mentioned input means. For example, the mouse 2D is used to select a desired one of graphic displays indicating control command buttons displayed on the monitor 2B. By selecting the graphic display, a control command for designating the processing content of the editing processing is input. Note that if the input control command controls the editing processing operation in the editing processing device 3, the computer 2 outputs a control signal S corresponding to the control command.
1 is generated and transmitted to the editing processing device 3 to instruct an editing processing operation.

【0014】またこのコンピユータ2には編集処理装置
3を介してビデオ信号S2が入力されるようになされて
おり、これにより各素材の映像をモニタ2Bに表示して
素材内容を確認しながらイン点(イベントの開始点)や
アウト点(イベントの終了点)を指示し得るようになさ
れていると共に、イン点及びアウト点を指示することに
よつて切り取られたイベント素材や編集したプログラム
の映像を表示してそれらを確認し得るようになされてい
る(以下、この切り取られた素材や編集したプログラム
を再生して表示することをプレビユと呼ぶ)。
A video signal S2 is input to the computer 2 via the editing processor 3, whereby the video of each material is displayed on the monitor 2B to check the material contents and to check the in-point. (Start point of the event) and Out point (End point of the event) can be indicated, and the event material or the video of the edited program cut out by indicating the In and Out points can be displayed. The contents can be confirmed by displaying them (hereinafter, reproducing and displaying the cut material or the edited program is called preview).

【0015】一方、編集処理装置3は内部にマトリクス
スイツチヤ部、画像処理部及び音声処理部を有してお
り、素材の切り取りや繋ぎ合わせ、或いはビデオ信号や
オーデイオ信号に対するエフエクト処理等、実際の編集
作業を実行する編集実行装置である。
On the other hand, the editing processing device 3 has a matrix switch unit, an image processing unit, and an audio processing unit therein, and performs actual processing such as cutting and joining of materials or effect processing for video signals and audio signals. An editing execution device that executes editing work.

【0016】この編集処理装置3には上述したようなコ
ンピユータ2が接続されているだけでなく、別の入力手
段として専用コントローラ4、5も接続されており、当
該専用コントローラ4、5を使用しても編集のための制
御コマンドを入力し得るようになされている。
The editing processor 3 is connected not only to the computer 2 as described above, but also to dedicated controllers 4 and 5 as another input means. Even a control command for editing can be input.

【0017】因みに、専用コントローラ4は、素材のイ
ン点やアウト点を指示するためのボタン操作子や、素材
の再生を指示するためのボタン操作子、或いは編集した
プログラムの記録を指示するためのボタン操作子等を有
していると共に、変速再生(いわゆるシヤトル再生)や
コマ送り再生(いわゆるジヨグ再生)の指示を入力する
ためのダイアル操作子等を有しており、それらのボタン
操作子又はダイアル操作子を介して入力された指示情報
に応じた制御信号S3を編集処理装置3に送出するよう
になされている。また専用コントローラ5は、オーデイ
オ信号の信号レベルを設定するための複数のスライド操
作子(いわゆるオーデイオフエイダ)や2つの映像を切
り換えるときの切換率を設定するためのスライド素子
(いわゆるビデオフエイダ)等を有しており、それらの
スライド操作子を介して入力された指示情報(この指示
情報はスライド操作子による設定値を示す)に応じた制
御信号S4を編集処理装置3に送出するようになされて
いる。
Incidentally, the dedicated controller 4 has a button operator for instructing an in point or an out point of a material, a button operator for instructing reproduction of a material, or a command for recording an edited program. In addition to having a button operator and the like, it has a dial operator and the like for inputting instructions of variable-speed playback (so-called shuttle playback) and frame-by-frame playback (so-called jog playback). The control signal S3 corresponding to the instruction information input via the dial operator is transmitted to the editing processing device 3. The dedicated controller 5 also includes a plurality of slide operators (so-called audio-off adader) for setting the signal level of the audio signal, slide elements (so-called video fader) for setting a switching ratio when switching between two images, and the like. And sends a control signal S4 to the editing processing device 3 in accordance with the instruction information (the instruction information indicates a set value by the slide operator) input through the slide operator. I have.

【0018】またこの編集処理装置3に対しては、デイ
リーサーバ6(一般に放送局において映像や音声等の編
集素材を記憶している記憶手段)が接続されており、当
該デイリーサーバ6に記憶されているビデオ及びオーデ
イオ信号を取り込めるようになされている。この場合、
デイリーサーバ6は2チヤンネル分の出力ポートを有し
ており、編集処理装置3から供給されるチヤンネル毎の
制御信号S5、S6に応じて所望のビデオ及びオーデイ
オ信号S7、S8を記憶媒体6Aから読み出して出力す
るようになされている。なお、記憶媒体6Aには圧縮率
1/10のMPEG(Moving Picture coding Experts Grou
p )規格で圧縮されたビデオ及びオーデイオ信号が記憶
されており、読み出されたビデオ及びオーデイオ信号は
それぞれデコーダ6B、6Cを介して復号化が行われた
後、シリアル・デイジタル・インターフエイス(以下、
これをSDIと呼ぶ)規格のフオーマツトに変換され、
そのSDI規格のビデオ及びオーデイオ信号S7、S8
が編集処理装置3に供給されるようになされている。
A daily server 6 (storage means for storing editing materials such as video and audio in a broadcasting station in general) is connected to the editing processor 3 and stored in the daily server 6. Video and audio signals. in this case,
The daily server 6 has output ports for two channels, and reads desired video and audio signals S7 and S8 from the storage medium 6A in accordance with control signals S5 and S6 for each channel supplied from the editing processing device 3. Output. The storage medium 6A has a compression ratio
1/10 MPEG (Moving Picture coding Experts Grou
p) Video and audio signals compressed according to the standard are stored, and the read video and audio signals are decoded via decoders 6B and 6C, respectively, and then read out from a serial digital interface (hereinafter referred to as "digital interface"). ,
This is called an SDI) standard format.
The SDI standard video and audio signals S7, S8
Is supplied to the editing processing device 3.

【0019】またこの編集処理装置3に対してはVTR
7も接続されており、当該VTR7に記憶されているビ
デオ及びオーデイオ信号も取り込めるようになされてい
る。この場合、VTR7はSDI規格の入出力インター
フエイスを有しており、編集処理装置3から供給される
制御信号S9に応じて所望のビデオ及びオーデイオ信号
S10を読み出して出力するようになされている。また
VTR7は、編集処理された後のビデオ及びオーデイオ
信号やデイリーサーバ6から読み出されたビデオ及びオ
ーデイオ信号S7、S8を記録対象のビデオ及びオーデ
イオ信号S11として編集処理装置3から受けるように
なされており、制御信号S9に応じてそのビデオ及びオ
ーデイオ信号S11をビデオテープに記録するようにも
なされている。
The editing processing device 3 has a VTR
7 is also connected so that the video and audio signals stored in the VTR 7 can also be captured. In this case, the VTR 7 has an SDI-standard input / output interface, and reads and outputs a desired video and audio signal S10 in accordance with a control signal S9 supplied from the editing processing device 3. The VTR 7 receives the video and audio signals after the editing processing and the video and audio signals S7 and S8 read from the daily server 6 from the editing processing device 3 as the recording target video and audio signals S11. In addition, the video and audio signal S11 are recorded on a video tape in response to a control signal S9.

【0020】またこの編集処理装置3に対しては、記憶
手段として、複数のハードデイスクからなるローカルス
トレージ8も接続されており、当該ローカルストレージ
8に記憶されているビデオ及びオーデイオ信号も取り込
めるようになされている。この場合、ローカルストレー
ジ8はSDI規格の入出力インターフエイスを有してい
ると共に、出力ポートとしては2チヤンネル分のポート
を有しており、編集処理装置3から供給される制御信号
S12に応じて所望のビデオ及びオーデイオ信号S1
3、S14を読み出して出力するようになされている。
またローカルストレージ8は、編集処理された後のビデ
オ及びオーデイオ信号やデイリーサーバ6又はVTR7
から読み出されたビデオ及びオーデイオ信号を記録対象
のビデオ及びオーデイオ信号S15として編集処理装置
3から受けるようになされており、制御信号S9に応じ
てそのビデオ及びオーデイオ信号S15を内部のハード
デイスクに記録するようにもなされている。
Further, a local storage 8 composed of a plurality of hard disks is also connected to the editing processing device 3 as a storage means, so that video and audio signals stored in the local storage 8 can be taken. ing. In this case, the local storage 8 has an input / output interface conforming to the SDI standard, has a port for two channels as an output port, and responds to a control signal S12 supplied from the editing processing device 3. The desired video and audio signal S1
3, S14 is read and output.
The local storage 8 stores the edited video and audio signals, the daily server 6 or the VTR 7.
The video and audio signals read out from the CPU are received from the editing processor 3 as video and audio signals S15 to be recorded, and the video and audio signals S15 are recorded on an internal hard disk in response to a control signal S9. It has been done as well.

【0021】またこの編集処理装置3に対しては、オン
エアバツフア(放送の際にプログラムを一時的に記憶す
るための記憶手段)9も接続されており、当該編集処理
装置3によつて編集処理したプログラムのビデオ及びオ
ーデイオ信号S16をオンエアバツフア9に記憶し得る
ようになされている。この場合、オンエアバツフア9は
SDI規格の入力インターフエイスを有しているので、
送出されるビデオ及びオーデイオ信号S16としてはS
DI規格の信号フオーマツトになつている。またオンエ
アバツフア9においては、供給されたビデオ及びオーデ
イオ信号S16をエンコーダ9Aによつて圧縮率1/10の
MPEG規格で圧縮した後、内部の記憶媒体9Bに記憶
するようになされている。
An on-air buffer (storage means for temporarily storing a program at the time of broadcasting) 9 is also connected to the editing processing device 3, and the editing processing device 3 edits the data. The video and audio signal S16 of the processed program can be stored in the on-air buffer 9. In this case, since the on-air buffer 9 has an input interface of the SDI standard,
The transmitted video and audio signal S16 is S
It is a DI format signal format. In the on-air buffer 9, the supplied video and audio signals S16 are compressed by the encoder 9A according to the MPEG standard with a compression ratio of 1/10, and then stored in the internal storage medium 9B.

【0022】なお、このオンエアバツフア9と編集装置
1のコンピユータ2は例えばイーサネツト等のローカル
エリアネツトワーク(以下、これをLANと呼ぶ)10
を介して接続されており、オンエアバツフア9に対する
制御コマンドはコンピユータ2及びLAN10を介して
当該オンエアバツフア9に送出される。また編集された
プログラムがどのような素材で構成されているかを示す
編集リスト(一般にエデイツト・デイシジヨン・リスト
と呼ばれる)も、このLAN10を介してオンエアバツ
フア9に送出される。
The on-air buffer 9 and the computer 2 of the editing device 1 are connected to a local area network (hereinafter, referred to as a LAN) 10 such as an Ethernet.
The control command for the on-air buffer 9 is sent to the on-air buffer 9 via the computer 2 and the LAN 10. An edit list (generally called an edit decision list) indicating what kind of material the edited program is made of is also sent to the on-air buffer 9 via the LAN 10.

【0023】また編集装置1のコンピユータ2とデイリ
ーサーバ6もこのLAN10を介して接続されており、
当該LAN10を介してデイリーサーバ6に記憶されて
いる各素材のフアイル名等をコンピユータ2から参照し
得るようになされている。
The computer 2 of the editing apparatus 1 and the daily server 6 are also connected via the LAN 10.
The computer 2 can refer to the file name and the like of each material stored in the daily server 6 via the LAN 10.

【0024】また編集処理装置3に対しては、オプシヨ
ン接続としてスピーカ11及び12が接続されるように
なされており、編集処理装置3によつて編集されたオー
デイオ信号S17、S18を当該スピーカ11、12か
ら送出してオーデイオに関する編集結果を確認し得るよ
うになされている。
Speakers 11 and 12 are connected to the editing processing device 3 as option connections, and the audio signals S17 and S18 edited by the editing processing device 3 are transmitted to the speakers 11 and 12, respectively. 12, the editing result of the audio can be confirmed.

【0025】さらに編集処理装置3に対しては、オプシ
ヨン接続としてプレビユ専用のモニタ13も接続される
ようになされており、編集処理装置3によつて編集され
たビデオ信号S19を当該モニタ2Bに表示してビデオ
に関する編集結果をこのモニタ13によつても確認し得
るようになされている。因みに、このモニタ13に表示
されるプレビユ画面の方がコンピユータ2のモニタ2B
に表示されるプレビユ画面よりも大きいので、モニタ1
3を接続した方がより鮮明に編集結果を確認し得る。
Further, a monitor 13 dedicated to the preview is also connected to the editing processor 3 as an option connection, and the video signal S19 edited by the editing processor 3 is displayed on the monitor 2B. Then, the editing result of the video can be confirmed on the monitor 13 as well. Incidentally, the preview screen displayed on the monitor 13 is better than the monitor 2B of the computer 2.
Monitor is larger than the preview screen displayed on
3 can confirm the editing result more clearly.

【0026】ここでこの編集装置1における編集方法を
簡単に説明する。まずこの編集装置1では、アプリケー
シヨン・ソフトウエアを起動させると、上述したように
モニタ2BにGUIのためのグラフイツク表示が表示さ
れる。因みに、このグラフイツク表示としては、後述す
るように、素材の映像を見ながらイン点やアウト点を指
定することによつてイベント素材を生成するビユーアウ
インドウの画面や、ビユーアウインドウによつて生成し
たイベント素材のクリツプ画を表示するログウインドウ
の画面、或いはこの編集装置1で行う編集処理内容を指
定すると共に、指定された編集処理内容をグラフイツク
表示を使用して表示するプログラムウインドウの画面
や、その他、制御コマンドを入力するための制御コマン
ドボタン等である。
Here, an editing method in the editing apparatus 1 will be briefly described. First, in the editing apparatus 1, when the application software is activated, the graphic display for the GUI is displayed on the monitor 2B as described above. Incidentally, the graphic display is, as described later, a view window screen for generating an event material by designating an in-point or an out-point while viewing a video of the material, or a graphic window. A log window screen for displaying a clip image of the specified event material, or a program window screen for designating the contents of the editing processing performed by the editing apparatus 1 and displaying the specified editing processing contents using a graphic display, In addition, there are control command buttons for inputting a control command.

【0027】まずオペレータは、このモニタ2Bに表示
される所定の制御コマンドボタンをマウス2Dを使用し
てクリツクすることにより、編集素材が記憶されている
デバイス(すなわちデイリーサーバ6、VTR7又はロ
ーカルストレージ8)を指示すると共に、その素材の再
生を指示する。これによりその指示された素材のビデオ
信号S2が編集処理装置3を介してコンピユータ2に供
給され、その素材の映像がモニタ2Bに表示される。オ
ペレータはその素材の映像を見ながらイン点とアウト点
を指示することにより、プログラム作成に必要なイベン
ト素材を生成する。オペレータはこの処理を繰り返し、
プログラム作成に必要なイベント素材を一通り用意し、
これをログウインドウに登録する。
First, the operator clicks a predetermined control command button displayed on the monitor 2B by using the mouse 2D, so that the device (ie, the daily server 6, the VTR 7, or the local storage 8) in which the editing material is stored. ) And the reproduction of the material. Thus, the video signal S2 of the specified material is supplied to the computer 2 via the editing processing device 3, and the video of the material is displayed on the monitor 2B. The operator generates an event material required for program creation by designating an in point and an out point while watching the video of the material. The operator repeats this process,
Prepare the event materials necessary for creating the program,
This is registered in the log window.

【0028】続いてオペレータは、ログウインドウに示
されている所望のクリツプ画をマウス2Dによつてクリ
ツクすることにより所望のイベント素材を選択する。こ
れにより選択したイベント素材を示す帯状グラフイツク
表示が表示されるので、これをプログラムウインドウ内
にあるタイムライン(詳細は後述する)上の所望位置に
置く。これを順に繰り返してイベント素材を示す帯状グ
ラフイツク表示を所望の順番に並べることによりプログ
ラムの順番を指示する。また所望のイベント素材にビデ
オエフエクトを付加するのであれば、所定の制御コマン
ドボタンをクリツクすることによりビデオエフエクト設
定のためのダイアログを表示させ、その中から付加した
いビデオエフエクトを選択する。これにより選択したビ
デオエフエクトを示す帯状グラフイツク表示が表示され
るので、これをタイムライン上のビデオエフエクトを付
加したい位置に置く。
Subsequently, the operator clicks a desired clip image shown in the log window with the mouse 2D to select a desired event material. As a result, a strip graphic display indicating the selected event material is displayed, and is placed at a desired position on a timeline (details will be described later) in the program window. By repeating this in order, the order of the program is instructed by arranging the strip graphic display indicating the event material in a desired order. If a video effect is to be added to a desired event material, a dialog for setting a video effect is displayed by clicking a predetermined control command button, and a video effect to be added is selected from the dialog. As a result, a strip graphic display indicating the selected video effect is displayed, and is placed at a position on the timeline where the video effect is to be added.

【0029】このようにしてプログラムの概案が決まる
と、オペレータは所定の制御コマンドボタンをクリツク
することによりプレビユの指示を入力する。これを受け
た編集装置1は、編集処理装置3を制御することにより
プログラムウインドウで指示されたプログラムの順番に
基づいて各イベント素材を再生すると共に、編集処理装
置3を制御することにより指示されたイベント素材にビ
デオエフエクトを施し、ビデオ信号S2を生成する。こ
のビデオ信号S2はコンピユータ2に供給され、かくし
てモニタ2Bに表示される。これによりオペレータはプ
ログラムウインドウを使用して指示したプログラム内容
を確認することができる。
When the outline of the program is determined in this way, the operator inputs a preview instruction by clicking a predetermined control command button. Upon receiving this, the editing device 1 controls the editing processing device 3 to reproduce each event material based on the order of the program specified in the program window, and is instructed by controlling the editing processing device 3. A video effect is applied to the event material to generate a video signal S2. This video signal S2 is supplied to the computer 2 and is displayed on the monitor 2B. Thus, the operator can confirm the contents of the specified program using the program window.

【0030】このようなプレビユの結果、プログラム内
容に変更がなければ、オペレータは所定の制御コマンド
ボタンをクリツクすることにより記録指示を入力する。
これを受けた編集装置1は、先程と同様に編集処理装置
3を制御することにより指示されたプログラムを示すビ
デオ及びオーデイオ信号S15を生成し、これをローカ
ルストレージ8に供給して記録する。かくしてこの処理
により、プログラムウインドウによつて指示されたプロ
グラムが完成し、ローカルストレージに記憶される。な
お、この編集により生成したプログラムを放送する場合
には、GUIを介して転送の指示を入力すれば、ローカ
ルストレージからそのビデオ及びオーデイオ信号が読み
出され、編集処理装置3を介してオンエアバツフア9に
転送される。
As a result of the preview, if there is no change in the program contents, the operator inputs a recording instruction by clicking a predetermined control command button.
The editing apparatus 1 receiving this generates the video and audio signal S15 indicating the designated program by controlling the editing processing apparatus 3 in the same manner as described above, and supplies this to the local storage 8 for recording. Thus, by this processing, the program specified by the program window is completed and stored in the local storage. In the case of broadcasting the program generated by the editing, if a transfer instruction is input via a GUI, the video and audio signals are read from the local storage, and the on-air buffer is transmitted via the editing processing device 3. 9 is transferred.

【0031】このようにしてこの編集装置1では、各素
材の映像やプログラムの映像をモニタ2Bで確認しなが
ら当該プログラムを作成し得るので、編集の使い勝手を
向上し得る。またこの編集装置1では、オペレータがス
イツチヤや特殊効果装置を直接操作しなくても編集が行
えるので、編集操作を容易に行うことができ、編集に掛
かる手間を削減し得る。
In this way, in the editing apparatus 1, since the program can be created while checking the video of each material and the video of the program on the monitor 2B, the editing convenience can be improved. Further, in the editing apparatus 1, since the editing can be performed without the operator directly operating the switch or the special effect apparatus, the editing operation can be easily performed, and the labor required for the editing can be reduced.

【0032】(1−2)コンピユータの内部構成 この項ではコンピユータ2の内部構成について具体的に
説明する。図2に示すように、コンピユータ2は、コマ
ンドデータやビデオデータを伝送するためのシステムバ
ス20、コンピユータ全体の制御を行うCPU21、入
力されるビデオ信号S2に対して画像処理等を行うビデ
オプロセツサ22、モニタ2Bに表示されるビデオデー
タやGUIのためのグラフイツク表示を管理する表示コ
ントローラ23、ローカルハードデイスクドライブ(ロ
ーカルHDD)24Aを制御するためのHDDインター
フエイス24、フロツピーデイスクドライブ(FDD)
25Aを制御するためのFDDインターフエイス25、
マウス2D及びキーボード2C等のポインテイングデバ
イスからのコマンドに基づいて制御コマンドを生成する
ポインテイングデバイスインターフエイス26、編集処
理装置3に制御信号S1を送出するためのソフトウエア
ドライバを備えた外部インターフエイス27を有してい
る。
(1-2) Internal Configuration of Computer In this section, the internal configuration of the computer 2 will be specifically described. As shown in FIG. 2, the computer 2 includes a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire computer, and a video processor for performing image processing and the like on an input video signal S2. 22, a display controller 23 for managing graphic data for video data and GUI displayed on the monitor 2B, an HDD interface 24 for controlling a local hard disk drive (local HDD) 24A, and a floppy disk drive (FDD)
FDD interface 25 for controlling 25A,
Pointing device interface 26 that generates control commands based on commands from pointing devices such as mouse 2D and keyboard 2C, and an external interface that includes a software driver for sending control signal S1 to edit processing device 3. 27.

【0033】システムバス20は、コンピユータ2内部
でビデオデータやコマンドデータ、或いはアドレスデー
タ等の通信を行うためのバスであり、ビデオデータを伝
送するための画像データバス20Aと、コマンドデータ
やアドレスデータを伝送するためのコマンドデータバス
20Bとからなる。
The system bus 20 is a bus for performing communication of video data, command data, address data, and the like inside the computer 2, and includes an image data bus 20A for transmitting video data, a command data and And a command data bus 20B for transmitting the command data.

【0034】画像データバス20AにはCPU21、ビ
デオプロセツサ22、表示コントローラ23、HDDイ
ンターフエイス24及びFDDインターフエイス25が
それぞれ接続されており、当該CPU21、ビデオプロ
セツサ22、表示コントローラ23、HDDインターフ
エイス24及びFDDインターフエイス25はこの画像
データバス20Aを介してビデオデータの伝送を行うよ
うになされている。
The CPU 21, the video processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 are connected to the image data bus 20A, respectively. The face 24 and the FDD interface 25 transmit video data via the image data bus 20A.

【0035】一方、コマンドデータバス20Bには、C
PU21、ビデオプロセツサ22、表示コントローラ2
3、HDDインターフエイス24、FDDインターフエ
イス25、ポインテイングデバイスインターフエイス2
6及び外部インターフエイス27がそれぞれ接続されて
おり(すなわちコンピユータ2内部の全てのブロツクが
接続されている)、当該コマンドデータバス20Bを介
してコマンドデータやアドレスデータの伝送を行うよう
になされている。
On the other hand, the command data bus 20B has C
PU21, video processor 22, display controller 2
3, HDD interface 24, FDD interface 25, pointing device interface 2
6 and the external interface 27 are connected to each other (that is, all blocks in the computer 2 are connected), and command data and address data are transmitted via the command data bus 20B. .

【0036】CPU21はコンピユータ2全体の制御を
行うブロツクであり、コンピユータ2のオペレーテイン
グシステムが格納されているROM21Aと、アツプロ
ードされたアプリケーシヨン・ソフトウエア等が格納さ
れるRAM21Bとを有している。コンピユータ2を起
動する場合には、CPU21はROM21Aに記憶され
たオペレーテイングシステムに基づいたソフトウエアを
実行する。またアプリケーシヨン・ソフトウエアをこの
起動中のオペレーテイングシステムの下で実行する場合
には、CPU21はまずハードデイスクドライブ24A
のハードデイスクに記録されているアプリケーシヨン・
ソフトウエアを読み出してRAM21Bにアツプロード
し、その後、当該アプリケーシヨン・ソフトウエアを実
行する。
The CPU 21 is a block for controlling the entire computer 2 and has a ROM 21A in which the operating system of the computer 2 is stored and a RAM 21B in which uploaded application software and the like are stored. . When activating the computer 2, the CPU 21 executes software based on the operating system stored in the ROM 21A. When executing the application software under this operating system, the CPU 21 first operates the hard disk drive 24A.
Application recorded on the hard disk of
The software is read out and uploaded to the RAM 21B, and then the application software is executed.

【0037】ビデオプロセツサ22は、コンピユータ2
に入力されるSDI規格のビデオ信号S2を受け取り、
当該ビデオ信号S2に対してデータ変換を施すと共に、
その変換されたビデオデータを一時的にバツフアリング
するためのブロツクである。具体的には、ビデオプロセ
ツサ22は、当該ビデオプロセツサ22の全体を制御す
るプロセツサコントローラ22Aと、受け取つたビデオ
信号S2のペイロード部からコンポジツトビデオ信号を
抽出し、かつ当該コンポジツトビデオ信号をデイジタル
のコンポーネントビデオ信号に変換するデータ変換部2
2Bと、データ変換部22Bから送出される数フレーム
分のビデオデータを一時的に記憶するフレームメモリ2
2Cとからなる。
The video processor 22 is connected to the computer 2
Receives the SDI standard video signal S2 input to the
While performing data conversion on the video signal S2,
This is a block for temporarily buffering the converted video data. Specifically, the video processor 22 extracts a composite video signal from a payload portion of the received video signal S2, and a processor controller 22A that controls the entire video processor 22, and outputs the composite video signal. Data conversion unit 2 that converts a video signal into a digital component video signal
2B and a frame memory 2 for temporarily storing video data of several frames transmitted from the data conversion unit 22B.
2C.

【0038】プロセツサコントローラ22Aは、データ
変換部22Bに対して制御信号を送出することにより当
該データ変換部22Bのデータ変換動作を制御すると共
に、当該データ変換部22Bにビデオ信号S2からタイ
ムコードを抽出させる。またプロセツサコントローラ2
2Aは、フレームメモリ22Cに対して制御信号を送出
することにより当該フレームメモリ22Cのリード/ラ
イトタイミング及びリード/ライトアドレスを制御す
る。因みに、リードタイミングに関しては、プロセツサ
コントローラ22Aは表示コントローラ23に送出する
タイムコードとビデオデータ(フレームデータ)とが対
応するようにフレームメモリ22Cのリードタイミング
を制御する。
The processor controller 22A controls the data conversion operation of the data conversion unit 22B by sending a control signal to the data conversion unit 22B, and also sends the time code from the video signal S2 to the data conversion unit 22B. Let it be extracted. Processor controller 2
2A controls a read / write timing and a read / write address of the frame memory 22C by sending a control signal to the frame memory 22C. Incidentally, regarding the read timing, the processor controller 22A controls the read timing of the frame memory 22C so that the time code transmitted to the display controller 23 and the video data (frame data) correspond to each other.

【0039】データ変換部22Bは、プロセツサコント
ローラ22Aからの制御信号に基づいてコンポジツトビ
デオ信号をデイジタルのコンポーネントビデオ信号に変
換する。因みに、タイムコードはこの変換過程において
抽出される。この変換により得られたビデオデータは上
述したようにフレームメモリ22Cに送出され、また抽
出されたタイムコードはプロセツサコントローラ22A
に送出される。
The data converter 22B converts a composite video signal into a digital component video signal based on a control signal from the processor controller 22A. Incidentally, the time code is extracted in this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.
Sent to

【0040】フレームメモリ22Cはデータ変換部22
Bから供給されるビデオデータを一時的に記憶する。こ
のフレームメモリ22Cのリード/ライトタイミング
は、上述したようにプロセツサコントローラ22Aによ
つて制御される。このフレームメモリ22Cは2個のフ
レームメモリから構成され、2フレーム分のビデオデー
タを記憶し得るようになされている。
The frame memory 22C includes a data conversion unit 22
The video data supplied from B is temporarily stored. The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above. The frame memory 22C is composed of two frame memories, and is capable of storing video data for two frames.

【0041】このフレームメモリ22Cに記憶されたビ
デオデータは、プロセツサコントローラ22Aの読み出
し制御に基づいて読み出される。その際、フレームメモ
リ22Cに記憶されたビデオデータを全画素読み出すの
ではなく、所定の間隔で間引いて読み出すことにより画
像サイズを原画像よりも小さくする。このようにして画
像サイズが小さく変換されたビデオデータは、モニタ2
Bのビユーアウインドウ(詳細は後述する)に表示され
るため、画像データバス20Aを介して表示コントロー
ラ23に送出される。
The video data stored in the frame memory 22C is read based on the read control of the processor controller 22A. At this time, the image size is made smaller than the original image by reading out the video data stored in the frame memory 22C, instead of reading out all pixels, at a predetermined interval. The video data whose image size has been reduced in this manner is transmitted to the monitor 2
B is displayed on a viewer window (details will be described later) of B, and is sent to the display controller 23 via the image data bus 20A.

【0042】表示コントローラ23は、モニタ2Bに表
示されるデータを制御するための制御ブロツクである。
表示コントローラ23はメモリコントローラ23AとV
RAM(ビデオ・ランダム・アクセス・メモリ)23B
とを有している。メモリコントローラ23Aはコンピユ
ータ2の内部同期に従つてVRAM23Bのリード/ラ
イトタイミングを制御する。このVRAM23Bには、
ビデオプロセツサ22のフレームメモリ22Cから送出
されたビデオデータ及びCPU21によつて生成される
イメージデータが、メモリコントローラ23Aからのタ
イミング制御信号に基づいて記憶される。このVRAM
23Bに記憶されたビデオデータやイメージデータは、
コンピユータ2の内部同期に基づいたメモリコントロー
ラ23Aからのタイミング制御信号に基づいて読み出さ
れ、モニタ2Bに表示される。
The display controller 23 is a control block for controlling data displayed on the monitor 2B.
The display controller 23 is connected to the memory controllers 23A and V
RAM (Video Random Access Memory) 23B
And The memory controller 23A controls the read / write timing of the VRAM 23B according to the internal synchronization of the computer 2. In this VRAM 23B,
The video data transmitted from the frame memory 22C of the video processor 22 and the image data generated by the CPU 21 are stored based on a timing control signal from the memory controller 23A. This VRAM
The video data and image data stored in 23B are
The data is read out based on the timing control signal from the memory controller 23A based on the internal synchronization of the computer 2 and displayed on the monitor 2B.

【0043】この場合、イメージデータによるグラフイ
ツク表示がGUIのためのグラフイツク表示となる。因
みに、CPU10からVRAM23Bに送出されるイメ
ージデータは、例えばウインドウやカーソル、或いはス
クロールバーやデバイスを示すアイコン等のイメージデ
ータである。このコンピユータ2では、これらの複数種
類のイメージデータをモニタ2Bに表示することによつ
てGUIのためのグラフイツク表示を得ている。
In this case, the graphic display based on the image data becomes the graphic display for the GUI. Incidentally, the image data transmitted from the CPU 10 to the VRAM 23B is, for example, image data such as a window, a cursor, a scroll bar, or an icon indicating a device. The computer 2 obtains a graphic display for the GUI by displaying these plural types of image data on the monitor 2B.

【0044】HDDインターフエイス24は、コンピユ
ータ2内部に設けられたローカルハードデイスクドライ
ブ(HDD)24Aと通信するためのインターフエイス
ブロツクである。このHDDインターフエイス24とハ
ードデイスクドライブ24AとはSCSI(Small Comp
uter System Interface )の伝送フオーマツトに基づい
て通信が行われるようになされている。
The HDD interface 24 is an interface block for communicating with a local hard disk drive (HDD) 24A provided inside the computer 2. The HDD interface 24 and the hard disk drive 24A are connected to a SCSI (Small Comp
The communication is performed based on a transmission format of a uter system interface.

【0045】ハードデイスクドライブ24Aには、この
コンピユータ2で起動するアプリケーシヨン・ソフトウ
エアがインストールされており、当該アプリケーシヨン
・ソフトウエアを実行する場合には、このハードデイス
クドライブ24Aから読み出されてCPU21のRAM
21Bにアツプロードされる。またこのアプリケーシヨ
ン・ソフトウエアを終了する際には、RAM21Bに記
憶されている編集オペレーシヨンによつて生成された各
種情報(例えばフアイル情報等)は、このハードデイス
クドライブ24Aを介してハードデイスクにダウンロー
ドされる。
Application software to be started by the computer 2 is installed in the hard disk drive 24A. When the application software is executed, the application software is read out from the hard disk drive 24A and read from the CPU 21. RAM
Uploaded to 21B. When the application software is terminated, various information (for example, file information) generated by the editing operation stored in the RAM 21B is downloaded to the hard disk via the hard disk drive 24A. You.

【0046】FDDインターフエイス25は、コンピユ
ータ2内部に設けられたフロツピーデイスクドライブ
(FDD)25Aと通信するためのインターフエイスブ
ロツクである。このFDDインターフエイス25とフロ
ツピーデイスクドライブ25AとはSCSIの伝送フオ
ーマツトに基づいて通信が行われるようになされてい
る。
The FDD interface 25 is an interface block for communicating with a floppy disk drive (FDD) 25A provided inside the computer 2. The FDD interface 25 and the floppy disk drive 25A communicate with each other based on a SCSI transmission format.

【0047】ポインテイングデバイスインターフエイス
26は、コンピユータ2に接続されたマウス2D及びキ
ーボード2Cからの情報を受信するインターフエイスブ
ロツクである。ポインテイングデバイスインターフエイ
ス26は、マウス2Dに設けられた2次元ロータリーエ
ンコーダの検出情報と、マウス2Dに設けられた左右の
ボタンのクリツク情報とを当該マウス2Dから受け取
り、受け取つたそれらの情報をデコードしてCPU21
に送出する。同様に、ポインテイングデバイスインター
フエイス26はキーボード2Cに設けられたボタンから
の入力情報を受け取り、受け取つた入力情報をデコード
してCPU21に送出する。これによりCPU21は、
モニタ2Bに表示されるGUIのうちいずれのコマンド
ボタンが指示されたか認識し得ると共に、キーボード2
Cより入力された各種データを認識し得、それらに対応
する制御を行うことができる。
The pointing device interface 26 is an interface block for receiving information from the mouse 2D and the keyboard 2C connected to the computer 2. The pointing device interface 26 receives, from the mouse 2D, detection information of a two-dimensional rotary encoder provided on the mouse 2D and click information of left and right buttons provided on the mouse 2D, and decodes the received information. CPU 21
To send to. Similarly, the pointing device interface 26 receives input information from buttons provided on the keyboard 2 </ b> C, decodes the received input information, and sends it to the CPU 21. Thereby, the CPU 21
It is possible to recognize which command button of the GUI displayed on the monitor 2B has been designated, and to use the keyboard 2
Various data input from C can be recognized, and control corresponding thereto can be performed.

【0048】外部インターフエイス27は、コンピユー
タ2の外部に接続された編集処理装置3と通信するため
のブロツクである。外部インターフエイス27はCPU
21で生成された再生コマンドや記録コマンド等の各種
制御コマンドを所定の通信プロトコルのデータに変換す
るドライバを有しており、当該ドライバを介して制御コ
マンドを示す制御信号S1を編集処理装置3に送出す
る。
The external interface 27 is a block for communicating with the editing processing device 3 connected to the outside of the computer 2. The external interface 27 is a CPU
A driver for converting various control commands such as a reproduction command and a recording command generated in 21 into data of a predetermined communication protocol, and sends a control signal S1 indicating the control command to the editing processing device 3 via the driver. Send out.

【0049】(1−3)編集処理装置の構成 この項では編集処理装置3の構成について説明する。図
3に示すように、編集処理装置3は大きく分けてシステ
ムコントロール部3A、マトリクススイツチヤ部3B、
画像処理部3C及び音声処理部3Dからなつている。シ
ステムコントロール部3Aは、コンピユータ2から送ら
れてくる制御信号S1や専用コントローラ4、5から送
られてくる制御信号S3、S4を受け、当該制御信号S
1、S3又はS4を基に各ブロツクの動作を制御する。
具体的には、システムコントロール部3Aは、コントロ
ールバス3Eを介してマトリクススイツチヤ部3B、画
像処理部3C及び音声処理部3Dの動作を制御すると共
に、制御信号S5、S6、S9又はS12を送出してデ
イリーサーバ6、VTR7及びローカルストレージ8の
再生又は記録動作等を制御する。因みに、システムコン
トロール部3Aは外部より供給されるリフエレンスタイ
ムコード(REF-TC)も受け取り、タイムコードの管理も
行うようになされている。
(1-3) Configuration of Editing Processing Apparatus In this section, the configuration of the editing processing apparatus 3 will be described. As shown in FIG. 3, the editing processing device 3 is roughly divided into a system control unit 3A, a matrix switch unit 3B,
It comprises an image processing unit 3C and an audio processing unit 3D. The system control unit 3A receives the control signal S1 sent from the computer 2 and the control signals S3 and S4 sent from the dedicated controllers 4 and 5, and receives the control signal S1.
The operation of each block is controlled based on 1, S3 or S4.
Specifically, the system control unit 3A controls the operations of the matrix switch unit 3B, the image processing unit 3C, and the audio processing unit 3D via the control bus 3E, and sends out control signals S5, S6, S9, or S12. Then, it controls the reproduction or recording operation of the daily server 6, the VTR 7 and the local storage 8, and the like. Incidentally, the system control unit 3A also receives a reference time code (REF-TC) supplied from the outside, and manages the time code.

【0050】マトリスクスイツチヤ部3Bは複数の入力
端子と複数の出力端子とを有し、システムコントロール
部3Aからの制御に応じて所望の入力端子を所望の出力
端子に接続するようになされており、これにより各デバ
イス(デイリーサーバ6、VTR7又はローカルストレ
ージ8)から読み出されたビデオ及びオーデイオ信号の
うち所望の信号を画像処理部3Cや音声処理部3Dに送
出し得ると共に、所望の信号をコンピユータ2や各デバ
イス(VTR7、ローカルストレージ8又はオンエアバ
ツフア9)に送出し得るようになされている。さらに画
像処理部3Cによつて処理されたビデオ信号をコンピユ
ータ2に送出したり、或いはそのビデオ信号に音声処理
部3Dによつて処理されたオーデイオ信号を重畳して各
デバイス(VTR7、ローカルストレージ8又はオンエ
アバツフア9)に送出し得るようにもなされている。
The matrix switch unit 3B has a plurality of input terminals and a plurality of output terminals, and connects a desired input terminal to a desired output terminal under the control of the system control unit 3A. Thus, a desired signal among the video and audio signals read from each device (daily server 6, VTR 7, or local storage 8) can be transmitted to the image processing unit 3C and the audio processing unit 3D, and the desired signal can be transmitted. The data can be transmitted to the computer 2 or each device (VTR 7, local storage 8, or on-air buffer 9). Further, the video signal processed by the image processing unit 3C is sent to the computer 2, or the audio signal processed by the audio processing unit 3D is superimposed on the video signal, and each device (VTR 7, local storage 8) Alternatively, it can be sent to an on-air buffer 9).

【0051】画像処理部3Cは、トランジシヨン・エフ
エクト(ワイプやページターン等、バツクグラウンドの
映像からフオアグラウンドの映像に切り換えるようなエ
フエクト)やアニメーシヨン・エフエクト(モザイクや
ピクチヤ・イン・ピクチヤ等、特殊な画像処理や挿入処
理を伴うエフエクト)といつたエフエクト処理をビデオ
信号に施すブロツクであり、マトリクススイツチヤ部3
Bによつて選択されたビデオ及びオーデイオ信号からビ
デオ信号を抽出し、当該ビデオ信号にエフエクト処理を
施した後、そのビデオ信号をマトリクススイツチヤ部3
Bに出力する。
The image processing unit 3C includes transition effects (effects such as switching from background video to foreground video such as wipes and page turns) and animation effects (mosaic, picture-in-picture, etc.). This is a block for performing an effect process such as special image process or insert process on a video signal.
A video signal is extracted from the video and audio signals selected by B, and the video signal is subjected to effect processing.
Output to B.

【0052】音声処理部3Dは、オーデイオ信号のレベ
ル調整や合成を行うブロツクであり、マトリクススイツ
チヤ部3Dによつて選択されたビデオ及びオーデイオ信
号からオーデイオ信号を抽出した後、そのオーデイオ信
号にレベル調整を施したり、或いはオーデイオ信号同士
をそれぞれ合成したりし、その結果得られるオーデイオ
信号をマトリクススイツチヤ部3B又はスピーカ11、
12に出力する。
The audio processing unit 3D is a block for adjusting and synthesizing the level of the audio signal. After extracting the audio signal from the video and audio signals selected by the matrix switch unit 3D, the audio processing unit 3D applies the level to the audio signal. The audio signal is adjusted, or the audio signals are combined with each other.
12 is output.

【0053】ここでこれら各ブロツクの構成を図を用い
て以下に具体的に説明する。図4に示すように、システ
ムコントロール部3Aは、メインCPU(M−CPU)
30、コミユニケーシヨンCPU(C−CPU)31及
びデバイス制御用CPU(D−CPU)32〜34の複
数のCPUから構成される。メインCPU30は、コン
トロールバス3Eを介して各ブロツク(すなわちマトリ
クススイツチヤ部3B、画像処理部3C及び音声処理部
3D)に制御コマンドを与えることにより当該各ブロツ
クの動作を制御するためのCPUである。またコミユニ
ケーシヨンCPU31は、外部のタイムコード発生器
(図示せず)によつて発生したリフアレンスタイムコー
ド(REF-TC)を受け取つたり、或いはコンピユータ2か
らの制御信号S1や専用コントローラ4、5からの制御
信号S3、S4を受け取つたりするための通信用CPU
である。またデバイス制御用CPU32〜34は、各デ
バイス(すなわちデイリーサーバ6、VTR7及びロー
カルストレージ8)に対して制御信号S5、S6、S9
又はS12を送出して当該各デバイスの動作を制御する
ためのCPUである。
Here, the structure of each of these blocks will be specifically described with reference to the drawings. As shown in FIG. 4, the system control unit 3A includes a main CPU (M-CPU).
30, a communication / unification CPU (C-CPU) 31, and a plurality of device control CPUs (D-CPUs) 32-34. The main CPU 30 is a CPU for controlling the operation of each block by giving a control command to each block (ie, the matrix switch unit 3B, the image processing unit 3C, and the audio processing unit 3D) via the control bus 3E. . The communication unit CPU 31 receives a reference time code (REF-TC) generated by an external time code generator (not shown) or controls the control signal S1 from the computer 2 or the dedicated controller 4, Communication CPU for receiving control signals S3 and S4 from
It is. The device control CPUs 32 to 34 send control signals S5, S6, S9 to each device (that is, the daily server 6, the VTR 7, and the local storage 8).
Alternatively, it is a CPU for sending S12 to control the operation of each device.

【0054】このようなシステムコントロール部3A
は、コミユニケーシヨンCPU31によつて制御信号S
1、S3又はS4を受け取り、当該コミユニケーシヨン
CPU31によつてその制御信号S1、S3又はS4が
示す制御コマンドを再生する。この制御コマンドはシス
テムコントロール部3A内部のバス35を介してメイン
CPU30に転送される。メインCPU30はこの制御
コマンドを解析し、デバイス制御が必要であれば対応す
るデバイス制御用CPU32、33又は34に制御コマ
ンドを送出して当該デバイス制御用CPU32、33又
は34を介してデバイスの動作を制御し、マトリクスス
イツチヤ部3B、画像処理部3C又は音声処理部3Dの
制御が必要であれば対応するブロツクにコントロールバ
ス3Eを介して制御コマンドを送出して当該ブロツクの
動作を制御する。
Such a system control unit 3A
The control signal S is transmitted by the communication unit CPU 31.
1, S3 or S4 is received and the control command indicated by the control signal S1, S3 or S4 is reproduced by the communication unit CPU 31. This control command is transferred to the main CPU 30 via the bus 35 inside the system control unit 3A. The main CPU 30 analyzes this control command, and sends a control command to the corresponding device control CPU 32, 33 or 34 if device control is necessary, and controls the operation of the device via the device control CPU 32, 33 or 34. If control is required, control of the matrix switch unit 3B, image processing unit 3C or audio processing unit 3D is sent to the corresponding block via the control bus 3E to control the operation of the block.

【0055】因みに、コミユニケーシヨンCPU31
は、内部にコンピユータ2の外部インターフエイス27
に対応した通信用のドライバを有しており、当該ドライ
バによつてコンピユータ2から送られてくる制御信号S
1を受信するようになされている。またデバイス制御用
CPU32〜34は内部にRS−422規格のドライバ
を有しており、当該ドライバによつてRS−422規格
の制御信号S5、S6、S9又はS12を各デバイスに
送出するようになされている。
Incidentally, the communication unity CPU 31
Is the external interface 27 of the computer 2 inside.
And a control signal S sent from the computer 2 by the driver.
1 is received. Each of the device control CPUs 32 to 34 has an RS-422 standard driver therein, and the control signal S5, S6, S9, or S12 of the RS-422 standard is transmitted to each device by the driver. ing.

【0056】続いて図5を用いてマトリクススイツチヤ
部3Bについて説明する。この図5に示すように、マト
リクススイツチヤ部3Bは大きく分けて制御回路40、
マトリクススイツチヤブロツク41及びフオーマツト変
換ブロツク42からなつている。制御回路40はこのマ
トリクススイツチヤ部3Bの全体を制御する回路であ
り、コントロールバス3Eを介して受けた制御コマンド
に基づいて制御信号S20、S21を生成し、当該制御
信号S20、S21をそれぞれマトリクススイツチヤブ
ロツク41、フオーマツト変換ブロツク42に出力して
その動作を制御する。
Next, the matrix switch section 3B will be described with reference to FIG. As shown in FIG. 5, the matrix switch unit 3B is roughly divided into a control circuit 40,
It comprises a matrix switch block 41 and a format conversion block 42. The control circuit 40 is a circuit for controlling the entire matrix switch section 3B, generates control signals S20 and S21 based on a control command received via the control bus 3E, and converts the control signals S20 and S21 into a matrix, respectively. The output is output to a switch block 41 and a format conversion block 42 to control the operation.

【0057】マトリクススイツチヤブロツク41は、入
力端子IN1〜IN11にそれぞれ接続される複数の入
力ラインと、出力端子OUT1〜OUT13にそれぞれ
接続される複数の出力ラインとが格子状に配列されてお
り、入力ラインと出力ラインが交差するクロスポイント
(図中×印で示す)の所で当該入力ラインと出力ライン
を接続し得るようになされている。このためマトリクス
スイツチヤブロツク41は、制御回路40から供給され
る制御信号S20に基づいて所望のクロスポイントの所
で入力ラインと出力ラインを接続すれば、入力端子IN
1〜IN11に入力された所望の信号を所望の出力端子
OUT1〜OUT13に出力することができる。
In the matrix switch block 41, a plurality of input lines connected to the input terminals IN1 to IN11 and a plurality of output lines connected to the output terminals OUT1 to OUT13 are arranged in a lattice. The input line and the output line can be connected at a cross point (indicated by a cross in the figure) where the input line and the output line intersect. For this reason, if the input line and the output line are connected at a desired cross point on the basis of the control signal S20 supplied from the control circuit 40, the matrix switch block 41 can be connected to the input terminal IN.
Desired signals input to 1 to IN11 can be output to desired output terminals OUT1 to OUT13.

【0058】因みに、このマトリクススイツチヤ部3B
においては、デイリーサーバ6、VTR7及びローカル
ストレージ8の各デバイスから読み出されたビデオ及び
オーデイオ信号がそれぞれ入力端子IN1〜IN8に入
力されるようになされている(但し、この図5の例で
は、入力端子IN1〜IN5にビデオ及びオーデイオ信
号S7、S8、S10、S13、S14が入力され、入
力端子IN5〜IN8は空き端子となつている)。また
入力端子IN9及びIN10には画像処理部3Cによつ
て画像処理が施されたビデオ信号S31、S32がそれ
ぞれ入力され、入力端子IN11には音声処理部3Dに
よつて信号処理が施されたオーデイオ信号S33が入力
されるようになされている。
Incidentally, the matrix switch section 3B
In FIG. 5, the video and audio signals read from the devices of the daily server 6, the VTR 7, and the local storage 8 are input to the input terminals IN1 to IN8, respectively (however, in the example of FIG. Video and audio signals S7, S8, S10, S13, and S14 are input to the input terminals IN1 to IN5, and the input terminals IN5 to IN8 are empty terminals. The input terminals IN9 and IN10 receive video signals S31 and S32, respectively, which have been subjected to image processing by the image processing unit 3C, and the input terminal IN11 has audio signals subjected to signal processing by the audio processing unit 3D. The signal S33 is input.

【0059】またこのマトリクススイツチヤ部3Bにお
いては、出力端子OUT1はローカルストレージ8にビ
デオ及びオーデイオ信号S15を出力するための端子と
して割り当てられ、出力端子OUT2はVTR7にビデ
オ及びオーデイオ信号S11を出力するための端子とし
て割り当てられ、出力端子OUT3はオンエアバツフア
9にビデオ及びオーデイオ信号S16を出力するための
端子として割り当てられており、出力端子OUT1〜O
UT3はそれぞれプログラム出力用の端子として割り当
てられている。また出力端子OUT4はプレビユ専用の
モニタ13にビデオ信号S19を出力するためのプレビ
ユ用の出力端子として割り当てられており、出力端子O
UT5はコンピユータ2にビデオ信号S2を出力するた
めのキヤプチヤ用の出力端子として割り当てられてい
る。さらに出力端子OUT6〜OUT10は画像処理部
3Cにビデオ及びオーデイオ信号S23〜S27を出力
するための端子として割り当てられ、出力端子OUT1
1〜OUT13は音声処理部3Dにビデオ及びオーデイ
オ信号S28〜S30を出力するための端子として割り
当てられている。
In the matrix switch section 3B, the output terminal OUT1 is assigned to the local storage 8 as a terminal for outputting the video and audio signal S15, and the output terminal OUT2 outputs the video and audio signal S11 to the VTR 7. The output terminal OUT3 is assigned as a terminal for outputting the video and audio signal S16 to the on-air buffer 9, and the output terminals OUT1 to OUT3
UT3 is assigned as a terminal for program output. The output terminal OUT4 is assigned as a preview output terminal for outputting the video signal S19 to the preview dedicated monitor 13, and the output terminal O is provided.
The UT 5 is assigned as a capture output terminal for outputting the video signal S2 to the computer 2. Further, the output terminals OUT6 to OUT10 are assigned as terminals for outputting video and audio signals S23 to S27 to the image processing unit 3C, and the output terminal OUT1 is output.
1 to OUT13 are assigned as terminals for outputting video and audio signals S28 to S30 to the audio processing unit 3D.

【0060】フオーマツト変換ブロツク42は、制御回
路40から供給される制御信号S21に基づいて、出力
端子OUT1〜OUT5に出力する信号をSDI規格の
信号に変換する回路ブロツクであり、出力端子OUT1
〜OUT3に出力する信号をフオーマツト変換するアウ
トプツトプロセツサ43及びオーデイオコンバイナ44
と、出力端子OUT4に出力する信号をフオーマツト変
換するアウトプツトプロセツサ45と、出力端子OUT
5に出力する信号をフオーマツト変換するアウトプツト
プロセツサ46とを有している。
The format conversion block 42 is a circuit block for converting signals output to the output terminals OUT1 to OUT5 into SDI standard signals based on the control signal S21 supplied from the control circuit 40, and includes an output terminal OUT1.
To an output processor 43 and an audio combiner 44 for format-converting a signal to be output to OUT3.
An output processor 45 for format-converting a signal output to an output terminal OUT4, and an output terminal OUT
And an output processor 46 for format-converting the signal to be output to the output terminal 5.

【0061】アウトプツトプロセツサ43は、画像処理
部3Cによつて画像処理されたビデオ信号(すなわち入
力端子IN9又はIN10に入力されるビデオ信号S3
1又はS32)を出力するとき、当該ビデオ信号S31
又はS32をSDI規格のビデオ信号に変換する。オー
デイオコンバイナ44は、音声処理部3Dによつて処理
されたエンベデツトオーデイオ信号(すなわち入力端子
IN11に入力されるオーデイオ信号S33)を出力す
るとき、アウトプツトプロセツサ43から出力されるS
DI規格のビデオ信号に当該エンベデツトオーデイオ信
号S33を重畳する。これにより画像処理部3Cによつ
て処理されたビデオ信号S31、S32や音声処理部3
Dによつて処理されたオーデイオ信号S33をSDI規
格の信号でローカルストレージ8やVTR7或いはオン
エアバツフア9に送出し得る。因みに、入力端子IN1
〜IN8に入力されたビデオ及びオーデイオ信号を出力
端子OUT1〜OUT3に出力する場合には、当該ビデ
オ及びオーデイオ信号がSDI規格で各デバイスから出
力されているので、アウトプツトプロセツサ43及びオ
ーデイオコンバイナ44は何ら処理せず、入力されるビ
デオ及びオーデイオ信号をそのまま出力端子OUT1〜
OUT3に出力する。
The output processor 43 outputs the video signal (ie, the video signal S3 input to the input terminal IN9 or IN10) which has been image-processed by the image processing unit 3C.
1 or S32), the video signal S31
Alternatively, S32 is converted into an SDI standard video signal. The audio combiner 44 outputs the embedded audio signal processed by the audio processing unit 3D (that is, the audio signal S33 input to the input terminal IN11), the S output from the output processor 43.
The embedded audio signal S33 is superimposed on the video signal of the DI standard. Thus, the video signals S31 and S32 processed by the image processing unit 3C and the audio processing unit 3
The audio signal S33 processed by D can be sent to the local storage 8, the VTR 7 or the on-air buffer 9 as an SDI standard signal. Incidentally, the input terminal IN1
When the video and audio signals input to .about.IN8 are output to the output terminals OUT1 to OUT3, since the video and audio signals are output from the respective devices according to the SDI standard, the output processor 43 and the audio combiner 44 are output. Performs no processing and outputs the input video and audio signals as they are to the output terminals OUT1 to OUT1.
Output to OUT3.

【0062】アウトプツトプロセツサ45、46も、同
様に、それぞれ画像処理部3Cによつて画像処理された
ビデオ信号S31又はS32を出力端子OUT4又はO
UT5に出力するとき、当該ビデオ信号S31又はS3
2をSDI規格のビデオ信号に変換する。これにより画
像処理部3Cによつて処理されたビデオ信号S31又は
S32をSDI規格の信号でプレビユ専用のモニタ13
やコンピユータ2に送出し得る。因みに、このアウトプ
ツトプロセツサ45、46も、入力端子IN1〜IN8
に入力されたビデオ及びオーデイオ信号を出力端子OU
T4、OUT5に出力する場合には、当該ビデオ及びオ
ーデイオ信号に何ら処理せず、そのまま出力端子OUT
4、OUT5に出力する。
Similarly, the output processors 45 and 46 respectively output the video signal S31 or S32 image-processed by the image processing unit 3C to the output terminal OUT4 or O.
When outputting to the UT5, the video signal S31 or S3
2 is converted into an SDI standard video signal. As a result, the video signal S31 or S32 processed by the image processing unit 3C is converted into an SDI standard signal to a monitor 13 dedicated to the preview.
Or to the computer 2. Incidentally, the output processors 45 and 46 are also connected to the input terminals IN1 to IN8.
Video and audio signals input to the output terminal OU
When output to T4 and OUT5, the video and audio signals are not processed at all and output terminal OUT
4. Output to OUT5.

【0063】続いて図6を用いて画像処理部3Cについ
て説明する。この図6に示すように、画像処理部3Cは
大きく分けて制御回路50と、デマルチプレクサブロツ
ク51と、スイツチヤブロツク52と、特殊効果ブロツ
ク53と、ミキサブロツク54とを有している。制御回
路50はこの画像処理部3Cの全体を制御する回路であ
り、コントロールバス3Eを介して受けた制御コマンド
に基づいて制御信号S40、S41、S42、S43を
生成し、当該制御信号S40、S41、S42、S43
をそれぞれデマルチプレクサブロツク51、スイツチヤ
ブロツク52、特殊効果ブロツク53、ミキサブロツク
54に出力してその動作を制御する。これによりこの画
像処理部3Cでは、マトリクススイツチヤ部3Bから供
給されたビデオ信号(S23〜S27)に対して画像処
理を施す。因みに、ここで言う画像処理とは、ソースビ
デオ信号に特殊効果を施したり、バツクグラウンドビデ
オ信号に特殊効果のかかつたビデオ信号を挿入したりす
るアニメーシヨン・エフエクトや、バツクグラウンドビ
デオ信号からフオアグラウンドビデオ信号に映像を切り
換えるトランジシヨン・エフエクトのことである。
Next, the image processing section 3C will be described with reference to FIG. As shown in FIG. 6, the image processing section 3C roughly includes a control circuit 50, a demultiplexer block 51, a switch block 52, a special effect block 53, and a mixer block 54. The control circuit 50 is a circuit that controls the entire image processing unit 3C, generates control signals S40, S41, S42, and S43 based on control commands received via the control bus 3E, and controls the control signals S40 and S41. , S42, S43
Are output to a demultiplexer block 51, a switch block 52, a special effect block 53, and a mixer block 54 to control the operation. As a result, the image processing unit 3C performs image processing on the video signal (S23 to S27) supplied from the matrix switch unit 3B. By the way, the image processing referred to here is an animation effect for applying a special effect to a source video signal or inserting a video signal having a special effect into a background video signal, or a foreground from a background video signal. This is a transition effect that switches the video to a video signal.

【0064】デマルチプレクサブロツク51は、SDI
規格の信号形式で送られてくるビデオ及びオーデイオ信
号S23〜S27からビデオ信号又はキー信号を抽出す
るブロツクである。このデマルチプレクサブロツク51
は、入力されるビデオ及びオーデイオ信号S23〜S2
7からそれぞれ信号抽出を行う5つのデマルチプレクサ
回路51A〜51Eからなつている。デマルチプレクサ
回路51Aは、ビデオ及びオーデイオ信号S23を形成
する各パケツトのペイロード部からキー信号を抽出する
回路であり、当該キー信号の先頭に配置されている同期
信号及びヘツダ情報に基づいて抽出を行う。またデマル
チプレクサ回路51Bは、ビデオ及びオーデイオ信号S
24を形成する各パケツトのペイロード部からビデオ信
号を抽出する回路であり、当該ビデオ信号の先頭に配置
されている同期信号及びヘツダ情報に基づいて抽出を行
う。同様に、デマルチプレクサ回路51Cはビデオ及び
オーデイオ信号S25からキー信号を抽出し、デマルチ
プレクサ回路51Dはビデオ及びオーデイオ信号S26
からビデオ信号を抽出し、デマルチプレクサ回路51E
はビデオ及びオーデイオ信号S27からビデオ信号を抽
出する。
The demultiplexer block 51 is connected to the SDI
This block extracts a video signal or a key signal from video and audio signals S23 to S27 sent in a standard signal format. This demultiplexer block 51
Are input video and audio signals S23 to S2
7 includes five demultiplexer circuits 51A to 51E for extracting signals. The demultiplexer circuit 51A is a circuit for extracting a key signal from a payload portion of each packet forming the video and audio signal S23, and performs extraction based on a synchronization signal and header information arranged at the head of the key signal. . The demultiplexer circuit 51B also controls the video and audio signals S
24 is a circuit for extracting a video signal from the payload portion of each packet forming the H.24, and performs extraction based on a synchronization signal and header information arranged at the head of the video signal. Similarly, the demultiplexer circuit 51C extracts the key signal from the video and audio signal S25, and the demultiplexer circuit 51D extracts the video and audio signal S26.
Video signal is extracted from the
Extracts a video signal from the video and audio signal S27.

【0065】スイツチヤブロツク52は、抽出されたキ
ー信号及びビデオ信号に対してトランジシヨン・エフエ
クトのための処理を施すブロツクであり、ワイプ信号発
生器52A、52B、キー信号処理回路52C、52
D、及びビデオ信号処理回路52E、52Fからなつて
いる。ワイプ信号発生器52Aは、制御回路50からの
制御信号S41に基づいてオペレータが指定したトラジ
シヨン・エフエクトに対応するワイプ信号を生成し、当
該ワイプ信号をキー信号処理回路52C及びビデオ信号
処理回路52Eに送出する。キー信号処理回路52C
は、供給されるワイプ信号に基づいてデマルチプレクサ
回路51Aから供給されるキー信号を当該ワイプ信号に
対応するように変換し(又は供給されるワイプ信号に基
づいて当該ワイプ信号に対応する所望のキー信号を新た
に生成する)、その結果得られるキー信号を後述するミ
キサブロツク54に送出する。またビデオ信号処理回路
52Eは、供給されるワイプ信号に基づいてデマルチプ
レクサ回路51Bから供給されるビデオ信号を当該ワイ
プ信号に対応するように変換し、その結果得られるビデ
オ信号を後述するミキサブロツク54に送出する。
The switch block 52 is a block for performing a process for a transition effect on the extracted key signal and video signal, and includes wipe signal generators 52A and 52B and key signal processing circuits 52C and 52.
D and video signal processing circuits 52E and 52F. The wipe signal generator 52A generates a wipe signal corresponding to the transition effect designated by the operator based on the control signal S41 from the control circuit 50, and sends the wipe signal to the key signal processing circuit 52C and the video signal processing circuit 52E. Send out. Key signal processing circuit 52C
Converts the key signal supplied from the demultiplexer circuit 51A based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal supplied from the demultiplexer circuit 51A into a desired key corresponding to the wipe signal based on the supplied wipe signal). Signal is newly generated), and the resulting key signal is sent to a mixer block 54 described later. The video signal processing circuit 52E converts the video signal supplied from the demultiplexer circuit 51B based on the supplied wipe signal so as to correspond to the wipe signal, and converts the resulting video signal into a mixer block 54 described later. To send to.

【0066】同様に、ワイプ信号発生器52Bは、制御
回路50からの制御信号S41に基づいてオペレータが
指定したトラジシヨン・エフエクトに対応するワイプ信
号を生成し、当該ワイプ信号をキー信号処理回路52D
及びビデオ信号処理回路52Fに送出する。キー信号処
理回路52Dは、供給されるワイプ信号に基づいてデマ
ルチプレクサ回路51Cから供給されるキー信号を当該
ワイプ信号に対応するように変換し(又は供給されるワ
イプ信号に基づいて当該ワイプ信号に対応する所望のキ
ー信号を新たに生成する)、その結果得られるキー信号
を後述する特殊効果ブロツク53に送出する。またビデ
オ信号処理回路52Fは、供給されるワイプ信号に基づ
いてデマルチプレクサ回路51Dから供給されるビデオ
信号を当該ワイプ信号に対応するように変換し、その結
果得られるビデオ信号を後述する特殊効果ブロツク53
に送出する。
Similarly, the wipe signal generator 52B generates a wipe signal corresponding to the transition effect specified by the operator based on the control signal S41 from the control circuit 50, and converts the wipe signal into a key signal processing circuit 52D.
And to the video signal processing circuit 52F. The key signal processing circuit 52D converts the key signal supplied from the demultiplexer circuit 51C based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal supplied to the wipe signal based on the supplied wipe signal). A corresponding desired key signal is newly generated), and the resulting key signal is sent to a special effect block 53 described later. The video signal processing circuit 52F converts the video signal supplied from the demultiplexer circuit 51D based on the supplied wipe signal so as to correspond to the wipe signal, and converts the resulting video signal into a special effect block described later. 53
To send to.

【0067】特殊効果ブロツク53は、制御回路50か
ら供給される制御信号S42に基づいて、キー信号処理
回路52Dから出力されるキー信号及びビデオ信号処理
回路52Fから出力されるビデオ信号を3次元的に画像
変換するためのブロツクであり、3次元アドレス発生回
路53A、フレームメモリ53B、53C及び補間回路
53D、53Eからなつている。3次元アドレス発生回
路53Aは、制御信号S42に基づいて、オペレータが
指定した3次元的な画像変換を行うための変換アドレス
を生成し、当該変換アドレスをフレームメモリ53B、
53C及び補間回路53D、53Eに出力する。
The special effect block 53 three-dimensionally converts the key signal output from the key signal processing circuit 52D and the video signal output from the video signal processing circuit 52F based on the control signal S42 supplied from the control circuit 50. This is a block for converting an image into a three-dimensional image. The three-dimensional address generation circuit 53A generates a conversion address for performing three-dimensional image conversion specified by the operator based on the control signal S42, and stores the conversion address in the frame memory 53B,
53C and the interpolation circuits 53D and 53E.

【0068】フレームメモリ53Bは、キー信号処理回
路52Dから供給されるキー信号を順次内部のメモリ領
域に格納すると共に、その格納されたキー信号を変換ア
ドレスに基づいて読み出すことにより、当該キー信号に
対して3次元的な画像変換を施し、その結果得られるキ
ー信号を補間回路53Dに送出する。同様に、フレーム
メモリ53Bは、ビデオ信号処理回路52Fから供給さ
れるビデオ信号を順次内部のメモリ領域に格納すると共
に、その格納されたビデオ信号を変換アドレスに基づい
て読み出すことにより、当該ビデオ信号に対して3次元
的な画像変換を施し、その結果得られるビデオ信号を補
間回路53Eに送出する。
The frame memory 53B sequentially stores the key signal supplied from the key signal processing circuit 52D in an internal memory area, and reads out the stored key signal based on the conversion address, thereby obtaining the key signal. On the other hand, three-dimensional image conversion is performed, and the key signal obtained as a result is sent to the interpolation circuit 53D. Similarly, the frame memory 53B sequentially stores the video signals supplied from the video signal processing circuit 52F in an internal memory area, and reads out the stored video signals based on the conversion address, thereby converting the video signals into the video signals. The image signal is subjected to three-dimensional image conversion, and the resulting video signal is sent to the interpolation circuit 53E.

【0069】補間回路53Dは3次元的な変換処理が施
されたキー信号に補間処理を施す回路であり、変換アド
レスに基づいてキー信号の画素を空間的に補間し、その
結果得られるキー信号を後述するミキサブロツク54に
送出する。同様に、補間回路53Eは3次元的な変換処
理が施されたビデオ信号に補間処理を施す回路であり、
変換アドレスに基づいてビデオ信号の画素を空間的に補
間し、その結果得られるビデオ信号を後述するミキサブ
ロツク54に送出する。
The interpolation circuit 53D is a circuit that performs interpolation processing on the key signal that has been subjected to the three-dimensional conversion processing. The interpolation circuit 53D spatially interpolates the pixels of the key signal based on the conversion address, and obtains the key signal obtained as a result. Is sent to a mixer block 54 described later. Similarly, the interpolation circuit 53E is a circuit that performs interpolation processing on a video signal that has been subjected to three-dimensional conversion processing.
The pixels of the video signal are spatially interpolated based on the conversion address, and the resulting video signal is sent to a mixer block 54 described later.

【0070】ミキサブロツク54は制御信号S43によ
る指示に従つてビデオ信号を合成するブロツクであり、
2つのミツクス回路54A、54Bからなつている。ミ
ツクス回路54Aは、特殊効果ブロツク53から出力さ
れるキー信号に基づいて、当該特殊効果ブロツク53に
よつて画像変換されたビデオ信号とデマルチプレクサ回
路51Eから出力されるバツクグラウンドビデオ信号と
してのビデオ信号とを合成することによりビデオ信号S
31を生成する。またミツクス回路54Bは、スイツチ
ヤブロツク52から出力されるキー信号に基づいて、当
該スイツチヤブロツク52から出力されるビデオ信号と
ミツクス回路54Aから出力されるビデオ信号S31と
を合成することによりビデオ信号S32を生成する。こ
のようにして生成されたビデオ信号S31、S32は、
上述したようにマトリクススイツチヤ部3Bに送出され
る。
The mixer block 54 is a block for synthesizing a video signal in accordance with an instruction from the control signal S43.
It comprises two mixing circuits 54A and 54B. Based on the key signal output from the special effect block 53, the mix circuit 54A converts the video signal image-converted by the special effect block 53 and the video signal as the background video signal output from the demultiplexer circuit 51E. And the video signal S
31 is generated. Further, the mixing circuit 54B combines the video signal output from the switching block 52 and the video signal S31 output from the mixing circuit 54A based on the key signal output from the switching block 52, thereby obtaining a video signal. S32 is generated. The video signals S31 and S32 thus generated are
As described above, the signal is sent to the matrix switch unit 3B.

【0071】因みに、単に2つの映像を切り換えるだけ
のトランジシヨン・エフエクトを行う場合には、デマル
チプレクサ回路51Eから出力されるビデオ信号をバツ
クグラウンドビデオ信号としてミツクス回路54Aを介
してミツクス回路54Bに入力すると共に、ビデオ信号
処理回路52Eから出力されるビデオ信号をフオアグラ
ウンドビデオ信号としてミツクス回路54Bに入力し、
その2つのビデオ信号をキー信号処理回路52Cから出
力されるキー信号に基づいて合成する。これによりバツ
クグラウンドビデオ信号からフオアグラウンドビデオ信
号に切り換わるビデオ信号S32が生成される。
When performing a transition effect of simply switching between two images, the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54B via the mix circuit 54A as a background video signal. At the same time, the video signal output from the video signal processing circuit 52E is input to the mixing circuit 54B as a foreground video signal,
The two video signals are synthesized based on the key signal output from the key signal processing circuit 52C. As a result, a video signal S32 that switches from the background video signal to the foreground video signal is generated.

【0072】またページターンのような画像変換を伴う
トランジシヨン・エフエクトを行う場合には、デマルチ
プレクサ回路51Eから出力されるビデオ信号をバツク
グラウンドビデオ信号としてミツクス回路54Aに入力
すると共に、ビデオ信号処理回路52Fから出力される
ビデオ信号をフオアグラウンドビデオ信号として特殊効
果ブロツク53を介して画像変換した後にミツクス回路
54Aに入力し、その2つのビデオ信号を特殊効果ブロ
ツク53を介して信号処理されたキー信号に基づいて合
成する。これによりページをめくるようにしてバツクグ
ラウンドビデオ信号からフオアグラウンドビデオ信号に
切り換わるビデオ信号S31が生成される。
When performing a transition effect involving image conversion such as a page turn, the video signal output from the demultiplexer circuit 51E is input to the mixer circuit 54A as a background video signal, and the video signal processing is performed. The video signal output from the circuit 52F is converted into a foreground video signal through the special effect block 53 and then input to the mixing circuit 54A, and the two video signals are key-processed through the special effect block 53. Synthesize based on the signal. As a result, a video signal S31 that switches from the background video signal to the foreground video signal is generated so as to turn the page.

【0073】またピクチヤ・イン・ピクチヤのようなア
ニメーシヨン・エフエクトを行う場合には、デマルチプ
レクサ回路51Eから出力されるビデオ信号をバツクグ
ラウンドビデオ信号としてミツクス回路54Aに入力す
ると共に、ビデオ信号処理回路52Fから出力されるビ
デオ信号を挿入素材として特殊効果ブロツク53を介し
て画像変換した後にミツクス回路54Aに入力し、その
2つのビデオ信号を特殊効果ブロツク53を介して信号
処理されたキー信号に基づいて合成する。これによりバ
ツクグラウンドビデオ信号に挿入素材が挿入されたピク
チヤ・イン・ピクチヤのビデオ信号S31が生成され
る。
When performing an animation effect such as a picture-in-picture, the video signal output from the demultiplexer circuit 51E is input to the mixer circuit 54A as a background video signal, and the video signal processing circuit The video signal output from 52F is inserted into a mixing circuit 54A after image conversion through a special effect block 53 as an insertion material, and the two video signals are converted based on the key signal processed through the special effect block 53. And combine them. As a result, a picture-in-picture video signal S31 in which the insertion material has been inserted into the background video signal is generated.

【0074】続いて図7を用いて音声処理部3Dについ
て説明する。この図7に示すように、音声処理部3Dは
大きく分けて制御回路55、入力信号処理ブロツク5
6、ミキサブロツク57及び出力信号処理ブロツク58
からなつている。制御回路55はこの音声処理部3Dの
全体を制御する回路であり、コントロールバス3Eを介
して受けた制御コマンドに基づいて制御信号S45、S
46、S47を生成し、当該制御信号S45、S46、
S47をそれぞれ入力信号処理ブロツク56、ミキサブ
ロツク57、出力信号処理ブロツク58に出力してその
動作を制御する。これによりこの音声処理部3Dでは、
マトリクススイツチヤ部3Bから供給されたオーデイオ
信号(S28〜S30)に対して音声処理を施す。因み
に、ここで言う音声処理とは、オーデイオ信号のレベル
調整と合成のことである。
Next, the audio processing unit 3D will be described with reference to FIG. As shown in FIG. 7, the audio processing unit 3D is roughly divided into a control circuit 55, an input signal processing block 5,
6. Mixer block 57 and output signal processing block 58
From The control circuit 55 is a circuit for controlling the whole of the audio processing unit 3D.
46, S47, and the control signals S45, S46,
S47 is output to the input signal processing block 56, the mixer block 57, and the output signal processing block 58 to control the operation. As a result, in the audio processing unit 3D,
Audio processing is performed on the audio signal (S28 to S30) supplied from the matrix switch unit 3B. By the way, the audio processing here means the level adjustment and synthesis of the audio signal.

【0075】入力信号処理ブロツク56は、SDI規格
の信号形式で送られてくるビデオ及びオーデイオ信号S
28〜S30からオーデイオ信号を抽出するブロツクで
ある。この入力信号処理ブロツク56は、信号分離回路
としてのセパレータ56A〜56Cと、フオーマツト変
換回路としてのデコーダ56D〜56Fとを有してい
る。セパレータ56A〜56Cは、それぞれSDI規格
のビデオ及びオーデイオ信号S28〜S30からエンベ
デツトオーデイオ信号を抽出する回路であり、入力され
るビデオ及びオーデイオ信号S28〜S30からエンベ
デツトオーデイオ信号を抽出してデコーダ56D〜56
Fに送出する。デコーダ56D〜56Fはそれぞれエン
ベデツトオーデイオ信号をフオーマツト変換する回路で
あり、入力されるエンベデツトオーデイオ信号をそれぞ
れAES/EBU(Audio Engineering Society / Euro
pean Broadcasting Union )フオーマツトに変換し、そ
の結果得られるオーデイオ信号S48〜S50をそれぞ
れミキサブロツク57に送出する。
The input signal processing block 56 is used for the video and audio signals S transmitted in the signal format of the SDI standard.
This is a block for extracting audio signals from 28 to S30. The input signal processing block 56 has separators 56A to 56C as signal separation circuits and decoders 56D to 56F as format conversion circuits. The separators 56A to 56C are circuits for extracting embedded audio signals from the video and audio signals S28 to S30 of the SDI standard, respectively, and extracting the embedded audio signals from the input video and audio signals S28 to S30, respectively. ~ 56
Send to F. Each of the decoders 56D to 56F is a circuit for format-converting the embedded audio signal.
pean Broadcasting Union) and outputs the resulting audio signals S48 to S50 to the mixer block 57, respectively.

【0076】ミキサブロツク57は、オーデイオ信号S
48〜S50のレベル調整を行うと共に、信号合成を行
うブロツクであり、可変抵抗回路57A〜57F及び加
算回路57G、57Hからなつている。入力信号処理ブ
ロツク56から供給されたオーデイオ信号S48〜S5
0はそれぞれ右側成分と左側成分に分離された後に可変
抵抗回路57A〜57Cと可変抵抗回路57D〜57F
に入力される。可変抵抗回路57A〜57Cと57D〜
57Fはコンピユータ2のモニタ2Bに表示されるGU
Iのオーデイオフエイダ又は専用コントローラ5に設け
られたオーデイオフエイダの操作に連動して抵抗値が変
化するようになされており、これにより入力されるオー
デイオ信号をそれぞれオペレータが指定した信号レベル
にレベル調整する。
The mixer block 57 outputs the audio signal S
It is a block for performing level adjustment of 48 to S50 and synthesizing a signal, and includes variable resistance circuits 57A to 57F and addition circuits 57G and 57H. Audio signals S48 to S5 supplied from the input signal processing block 56
0 is divided into right and left components, respectively, after the variable resistance circuits 57A to 57C and the variable resistance circuits 57D to 57F.
Is input to Variable resistance circuits 57A-57C and 57D-
57F is a GU displayed on the monitor 2B of the computer 2.
The resistance value is changed in conjunction with the operation of an audio-off adaper I or an audio-off adader provided in the dedicated controller 5, whereby the input audio signal is changed to a signal level designated by the operator. adjust.

【0077】可変抵抗回路57A〜57Cによつてレベ
ル調整されたオーデイオ信号は、それぞれ加算回路57
Gに入力され、ここで加算された後に出力信号処理ブロ
ツク58に送出される。同様に、可変抵抗回路57D〜
57Fによつてレベル調整されたオーデイオ信号は、そ
れぞれ加算回路57Hに入力され、ここで加算された後
に出力信号処理ブロツク58に送出される。
The audio signals whose levels have been adjusted by the variable resistor circuits 57A to 57C are respectively added to the adder circuit 57.
G is input to the output signal processing block 58 after being added. Similarly, the variable resistance circuits 57D to 57D
The audio signals whose levels have been adjusted by 57F are respectively input to an adder circuit 57H, where they are added and sent to an output signal processing block 58.

【0078】出力信号処理ブロツク58は出力するオー
デイオ信号をSDI規格の信号形式に変換するブロツク
であり、フオーマツト変換回路としてのエンコーダ58
A、58Bと信号合成回路としてのエンベデツト回路5
8Cとを有している。エンコーダ58AはAES/EB
Uフオーマツトのオーデイオ信号をエンベデツトオーデ
イオ信号にフオーマツト変換する回路であり、加算回路
57Gから出力されたオーデイオ信号をエンベデツトオ
ーデイオ信号S17にフオーマツト変換し、そのエンベ
デツトオーデイオ信号S17をエンベデツト回路58C
に送出すると共に、音声確認用のスピーカ11(図1参
照)に送出する。同様に、エンコーダ58BはAES/
EBUフオーマツトのオーデイオ信号をエンベデツトオ
ーデイオ信号にフオーマツト変換する回路であり、加算
回路57Hから出力されたオーデイオ信号をエンベデツ
トオーデイオ信号S18にフオーマツト変換し、そのエ
ンベデツトオーデイオ信号S18をエンベデツト回路5
8Cに送出すると共に、音声確認用のスピーカ12(図
1参照)に送出する。
The output signal processing block 58 is a block for converting an output audio signal into a signal format of the SDI standard.
A, 58B and an embedded circuit 5 as a signal synthesis circuit
8C. Encoder 58A is AES / EB
This is a circuit for format-converting a U-format audio signal into an embedded audio signal. The audio signal output from the adder circuit 57G is format-converted into an embedded audio signal S17, and the embedded audio signal S17 is converted into an embedded circuit 58C.
And to a speaker 11 for voice confirmation (see FIG. 1). Similarly, encoder 58B has AES /
This is a circuit for format-converting the audio signal of the EBU format into an embedded audio signal. The audio signal output from the adder circuit 57H is format-converted into an embedded audio signal S18, and the embedded audio signal S18 is embedded in the embedded circuit 5.
8C and to the speaker 12 for voice confirmation (see FIG. 1).

【0079】エンベデツト回路58Cは、マトリクスス
イツチヤ部3Bのコンバイナ44によつてオーデイオ信
号をSDI規格のビデオ信号に重畳し得るように所定の
信号形式に信号変換を行う回路であり、入力されるエン
ベデツトオーデイオ信号S17、S18を合成した後に
所定の信号形式に信号変換を行う。この処理により得ら
れたオーデイオ信号S33は、上述したようにマトリク
ススイツチヤ部3Bのコンバイナ44に送出される。
The embedded circuit 58C is a circuit that performs signal conversion into a predetermined signal format so that the audio signal can be superimposed on the SDI standard video signal by the combiner 44 of the matrix switch unit 3B. After synthesizing the stereo audio signals S17 and S18, the signal is converted into a predetermined signal format. The audio signal S33 obtained by this processing is sent to the combiner 44 of the matrix switch unit 3B as described above.

【0080】(1−4)ローカルストレージの構成 次にこの項では編集処理装置3に接続されるデータ記憶
手段としてローカルストレージ8について説明する。図
8に示すように、このローカルストレージ8は、入出力
インターフエイスとしてのデータ入出力ブロツク60
と、このローカルストレージ8全体の動作を制御するシ
ステムコントロールブロツク61と、ビデオデータを記
憶するデイスクアレイブロツク62と、オーデイオデー
タを記憶するデイスクアレイブロツク63とを有してい
る。
(1-4) Configuration of Local Storage Next, in this section, the local storage 8 will be described as data storage means connected to the editing processing device 3. As shown in FIG. 8, the local storage 8 has a data input / output block 60 as an input / output interface.
And a system control block 61 for controlling the operation of the entire local storage 8, a disk array block 62 for storing video data, and a disk array block 63 for storing audio data.

【0081】データ入出力ブロツク60は入力1チヤン
ネル、出力2チヤンネルの構成を有しており、システム
コントロールブロツク61からの制御信号S60に基づ
いて、編集処理装置3から供給されたビデオ及びオーデ
イオ信号S15にデータ記憶に先立つて所定の信号処理
を施すと共に、デイスクアレイブロツク62、63から
読み出したデータに所定の信号処理を施してビデオ及び
オーデイオ信号S13、S14として出力する。
The data input / output block 60 has the structure of one input channel and two output channels. The data read from the disk array blocks 62 and 63 are subjected to predetermined signal processing, and the data read from the disk array blocks 62 and 63 are subjected to predetermined signal processing and output as video and audio signals S13 and S14.

【0082】具体的に説明すると、まず編集処理装置3
から供給されたビデオ及びオーデイオ信号S15はエン
コーダ60Aに入力される。エンコーダ60AはSDI
規格のビデオ及びオーデイオ信号S15からビデオ信号
S61とオーデイオ信号S62を抽出し、当該ビデオ信
号S61をビデオ圧縮回路60Bに出力すると共に、オ
ーデイオ信号S62をオーデイオ圧縮回路60Jに出力
する。ビデオ圧縮回路60Bは、圧縮率1/10のMPEG
規格でビデオ信号S61を圧縮し、その圧縮したビデオ
データをバツフアメモリ60Cに格納する。同様に、オ
ーデイオ圧縮回路60Jは、所定の音声圧縮方式を用い
てオーデイオ信号S62を圧縮し、その圧縮したオーデ
イオデータをバツフアメモリ60Kに格納する。バツフ
アメモリ60C、60Kに格納されたビデオデータとオ
ーデイオデータは、システムコントロールブロツク61
の制御の基に順次読み出され、ビデオデータ用のデイス
クアレイブロツク62とオーデイオ用のデイスクアレイ
ブロツク63にそれぞれ記録される。
More specifically, first, the editing processor 3
The video and audio signal S15 supplied from is supplied to the encoder 60A. Encoder 60A is SDI
The video signal S61 and the audio signal S62 are extracted from the standard video and audio signal S15, the video signal S61 is output to the video compression circuit 60B, and the audio signal S62 is output to the audio compression circuit 60J. The video compression circuit 60B uses an MPEG compression rate of 1/10.
The video signal S61 is compressed according to the standard, and the compressed video data is stored in the buffer memory 60C. Similarly, the audio compression circuit 60J compresses the audio signal S62 using a predetermined audio compression method, and stores the compressed audio data in the buffer memory 60K. The video data and audio data stored in the buffer memories 60C and 60K are stored in the system control block 61.
Are sequentially read out under the control of, and are recorded in a disk array block 62 for video data and a disk array block 63 for audio, respectively.

【0083】一方、再生第1チヤンネルのビデオデータ
としてデイスクアレイブロツク62から読み出されたビ
デオデータは、システムコントロールブロツク61の制
御の基に、順次バツフアメモリ60Fに格納される。同
様に、再生第1チヤンネルのオーデイオデータとしてデ
イスクアレイブロツク63から読み出されたオーデイオ
データは、システムコントロールブロツク61の制御の
基に、順次バツフアメモリ60Mに格納される。第1の
ビデオ伸長回路60Fは、圧縮率1/10のMPEG規格で
圧縮されているビデオデータをバツフアメモリ60Fか
ら読み出し、当該ビデオデータを伸長処理した後、その
ビデオデータS63を第1のデコーダ60Dに出力す
る。同様に、第1のオーデイオ伸長回路60Lは、圧縮
されているオーデイオデータをバツフアメモリ60Mか
ら読み出し、当該オーデイオデータを伸長処理した後、
そのオーデイオデータS64を第1のデコーダ60Dに
出力する。第1のデコーダ60DはSDI規格のフオー
マツトに基づいてビデオデータS63にオーデイオデー
タS64を重畳する。これによりデイスクアレイブロツ
ク62から読み出した再生第1チヤンネルのビデオデー
タとデイスクアレイブロツク63から読み出した再生第
1チヤンネルのオーデイオデータをSDI規格のビデオ
及びオーデイオ信号S13として送出し得る。
On the other hand, the video data read from the disk array block 62 as the video data of the first reproduction channel is sequentially stored in the buffer memory 60F under the control of the system control block 61. Similarly, the audio data read from the disk array block 63 as the audio data of the reproduction first channel is sequentially stored in the buffer memory 60M under the control of the system control block 61. The first video decompression circuit 60F reads video data compressed according to the MPEG standard having a compression ratio of 1/10 from the buffer memory 60F, decompresses the video data, and then transmits the video data S63 to the first decoder 60D. Output. Similarly, the first audio decompression circuit 60L reads out the compressed audio data from the buffer memory 60M, decompresses the audio data, and
The audio data S64 is output to the first decoder 60D. The first decoder 60D superimposes the audio data S64 on the video data S63 based on the format of the SDI standard. As a result, the video data of the reproduced first channel read from the disk array block 62 and the audio data of the reproduced first channel read from the disk array block 63 can be transmitted as the SDI standard video and audio signal S13.

【0084】同様に、再生第2チヤンネルのビデオデー
タとしてデイスクアレイブロツク62から読み出された
ビデオデータは、システムコントロールブロツク61の
制御の基に、順次バツフアメモリ60Iに格納される。
また再生第2チヤンネルのオーデイオデータとしてデイ
スクアレイブロツク63から読み出されたオーデイオデ
ータも、システムコントロールブロツク61の制御の基
に、順次バツフアメモリ60Pに格納される。第2のビ
デオ伸長回路60Hは、圧縮率1/10のMPEG規格で圧
縮されているビデオデータをバツフアメモリ60Iから
読み出し、当該ビデオデータを伸長処理した後、そのビ
デオデータS65を第2のデコーダ60Gに出力する。
同様に、第2のオーデイオ伸長回路60Nも、圧縮され
ているオーデイオデータをバツフアメモリ60Pから読
み出し、当該オーデイオデータを伸長処理した後、その
オーデイオデータS66を第2のデコーダ60Gに出力
する。第2のデコーダ60GはSDI規格のフオーマツ
トに基づいてビデオデータS65にオーデイオデータS
66を重畳する。これによりデイスクアレイブロツク6
2から読み出した再生第2チヤンネルのビデオデータと
デイスクアレイブロツク63から読み出した再生第2チ
ヤンネルのオーデイオデータをSDI規格のビデオ及び
オーデイオ信号S14として送出し得る。
Similarly, video data read from the disk array block 62 as video data of the second reproduction channel is sequentially stored in the buffer memory 60I under the control of the system control block 61.
Also, audio data read from the disk array block 63 as audio data of the reproduction second channel is sequentially stored in the buffer memory 60P under the control of the system control block 61. The second video decompression circuit 60H reads video data compressed according to the MPEG standard having a compression rate of 1/10 from the buffer memory 60I, decompresses the video data, and then transmits the video data S65 to the second decoder 60G. Output.
Similarly, the second audio decompression circuit 60N reads the compressed audio data from the buffer memory 60P, decompresses the audio data, and outputs the audio data S66 to the second decoder 60G. The second decoder 60G converts the audio data S65 into the video data S65 based on the format of the SDI standard.
66 are superimposed. Thus, disk array block 6
2 and the reproduced second channel audio data read from the disk array block 63 can be transmitted as SDI standard video and audio signals S14.

【0085】システムコントロールブロツク61は、こ
のローカルストレージ8の全体を制御するブロツクであ
り、CPU61Aと、DMAコントローラ(Direct Mem
oryAccess controller )61B、61Cと、SCSI
プロトコルコントローラ61D、61Eと、制御信号S
12の入力インターフエイス61Fとを有している。C
PU61Aはシステムコントロールブロツク61の中心
的存在である制御回路を構成しており、編集処理装置3
からRS−422の通信プロトコルで送られてくる制御
信号S12を入力インターフエイス61Fを介して受
け、その制御信号S12が示す制御コマンドに基づい
て、DMAコントローラ61B、61CとSCSIプロ
トコルコントローラ61D、61Eの動作を制御する。
またCPU61Aは上述したように制御信号S60を生
成してデータ入出力ブロツク60に出力することにより
当該データ入出力ブロツク60の動作を制御する。
The system control block 61 is a block for controlling the whole of the local storage 8, and includes a CPU 61A and a DMA controller (Direct Memory).
oryAccess controller) 61B, 61C and SCSI
Protocol controllers 61D and 61E and a control signal S
And 12 input interfaces 61F. C
The PU 61A constitutes a control circuit which is a central part of the system control block 61, and the editing processing device 3
From the DMA controller 61B, 61C and the SCSI protocol controllers 61D, 61E based on the control command indicated by the control signal S12. Control behavior.
Further, the CPU 61A controls the operation of the data input / output block 60 by generating the control signal S60 and outputting it to the data input / output block 60 as described above.

【0086】さらにCPU61Aは、デイスクアレイブ
ロツク62及び63の記録アドレスを、記録されるデー
タのタイムコードと共に管理しており、これによりタイ
ムコードを基準にしてそのタイムコードが示すデータの
記録アドレスを容易に検索し得るようになされている。
具体的には、CPU61Aは、デイスクアレイブロツク
62にフレーム単位で記録されるビデオデータの全記録
アドレスと、記録されるフレームの全タイムコードとを
対応付けた対応表を内蔵メモリに記憶している。同様
に、CPU61Aは、デイスクアレイブロツク63にフ
レーム単位で記録されるオーデイオデータの全記録アド
レスと、記録されるフレームの全タイムコードとを対応
付けた対応表を内蔵メモリに記憶している。従つて外部
からタイムコードを指定しさえすれば、対応表を参照し
て記録アドレスを容易に探し出すことができ、ビデオデ
ータ及びオーデイオデータを速やかに再生することがで
きる。
Further, the CPU 61A manages the recording addresses of the disk array blocks 62 and 63 together with the time code of the data to be recorded, whereby the recording address of the data indicated by the time code can be easily determined based on the time code. To be searchable.
Specifically, the CPU 61A stores in the internal memory a correspondence table in which all recording addresses of video data recorded in the disk array block 62 in frame units are associated with all time codes of the recorded frames. . Similarly, the CPU 61A stores in the internal memory a correspondence table in which all recording addresses of audio data recorded in the disk array block 63 in frame units are associated with all time codes of the recorded frames. Therefore, as long as the time code is designated from the outside, the recording address can be easily searched by referring to the correspondence table, and the video data and the audio data can be quickly reproduced.

【0087】ビデオ系のDMAコントローラ61Bは、
CPU61Aからのコマンドに応じて、データ記録時に
はデータ入出力ブロツク60のバツフアメモリ60Cか
らビデオデータを読み出し、データ再生時にはデータ入
出力ブロツク60のバツフアメモリ60F、60Iにビ
デオデータを書き込む。またビデオ系のSCSIプロト
コルコントローラ61Dは、データ記録時、CPU61
Aからのコマンドと、DMAコントローラ61Bから受
け取つたフレーム単位のビデオデータと、そのビデオデ
ータのフレームに付与されているタイムコードとをSC
SIフオーマツトのデータS67に変換してビデオデー
タ用のデイスクアレイブロツク62に送出し、ビデオデ
ータの記録を当該デイスクアレイブロツク62に指示す
る。またSCSIプロトコルコントローラ61Dは、デ
ータ再生時、デイスクアレイブロツク62から再生され
たSCSIフオーマツトのビデオデータS67を受け取
り、これを元のデータ形式に変換してDMAコントロー
ラ61Bに送出する。
The video DMA controller 61B
In response to a command from the CPU 61A, video data is read from the buffer memory 60C of the data input / output block 60 at the time of data recording, and video data is written to the buffer memories 60F and 60I of the data input / output block 60 at the time of data reproduction. When recording data, the video SCSI protocol controller 61D controls the CPU 61
A, the command from A, the frame-based video data received from the DMA controller 61B, and the time code given to the frame of the video data
The data is converted into SI format data S67 and sent to the disk array block 62 for video data, and the recording of the video data is instructed to the disk array block 62. When reproducing the data, the SCSI protocol controller 61D receives the reproduced SCSI format video data S67 from the disk array block 62, converts it into the original data format, and sends it to the DMA controller 61B.

【0088】同様に、オーデイオ系のDMAコントロー
ラ61Cは、CPU61Aからのコマンドに応じて、デ
ータ記録時にはデータ入出力ブロツク60のバツフアメ
モリ60Kからオーデイオデータを読み出し、データ再
生時にはデータ入出力ブロツク60のバツフアメモリ6
0M、60Pにオーデイオデータを書き込む。またオー
デイオ系のSCSIプロトコルコントローラ61Eは、
データ記録時、CPU61Aからのコマンドと、DMA
コントローラ61Cから受け取つたフレーム単位のオー
デイオデータと、そのオーデイオデータのフレームに付
与されているタイムコードとをSCSIフオーマツトの
データS68に変換してオーデイオデータ用のデイスク
アレイブロツク63に送出し、オーデイオデータの記録
を当該デイスクアレイブロツク63に指示する。またS
CSIプロトコルコントローラ61Eは、データ再生
時、デイスクアレイブロツク63から再生されたSCS
IフオーマツトのオーデイオデータS68を受け取り、
これを元のデータ形式に変換してDMAコントローラ6
1Cに送出する。
Similarly, the audio DMA controller 61C reads the audio data from the buffer memory 60K of the data input / output block 60 at the time of data recording, and reads the audio data from the buffer memory 60K of the data input / output block 60 at the time of data reproduction, in response to a command from the CPU 61A.
Write audio data to 0M and 60P. Also, the audio system SCSI protocol controller 61E
At the time of data recording, a command from the CPU 61A and a DMA
The audio data in frame units received from the controller 61C and the time code assigned to the frame of the audio data are converted into SCSI format data S68 and sent to the disk array block 63 for audio data, and are transmitted to the disk array block 63 for audio data. The recording is instructed to the disk array block 63. Also S
When reproducing data, the CSI protocol controller 61E reproduces the SCS reproduced from the disk array block 63.
Receiving audio data S68 of I format,
This is converted to the original data format and the DMA controller 6
Send to 1C.

【0089】ビデオデータ用のデイスクアレイブロツク
62及びオーデイオデータ用のデイスクアレイブロツク
63は、それぞれ内部に複数のハードデイスクを有した
デイスクアレイ装置からなり、その複数のバードデイス
クを並列的に同時運転してビデオデータやオーデイオデ
ータを記録するようになされている。またデイスクアレ
イブロツク62及び63は、データを記録するときに冗
長性を持たせて記録するようになされており、これによ
りデイスクアレイ装置内のいずれかのハードデイスクが
故障した場合でも、故障したハードデイスクに記録され
ていたデータを復旧(再構築動作ともいう)し得るよう
になされている。なお、このようなデータの再構築機能
を有するデイスクアレイ装置は、一般に、RAID(Re
dandantArray of Inexpensive Disks)と呼ばれてい
る。
The disk array block 62 for video data and the disk array block 63 for audio data are each composed of a disk array device having a plurality of hard disks therein. Video data and audio data are recorded. The disk array blocks 62 and 63 are designed to record data with redundancy when recording data, so that even if one of the hard disks in the disk array device fails, the failed hard disk can be used. The recorded data can be restored (also referred to as a reconstruction operation). Incidentally, a disk array device having such a data reconstructing function is generally equipped with a RAID (Re-
dandantArray of Inexpensive Disks).

【0090】ここでこのようなデイスクアレイブロツク
62、63について、以下に図を用いて具体的に説明す
る。但し、デイスクアレイブロツク62、63は基本的
に同一の構成を有しているので、ここではデイスクアレ
イブロツク62についてのみ説明する。図9に示すよう
に、デイスクアレイブロツク62は、大きく分けてバツ
フアメモリ62Aと、デイスクアレイコントローラ62
Bと、データマルチプレクサ62Cと、パリテイ演算回
路62Dと、複数のSCSIプロトコルコントローラ6
2E〜62Iと、複数のハードデイスク62J〜62N
とからなつている。
Here, such disk array blocks 62 and 63 will be specifically described with reference to the drawings. However, since the disk array blocks 62 and 63 have basically the same configuration, only the disk array block 62 will be described here. As shown in FIG. 9, the disk array block 62 is roughly divided into a buffer memory 62A and a disk array controller 62.
B, a data multiplexer 62C, a parity operation circuit 62D, and a plurality of SCSI protocol controllers 6
2E to 62I and a plurality of hard disks 62J to 62N
It is made up of

【0091】バツフアメモリ62Aはデータの一時記憶
用のメモリであり、図8に示したシステムコントロール
ブロツク61から送出されるSCSIフオーマツトのデ
ータS67を順次受け取つて記憶すると共に、データ再
生時には後述するデータマルチプレクサ62Cから送ら
れてくるデータをデータ送出に伴つて一時的に記憶す
る。
The buffer memory 62A is a memory for temporarily storing data. The buffer memory 62A sequentially receives and stores the SCSI format data S67 transmitted from the system control block 61 shown in FIG. Is temporarily stored with the data transmission.

【0092】デイスクアレイコントローラ62Bは、こ
のデイスクアレイブロツク62における記録動作や再生
動作等、ブロツク全体の動作を制御する回路である。こ
のデイスクアレイコントローラ62Bは、バツフアメモ
リ62Aに記憶されているデータのうちシステムコント
ロールブロツク61からの制御コマンドに関するデータ
をコマンドデータバス62Pを介して受け取り、その制
御コマンドに対応したコマンドデータをコマンドデータ
バス62Pを介してデータマルチプレクサ62C、SC
SIプロトコルコントローラ62E〜62I及びハード
デイスク62J〜62Nに送出することにより各部の動
作を制御する。
The disk array controller 62B is a circuit for controlling the entire operation of the disk array block 62, such as the recording operation and the reproducing operation. The disk array controller 62B receives data related to a control command from the system control block 61 among the data stored in the buffer memory 62A via a command data bus 62P, and sends command data corresponding to the control command to the command data bus 62P. Multiplexor 62C, SC
The operation of each unit is controlled by transmitting the data to the SI protocol controllers 62E to 62I and the hard disks 62J to 62N.

【0093】データマルチプレクサ62Cは、データ記
録時、ビデオデータ等の記録対象のデータをバツフアメ
モリ62Aから読み出して当該データをSCSIプロト
コルコントローラ62E〜62Hを介して各ハードデイ
スク62J〜62Mに振り分けると共に、振り分けたデ
ータ内容をパリテイ演算回路62Dに通知する。またデ
ータマルチプレクサ62Cは、データ再生時、各ハード
デイスク62J〜62Mから再生されたデータを1つに
まとめてバツフアメモリ62Aに送出すると共に、ハー
ドデイスク62J〜62Mの損傷等により再生できなか
つたデータがあるのであればパリテイ演算回路62Dか
ら供給されるパリテイデータを基にそのデータを再構築
演算によつて再生する。
At the time of data recording, the data multiplexer 62C reads data to be recorded such as video data from the buffer memory 62A, distributes the data to the hard disks 62J to 62M via the SCSI protocol controllers 62E to 62H, and distributes the distributed data. The content is notified to the parity operation circuit 62D. When reproducing data, the data multiplexer 62C combines the data reproduced from each of the hard disks 62J-62M into one and sends it to the buffer memory 62A, and if there is any data that could not be reproduced due to damage to the hard disks 62J-62M. For example, based on the parity data supplied from the parity operation circuit 62D, the data is reproduced by a reconstruction operation.

【0094】パリテイ演算回路62Pは、データ記録
時、データマルチプレクサ62Cが振り分けたデータ内
容に基づいてそれらのデータのパリテイデータを演算
し、当該パリテイデータをSCSIプロトコルコントロ
ーラ62Iを介してハードデイスク62Nに供給する。
またパリテイ演算回路62Pは、データ再生時、ハード
デイスク62J〜62Mから再生できないデータがある
のであれば、ハードデイスク62Nから再生したパリテ
イデータをデータマルチプレクサ62Cに送出する。
At the time of data recording, the parity calculation circuit 62P calculates parity data of the data based on the data contents distributed by the data multiplexer 62C, and transfers the parity data to the hard disk 62N via the SCSI protocol controller 62I. Supply.
When reproducing data, if there is data that cannot be reproduced from the hard disks 62J to 62M during data reproduction, the parity operation circuit 62P sends the parity data reproduced from the hard disk 62N to the data multiplexer 62C.

【0095】SCSIプロトコルコントローラ62E〜
62Iは、データ記録時、データマルチプレクサ62C
から供給された記録対象のデータ又はパリテイ演算回路
62Pから供給されたパリテイデータをハードデイスク
62J〜62Nの記録フオーマツトに合つたデータ形式
に変換し、当該変換されたデータをハードデイスク62
J〜62Nに送出する。またSCSIプロトコルコント
ローラ62E〜62Iは、データ再生時、各ハードデイ
スク62J〜62Nから再生されたデータをSCSIフ
オーマツトのデータ形式に変換し、これをデータマルチ
プレクサ62C又はパリテイ演算回路62Pに送出す
る。
The SCSI protocol controller 62E ~
62I is a data multiplexer 62C when recording data.
And the parity data supplied from the parity operation circuit 62P is converted into a data format suitable for the recording format of the hard disks 62J to 62N, and the converted data is converted to the hard disk 62.
J to 62N. When reproducing data, the SCSI protocol controllers 62E to 62I convert the data reproduced from each of the hard disks 62J to 62N into a SCSI format data format and send it to the data multiplexer 62C or the parity operation circuit 62P.

【0096】因みに、SCSIプロトコルコントローラ
62E〜62Iは、ハードデイスク62J〜62Nをア
クセスした際に当該ハードデイスク62J〜62Nの故
障等によりデータ再生ができないことが検出された場合
には、その検出結果をデイスクアレイコントローラ62
Bに送出するようになされており、これによりデイスク
アレイコントローラ62Bからデータマルチプレクサ6
2Cにデータ再構築を指示し得るようになされている。
Incidentally, if the SCSI protocol controllers 62E to 62I detect that the data cannot be reproduced due to a failure of the hard disks 62J to 62N when accessing the hard disks 62J to 62N, the SCSI protocol controllers 62E to 62I transmit the detection result to the disk array. Controller 62
B, so that the data multiplexer 6 transmits data from the disk array controller 62B to the data multiplexer 6B.
2C can be instructed to reconstruct data.

【0097】ハードデイスク62J〜62Nは、ビデオ
データ等の記録対象のデータを分散して並列的に記録す
るためのデータ記憶手段である。この例では、4つのハ
ードデイスク62J〜62Mを設けてデータを分散する
ようになつているが、この数は特に限定されるものでは
ない。このハードデイスク62J〜62Mは、データ記
録時、SCSIプロトコルコントローラ62E〜62H
から供給されるデータを順次所望の記録エリアに記録す
ると共に、データ再生時にはデータを順次読み出してS
CSIプロトコルコントローラ62E〜62Hに送出す
る。このように複数のハードデイスク62J〜62Mを
設けてデータを分散して記録するようにしたことによ
り、このデイスクアレイブロツク62ではビデオデータ
等のような大容量のデータであつても確実に記録するこ
とができる。
The hard disks 62J to 62N are data storage means for distributing recording data such as video data and recording the data in parallel. In this example, four hard disks 62J to 62M are provided to distribute data, but the number is not particularly limited. The hard disks 62J to 62M are used for storing the SCSI protocol controllers 62E to 62H during data recording.
Is sequentially recorded in a desired recording area, and at the time of data reproduction, the data is sequentially read and
It is sent to the CSI protocol controllers 62E to 62H. By providing a plurality of hard disks 62J-62M and distributing and recording data, the disk array block 62 can reliably record even large-capacity data such as video data. Can be.

【0098】またハードデイスク62Nは、記録対象の
データを基に算出したパリテイデータを記録するための
データ記憶手段である。このハードデイスク62Nは、
データ記録時、SCSIプロトコルコントローラ62I
から供給されるパリテイデータを順次所望の記録エリア
に記録すると共に、データ再生時にはパリテイデータを
順次読み出してSCSIプロトコルコントローラ62I
に送出する。このように記録対象のデータを基に算出し
たパリテイデータを、当該記録対象のデータを記録する
ハードデイスク62J〜62Mとは別のハードデイスク
62Nに記録するようにしたことにより、故障等によつ
てハードデイスク62J〜62Mからデータを再生でき
ない場合でも、当該パリテイデータを基にデータを再構
築することができる。
The hard disk 62N is data storage means for recording parity data calculated based on data to be recorded. This hard disk 62N
When recording data, the SCSI protocol controller 62I
Is sequentially recorded in a desired recording area, and at the time of data reproduction, the parity data is sequentially read and read by the SCSI protocol controller 62I.
To send to. As described above, the parity data calculated based on the data to be recorded is recorded on a hard disk 62N different from the hard disks 62J to 62M for recording the data to be recorded. Even when the data cannot be reproduced from 62J to 62M, the data can be reconstructed based on the parity data.

【0099】ここでこのデータ再構築の原理について説
明する。まずデータマルチプレクサ62Cによつて割り
振られたデータのうちハードデイスク62Jに割り振ら
れたデータをD0、ハードデイスク62Kに割り振られ
たデータをD1、ハードデイスク62Lに割り振られた
データをD2、ハードデイスク62Mに割り振られたデ
ータをD3とし、パリテイ演算回路62Pによつて算出
されたパリテイデータをPDとする。
Here, the principle of the data reconstruction will be described. First, among the data allocated by the data multiplexer 62C, the data allocated to the hard disk 62J is D0, the data allocated to the hard disk 62K is D1, the data allocated to the hard disk 62L is D2, and the data allocated to the hard disk 62M. Is D3, and the parity data calculated by the parity operation circuit 62P is PD.

【0100】パリテイ演算回路62P内部には、図10
(A)に示すような論理演算手段70が設けられてお
り、当該論理演算手段70によつてパリテイデータを算
出するようになされている。この論理演算手段70は、
ハードデイスク62Jに割り振られたデータD0と、ハ
ードデイスク62Kに割り振られたデータD1と、ハー
ドデイスク62Lに割り振られたデータD2と、ハード
デイスク62Mに割り振られたデータD3とを加算し、
その加算結果が偶数であれば値「1」のパリテイデータ
PDを出力し、加算結果が奇数であれば値「0」のパリ
テイデータを出力する。因みに、加算結果が「0」であ
る場合には、偶数と見なして値「1」のパリテイデータ
PDを出力する。
In the parity operation circuit 62P, FIG.
A logical operation means 70 as shown in FIG. 1A is provided, and the logical operation means 70 calculates parity data. This logical operation means 70
The data D0 allocated to the hard disk 62J, the data D1 allocated to the hard disk 62K, the data D2 allocated to the hard disk 62L, and the data D3 allocated to the hard disk 62M are added.
If the addition result is an even number, parity data PD with a value "1" is output, and if the addition result is odd, parity data with a value "0" is output. Incidentally, when the addition result is “0”, the parity data PD having the value “1” is output assuming that the addition result is an even number.

【0101】具体的には、図10(B)に示すように、
例えばデータD0〜D3が全て値「0」の場合には、論
理演算手段70は加算結果が「0」となるので値「1」
なるパリテイデータPDを出力し、データD0〜D2が
値「0」でデータD3が値「1」の場合には、加算結果
が「1」となるので値「0」なるパリテイデータPDを
出力する。以下、同様の原理でその他のデータの組み合
わせについても、図10(B)の図表のようなパリテイ
データPDを出力する。このように算出されたパリテイ
データPDは、上述したようにSCSIプロトコルコン
トローラ62Iを介してハードデイスク62Nに記録さ
れる。
Specifically, as shown in FIG.
For example, when the data D0 to D3 are all “0”, the logical operation means 70 adds “0” because the addition result is “0”.
When the data D0 to D2 are the value “0” and the data D3 is the value “1”, the addition result becomes “1”, so the parity data PD having the value “0” is output. Output. Hereinafter, the parity data PD as shown in the table of FIG. 10B is output for other data combinations based on the same principle. The parity data PD calculated in this manner is recorded on the hard disk 62N via the SCSI protocol controller 62I as described above.

【0102】ここで再生時にハードデイスク62Lの故
障で当該ハードデイスク62Lに記録されているデータ
D2が再生できなかつたとすると、デイスクアレイコン
トローラ62Bは、SCSIプロトコルコントローラ6
2Gからの再生不可の検出結果を受けて、データマルチ
プレクサ62Cにパリテイデータによるデータ再構築を
指示する。これを受けたデータマルチプレクサ62C
は、図11(A)に示すように、内部に設けられた論理
演算手段71に対してハードデイスク62Jから再生さ
れたデータD0、ハードデイスク62Kから再生された
データD1、ハードデイスク62Mから再生されたデー
タD3及びハードデイスク62Nから再生されたパリテ
イデータPDを入力し、当該論理演算手段71によつて
データD2の再構築のための演算を実行する。この論理
演算手段71は、パリテイデータPDを算出する論理演
算手段70と同様に、入力されるデータD0、D1、D
3及びパリテイデータPDを加算し、その加算結果が偶
数であれば値「1」の再構築データ(D2)を出力し、
加算結果が奇数であれば値「0」の再構築データ(D
2)を出力する。
Here, if the data D2 recorded on the hard disk 62L cannot be reproduced due to a failure of the hard disk 62L during reproduction, the disk array controller 62B
In response to the detection result of the reproduction failure from the 2G, the data multiplexer 62C is instructed to reconstruct the data by the parity data. Data multiplexer 62C receiving this
As shown in FIG. 11A, data D0 reproduced from the hard disk 62J, data D1 reproduced from the hard disk 62K, and data D3 reproduced from the hard disk 62M are supplied to the logical operation means 71 provided therein. Then, the parity data PD reproduced from the hard disk 62N is input, and the logical operation means 71 executes an operation for reconstructing the data D2. The logical operation means 71 receives the input data D0, D1, and D similarly to the logical operation means 70 for calculating the parity data PD.
3 and the parity data PD are added, and if the addition result is an even number, reconstructed data (D2) having a value “1” is output;
If the addition result is an odd number, the reconstructed data (D
Output 2).

【0103】具体的には、図11(A)に示すように、
例えばデータD0、D1、D3が値「0」でパリテイデ
ータPDが値「1」の場合には、論理演算手段71は加
算結果が「1」となるので値「0」なる再構築データ
(D2)を出力し、データD0、D1、PDが値「0」
でデータD3が値「1」の場合には、加算結果が同じく
「1」となるので値「0」なる再構築データ(D2)を
出力する。以下、同様の原理でその他のデータの組み合
わせについても、図11(B)の図表のような再構築デ
ータ(D2)を出力する。この図11(B)と先の図1
0(B)を対比させれば分かるように、ハードデイスク
62Lの故障により再生できなかつたデータD2が正確
に復元できている。
More specifically, as shown in FIG.
For example, when the data D0, D1, and D3 have a value of “0” and the parity data PD has a value of “1”, the logical operation means 71 adds “1” to the reconstructed data (“0”). D2), and the data D0, D1, and PD have the value “0”.
When the data D3 has the value "1", the addition result is also "1", so that the reconstructed data (D2) having the value "0" is output. Hereinafter, reconstructed data (D2) as shown in the chart of FIG. 11B is output for other combinations of data based on the same principle. FIG. 11B and FIG.
As can be seen by comparing 0 (B), the data D2 that could not be reproduced due to the failure of the hard disk 62L has been accurately restored.

【0104】このようにしてこのデイスクアレイブロツ
ク62では、データ記録時、記録対象のデータD0〜D
3を基にパリテイデータPDを算出してハードデイスク
62Nに当該パリテイデータPDを記録するようにした
ことにより、データ再生時にハードデイスク62J、6
2K、62L又は62Mの故障によりデータD0、D
1、D2又はD3が再生できなかつた場合でも、当該パ
リテイデータPDを基に再生できなかつたデータD0、
D1、D2又はD3を確実に復元し得る。
As described above, in the disk array block 62, at the time of data recording, data D0 to D
3, the parity data PD is calculated on the basis of the parity data PD, and the parity data PD is recorded on the hard disk 62N.
Data D0, D due to 2K, 62L or 62M failure
Even if the data D1, D2, or D3 cannot be reproduced, the data D0, D0,
D1, D2 or D3 can be reliably restored.

【0105】(2)プログラム編集 (2−1)プログラム編集用アプリケーシヨン・ソフト
ウエア プログラム編集を実行する場合、編集装置1において
は、まずコンピユータ2によりプログラム編集用のアプ
リケーシヨン・ソフトウエアをHDD24Dより読み出
して起動し、この結果モニタ2Bに表示される所定の入
力画面にてプログラム名を入力することによつてモニタ
2B上に図12に示すようなプログラムの編集用画面9
0を表示させる。
(2) Program Editing (2-1) Program Editing Application Software When executing program editing, the editing device 1 first uses the computer 2 to send program editing application software from the HDD 24D. The program is read out and started, and the program name is input on a predetermined input screen displayed on the monitor 2B. As a result, a program editing screen 9 as shown in FIG.
Display 0.

【0106】プログラム編集する場合の編集用画面90
は、ビユーアウインドウ92、ログウインドウ93及び
プログラムウインドウ94の3つのウインドウを表示す
るようになされ、これら3つのウインドウでの入力操作
によりプログラムを編集する。実際、プログラムの編集
作業は、ビユーアウインドウ92において選択されたソ
ースデバイスより読み出される編集素材に対してイン点
及びアウト点を設定して所望の長さに切り取り、その切
り取つた編集素材(以下、これをイベントと呼ぶ)に関
する情報をフアイルに格納する。そしてログウインドウ
93にその切り取つたイベントのスタンプ画をクリツプ
として貼り付ける。このような作業を繰り返すことによ
つてログウインドウ93上に複数の切り取りイベントを
集めることができる。もちろんこの場合、ログウインド
ウ93には1つのイベントだけを登録するようにしても
良い。
Editing screen 90 for program editing
Displays three windows, a viewer window 92, a log window 93, and a program window 94, and edits a program by an input operation in these three windows. Actually, the editing operation of the program is performed by setting an in-point and an out-point for the editing material read out from the source device selected in the view window 92, cutting the editing material into a desired length, and cutting the editing material (hereinafter, referred to as “cut”). This information is referred to as an event). Then, the stamp image of the cut event is pasted on the log window 93 as a clip. By repeating such operations, a plurality of cut events can be collected on the log window 93. Of course, in this case, only one event may be registered in the log window 93.

【0107】ビユーアウインドウ92より切り取つた編
集素材に対する編集作業としては、ログウインドウ93
に集められたイベントの中から所望のイベントを選択し
てプログラムウインドウ94の上に設けられたタイムラ
イン95に並べて継ぎ合わせ編集する他、タイムライン
95上に並べられたイベントに対してアニメーシヨン・
エフエクト又はトランジシヨン・エフエクト等ビデオエ
フエクトを設定する等の編集作業を実行し得るようにな
されている。
The editing work on the editing material cut out from the view window 92 includes a log window 93
A desired event is selected from the events collected in the program window 94 and arranged on a timeline 95 provided on the program window 94 to be jointly edited.
An editing operation such as setting a video effect such as an effect or a transition effect can be executed.

【0108】タイムライン95は、デイリーサーバ6や
ローカルストレージ8等のソースデバイスから読み出し
た複数のイベント各々をタイムコードに対応付けてライ
ンとして表示するようにしたプログラムデータ編集領域
である。
The time line 95 is a program data editing area in which a plurality of events read from source devices such as the daily server 6 and the local storage 8 are displayed as lines in association with time codes.

【0109】このビユーアウインドウ92は、ソースデ
バイスから読み出した編集素材又はプログラムウインド
ウ94のタイムライン95に並べられたイベントを再生
するデバイスコントロール部96を設けており、当該デ
バイスコントロール部96を介した制御によつて編集素
材を再生しながら編集作業を実行することができる。ま
たタイムライン95上に並べられたイベントに対して
は、イン点及びアウト点を設定することによつてイベン
ト長を所望の長さに設定しなおすこともできる。
The view window 92 is provided with a device control section 96 for playing back the edited material read from the source device or the events arranged on the timeline 95 of the program window 94. The editing operation can be executed while reproducing the editing material by the control. For the events arranged on the timeline 95, the event length can be reset to a desired length by setting the in point and the out point.

【0110】因みに編集用画面90においては、画面上
に読み出されたウインドウが現在、実行対象の場合、す
なわちウインドウがアクテイブのときウインドウのタイ
トルバー98を非アクテイブのときの表示色である灰色
から青色に変化させる。このようにタイトルバー92の
表示をアクテイブ又は非アクテイブに応じて色別表示す
るようにしたことによりウインドウがアクテイブである
か否かを視覚により容易に識別し得るようになされてい
る。
On the editing screen 90, when the window read on the screen is the current execution target, that is, when the window is active, the title bar 98 of the window is changed from the gray color which is the display color when the window is inactive. Change to blue. As described above, the title bar 92 is displayed in different colors depending on whether it is active or inactive, so that it is possible to easily visually recognize whether or not the window is active.

【0111】(2−2)ビユーアウインドウの構成 図13に示すようにビユーアウインドウ92は、ソース
デバイスとして選択された編集素材を画像表示するため
の窓としてビユーア106を表示すると共に、ビユーア
ウインドウ92に読み出した編集素材に対して設定した
イン点のスタンプ画像を表示するイン点画像表示部11
0及び編集素材に対して設定したアウト点のスタンプ画
像を表示するアウト点画像表示部112を表示するよう
になされている。
(2-2) Configuration of View Window As shown in FIG. 13, the view window 92 displays the viewer 106 as a window for displaying an image of the edited material selected as the source device, and also displays the viewer. In-point image display section 11 for displaying the stamp image of the in-point set for the edited material read out in window 92
An out-point image display unit 112 for displaying the stamp image of the out-point set for 0 and the editing material is displayed.

【0112】因みにイン点画像表示部110の下部には
当該イン点画像表示部110に表示されているスタンプ
画像のタイムコードを表示するイン点タイムコード表示
欄111が表示される。またアウト点画像表示部112
の下部にも当該アウト点画像表示部112に表示されて
いるスタンプ画像のタイムコードを表示するアウト点タ
イムコード表示欄113が表示される。さらにビユーア
ウインドウ92は、選択素材の長さ、すなわち編集開始
点から編集終了点までの長さ(Duration)を表示するDU
R表示欄114等の表示部を表示するようになされてい
る。
By the way, below the in-point image display section 110, an in-point time code display column 111 for displaying the time code of the stamp image displayed on the in-point image display section 110 is displayed. Out point image display unit 112
The lower part of the display also shows an out point time code display field 113 for displaying the time code of the stamp image displayed on the out point image display section 112. Further, the viewer window 92 includes a DU for displaying the length of the selected material, that is, the length (Duration) from the editing start point to the editing end point.
A display unit such as an R display field 114 is displayed.

【0113】ビユーアウインドウ92においては、表示
されるデイリーサーバ6、VTR7、ローカルストレー
ジ8、補助入力部AUX及び内部入力INTの各ソース
デバイスにアサインされたソース選択ボタン102(1
02A〜102E)の内いずれかを選択してクリツクす
ることにより、デイリーサーバ6、VTR7、ローカル
ストレージ8、補助入力部AUX及び内部入力INTの
いずれかをソースデバイスとして選択し得るようになさ
れている。
In the view window 92, the source selection buttons 102 (1) assigned to the source devices of the daily server 6, VTR 7, local storage 8, auxiliary input unit AUX and internal input INT to be displayed are displayed.
02A to 102E), and by clicking, any one of the daily server 6, VTR 7, local storage 8, auxiliary input unit AUX and internal input INT can be selected as a source device. .

【0114】因に後述するように、補助入力部AUXは
複数のソースを有するもので、現在、補助入力部AUX
として設定されている補助入力部(AUX1〜AUX
n)内のいずれかの入力部名がソース選択ボタン102
Dに表示される。
As will be described later, the auxiliary input unit AUX has a plurality of sources.
Auxiliary input units (AUX1 to AUX
If any input part name in n) is the source selection button 102
D is displayed.

【0115】ソース選択ボタン102の選択によつてソ
ースデバイスが選択されると、当該ソースデバイスより
コンピユータ2に素材のフアイルが読み出される。ここ
で選択したソース選択ボタン102を再度クリツクする
ことにより、図14(A)に示すようなフアイルリスト
103A又は図14(B)に示すようなソースリスト1
03Bを画面表示させることができる。この場合、フア
イルリスト103Aは、デイリーサーバ6又はローカル
ストレージ8内に収納されているフアイルのフアイルリ
ストが表示され、またソースリスト103Bには、補助
入力部AUX素材の入力部のリストが表示される。ここ
でマウスによつて各フアイルリスト103A又はソース
リスト103B内の所望のフアイル名又はソースにカー
ソルを合わせてクリツクすることによりフアイル又はソ
ースをそれぞれ選択した後、「OK」ボタン103Cを
クリツクすることにより選択したフアイル又はソースを
ソースデバイスよりコンピユータ2に読み出すようにな
されている。
When a source device is selected by selecting the source selection button 102, a file of the material is read from the source device to the computer 2. By clicking again on the selected source selection button 102, the file list 103A shown in FIG. 14A or the source list 1 shown in FIG.
03B can be displayed on the screen. In this case, the file list 103A displays a file list of files stored in the daily server 6 or the local storage 8, and the source list 103B displays a list of input units of the auxiliary input unit AUX material. . Here, the file or source is selected by moving the cursor to a desired file name or source in each file list 103A or source list 103B with a mouse and clicking, respectively, and then clicking an "OK" button 103C. The selected file or source is read out to the computer 2 from the source device.

【0116】ここでフアイルリスト103A又はソース
リスト103Bにおいては、「Cancel」ボタン1
03Dをクリツクすることにより、選択したフアイルリ
スト103A又はソースリスト103Bを取り消すこと
ができる。
Here, in the file list 103A or the source list 103B, the “Cancel” button 1
By clicking on 03D, the selected file list 103A or source list 103B can be canceled.

【0117】また選択したソースデバイスが内部入力I
NTの場合、ソース選択ボタン102Eを再びクリツク
すると、ビデオ編集用画面90上に図15に示すような
マツトダイアログ104が表示される。マツトダイアロ
グ104は、色信号をパネル形式のボタンに階調表示し
た基礎カラー(Basic Color) 104A又はフエイバレツ
トカラー104B(Favorite Color)において、所望の色
信号をクリツクすることにより選択し、当該色信号によ
る色をビユーア104Cに表示するようにしている。ま
た例えばタイル模様等の模様をパターン入力部105A
にパターン番号を入力することにより読み出すことがで
きる。
When the selected source device is the internal input I
In the case of NT, when the source selection button 102E is clicked again, a mat dialog 104 as shown in FIG. The mat dialog 104 is selected by clicking on a desired color signal in a basic color (Basic Color) 104A or a favorite color 104B (Favorite Color) in which a color signal is displayed as a gradation on a panel-type button, and the color is selected. The color according to the signal is displayed on the viewer 104C. For example, a pattern such as a tile pattern is input to the pattern input unit 105A.
Can be read out by inputting the pattern number into.

【0118】また選択した色信号は、色信号変更部10
4Dにおいて「Hue」(Hue) 色相を360 段階、「Sa
t」(Saturation)彩度、及び「Lum」(Luminance) 輝
度をそれぞれテンキー入力によつて101 段階で設定する
ことができ、さらに赤、緑、青の3原色を256 段階でテ
ンキー入力によつて設定又は修正し得るようになされて
いる。
The selected color signal is supplied to the color signal changing unit 10.
In 4D, "Hue" (Hue) hue is set in 360 steps, "Sa"
"t" (Saturation) saturation and "Lum" (Luminance) luminance can be set in 101 steps by ten key input, and three primary colors of red, green and blue can be set in 256 steps by ten key input. It can be set or modified.

【0119】ビユーアウインドウ92においては、ソー
スデバイスより読み出した編集素材の画像を画像表示用
窓であるビユーア106に表示すると共に、素材名欄1
07には選択した編集素材名、タイムコード表示欄10
8にはビユーア106に表示されている素材のタイムコ
ードを、さらにステイタス欄109にはビユーアウイン
ドウ92の状況(ステイタス)をそれぞれ表示するよう
になされている。ここでウインドウ100のステイタス
表示が「OPEN」となると、デバイスコントロール部
96によるデバイスコントロールによつて選択された素
材に対するデバイスコントロールが実行可能な状態に設
定されていることを示している。
In the view window 92, the image of the edited material read from the source device is displayed on the view 106, which is an image display window, and the material name column 1 is displayed.
07 shows the name of the selected edited material and the time code display column 10
8 displays the time code of the material displayed on the viewer 106, and the status column 109 displays the status (status) of the viewer window 92. Here, when the status display in the window 100 becomes “OPEN”, it indicates that the device control for the material selected by the device control by the device control unit 96 is set to be executable.

【0120】実際、タイムコード表示欄108をクリツ
クすることにより、当該タイムコード表示欄108を入
力モードに設定することができ、ここでタイムコード表
示欄108に素材の所望の位置のタイムコードを入力し
てエンターキーを入力することにより、素材の所望の位
置をタイムコードに応じて探し出す(サーチ)ことがで
きる。
In fact, by clicking on the time code display field 108, the time code display field 108 can be set to the input mode. Then, by inputting the enter key, a desired position of the material can be searched for according to the time code.

【0121】ここで、ステイタス欄109にテンキー入
力により再生速度を入力すると、当該再生速度でデバイ
スを再生モードに設定することができる。このとき再生
中の素材の所望位置において、マークインボタン115
をクリツク入力することにより、その位置にイン点が設
定されると共に、スタンプ画とタイムコードが取り込ま
れてそれぞれイン点画像表示部110とイン点タイムコ
ード表示欄111とに表示される。
Here, when the playback speed is input to the status column 109 by inputting numeric keys, the device can be set to the playback mode at the playback speed. At this time, at the desired position of the material being reproduced, the mark-in button 115
Is clicked to set an in-point at that position, a stamp image and a time code are fetched and displayed in the in-point image display section 110 and the in-point time code display section 111, respectively.

【0122】同様にして、再生中の素材の所望位置にお
いて、マークアウトボタン116をクリツク入力するこ
とにより、その位置にアウト点が設定されると共に、ス
タンプ画とタイムコードが取り込まれてそれぞれアウト
点画像表示部112とアウト点タイムコード表示欄11
3とに表示される。
Similarly, by clicking the mark-out button 116 at the desired position of the material being reproduced, an out point is set at that position, and a stamp image and a time code are taken in to the out point. Image display section 112 and out point time code display section 11
3 is displayed.

【0123】ここでイン点タイムコード表示欄111を
クリツクすることによつてイン点タイムコード表示欄1
11をタイムコードの入力モードにかえることができ、
このときイン点タイムコード表示欄111に目的のタイ
ムコード値をテンキー入力することにより入力タイムコ
ードに対応する素材データの画像をイン点画像として読
み出し、イン点画像表示部110に表示させることもで
きる。
Here, by clicking the in-point time code display field 111, the in-point time code display field 1 is displayed.
11 can be changed to the time code input mode,
At this time, by inputting a desired time code value into the in-point time code display field 111 using a numeric keypad, an image of the material data corresponding to the input time code can be read out as an in-point image and displayed on the in-point image display unit 110. .

【0124】同様にしてアウト点タイムコード表示欄1
13をクリツクすることによつてアウト点タイムコード
表示欄113をタイムコードの入力モードにかえること
ができ、このときアウト点タイムコード表示欄113に
目的のタイムコード値をテンキー入力することにより入
力タイムコードに対応する素材データの画像をアウト点
画像として読み出し、アウト点画像表示部112に表示
させることもできる。
Similarly, out point time code display column 1
By clicking the button 13, the out-point time code display field 113 can be changed to a time code input mode. At this time, by inputting a desired time code value into the out-point time code display field 113 using the numeric keypad, the input time can be changed. An image of the material data corresponding to the code may be read out and displayed on the out-point image display unit 112.

【0125】このようにして編集素材に対してイン点及
びアウト点を設定して切り取つたビユーアウインドウ9
2上の素材を、タイムライン95上に並べる前にプレビ
ユボタン117をクリツクすることによりタイムライン
上に並べられた場合と同じ様にプレビユさせることがで
きる。これによりビユーアウインドウ92で切り取つた
素材の内容をタイムライン95上に貼り付ける前にプレ
ビユによつて確認し得る。
The view window 9 cut out by setting the in-point and the out-point for the editing material in this way
By clicking the preview button 117 before arranging the materials on the timeline 95 on the timeline 95, the materials can be previewed in the same manner as when they are arranged on the timeline. Thus, the contents of the material cut out in the view window 92 can be confirmed by preview before pasting on the timeline 95.

【0126】ビユーアウインドウ92においては、デバ
イスコントロール部96の制御対象がビユーアウインド
ウ92にあるときには、選択したソースデバイスから読
み出した編集素材をビユーア106にてモニタしなが
ら、再生ボタン119Aをクリツクすることにより再生
し得る。またデバイスコントロール部96においては編
集素材をスチルボタン119Bによつてスチル再生する
こともできるようになされている。
In the view window 92, when the object to be controlled by the device control section 96 is in the view window 92, the reproduction button 119A is clicked while the editing material read from the selected source device is monitored by the viewer 106. Can be regenerated. In the device control section 96, the edited material can be reproduced as a still by using the still button 119B.

【0127】デバイスコントロール部96は、スライダ
(Slider)部120及びジヨグシヤトル部121の2つの
制御部を有し、スライダ部120においては、イベント
の長さを示すデユレーシヨン表示部120Aの範囲内に
おいてスライダ120Bの表示される位置によつて、現
在、再生中のフアイルの現在位置を表すと共に、当該ス
ライダ120Bをマウス2Dによつてデユレーシヨン表
示部120Aの任意の位置にドラツグ・アンド・ドロツ
プすることによつてフアイルの所望の位置をサーチする
ようになされている。
The device control section 96 includes a slider
The slider unit 120 includes a (Slider) unit 120 and a jog shuttle unit 121. In the slider unit 120, the current position of the slider 120B is determined based on the position where the slider 120B is displayed within the range of the duration display unit 120A indicating the length of the event. The slider 120B is displayed by dragging and dropping the slider 120B to an arbitrary position of the duration display section 120A with the mouse 2D, and a desired position of the file is searched. It has been done.

【0128】またスライダ部120においては、矢印ボ
タン120C又は120Dをクリツクすることにより、
フアイルの位置をそれぞれ±1フレームずつ前後に移動
させることができるようになされている。因みにスライ
ダ部120は、デイリーサーバ6又はローカルストレー
ジ8等のデイスク記憶媒体からのフアイル読み出しの場
合の他は表示されない。
In the slider section 120, by clicking the arrow buttons 120C or 120D,
The file position can be moved back and forth by ± 1 frame each. Incidentally, the slider section 120 is not displayed except for reading a file from a disk storage medium such as the daily server 6 or the local storage 8.

【0129】またジヨグシヤトル部121においては、
シヤトルボタン121Aをクリツクすることによつてい
わゆるシヤトルモードを設定し、当該シヤトルモードに
おいてシヤトルボタン121B又は121Cを押すこと
によつて、シヤトルボタン121B又は121Cをクリ
ツクする毎にデバイスのサーチ速度を−50倍速から+50
倍速範囲で可変に設定してフアイル内のデータをサーチ
するようになされている。
Further, in the jog shuttle portion 121,
By clicking the shuttle button 121A, a so-called shuttle mode is set. By pressing the shuttle button 121B or 121C in the shuttle mode, the search speed of the device is reduced by -50 each time the shuttle button 121B or 121C is clicked. Double speed to +50
The data in the file is searched by being set variably in the double speed range.

【0130】(2−3)ログウインドウへの編集素材の
登録 ビユーアウインドウ92において、所定の選択デバイス
より読み出された後、イン点及びアウト点を設定するこ
とにより切り取つた編集素材は、プログラムウインドウ
94に直接イベントとして貼り付けるか又は図16に示
すようにログウインドウ93にスタンプ画(図中、クリ
ツプCLとして示す)として貼り付けて登録する。この
場合、ビユーアウインドウ92の登録部122において
予めPGMボタン122B及び又はLOGボタン122
Cを選択することによつて編集素材のエントリモード(E
ntry Mode)(登録モード)をプログラムモード又はログ
モードに設定しておく。そしてその設定状態でビユーア
ウインドウ92においてイン点及びアウト点を設定して
素材を切り取つた後、ADDボタン122Aをクリツク
することによつて切り取つた素材をプログラムウインド
ウ94及び又はログウインドウ93に登録する。
(2-3) Registration of Editing Material in Log Window In the viewing window 92, after being read from a predetermined selected device, the editing material cut out by setting an in point and an out point is stored in a program window. The event is pasted directly to the window 94 as an event, or is pasted and registered as a stamp image (shown as a clip CL in the figure) in the log window 93 as shown in FIG. In this case, the PGM button 122B and / or the LOG button 122B are registered in the registration unit 122 of the viewer window 92 in advance.
By selecting C, the entry mode (E
ntry Mode) (registration mode) is set to the program mode or the log mode. After setting the in-point and the out-point in the view window 92 in the setting state and cutting the material, the ADD button 122A is clicked to register the cut material in the program window 94 and / or the log window 93. .

【0131】(2−4)タイムラインによるイベント編
集 ここでビユーアウインドウ92にて切り取つた素材又は
ログウインドウ93に登録されているイベントを編集す
る場合、ビユーアウインドウ92上に設けられたTLボ
タン126をクリツク入力することによつて、デバイス
コントロール部96による制御対象をプログラムウイン
ドウ94上のタイムライン95に移す。
(2-4) Event Editing by Timeline When editing a material cut out in the view window 92 or an event registered in the log window 93, a TL button provided on the view window 92 is used. By inputting 126 by clicking, the control target of the device control section 96 is moved to the timeline 95 on the program window 94.

【0132】ここで登録部122の登録モードがプログ
ラムモードに設定されている場合、ADDボタン122
Aがクリツクされることによつて、イン点及びアウト点
を指定して切り取つた素材がプログラムウインドウ94
上のタイムライン95に貼り付けられる。
If the registration mode of the registration unit 122 is set to the program mode, the ADD button 122
When A is clicked, the material cut out by designating the IN point and the OUT point is displayed in the program window 94.
It is pasted on the upper timeline 95.

【0133】このようにプログラムウインドウ94に設
けられたタイムライン95に切り取られた編集素材がタ
イムコードに対応付けられて並べられると、編集素材は
最小単位であるイベントに変換され、デバイスコントロ
ール部96を介した制御によつて再生され編集用画面9
0において編集し得るように設定される。
As described above, when the editing material cut out on the time line 95 provided in the program window 94 is arranged in association with the time code, the editing material is converted into an event which is the minimum unit, and the device control unit 96 Screen 9 which is reproduced by control through the
0 so that editing is possible.

【0134】ここで例えば編集素材がVTR7に記録さ
れている場合は、VTR7より素材を一旦ビユーアウイ
ンドウ92上に読み出して、その素材に対してイン点及
びアウト点を設定した後、ダウンロード・ボタン123
Aをクリツク入力することにより編集素材をローカルス
トレージ8内にダウンロードする。これによりデバイス
コントロール部96のスライダ部120を介した制御に
よつてVTR7に記録されていた素材に対してフアイル
サーチし得る。
Here, for example, when the edited material is recorded on the VTR 7, the material is temporarily read from the VTR 7 onto the view window 92, and the in point and the out point are set for the material, and then the download button is clicked. 123
The editing material is downloaded into the local storage 8 by inputting A by clicking. Thus, a file search can be performed on the material recorded on the VTR 7 under the control of the device control unit 96 via the slider unit 120.

【0135】図17及び図18に示すようにタイムライ
ン95は、タイムコードに対応付けられた複数の編集ラ
インにより構成されている。このタイムライン95は、
まずベースライン132として基本となる映像を貼るベ
ースビデオ・ライン(Base Video Line) 132A、基本
となる音声を貼るベースオーデイオ・ライン132B、
次に基本音声に重ねる音声を貼るサブライン134、ビ
デオエフエクトを設定するエフエクトライン135を表
示するようになされている。さらにタイムライン95
は、ベースライン132にいわゆるオーバレイ(Overla
y) させることによつて映像を貼り込むためのオーバレ
イライン136をそれぞれ帯状にグラフイツク表示する
ようになされている。
As shown in FIGS. 17 and 18, the timeline 95 is composed of a plurality of edit lines associated with time codes. This timeline 95
First, a base video line (Base Video Line) 132A for attaching a basic video as a base line 132, a base audio line 132B for attaching a basic audio,
Next, a subline 134 for attaching a sound to be superimposed on the basic sound and an effect line 135 for setting a video effect are displayed. Further timeline 95
Is a so-called overlay on the baseline 132
y) By doing so, the overlay lines 136 for pasting the images are displayed in graphic form in a strip shape.

【0136】さらにベースビデオとオーバレイ・ビデオ
の映像にテロツパから送出される文字や補助入力部AU
Xから送出される衛星画像等をオーバレイするためのダ
ウンストリームキー(DSK:Down Stream Key) を設定して
タイトル素材を貼るためのDSKライン137及びアナ
ウンサ等の音声(Voice) を貼るボイスオーバ・ライン1
38をそれぞれ帯状にグラフイツク表示するようになさ
れている。
Further, characters and auxiliary input units AU transmitted from Teloppa are added to base video and overlay video images.
A DSK line 137 for setting a downstream key (DSK: Down Stream Key) for overlaying satellite images sent from X and pasting title material, and a voice over line for pasting voice (Voice) such as an announcer 1
38 are graphically displayed in a strip shape.

【0137】因みにタイムライン95に表示される編集
素材及び設定されたエフエクトは全てイベントとして各
ライン毎に異なつた色により、例えばビデオイベントは
青、オーデイオイベントは黄色、エフエクトイベントは
ピンク色、DSKイベントは緑色によつて表示される。
Incidentally, the editing material displayed on the timeline 95 and the set effects are all events having different colors for each line. For example, a video event is blue, an audio event is yellow, an effect event is pink, and DSK is DSK. Events are displayed in green.

【0138】またタイムライン95上においては、TL
ボタン126のオン時又はプレビユウボタン123B
(図12)をクリツクすることによりタイムライン95
上のイベントをプレビユするときに、ビユーアウインド
ウ92に画面表示されている素材の画像のタイムコード
に対応する位置にナウライン139を表示させるように
なされている。
On the time line 95, TL
When button 126 is on or preview button 123B
Clicking (FIG. 12) causes the timeline 95
When the above event is previewed, the now line 139 is displayed at a position corresponding to the time code of the image of the material displayed on the screen in the view window 92.

【0139】因みにナウライン139はタイムライン9
5が表示されているときは、当該タイムライン95上に
常時表示されるようになされており、通常は灰色表示さ
れ、プレビユウ又は再生実行中には赤色に色別表示され
る。このようにナウライン139をプレビユウ又は再生
実行中とで色別表示するようにしたことにより、現在、
ナウライン139によつて示されるタイムコード位置に
対応する映像クリツプがビユーアウインドウ92に画面
表示されているものであるか否かを視覚により容易に識
別し得る。
Incidentally, the now line 139 is the time line 9
When 5 is displayed, it is always displayed on the timeline 95, and is normally displayed in gray, and is displayed in red during preview or during reproduction. As described above, the now line 139 is displayed in different colors depending on whether it is in the preview mode or during playback.
Whether or not the video clip corresponding to the time code position indicated by the now line 139 is displayed on the screen of the viewer window 92 can be easily visually identified.

【0140】図17に示すようにナウライン139は、
タイムライン95の上部に表示される入力ツール140
によつて簡易にタイムライン95上の所望の位置へ移動
させることができるようになされている。因みにプログ
ラムウインドウ94には、入力ツール140としてナウ
ライン139をタイムライン95の先頭に移動させるヘ
ツドボタン141、ナウライン139をタイムライン9
5上の最後尾のイベントに直後に移動させるテールボタ
ン142、ナウライン139を現在位置するイベントの
一つ前のイベントに移動させる前ボタン143及びナウ
ライン139を現在位置するイベントの一つ後のイベン
トに移動させる次ボタン144を設け、それらをタイム
ライン95上に表示するようになされている。
As shown in FIG. 17, the now line 139 is
Input tool 140 displayed at the top of timeline 95
Thus, it can be easily moved to a desired position on the timeline 95. Incidentally, in the program window 94, a head button 141 for moving the now line 139 to the head of the time line 95 as the input tool 140 and a now line 139 for the time line 9 are displayed.
5, the tail button 142 for immediately moving to the last event on the fifth event, the now button 143 for moving the now line 139 to the event immediately before the currently located event, and the tail button 142 for moving the now line 139 to the event immediately after the currently located event Next buttons 144 to be moved are provided, and these are displayed on the timeline 95.

【0141】またタイムライン95においては、スライ
ダ部145のスライドつまみ146をマウスでクリツク
してドラツグ・アンド・ドロツプすることにより、ナウ
ライン139をタイムライン95上の所定の位置に移動
し得るようになされている。
In the timeline 95, the now line 139 can be moved to a predetermined position on the timeline 95 by clicking and dragging and dropping the slide knob 146 of the slider portion 145 with the mouse. ing.

【0142】さらにタイムライン95上にはタイムコー
ドに対応した目盛りを表すスケールライン147(Scal
e Line)を表示するようにし、当該スケールライン14
7の所望の位置をマウス2Dでクリツクすることによ
り、そのクリツク位置にナウライン139を移動させる
ような機能をもたせている。
Further, a scale line 147 (Scal) representing a scale corresponding to the time code is provided on the time line 95.
e Line) to display the scale line 14
By clicking the desired position 7 with the mouse 2D, a function of moving the now line 139 to the click position is provided.

【0143】図18に示すようにプログラムウインドウ
94には、GUIツールとしてタイムライン95に設定
される時間又は、スケールライン147の一目盛りが示
す時間を調整するためのズームアウトボタン150及び
ズームインボタン151が設けられている。ズームアウ
トボタン150は、プログラムウインドウ94の1画面
で表示できるタイムラインの時間を長く設定するもので
ある。またズームインボタン151はプログラムウイン
ドウ94の1画面で表示できるタイムラインの時間を短
く設定するものである。
As shown in FIG. 18, the program window 94 has a zoom-out button 150 and a zoom-in button 151 for adjusting the time set on the timeline 95 as a GUI tool or the time indicated by one scale of the scale line 147. Is provided. The zoom-out button 150 is used to set the time of the timeline that can be displayed on one screen of the program window 94 longer. The zoom-in button 151 is used to shorten the time of the time line that can be displayed on one screen of the program window 94.

【0144】またプログラムウインドウ94では、カウ
ントタイム表示欄152によつてナウライン139のタ
イムライン上の現在位置を表示するようにし、さらにト
ータルタイム表示欄153(図12)によつてタイムラ
インの先頭から最後尾のイベントまでの長さ、又は設定
位置から最後尾のイベントまでの長さを表示するように
なされている。
In the program window 94, the current position of the now line 139 on the time line is displayed by the count time display field 152, and further, from the top of the time line by the total time display field 153 (FIG. 12). The length from the last event or the length from the set position to the last event is displayed.

【0145】またプログラムウインドウ94において
は、入力ツールとして、リツプルボタン154、マニユ
アル・ロケーシヨンボタン155、トリムボタン15
6、マツチカツトボタン157、デリートボタン158
及びビデオエフエクトボタン159を表示するようにな
されている。
In the program window 94, as input tools, a ripple button 154, a manual location button 155, a trim button 15
6. Match button 157, Delete button 158
And a video effect button 159 are displayed.

【0146】因みにリツプルボタン154は、既にベー
スラインに並んでいるイベントの途中にイベントを貼り
付ける場合、貼り付けるイベントを挿入イベントとして
ベースラインに挿入し、以降のイベントをその挿入イベ
ントの次に続くように順次、繰下げて並べ替える処理を
設定すると共に、ベースライン上のイベントが削除又は
移動された場合にはベースラインに穴が開いた部分に後
に続くイベントを繰り上げて並べるという処理を設定す
る。
By the way, when an event is pasted in the middle of an event already arranged in the baseline, the ripple button 154 inserts the event to be pasted into the baseline as an insertion event, and the subsequent events follow the insertion event. Is set in order, and if an event on the baseline is deleted or moved, a process of raising and arranging subsequent events in a portion where a hole is formed in the baseline is set.

【0147】またマニユアル・ロケーシヨンボタン15
5は、エフエクトの位置(ロケーシヨン)を設定し得る
ようなアニメーシヨン・エフエクトを設定するときに、
当該アニメーシヨン・エフエクトをかけるイベントのプ
レビユ又はレコーデイング実行中にマウス2Dによる操
作によつてエフエクトのロケーシヨンを制御し得るよう
に設定する。
The manual location button 15
5 is to set an animation effect such that an effect position (location) can be set.
A setting is made so that the location of the effect can be controlled by an operation with the mouse 2D during preview or recording of the event to which the animation effect is applied.

【0148】またトリムボタン156は、タイムライン
95上においてイベントにトリムを設定しモニタ上にて
イベントのフオアグランド及びバツクグランドをその境
界部分とと共に表示し、マツチカツトボタン157は、
イベントをナウライン139の位置にて二つに切り離す
設定をするためのボタンとして設けられている。
A trim button 156 sets a trim on an event on the timeline 95 and displays the foreground and background of the event together with its borders on a monitor.
It is provided as a button for setting the event to be separated into two at the position of the now line 139.

【0149】またデリートボタン158は、イベントに
対して削除を設定するものである。またビデオエフエク
トボタン159は、映像の変わり目や映像自体にエフエ
クト(ビデオエフエクト)をかけるためのダイアログを
表示させるものである。
The delete button 158 is for setting deletion of an event. The video effect button 159 is used to display a dialog for applying an effect (video effect) to a transition between images or the image itself.

【0150】さらにプログラムウインドウ94は、サブ
オーデイオ・ライン134、ボイスオーバ・ライン13
8に貼り付けられたオーデイオ・イベントのフエイドイ
ン又はフエイドアウトの効果を付けるためのオーデイオ
フエイドボタン160、DSKの各種設定を行うための
ダイアログを開くためのDSKボタン161及び最終的
なオーデイオの4チヤネル出力に対してタイムライン上
のオーデイオをどのようにルーテイングするかを決定す
るためのダイアログを表示させるミツクスダウンボタン
162を表示するようになされている。
Further, the program window 94 includes a sub audio line 134 and a voice over line 13.
8, an audio-off aid button 160 for applying a fade-in or fade-out effect of the audio event pasted on 8, a DSK button 161 for opening a dialog for performing various DSK settings, and a final four-channel audio output. A mixdown button 162 for displaying a dialog for determining how to route audio on the timeline.

【0151】(2−5)デバイスアイコンの表示 ところで図13に示すビユーアウインドウ92において
は、表示されるシーン名欄107の隣欄にビユーア10
6に読み出されている素材の記憶先デバイスを示すデバ
イスアイコン165が表示される。
(2-5) Display of Device Icon In the viewer window 92 shown in FIG. 13, the viewer 10 is displayed in a column next to the scene name column 107 to be displayed.
6, a device icon 165 indicating the storage destination device of the material being read is displayed.

【0152】ビユーアウインドウ92に表示される各デ
バイスアイコン165は図19(A)〜(E)に示すよ
うに、ビユーアウインドウ92に読み出された素材のソ
ースデバイスに応じて、ソースデバイスがデイリーサー
バ6の場合はサーバアイコン165A(図19
(A))、ソースデバイスがローカルストレージ8の場
合はローカルストレージアイコン165B(図19
(B))、VTR7の場合はVTRアイコン165C
(図19(C))、補助入力部AUXからの入力の場合
はAUXアイコン165D(図19(D))、さらにビ
ユーア106に表示されている画像の素材が編集装置1
内部の内部入力INTより発生されている信号素材の場
合はINTアイコン126(図19(E))がそれぞれ
表示される。
As shown in FIGS. 19A to 19E, the device icons 165 displayed in the view window 92 are displayed in the source device according to the source device of the material read in the view window 92. In the case of the daily server 6, the server icon 165A (FIG. 19)
(A)), when the source device is the local storage 8, the local storage icon 165B (FIG. 19)
(B)), in the case of VTR7, the VTR icon 165C
(FIG. 19C), in the case of input from the auxiliary input unit AUX, the AUX icon 165D (FIG. 19D), and further, the material of the image displayed on the viewer 106 is edited by the editing apparatus 1.
In the case of a signal material generated from the internal input INT, an INT icon 126 (FIG. 19E) is displayed.

【0153】このようにビユーア106に表示される画
像の記憶先デバイスを示すデバイスアイコン165をイ
ベント画像と同時にビユーアウインドウ92上に表示す
るようにしたことにより、ビユーアウインドウ92に読
み出されている素材の記憶先デバイスをデバイスアイコ
ン165をみることで視覚により容易に識別し得る。
As described above, the device icon 165 indicating the storage device of the image displayed on the viewer 106 is displayed on the viewer window 92 at the same time as the event image. The storage device of the stored material can be easily visually identified by looking at the device icon 165.

【0154】また図17に示すように、デバイスアイコ
ン165は、タイムライン95上の各ラインにおいて
も、当該タイムライン95上に並べられたイベントの記
憶先デバイスに応じてサーバアイコン165A、ローカ
ルストレージアイコン165B、VTRアイコン165
C、AUXアイコン165D又はINTアイコン165
Eの各デバイスアイコン165が各イベント毎に表示さ
れる。
As shown in FIG. 17, the device icon 165 also includes a server icon 165A and a local storage icon in each line on the timeline 95 in accordance with the storage destination device of the events arranged on the timeline 95. 165B, VTR icon 165
C, AUX icon 165D or INT icon 165
Each device icon 165 of E is displayed for each event.

【0155】この結果、タイムライン95に読み出され
ているイベントの記憶先デバイスを各ライン上に表示さ
れるデバイスアイコン165をみることで視覚により容
易に識別し得る。これにより、例えばデバイスコントロ
ール部96を介してイベントに対してエフエクトを設定
するとき、ベースライン132の記憶先デバイスがデイ
リーサーバ6又はローカルストレージ8であるか否かを
容易に判別し得、これにより例えば記憶先デバイスがV
TR7の場合、編集素材をVTR7からローカルストレ
ージ8へダウンロードすべきか否かを容易に判断し得る
等、素材に対する編集操作をより確実にし得る。デバイ
スアイコン165は、さらにログウインドウに登録され
る各クリツプCLにも記憶先のソースデバイスに応じて
それぞれ表示されるようになされている。
As a result, the storage destination device of the event read on the time line 95 can be easily visually identified by looking at the device icon 165 displayed on each line. Thus, for example, when setting an effect for an event via the device control unit 96, it can be easily determined whether or not the storage destination device of the baseline 132 is the daily server 6 or the local storage 8, and thereby, For example, if the storage device is V
In the case of TR7, it is possible to easily determine whether or not the editing material should be downloaded from the VTR 7 to the local storage 8, so that the editing operation on the material can be performed more reliably. The device icon 165 is also displayed on each clip CL registered in the log window in accordance with the source device of the storage destination.

【0156】(2−6)ログウインドウへのクリツプの
登録 次にビユーアウインドウ92においてイン点及びアウト
点の設定により切り取られた素材をログウインドウ93
に登録する場合につて説明する。
(2-6) Registration of Clip in Log Window Next, in the view window 92, the material cut out by setting the in-point and out-point is displayed in the log window 93.
A description will be given of the case of registering in.

【0157】すなわちビユーアウインドウ92におい
て、所定のソースデバイスより編集素材を読み出し、当
該編集素材に対してイン点及びアウト点を設定した後、
LOGボタン122Bが選択された状態でADDボタン
122Aをクリツクすると、編集素材の登録モードはロ
グウインドウ93への登録モードとなり、この結果、編
集素材に関する標題情報が図16に示すように、カード
形式のクリツプCLとしてログウインドウ93に登録さ
れる。
That is, in the view window 92, after editing material is read from a predetermined source device and the in point and the out point are set for the editing material,
When the ADD button 122A is clicked while the LOG button 122B is selected, the editing material registration mode is changed to the registration mode in the log window 93. As a result, the title information on the editing material is displayed in a card format as shown in FIG. It is registered in the log window 93 as a clip CL.

【0158】因みにログウインドウ93に登録するイベ
ント素材に対してビデオレベルを設定することができ
る。この場合、まずビユーアウインドウ92に表示され
るビデオ・アジヤスト・キー167Aをクリツクするこ
とにより、図20に示すようなビデオレベル設定用のダ
イアログ170が表示される。
By the way, a video level can be set for the event material registered in the log window 93. In this case, by first clicking the video adjust key 167A displayed in the viewer window 92, a dialog 170 for setting a video level as shown in FIG. 20 is displayed.

【0159】ダイアログ170は、スライド部170A
においてビデオレベル(「Lum Gain」)の各レベルを調
整し得るようになされている。この場合、スライド部1
70Aに表示されているスライドつまみ170Bをマウ
ス2Dにより移動させて、各レベルをスライド調整し得
るようになされている。
The dialog 170 includes a slide 170A.
, Each level of the video level (“Lum Gain”) can be adjusted. In this case, the slide unit 1
By moving the slide knob 170B displayed on 70A with the mouse 2D, each level can be slid and adjusted.

【0160】さらにログウインドウ93に登録するイベ
ント素材に対してオーデイオレベルを設定することがで
きる。この場合、オーデイオ・アジヤスト・キー167
Bをクリツクすることにより、図21に示すようなオー
デイオレベル設定用のダイアログ172を編集用画面9
0上に表示させ、マウス2Dを用いてトリム173のス
ライドつまみ173Aを移動させることによりオーデイ
オ入力信号レベルをスライド調整し得る。さらにフエイ
ダ部174にてマウス2Dを用いてスライドつまみ17
4Aを移動させることにより各素材のオーデイオ出力レ
ベルをスライド調整し得る。
Further, an audio level can be set for the event material registered in the log window 93. In this case, Audio Adjast Key 167
By clicking B, a dialog 172 for setting an audio level as shown in FIG.
The audio input signal level can be slid by adjusting the trim knob 173A by moving the slider 173A of the trim 173 using the mouse 2D. Further, in the fader section 174, using the mouse 2D, the slide knob 17 is used.
By moving 4A, the audio output level of each material can be slid.

【0161】またこのダイアログ172においては、フ
イルタボタン175及びイコライザボタン176を選択
することによつてオーデイオ出力レベルに対してフイル
タ及び又はイコライザを設定し得る。
In this dialog 172, a filter and / or an equalizer can be set for the audio output level by selecting a filter button 175 and an equalizer button 176.

【0162】さらにこのダイアログ172に表示される
ルーテイング・パネル177によつてオーデイオトラツ
クT1〜T4の出力を4つの各出力チヤネルCh1〜C
h4に対して入力の段階で必要に応じて設定し得るよう
になされている。
Further, the output of the audio tracks T1 to T4 is transmitted to the four output channels Ch1 to Ch by a routing panel 177 displayed in the dialog 172.
h4 can be set as needed at the input stage.

【0163】(2−7)クリツプに対するヘツダの設定 次にログウインドウ93内に並べて表示される各クリツ
プCLに対してヘツダを付加する場合について説明す
る。この場合、まずログウインドウ93において、シー
ンチエンジ・ボタン178Aをクリツク入力することに
よつて図22(A)に示すようなダイアログ180を表
示させ、当該ダイアログ180のシーン名入力欄181
にキー入力によりクリツプCLのヘツダとなるシーン名
を入力するようにしている。
(2-7) Setting of Header for Clip Next, a case where a header is added to each clip CL displayed side by side in the log window 93 will be described. In this case, first, in the log window 93, a dialog 180 as shown in FIG. 22A is displayed by clicking the scene change button 178A, and a scene name input field 181 of the dialog 180 is displayed.
, A scene name serving as a header of the clip CL is input by key input.

【0164】実際、クリツプCLに対するシーン名の設
定は、編集装置1において、図23に示すようなビデオ
編集アプリケーシヨン・ソフトウエアのクリツプシーン
名の設定手順に従つたCPU21の制御により実行され
る。
Actually, the setting of the scene name for the clip CL is executed by the editing apparatus 1 under the control of the CPU 21 in accordance with the procedure for setting the clip scene name of the video editing application software as shown in FIG.

【0165】すなわちクリツプシーン名の設定手順は、
まずステツプSP1において、シーンチエンジ・ボタン
178Aがクリツク入力され選択されると、次のステツ
プSP2において、シーン名入力用のダイアログ180
(図22(A))が画面表示される。ここで次のステツ
プSP3において、ダイアログ180内に設けられたシ
ーン名のリストを表示させるための矢印ボタン182が
選択された場合、ステツプSP4においてCPU21の
制御によつて、図22(B)に示すように登録されてい
る既存のシーン名のリスト183を読み出して画面表示
する。
That is, the procedure for setting the clip scene name is as follows.
First, in step SP1, the scene change button 178A is clicked and selected, and in the next step SP2, a dialog 180 for inputting a scene name is entered.
(FIG. 22A) is displayed on the screen. Here, in the next step SP3, if the arrow button 182 for displaying the list of scene names provided in the dialog 180 is selected, the control shown in FIG. The list 183 of existing scene names registered as described above is read out and displayed on the screen.

【0166】次にステツプSP5においてリスト183
中に表示されている登録シーン名が選択された場合、ス
テツプSP6において、CPU21の制御によつてシー
ン名を設定するクリツプCLに対して選択シーン名と同
じシーン名を付けると共に、当該シーン名の末尾に付さ
れた番号(以下、シーン番号と呼ぶ)が既に登録されて
いるクリツプCLのシーン名のシーン番号と連番になる
ようにシーン番号を設定して、ダイアログ180内のシ
ーン名欄181に、そのシーン名を表示する。次にステ
ツプSP7においてステツプSP6において設定したシ
ーン名及びシーン番号をクリツプCLのシーン名及びシ
ーン番号としてリスト183に登録する。
Next, in step SP5, the list 183
If the registered scene name displayed inside is selected, at step SP6, the same scene name as the selected scene name is given to the clip CL for setting the scene name under the control of the CPU 21, and the scene name The scene number is set so that the number appended to the end (hereinafter referred to as a scene number) is a sequential number with the scene number of the scene name of the clip CL already registered, and the scene name column 181 in the dialog 180 is set. , The scene name is displayed. Next, in step SP7, the scene name and scene number set in step SP6 are registered in the list 183 as the scene name and scene number of the clip CL.

【0167】このようにしてシーン名が登録されると、
次のステツプSP8においてダイアログ180が閉じら
れる。そしてこのシーン名の登録以降、ビユーアウイン
ドウ92のADDボタン122Aが入力されると、CP
U21の制御によりログウインドウ93に登録されるク
リツプCLに対して登録されたシーン名及び連番のシー
ン番号が自動で付される。
When a scene name is registered in this way,
In the next step SP8, the dialog 180 is closed. When the ADD button 122A of the view window 92 is input after the registration of the scene name, the CP
Under the control of U21, the registered scene name and the sequential scene number are automatically added to the clip CL registered in the log window 93.

【0168】これによりログウインドウ93に連結して
登録されるクリツプCLに対して同じシーン名を自動で
付すことができ、各クリツプCLの関連性をシーン名に
よつて容易に識別し得る。さらにクリツプCLのシーン
名に連番のシーン番号を自動で付加するようにしたこと
によつて各クリツプCLの繋がり又は違いをシーン番号
によつて容易に識別することができると共に、各クリツ
プCLの各シーンをシーン名及びシーン番号によつて容
易にサーチ又はソートすることができる。
As a result, the same scene name can be automatically given to the clip CL linked and registered in the log window 93, and the relevance of each clip CL can be easily identified by the scene name. Further, by automatically adding the serial number to the scene name of the clip CL, the connection or difference of each clip CL can be easily identified by the scene number, and at the same time, each clip CL can be identified. Each scene can be easily searched or sorted by scene name and scene number.

【0169】またステツプSP3において、矢印ボタン
182をクリツク入力しなかつた場合、CPU21の制
御はステツプSP29に移り、ここでシーン名入力欄1
81にキーボード2Cより新たにシーン名をキー入力す
ると、そのシーン名をリスト183に登録し、これ以
降、ログウインドウ93に登録されるクリツプCLに対
しては新たに登録されたシーン名がCPU21の制御に
より自動で付される。
In step SP3, if the arrow button 182 is not clicked, the control of the CPU 21 proceeds to step SP29, where the scene name input field 1 is entered.
When a new scene name is input from the keyboard 2C to the key 81, the scene name is registered in the list 183. Thereafter, for the clip CL registered in the log window 93, the newly registered scene name is stored in the CPU 21. Automatically attached by control.

【0170】またステツプSP5において、リスト18
3に表示された既存のシーン名を選択することなくキー
ボード2Cよりリターンキーを入力した場合、CPU2
1の制御はステツプSP10に移つて登録されているシ
ーン名を取り消し、処理ステツプをステツプSP7に移
して、以降の処理ステツプを順次実行する。
In step SP5, the list 18
When the return key is input from the keyboard 2C without selecting the existing scene name displayed on the
The control 1 shifts to step SP10 to cancel the registered scene name, shifts the processing step to step SP7, and sequentially executes the subsequent processing steps.

【0171】以上によつてクリツプシーン名の設定手順
を終了する。
Thus, the procedure for setting the clip scene name is completed.

【0172】因みにログウインドウ93に登録されたク
リツプCLは、図24(A)〜図24(C)に示すよう
に、シーン名、イン点画像及びイベント時間を表示する
カードCL1(図24(A))、シーン名、イベント時
間、イン点及びアウト点の現在のタイムコード並びにイ
ン点画像及びアウト点画像を表示するカードCL2(図
24(B))、シーン名、イベント時間、イン点画像及
びクリツプCLに関する情報を記載するテキスト表示欄
を表示するカードCL3(図24(C))等によつて表
示することができる。
Incidentally, the clip CL registered in the log window 93 is, as shown in FIGS. 24A to 24C, a card CL1 (FIG. 24A) which displays a scene name, an in-point image, and an event time. )), A scene name, an event time, a current time code of an in-point and an out-point, a card CL2 (FIG. 24B) displaying an in-point image and an out-point image, a scene name, an event time, an in-point image, This can be displayed by using a card CL3 (FIG. 24C) for displaying a text display field for describing information on the clip CL.

【0173】ここでログウインドウ93に表示されたク
リツプCLをクリツクすることによつて図25に示すよ
うに、クリツプCLのシーン名、フアイル名、イベント
時間、イン点及びアウト点の現在のタイムコード並びに
オーデイオ・トラツクの使用状態等の情報を表示するダ
イアログ186が開かれる。
Here, by clicking on the clip CL displayed in the log window 93, as shown in FIG. 25, the scene name of the clip CL, the file name, the event time, and the current time code of the in-point and out-point are displayed. In addition, a dialog 186 for displaying information such as the usage status of the audio track is opened.

【0174】因みにログウインドウ93に登録される各
カードCL1〜CL3の各クリツプ画像の下部に記憶先
デバイスに応じてサーバアイコン165A(図19
(A))、ローカルストレージアイコン165B(図1
9(B))、VTRアイコン165C(図19
(C))、AUXアイコン165D(図19(D))又
はINTアイコン165E(図19(E))のデバイス
アイコン165が表示されるようになされている。これ
によりログウインドウ93に読み出されている各素材の
記憶先デバイスをデバイスアイコン165をみることで
視覚により容易に識別し得る。
By the way, a server icon 165A (FIG. 19) corresponding to the storage destination device is located below each clip image of each card CL1 to CL3 registered in the log window 93.
(A)), the local storage icon 165B (FIG. 1)
9 (B)), VTR icon 165C (FIG. 19)
(C)), the device icon 165 of the AUX icon 165D (FIG. 19D) or the INT icon 165E (FIG. 19E) is displayed. Thus, the storage destination device of each material read in the log window 93 can be easily visually identified by looking at the device icon 165.

【0175】またログウインドウ93に登録されたクリ
ツプCLに対しては、リコールボタン178C、ソート
ボタン178D及びデリートボタン178Eによつてク
リツプ編集がなし得る。すなわちリコールボタン178
Cはクリツク入力することによりクリツプ名等をもとに
クリツプCLを検索するボタン、ソートボタン178D
はクリツク入力することによりクリツプCLを降順又は
昇順に並べ替えするボタン、さらにデリートボタン17
8Eはクリツク入力することによつてログウインドウ9
3上に登録したクリツプCLの削除を設定するボタンで
ある。さらにダウンロードボタン178Bはクリツク入
力することによつて選択されたクリツプCLをローカル
ストレージ8にダウンロードすることができるボタンで
ある。
For the clip CL registered in the log window 93, the clip can be edited by using the recall button 178C, the sort button 178D, and the delete button 178E. That is, the recall button 178
C is a button for searching for a clip CL based on a clip name or the like by inputting a click, and a sort button 178D.
Is a button for rearranging the clip CL in descending or ascending order by inputting a click, and a delete button 17
8E is a log window 9 which is clicked.
3 is a button for setting the deletion of the clip CL registered on 3. Further, a download button 178B is a button for downloading the clip CL selected by the click input to the local storage 8.

【0176】(2−8)イン点及びアウト点の設定 次にプログラムウインドウ94のタイムライン95上に
並べられたイベントに対するイン点及びアウト点の設定
について説明する。タイムライン95上のイベントに対
するイン点及びアウト点の設定は、図26及び図27に
示すビデオ編集アプリケーシヨン・ソフトウエアによる
イン点及びアウト点の設定手順に従つたCPU21の制
御により実行される。
(2-8) Setting of In Point and Out Point Next, setting of the in point and the out point for the events arranged on the time line 95 of the program window 94 will be described. The setting of the IN point and the OUT point for the event on the timeline 95 is executed under the control of the CPU 21 in accordance with the setting procedure of the IN point and the OUT point by the video editing application software shown in FIGS.

【0177】すなわちイン点及びアウト点の設定手順
は、まずステツプSP21において、モニタ2B上に表
示されたビユーアウインド100のソース選択ボタン1
02A〜102Eのいずれかを選択してクリツクするこ
とにより、ステツプSP22において、CPU21の制
御により所定のソースデバイスを選択する。ここで次の
ステツプSP23において、CPU21の制御により選
択したソースデバイスがデイリーサーバ6又はローカル
ストレージ8であるか否かを判断し、ソースデバイスが
デイリーサーバ6又はローカルストレージ8であればス
テツプSP24に移る。
That is, the procedure for setting the IN point and the OUT point is as follows. First, in step SP21, the source selection button 1 of the view window 100 displayed on the monitor 2B is displayed.
By selecting and clicking one of 02A to 102E, a predetermined source device is selected under the control of the CPU 21 in step SP22. Here, in the next step SP23, it is determined whether or not the source device selected under the control of the CPU 21 is the daily server 6 or the local storage 8, and if the source device is the daily server 6 or the local storage 8, the process proceeds to step SP24. .

【0178】ステツプSP24において、選択したデイ
リーサーバ6又はローカルストレージ8に対応するソー
ス選択ボタン102を再びクリツクすると、CPU21
の制御により、編集用画面90上に、デイリーサーバ6
又はローカルストレージ8に格納されている素材のフア
イルリスト103Aが表示される。ここで続くステツプ
SP25において、フアイルリスト103Aに表示され
るフアイル名の一つをクリツクすることによつて編集素
材を選択する。この結果、編集素材が設定される。
At step SP24, when the source selection button 102 corresponding to the selected daily server 6 or local storage 8 is clicked again, the CPU 21
Of the daily server 6 on the editing screen 90
Alternatively, a file list 103A of the material stored in the local storage 8 is displayed. In the following step SP25, one of the file names displayed in the file list 103A is clicked to select an editing material. As a result, the editing material is set.

【0179】次にステツプSP26において、ビユーア
ウインドウ92上に表示されるTLボタン126をクリ
ツク入力すると、ステツプSP7においてCPU21の
制御によるデバイス制御の対象をタイムライン95に移
し、以降、デバイスコントロール部96を介したタイム
ライン95上での入力操作によつて編集素材に対するイ
ン点及びアウト点の設定が開始される。
Next, at step SP26, when the TL button 126 displayed on the view window 92 is clicked on, the device to be controlled by the CPU 21 is moved to the timeline 95 at step SP7. Setting of the IN point and the OUT point for the edited material is started by an input operation on the timeline 95 via the.

【0180】このときタイムライン95には、CPU2
1の制御によりナウライン139が表示され、当該ナウ
ライン139の表示位置のタイムコードに対応するイベ
ントのクリツプ画像がビユーア106に画面表示され
る。
At this time, the CPU 2
Under the control of 1, the now line 139 is displayed, and the clip image of the event corresponding to the time code at the display position of the now line 139 is displayed on the screen of the viewer 106.

【0181】ここでステツプSP23において、選択し
たソースデバイスがデイリーサーバ6又はローカルスト
レージ8の他のソースデバイスであるとCPU21によ
り判断された場合、ステツプSP28に移つて、さらに
選択したソースデバイスがVTR7であるか否かをCP
U21によつて判断する。ここで選択ソースデバイスが
VTR7であると判断された場合、処理ステツプはステ
ツプSP6に移り、ステツプSP26及びSP27の処
理を実行する。
Here, in step SP23, when the CPU 21 determines that the selected source device is another source device of the daily server 6 or the local storage 8, the process proceeds to step SP28, where the further selected source device is the VTR 7. Whether there is a CP
This is determined by U21. If it is determined that the selected source device is the VTR 7, the process proceeds to step SP6, and executes the processes of steps SP26 and SP27.

【0182】続いてステツプSP29においては、デバ
イスコントロール部96のスライダ部120を介してナ
ウライン139をタイムライン95上において所望の位
置に移動させることによつてフアイルの所望位置をサー
チする。このときタイムライン95上のナウライン13
9は赤色表示され、またナウライン139の移動できる
範囲も色別表示される。これによりナウライン139の
移動範囲及び位置を容易に確認し得る。
Subsequently, at step SP29, a desired position of the file is searched by moving the now line 139 to a desired position on the time line 95 via the slider section 120 of the device control section 96. At this time, the now line 13 on the timeline 95
9 is displayed in red, and the movable range of the now line 139 is also displayed in different colors. Thereby, the moving range and the position of the now line 139 can be easily confirmed.

【0183】ここでデバイスコントロール部96を介し
た制御によつてタイムライン95上のプログラムをシヤ
トルモード等によつて再生することにより、ビユーア1
06上において、ナウライン139位置の画像を表示さ
せると同時に、タイムコード表示欄106にタイムコー
ドを表示させることができる。
Here, the program on the timeline 95 is reproduced in the shuttle mode or the like under the control of the device control section 96, thereby obtaining the viewer 1
On 06, an image at the position of the now line 139 can be displayed, and at the same time, a time code can be displayed in the time code display field 106.

【0184】ここでクリツプ画像及びタイムコードを参
照しながら所望の位置にてマークインボタン115をク
リツク入力すると、CPU21の制御はステツプSP3
0に移り、タイムライン95上に設定されたイベントに
対してナウライン139の表示位置に対応するタイムコ
ード位置にイン点を設定するようになされている。この
ときCPU21の制御によりビユーアウインドウ92上
のイン点画像表示欄110にはイベントのイン点のスタ
ンプ画像(例えば、旗の絵など)が表示され、同時にイ
ベントのイン点タイムコード表示欄111にはイン点の
タイムコードが表示される。
Here, when the mark-in button 115 is click-input at a desired position while referring to the clip image and the time code, the control of the CPU 21 proceeds to step SP3.
Moving to 0, the in-point is set at the time code position corresponding to the display position of the now line 139 for the event set on the time line 95. At this time, under the control of the CPU 21, a stamp image (for example, a picture of a flag, etc.) of the in-point of the event is displayed in the in-point image display column 110 on the viewer window 92, and at the same time, an in-point time code display column 111 of the event is displayed. Indicates the time code of the In point.

【0185】さらにステツプSP31において、デバイ
スコントロール部96を介した制御によつてタイムライ
ン95上のプログラムを再生し、その際ビユーア106
上に表示される画像及びタイムコード表示欄108に表
示されるタイムコードをモニタしながら、目的のタイム
コードにてマークアウトボタン116をクリツク入力す
る。この結果、CPU21の制御はステツプSP32に
移り、タイムライン95上に設定されたイベントに対し
てナウライン139の表示位置に対応するタイムコード
位置にアウト点が設定される。このときCPU21の制
御によりビユーアウインドウ92上のアウト点表示欄1
12にはイベントのアウト点のスタンプ画像(例えば、
旗の絵など)が表示され、同時にアウト点タイムコード
表示欄113にはアウト点のタイムコードが表示され
る。
At step SP31, the program on the timeline 95 is reproduced under the control of the device control section 96, and the viewer 106
While monitoring the image displayed above and the time code displayed in the time code display field 108, the user clicks the mark-out button 116 with the desired time code. As a result, control of the CPU 21 proceeds to step SP32, and an out point is set at a time code position corresponding to the display position of the now line 139 with respect to the event set on the time line 95. At this time, the out-point display column 1 on the viewer window 92 is controlled by the CPU 21.
12 is a stamp image of the out point of the event (for example,
A flag picture) is displayed, and at the same time, the time code of the out point is displayed in the out point time code display field 113.

【0186】次にステツプSP33において、CPU2
1の制御によりタイムライン95上のイベントに設定さ
れたイン点及びアウト点それぞれのタイムコードからイ
ン点及びアウト点間のイベント時間が計算され、当該イ
ベント時間をビユーアウインドウ92上のDUR表示欄
114に表示する。
Next, in step SP33, the CPU 2
The event time between the in point and the out point is calculated from the time code of the in point and the out point set for the event on the timeline 95 under the control of the first control, and the event time is displayed in the DUR display column on the view window 92. Displayed at 114.

【0187】次にステツプSP34において、例えばタ
イムライン95上のイベントのイン点及びアウト点間に
挿入すべきイベントのクリツプCLをログウインドウ9
3より選択してドラツグし、タイムライン95のイン点
又はアウト点付近にドロツプする。この結果、ステツプ
SP35においてCPU21の制御によりタイムライン
のイン点及びアウト点間に挿入すべきクリツプCLに対
応するイベントが貼り付けられる。
Next, in step SP34, for example, a clip CL of an event to be inserted between the in-point and the out-point of the event on the time line 95 is input to the log window 9.
3 and dragging it, and dropping it near the IN point or OUT point of the timeline 95. As a result, an event corresponding to the clip CL to be inserted between the IN point and the OUT point of the time line is pasted under the control of the CPU 21 in step SP35.

【0188】ここでステツプSP28において、選択し
たソースデバイスがVTR7の他のソースデバイスであ
ると判断された場合は、選択したソースデバイスが補助
入力部AUX又は内部入力INTであると判断して処理
ステツプをステツプSP28よりステツプSP35に移
し、タイムライン95のイン点及びアウト点間に補助入
力部AUX又は内部入力INTより入力される挿入すべ
き画像情報をタイムライン95上の所定の位置に貼り付
ける。
Here, in step SP28, when it is determined that the selected source device is another source device of the VTR 7, it is determined that the selected source device is the auxiliary input unit AUX or the internal input INT, and the processing step is performed. Is moved from step SP28 to step SP35, and the image information to be inserted, which is input from the auxiliary input unit AUX or the internal input INT, between the IN point and the OUT point of the time line 95, is pasted at a predetermined position on the time line 95.

【0189】このようにしビユーアウインドウ92上に
てソースデバイスから読み出し、イン点及びアウト点を
設定することによつて切り取つた編集素材のタイムライ
ン95上への貼り付けが完了すると、イン点及びアウト
点の設定手順を終了する。
[0189] In this manner, by reading from the source device on the view window 92 and setting the in-point and out-point, the pasting of the edited material cut out on the timeline 95 is completed. The procedure for setting the out point ends.

【0190】因みにステツプSP35においては、図2
8に示すような次の4つのケースにおいてタイムライン
95上にて設定されたイベントのイン点(図中、マーク
インとして示す)及びアウト点(図中、マークアウトと
して示す)間にクリツプCLの素材(以下、単にクリツ
プ素材と呼ぶ)を貼ることができる。
In step SP35, FIG.
In the following four cases as shown in FIG. 8, the clip CL is set between the in point (shown as mark-in in the figure) and the out point (shown as mark-out in the figure) of the event set on the timeline 95. A material (hereinafter, simply referred to as a clip material) can be attached.

【0191】すなわち第1のケースとして、タイムライ
ン95上にイン点及びマークアウトが設定され、かつク
リツプに対してマークインのみが設定されている場合が
ある。この場合、設定されていないクリツプ素材のマー
クアウトは、タイムライン及びクリツプ素材のイン点及
びアウト点それぞれのタイムコードをもとにCPU21
の演算処理によりタイムライン95に設定されたマーク
アウトに合わせて設定される。
That is, as a first case, there are cases where an in point and a mark out are set on the timeline 95, and only a mark in is set for a clip. In this case, the markout of the clip material that has not been set is determined by the CPU 21 based on the timeline and the time codes of the in point and the out point of the clip material.
Is set in accordance with the mark-out set on the timeline 95 by the arithmetic processing of.

【0192】ここでクリツプ素材のマークアウトがタイ
ムライン95のマークアウトに足りない場合、ビユーア
ウインドウ92に読み出したクリツプ素材の長さに余裕
があるときは、CPU21の制御によりクリツプ素材の
マークアウトとタイムライン95のマークアウト間の足
りない分が足され、またクリツプ素材のマークアウトが
タイムライン95のマークアウトを越えるときは、クリ
ツプ素材のマークアウトがタイムライン95のマークア
ウトに合わせて短縮されて設定される。
Here, if the markout of the clip material is not enough for the markout of the timeline 95, and if there is room in the length of the clip material read out in the view window 92, the markout of the clip material is controlled by the CPU 21. When the markout of the clip material exceeds the markout of the timeline 95, the markout of the clip material is shortened according to the markout of the timeline 95. Is set.

【0193】また第2のケースとして、タイムライン9
5上にはマークインのみが設定され、かつクリツプCL
に対してマークイン及びマークアウトが設定されている
場合がある。この場合、タイムライン95のマークアウ
トは、タイムライン及びクリツプのイン点及びアウト点
それぞれのタイムコードをもとに挿入クリツプ素材のマ
ークアウトに合わせた値がCPU21により設定され
る。
In the second case, the time line 9
5 only mark-in is set and the clip CL
In some cases, mark-in and mark-out are set. In this case, the markout of the timeline 95 is set by the CPU 21 to a value corresponding to the markout of the inserted clip material based on the time codes of the in point and the out point of the timeline and the clip.

【0194】また第3のケースとして、クリツプ素材に
対してマークイン及びマークアウトが設定され、かつタ
イムライン95上にはマークアウトのみが設定されてい
る場合がある。この場合、タイムライン95のマークイ
ンは、クリツプのマークインのタイムコードをもとに挿
入クリツプのマークインに合わせた値がCPU21によ
つて設定される。
In the third case, mark-in and mark-out are set for the clip material, and only the mark-out is set on the timeline 95. In this case, the mark-in of the timeline 95 is set by the CPU 21 in accordance with the mark-in of the inserted clip based on the time code of the mark-in of the clip.

【0195】さらに第4のケースとして、タイムライン
95上にマークイン及びマークアウトが設定され、かつ
クリツプ素材に対してマークイン及びマークアウトが設
定されている場合がある。この場合、タイムライン95
上のイベントのマークイン及びマークアウト間の長さ
と、クリツプ素材のマークイン及びマークアウト間の長
さとがそれぞれ一致しているとCPU21が判断したと
きは、クリツプ素材は丁度、タイムライン上のイン点及
びアウト点間に合わせてそのまま貼り付けられる。
As a fourth case, mark-in and mark-out are set on the timeline 95, and mark-in and mark-out are set for the clip material. In this case, the timeline 95
If the CPU 21 determines that the length between the mark-in and mark-out of the above event matches the length between the mark-in and mark-out of the clip material, the clip material is just entered on the timeline. It is pasted as it is between the point and the out point.

【0196】これに対してタイムライン95上のイベン
トのイベントのマークイン及びマークアウト間の長さ
と、クリツプ素材のマークイン及びマークアウト間の長
さとが一致していないとCPU21が判断したときは、
一致していないクリツプ素材の長さをCPU21によつ
てタイムライン95に設定されたマークイン又はマーク
アウトに合わせて設定し直される。
On the other hand, when the CPU 21 determines that the length between the mark-in and mark-out of the event on the timeline 95 does not match the length between the mark-in and mark-out of the clip material. ,
The length of the clip material that does not match is reset by the CPU 21 in accordance with the mark-in or mark-out set on the timeline 95.

【0197】これによりビユーア106に表示されるイ
ベント画像をモニタしながら、デバイスコントロール部
96を介しての簡易な入力操作によつてタイムライン9
5上に読み出されたイベントに対してイン点及びアウト
点を設定することができる。
Thus, while monitoring the event image displayed on the viewer 106, the timeline 9 is input by a simple input operation via the device control section 96.
5, an in point and an out point can be set for the event read out.

【0198】さらにマウスを用いた簡易な入力操作によ
つてタイムライン95上に設定されたイベントのイン点
及びアウト点間に挿入すべきクリツプ素材を貼り付ける
ことができる。またこの際、タイムライン95上のイベ
ントに貼り付けるクリツプ素材のイン点及びアウト点の
タイムコードをCPU21の演算処理によりタイムライ
ン95上のイベントに設定されたイン点及びアウト点の
タイムコードに合わせて設定して自動で貼り付けること
ができる。
Further, a clip material to be inserted between the IN point and the OUT point of the event set on the time line 95 can be pasted by a simple input operation using a mouse. At this time, the time code of the IN point and the OUT point of the clip material to be pasted on the event on the timeline 95 is matched with the timecode of the IN point and the OUT point set for the event on the timeline 95 by the arithmetic processing of the CPU 21. Can be set and pasted automatically.

【0199】(2−9)タイムライン上へのイベントの
貼り付け ここでログウインドウ93に登録されたクリツプCLを
タイムライン95上のイベントに貼り付けて、当該イベ
ントに対してエフエクトを付加して編集する場合につい
て説明する。
(2-9) Pasting of Event on Timeline Here, the clip CL registered in the log window 93 is pasted on an event on the timeline 95, and an effect is added to the event. The case of editing will be described.

【0200】ビデオエフエクト編集は、まずログウイン
ドウ93において、クイツクエントリ・ボタン180
(図16)をクリツクすることにより、ログウインドウ
93上に表示されているクリツプCLに対応するクリツ
プ素材に対して登録モードを設定することができる。こ
のようにして登録モードが設定されたログウインドウ9
3において、編集するクリツプ素材のクリツプCLを並
べたい順にマウス2Dでクリツクして選択することによ
り、CPU21の制御により選択されたクリツプCLの
クリツプ素材がタイムライン95上のベースビデオ・ラ
イン132A及びベースオーデイオ・ライン132Bの
ナウライン139の位置に順次並べられる。
In the video effect editing, first, in the log window 93, the quick entry button 180
By clicking (FIG. 16), the registration mode can be set for the clip material corresponding to the clip CL displayed on the log window 93. The log window 9 in which the registration mode is set in this way
In step 3, the clip material of the clip material to be edited is clicked and selected with the mouse 2D in the order in which the clip material is to be edited, so that the clip material of the clip material selected under the control of the CPU 21 becomes the base video line 132A and the base The audio line 132B is sequentially arranged at the position of the now line 139.

【0201】この場合、1つのイベントがタイムライン
131のナウライン139の位置におかれると、ナウラ
イン139はそのイベントのアウト点の位置に移動す
る。そして次にマウス2Dによつて並べたいクリツプC
Lをクリツクすると、そのクリツプCLに対応するクリ
ツプ素材が移動したナウライン139の位置に並べられ
る。以下、順次クリツクされたクリツプCLのクリツプ
素材がクリツプ素材の後方に移動したナウライン139
位置に並べられる。
In this case, when one event is placed at the position of the now line 139 of the time line 131, the now line 139 moves to the position of the out point of the event. Then, the clip C that you want to line up with the mouse 2D
When L is clicked, the clip material corresponding to the clip CL is arranged at the moved now line 139. Hereinafter, the now-clip clip material of the clip CL is moved to the now line 139 behind the clip material.
Arranged in position.

【0202】またこのようにしてタイムライン95上に
イベントが並べられると、フアンクシヨンキーのプレビ
ユボタン123Bによつてナウライン139の位置から
タイムライン95の全てのラインをプレビユすることが
できる。このプレビユ動作は、オールストツプボタン1
23Cをクリツクすることによつて中止される。またこ
れらタイムライン95上のイベントは、編集用画90の
RECボタン123Dをクリツクすることによつてロー
カルストレージ8に記録することができる。
When the events are arranged on the time line 95 in this manner, all the lines of the time line 95 can be previewed from the position of the now line 139 by the preview button 123B of the function key. This preview operation is performed by the all-stop button 1
Canceled by clicking 23C. The events on the timeline 95 can be recorded in the local storage 8 by clicking the REC button 123D of the editing picture 90.

【0203】このようにログウインドウ93に表示され
るクリツプCLを並べる順にマウス2Dによつてクリツ
クするという簡易な操作によつてタイムライン95上に
並べるようにしたことにより、クリツプ素材を大まかに
タイムライン95上に並べる際の編集操作を大幅に簡略
化し、編集の効率を向上し得る。
As described above, the clip materials displayed in the log window 93 are arranged on the timeline 95 by a simple operation of clicking with the mouse 2D in the order in which the clip materials are arranged. The editing operation for arranging on the line 95 can be greatly simplified, and the editing efficiency can be improved.

【0204】(2−10)ダイアログによるエフエクト
の設定 編集装置1においては、タイムライン95上のベースビ
デオ・ライン132Aに並べられたイベントの映像自体
にエフエクトをかけるようなアニメーシヨン・エフエク
ト又は2つのイベントの変わり目をエフエクトをかけて
切り替えるトランジシヨン・エフエクトをかけるように
なされている。ここでタイムライン95上に貼り付けら
れたイベントに対してエフエクトをかける場合、まずプ
ログラムウインドウ94においてビデオ・エフエクト・
ボタン159をクリツク入力することにより、図29に
示すようなエフエクト設定用のダイアログ190を編集
用画面90上に画面表示させる。
(2-10) Effect Setting Using Dialog In the editing apparatus 1, the animation effect or two animation effects in which the effect video is applied to the event video arranged on the base video line 132A on the timeline 95 are used. The transition effect is switched by applying the effect at the turn of the event. Here, when applying the effect to the event pasted on the timeline 95, first, the video effect
By clicking the button 159, an effect setting dialog 190 as shown in FIG. 29 is displayed on the editing screen 90.

【0205】タイムライン131上で並べられたイベン
トに対してエフエクトをかける場合は、このダイアログ
190において、所望のエフエクト・パターンを選択し
てタイムライン95上のエフエクトライン135に貼り
付ける。この場合、エフエクト・パターンの選択方法と
しては、まず第1にパターン番号設定部191に所望の
エフエクト・パターンのパターン番号をキーボード2C
よりテンキー入力した後、エンターキーを押すことによ
つて選択する方法がある。また第2に使用頻度の高いエ
フエクトのパターン(以下、これをフエイバレツト・パ
ターン(Favorite Pattern)と呼ぶ)のイメージが図的に
表現された10種類程のビツトマツプをフエイバレツト・
パターン表示部192において表示して、当該フエイバ
レツト・パターン表示部192の中から所望のエフエク
ト・パターンをクリツクして選択する方法がある。因に
フエイバレツト・パターンとしては、画面を切り換える
ときにバツクグランドの画面をページをめくるようにし
てフオアグランドの画面に切り換えるページターン19
2A、モザイク模様によつて画面をぼかすモザイク19
2B等が設定される。
When effects are to be applied to the events arranged on the timeline 131, a desired effect pattern is selected in this dialog 190 and pasted on the effect line 135 on the timeline 95. In this case, as a method of selecting an effect pattern, first, the pattern number of a desired effect pattern is input to the pattern number setting unit 191 by the keyboard 2C.
There is a method of selecting by pressing the enter key after inputting more numeric keys. Secondly, about 10 types of bitmaps that graphically represent images of frequently used effect patterns (hereinafter referred to as “favorite patterns”).
There is a method in which the desired effect pattern is displayed on the pattern display section 192 and clicked to select a desired effect pattern from the fiber pattern display section 192. Incidentally, as a favorite pattern, a page turn 19 for switching the background screen to the foreground screen so as to turn the page when switching the screen.
2A, Mosaic 19 that blurs screen with mosaic pattern
2B or the like is set.

【0206】ここで上述した第1又は第2のいずれかの
方法により、タイムライン95上のイベントに対して設
定すべきエフエクト・パターンを選択した後、ダイアロ
グ190上のトランジシヨン設定部193Aにおいて、
エフエクトの遷移時間(トランジシヨン時間)をテンキ
ー入力してエンターキーを押すか又はいくつかの典型的
なトランジシヨン時間が複数設定されたトランジシヨン
ボタン193Bから所望のトランジシヨン時間をクリツ
クすることによりトランジシヨン時間を選択して設定す
る。
After selecting an effect pattern to be set for an event on the timeline 95 by either the first or second method described above, the transition setting unit 193A on the dialog 190
Enter the transition time (transition time) of the effect and press the enter key, or click the desired transition time from the transition button 193B in which several typical transition times are set. Select and set the time.

【0207】このようにしてダイアログ190にてイベ
ントに対して設定すべきエフエクトの種類及びトランジ
シヨン時間が決定した後、例えば上述した第2の方法に
よりダイアログ190のフエイバレツト・パターン表示
部192内の所望のトランジシヨン・エフエクトのパタ
ーン・ビツトマツプ192Xを図30(A)に示すよう
にマウス2Dによつてドラツグし、タイムライン95上
の効果をかけて切り替えるべきイベントの上のエフエク
トライン135に移動させてドロツプする。これにより
例えば図30(B)に示すように、トランジシヨン・エ
フエクト、Mix192X′をベースライン132のイ
ベントに対して設定することができる。
After the effect type and the transition time to be set for the event are determined in the dialog 190 in this way, the desired information in the fiber pattern display section 192 of the dialog 190 is determined by, for example, the above-described second method. As shown in FIG. 30A, the pattern bit map 192X of the transition effect is dragged by the mouse 2D, and is moved to the effect line 135 above the event to be switched by applying the effect on the time line 95. Drop. As a result, for example, as shown in FIG. 30B, a transition effect, Mix192X 'can be set for the event of the baseline 132.

【0208】またタイムライン95上のイベントに対し
てアニメーシヨン・エフエクトを付加する場合、まずビ
ユーアウインドウ92にてTLボタン126をクリツク
入力することにより、デバイスコントロール部96の制
御対象をタイムライン95に移す。これと同時にナウラ
イン139位置のベースライン132上のイベント(ベ
ースイベント)がビユーウインドウ92に読み出され、
デバイスコントロールの対象とすることができる。ここ
で再生、ジヨグ等のデバイスコントロールを行うとナウ
ライン139がタイムライン95上を移動し、これと連
動してビユーウインドウ92上のベースイベントがビユ
ーア106に表示される。
When an animation effect is added to an event on the timeline 95, first, the TL button 126 is clicked in the view window 92 to change the control target of the device control section 96 to the timeline 95. Transfer to At the same time, an event (base event) on the baseline 132 at the now line 139 is read out to the view window 92, and
Can be subject to device control. Here, when device control such as playback and jog is performed, the now line 139 moves on the time line 95, and in conjunction with this, a base event on the view window 92 is displayed on the view 106.

【0209】ここでタイムライン95の所定の位置にお
いてマークインボタン115及びマークアウトボタン1
16をクリツク入力することによりイベントに対してイ
ン点及びアウト点を設定する。これにより図31(A)
に示すように、タイムライン95のスケールライン14
7上の位置にイン点及びアウト点に対応するビツトマツ
プ166A及び166Bを表示させると共に、タイムラ
イン95上にマークライン166C及び166Dを表示
させる。これによりタイムライン95のベースライン1
32においてエフエクト・イベントの挿入範囲を設定す
ることができる。
Here, at a predetermined position on the timeline 95, the mark-in button 115 and the mark-out button 1
By inputting 16 by clicking, an in point and an out point are set for the event. As a result, FIG.
As shown in FIG.
Bitmaps 166A and 166B corresponding to the IN point and OUT point are displayed at a position on 7 and mark lines 166C and 166D are displayed on the timeline 95. Thus, the baseline 1 of the timeline 95
At 32, the insertion range of the effect event can be set.

【0210】次にログウインドウ93のクリツプCLの
中から所望のクリツプCLを選択してマウス2Dによつ
てドラツグし、タイムライン95に設定したイン点位置
のマークライン166Cに近づけてドロツプする。ここ
で予めダイアログ190において例えばフエイバレツト
・パターン表示部192より、アニメーシヨン・エフエ
クトをマウス2Dによつてクリツクして選択しておく。
これにより図31(B)に示すように、オーバレイビデ
オ・ライン136のイン点の位置にフエイバレツト・パ
ターン表示部192より選択したアニメーシヨン・エフ
エクト(この場合、ピクチヤインピクチヤ(Pin
P))のイベントEF0を貼り付けることができる。
Next, a desired clip CL is selected from the clips CL in the log window 93, dragged with the mouse 2D, and dropped close to the mark line 166C at the in-point position set on the timeline 95. Here, in the dialog 190, for example, the animation effect is clicked and selected by the mouse 2D from, for example, the favorite pattern display section 192.
As a result, as shown in FIG. 31B, the animation effect (in this case, the picture-in-picture (Pin) in this case) selected from the fiber pattern display section 192 is positioned at the in-point of the overlay video line 136.
The event EF0 of P)) can be pasted.

【0211】(2−11)パターン・ビツトマツプの登
録 ここでフエイバレツト・パターン表示部192にフエイ
バレツト・パターンを登録する場合、まず、パターンリ
スト・ボタン194をクリツクすることにより、複数の
エフエクト・パターンのビツトマツプがグラフイツク表
示されたリスト(図示せず)を表示させて、当該リスト
の中からフエイバレツト・パターンとしてフエイバレツ
ト・パターン表示部192に登録すべき所望のエフエク
トを読み出す。またはパターン番号設定部191に所望
のエフエクト・パターンのパターン番号をテンキー入力
することによつてエフエクト・パターンのビツトマツプ
をビツトマツプ表示欄195に読み出し、このようにし
て読み出されたビツトマツプをマウス2Dによつてドラ
ツグしてフエイバレツト・パターン表示部192の所望
の位置でドロツプすることにより、フエイバレツト・パ
ターン表示部192に登録する。
(2-11) Registration of pattern bit map When registering a fiber pattern in the fiber pattern display section 192, first, a pattern list button 194 is clicked, so that a bit map of a plurality of effect patterns is obtained. Displays a graphically displayed list (not shown), and reads out a desired effect to be registered in the fiber pattern display unit 192 as a fiber pattern from the list. Alternatively, by inputting a pattern number of a desired effect pattern into the pattern number setting section 191 with ten keys, the bit map of the effect pattern is read out to the bit map display column 195, and the bit map thus read out is used by the mouse 2D. By dragging and dropping at a desired position on the fiber pattern display section 192, it is registered in the fiber pattern display section 192.

【0212】これによりオペレータは、タイムライン9
5と同一画面上に表示されるフエイバレツト・パターン
表示部192に複数登録されたエフエクト・パターンの
中から、所望のエフエクト・パターンをマウス2Dによ
りドラツグしてタイムライン95上のイベントの所望の
位置にドロツプするという簡易な操作によつてイベント
に対して迅速にエフエクトを設定することができる。
Thus, the operator can set the time line 9
5, a desired effect pattern is dragged by the mouse 2D from among a plurality of effect patterns registered in the favorite pattern display section 192 displayed on the same screen as that at the desired position of the event on the timeline 95. The effect can be quickly set for the event by a simple operation of dropping.

【0213】(2−12)トランジシヨン・エフエクト
の設定 次にタイムライン95上に設定されたイベントに対して
実際にトランジシヨン・エフエクト及びアニメーシヨン
・エフエクトを設定する場合について説明する。
(2-12) Setting of Transition Effect Next, a case where a transition effect and an animation effect are actually set for an event set on the timeline 95 will be described.

【0214】例えば図32(A)に示すように、タイム
ライン95上において並べられた2つのイベントE0及
びE1の切り替わり位置にナウライン139があるとC
PU21が判断した場合、CPU21は各イベントE0
及びE1のもつイベントデータをもとに、まずタイムラ
イン95上においてイベントE1の左側に位置するイベ
ントE0をバツクグランドに設定した後、イベントE0
のアウト点をサーチする。
For example, as shown in FIG. 32A, if there is a now line 139 at the switching position of two events E0 and E1 arranged on the time line 95, C
When the PU 21 determines, the CPU 21 sets each event E0
First, based on the event data of E1 and E1, the event E0 located on the left side of the event E1 on the timeline 95 is set to the background, and then the event E0 is set.
Search for the out point.

【0215】次にイベントE0の右側に位置するイベン
トE1をフオアグランドに設定してイベントE1のイン
点をサーチする。これによりタイムライン95上のナウ
ライン139の位置にトランジシヨン・エフエクトをか
けるとき、各イベントに対するバツクグランド及びフオ
アグランドの設定を自動で行うことができると共に、イ
ベントE0及びE1の切り替え位置を読み出すことによ
つて、切り替え位置のトランジシヨン・エフエクトの状
態をビユーア106上にて直ちに確認することができ
る。
Next, the event E1 located on the right side of the event E0 is set to the foreground, and the in point of the event E1 is searched. Thus, when a transition effect is applied to the position of the now line 139 on the timeline 95, the background and foreground for each event can be automatically set, and the switching position of the events E0 and E1 can be read. Therefore, the state of the transition effect at the switching position can be immediately confirmed on the viewer 106.

【0216】また図32(B)に示すように、タイムラ
イン95上のイベントE1の間にナウライン139があ
り、かつオーバレイライン136に対象となるイベント
がないとCPU21が判断した場合、CPU21の制御
によりイベントE1をバツクグランドに設定してイベン
トE1のナウライン139の位置をサーチした後、イベ
ントE1のナウライン139をフオアグランドに設定す
る。これによりタイムライン95上のナウライン139
の位置にトランジシヨン・エフエクトをかけるとき、イ
ベントE1に対するバツクグランド及びフオアグランド
の設定を自動で行うことができると共に、イベントE1
の切り替え位置を読み出すことによつて、切り替え位置
のトランジシヨン・エフエクトの状態をビユーア106
上にて直ちに確認することができる。
As shown in FIG. 32B, when CPU 21 determines that there is a now line 139 between events E1 on time line 95 and there is no target event on overlay line 136, control by CPU 21 After setting the event E1 to the background and searching the position of the now line 139 of the event E1, the now line 139 of the event E1 is set to the foreground. As a result, the now line 139 on the time line 95 is obtained.
When the transition effect is applied to the position E, the background and the foreground for the event E1 can be automatically set, and the event E1 can be set.
By reading the switching position of the switching position, the state of the transition effect at the switching position is displayed in the viewer 106.
You can see it immediately above.

【0217】(2−13)アニメーシヨン・エフエクト
の設定 また図32(C)に示すように、タイムライン95上の
アニメーシヨン・エフエクトCutの開始位置にナウラ
イン139があり、かつオーバレイライン136にエフ
エクトの対象となるイベントE2があるとCPU21が
判断した場合、CPU21の制御によつてイベントE1
をバツクグランドに設定すると共に、イベントE1のア
ウト点をサーチする。さらにCPU21の制御により、
オーバレイライン136上のイベントE2をフオアグラ
ンドに設定すると共に、イベントE2のイン点をサーチ
する。これによりタイムライン95上のナウライン13
9の位置にアニメーシヨン・エフエクトをかけるとき、
各イベントに対するバツクグランド及びフオアグランド
の設定を自動で行うことができると共に、イベントE1
のイン点及びイベントE2のイン点を読み出すことによ
つて、エフエクトをかける位置におけるアニメーシヨン
・エフエクトの状態をビユーア106上にて直ちに確認
することができる。
(2-13) Animation Effect Setting As shown in FIG. 32C, the NOW line 139 is located at the start position of the animation effect Cut on the timeline 95, and the effect line is located on the overlay line 136. When the CPU 21 determines that there is an event E2 to be processed, the event E1 is controlled by the CPU 21.
Is set to the background and the out point of the event E1 is searched. Further, under the control of the CPU 21,
The event E2 on the overlay line 136 is set to the foreground, and the in point of the event E2 is searched. As a result, the nowline 13 on the timeline 95
When applying animation effect to position 9,
Background and foreground settings for each event can be made automatically, and the event E1
By reading out the IN point of the event E2 and the IN point of the event E2, the state of the animation effect at the position where the effect is applied can be immediately confirmed on the viewer 106.

【0218】また図32(D)に示すように、アニメー
シヨン・エフエクトCut内の所定位置にナウライン1
39があり、かつオーバレイライン136にエフエクト
の対象となるイベントがあるとCPU21が判断した場
合、CPU21の制御によつてイベントE1をバツクグ
ランドに設定すると共に、イベントE1のナウライン1
39の位置をサーチする。次にイベントE2をフオアグ
ランドに設定してイベントE2のナウライン139の位
置をサーチする。これにより上述のようにタイムライン
95上にて並べられたイベントE1に対してイベントE
2を用いたアニメーシヨン・エフエクトをかけるとき、
各イベントに対するバツクグランド及びフオアグランド
の設定を自動で行うことができると共に、ナウライン1
39の位置を読み出すことによつて、ナウライン139
位置のアニメーシヨン・エフエクトの状態をビユーア1
06上にて直ちに確認することができる。
As shown in FIG. 32D, the now line 1 is located at a predetermined position in the animation effect Cut.
39, and the CPU 21 determines that there is an event to be effected on the overlay line 136, the event E1 is set to the background under the control of the CPU 21, and the now line 1 of the event E1 is set.
The position of 39 is searched. Next, the event E2 is set to the foreground, and the position of the now line 139 of the event E2 is searched. As a result, the event E1 arranged on the timeline 95 as described above corresponds to the event E1.
When applying an animation effect using 2,
The background and foreground settings for each event can be set automatically, and the NOWLINE 1
By reading the position of 39, the now line 139
View the state of the animation effect at the position 1
06 can be confirmed immediately.

【0219】さらに図32(E)に示すように、単独の
イベントにエフエクトをかけることができる、例えばA
ロールエフエクト部(図中、「Mirror」として示
す)の途中にナウライン139があるとCPU21が判
断した場合、CPU21の制御によつてイベントE1を
バツクグランドに設定すると共に、イベントE1のナウ
ライン139の位置をサーチし、さらにイベントE1の
ナウライン139の位置をフオアグランドに設定する。
これによりタイムライン95上のイベントE1に対して
Aロールエフエクトによるアニメーシヨン・エフエクト
をかけるとき、イベントE1に対するバツクグランド及
びフオアグランドの設定を自動で行うことができると共
に、ナウライン139の位置を読み出すことによつて、
ナウライン139位置のアニメーシヨン・エフエクトの
状態をビユーア106上にて直ちに確認することができ
る。
Further, as shown in FIG. 32E, an effect can be applied to a single event, for example, A
When the CPU 21 determines that there is a now line 139 in the middle of a roll effect section (indicated as “Mirror” in the figure), the event E1 is set to the background by the control of the CPU 21 and the now line 139 of the event E1 is set. The position is searched, and the position of the now line 139 of the event E1 is set to the foreground.
Thus, when the animation effect by the A roll effect is applied to the event E1 on the time line 95, the background and the foreground for the event E1 can be automatically set, and the position of the now line 139 is read. By the way,
The state of the animation effect at the now line 139 can be immediately confirmed on the viewer 106.

【0220】(2−14)エフエクトのマニユアル・ト
ランジシヨン操作 ここで、例えば図32(A)及び図32(B)に示すよ
うに、トランジシヨン・エフエクトをかける対象となる
イベントE0及び又はイベントE1に対してフオアグラ
ンド及びバツクグランドが設定されたトランジシヨン・
エフエクトのパターンは、ダイアログ190(図29)
のフエイダレバー196を操作することにより、ビユー
ア106の画面上でテスト再生することができる。
(2-14) Manual Transition Operation of Effects Here, for example, as shown in FIGS. 32A and 32B, the event E0 and / or the event E1 to which the transition effect is applied Foreground and back ground are set for
The effect pattern is displayed in the dialog 190 (FIG. 29).
By operating the fader lever 196, test reproduction can be performed on the screen of the viewer 106.

【0221】この場合、フエイダレバー196が最も上
に位置している状態ではビユーア106にはバツクグラ
ンドが表示される。またフエイダレバー196をマウス
によりドラツグして上から下の方向に向かつて移動させ
るに従つて、ビユーア106に表示されるトランジシヨ
ン・エフエクトのパターンは、トランジシヨン・エフエ
クトのパターンに従つてフオアグランドに移行してい
く。そしてフエイダレバー196が最も下に位置してい
る状態ではビユーア106にはフオアグランドが表示さ
れる。
In this case, a background is displayed on the viewer 106 when the fader lever 196 is located at the uppermost position. Further, as the fader lever 196 is dragged by the mouse and moved from the top to the bottom, the transition effect pattern displayed on the viewer 106 shifts to the foreground in accordance with the transition effect pattern. I will do it. When the fader lever 196 is located at the lowest position, a foreground is displayed on the viewer 106.

【0222】これによりフエイダレバー196のマニユ
アル操作による任意の速度でトランジシヨン・エフエク
トのかかつたイベントを再生し得る。
As a result, the event of the transition effect can be reproduced at an arbitrary speed by manual operation of the fader lever 196.

【0223】またトランジシヨン・エフエクトの設定状
態において、ATボタン(Autoボタン)197をク
リツク入力した場合は、まず初めにフエイダレバー19
6が最も上の位置に移動して、その後、徐々に下の位置
に移動し、設定されたトランジシヨン時間でトランジシ
ヨンする。かくして自動でビユーア106上にてトラン
ジシヨン・エフエクトを再生し得る。
When the AT button (Auto button) 197 is clicked in the transition effect setting state, the feeder lever 19 is first activated.
6 moves to the uppermost position, then gradually moves to the lower position, and transitions at the set transition time. Thus, the transition effect can be automatically reproduced on the viewer 106.

【0224】同様にして図32(C)〜図32(E)に
示すように、イベントE1、E2に対してフオアグラン
ド及びバツクグランドを設定した後、エフエクトパター
ン番号を選択することにより設定したアニメーシヨン・
エフエクトのパターンは、ダイアログ190のフエイダ
レバー196を操作することにより、ビユーア106の
画面上でテスト再生することができる。
Similarly, as shown in FIGS. 32 (C) to 32 (E), after setting the foreground and background for events E1 and E2, the effect pattern number is set by selecting the effect pattern number. Animation
The effect pattern can be test-reproduced on the screen of the viewer 106 by operating the fader lever 196 of the dialog 190.

【0225】この場合、フエイダレバー196が最も上
に位置している状態ではビユーア106にはアニメーシ
ヨン・エフエクトのかかつていない状態であるバツクグ
ランドが表示される。またフエイダレバー196をマウ
スによりドラツグして上から下の方向に向かつて移動さ
せるに従つて、ビユーア106の表示画像はアニメーシ
ヨン・エフエクトのかかつた状態に移行していく。そし
てフエイダレバー196が最も下に位置している状態で
はビユーア106にはフオアグランド及びバツクグラン
ドが設定されたアニメーシヨン・エフエクトのかかつた
イベントが表示される。
In this case, when the fader lever 196 is located at the uppermost position, the background 106 in which the animation effect has not been performed is displayed on the viewer 106. Further, as the fader lever 196 is dragged by the mouse and moved from the top to the bottom, the display image of the viewer 106 shifts to the state of the animation effect. When the fader lever 196 is located at the lowest position, the viewer 106 displays the event of the animation effect in which the foreground and the back ground are set.

【0226】これによりフエイダレバー196のマニユ
アル操作による任意の速度でアニメーシヨン・エフエク
トのかかつたイベントを再生し得る。
As a result, the event of the animation effect can be reproduced at an arbitrary speed by manual operation of the feeder lever 196.

【0227】またアニメーシヨン・エフエクトの設定状
態において、ATボタン197をクリツク入力すると、
まずフエイダレバー196は最も上の位置に移動して、
その後、徐々に下の位置に移動し、設定されたトランジ
シヨン時間でトランジシヨンする。かくしてATボタン
197により通常の再生条件により、自動でアニメーシ
ヨン・エフエクトを再現し得る。
When the AT button 197 is clicked in the animation effect setting state,
First, the fader lever 196 moves to the uppermost position,
Thereafter, it gradually moves to the lower position, and transitions at the set transition time. Thus, the animation button can be automatically reproduced by the AT button 197 under normal reproduction conditions.

【0228】ここでダイアログ190に設けられたパラ
メータ設定部198においては、切り替え位置のエツジ
(Edge)に関するパラメータ、ライトを当てるような効果
であるライテイング(Lighting)に関するパラメータ、影
や帯を引くような効果であるトライアル(Traial)/ シヤ
ドウ(Shadow)に関するパラメータ、エフエクトを設定す
る位置であるロケーシヨン(Location)に関するパラメー
タ等、エフエクトに付加することのできる各種パラメー
タを各パラメータに対応するボタンをクリツク入力する
ことにより設定し得るようになされている。
Here, in parameter setting section 198 provided in dialog 190, the edge of the switching position is designated.
Parameters for (Edge), parameters for lighting (lighting effect), parameters for trial / shadow (effects such as shadows and bands), and positions for setting effects Various parameters that can be added to the effect, such as parameters related to the location (Location), can be set by clicking a button corresponding to each parameter.

【0229】さらにダイアログ190上においては、キ
ーボタン199をクリツク入力することによつてクロマ
(Chroma)キー及び又は外部(External)キーを設定し得る
ようになされている。
[0229] Further, on the dialog 190, the key button 199 is clicked to enter the chroma mode.
(Chroma) key and / or External key can be set.

【0230】(2−15)エフエクトの修正 エフエクトを設定されたイベントを修正する場合、修正
するエフエクトイベントをマウスによつてダブルクリツ
クすることにより、ダイアログ190がオープンされ、
当該ダイアログ190内に既に設定されているエフエク
トパラメータが表示される。ここで例えば既に設定され
ているエフエクトが図33(A)に示す「Wipe」のよう
にトランジシヨン・エフエクトであつた場合、エフエク
ト・イベントをダブルクリツクすると、イベントE0が
バツクグランドに設定され、イベントE0のアウト点が
サーチされると共に、イベントE1がフオアグランドに
設定されてイベントE1のイン点がサーチされる。これ
によりタイムライン95上のナウライン139の位置を
トランジシヨン・エフエクトを設定したイベントE0の
アウト点及びイベントE1のイン点に直ちに設定して、
ビユーア106上で確認することができる。
(2-15) Modifying an Effect When modifying an event for which an effect has been set, a dialog 190 is opened by double-clicking the modified effect event with the mouse.
The effect parameters that have already been set are displayed in the dialog 190. Here, for example, if the already set effect is a transition effect like “Wipe” shown in FIG. 33A, when the effect event is double-clicked, the event E0 is set to the background. The out point of E0 is searched, and the event E1 is set to the foreground, and the in point of event E1 is searched. As a result, the position of the now line 139 on the time line 95 is immediately set to the out point of the event E0 and the in point of the event E1 for which the transition effect is set, and
It can be confirmed on the viewer 106.

【0231】また例えば既に設定されているエフエクト
が図33(B)に示す「Mosaic」(モザイク)のように
アニメーシヨン・エフエクトであつた場合は、エフエク
ト・イベントをダブルクリツクするとイベントE1がバ
ツクグランドに設定され、イベントE1のイン点がサー
チされると共に、イベントE2がフオアグランドに設定
されてイベントE1のアウト点がサーチされる。
For example, if the already set effect is an animation effect like “Mosaic” (mosaic) shown in FIG. 33 (B), double-clicking the effect event causes the event E1 to become the background. Is set, the in point of the event E1 is searched, and the event E2 is set to the foreground, and the out point of the event E1 is searched.

【0232】これによりタイムライン95上のナウライ
ン139の位置をアニメーシヨン・エフエクトを設定し
たイベントE1又はE2のイン点に直ちに設定すること
ができる。
As a result, the position of the now line 139 on the time line 95 can be immediately set to the in point of the event E1 or E2 in which the animation effect is set.

【0233】かくしてダイアログ190を開いたとき、
ベース・ライン132上のビデオエフエクトをかける対
象のイベントに対してフオアグランド及びバツクグラン
ドが自動で設定されると共に、イベントのフオアグラン
ドの終了点及びバツクグランドの開始点が自動でサーチ
される。
Thus, when the dialog 190 is opened,
Foreground and background are automatically set for the event to be video-effected on the base line 132, and the end point of the foreground of the event and the start point of the background are automatically searched.

【0234】(2−16)エフエクトの表現方法 ここでタイムライン95上において、イベントに対して
設定するエフエクトの表現方法について説明する。
(2-16) Effect Expression Method Here, an effect expression method set for an event on the timeline 95 will be described.

【0235】タイムライン95上において設定するエフ
エクトには、大きく分けて2つのイベントを切り換える
際にかけられるトランジシヨン・エフエクトとアニメー
シヨン・エフエクトとに分けられ、トランジシヨン・エ
フエクトは、さらにトランジシヨン系及びフリツプ/タ
ンブル系に分けられる。
The effects set on the timeline 95 are roughly divided into a transition effect and an animation effect which are used when two events are switched. The transition effect is further divided into a transition system and a transition effect. Divided into flip / tumble systems.

【0236】すなわち図34(A)に示すように、トラ
ンジシヨン・エフエクトの内、トランジシヨン系の場
合、タイムライン95のベースビデオ・ライン132A
に基準となるイベントE1及びE2を表示すると共に、
ベースビデオ・ライン132Aの一行上に設けられたエ
フエクト・ライン135にエフエクトをかける時間長に
応じたエフエクトEF1をエフエクトの種類名と共に表
示する。さらにイベントE1とイベントE2との境界を
斜線によつて表わす。これによりイベントE1からイベ
ントE2へカツトが切り換えられていることが視覚によ
り容易に識別することができる。因みにトランジシヨン
系のエフエクトとしては、ワイプ、ページターン等があ
る。
That is, as shown in FIG. 34A, of the transition effects, in the case of the transition system, the base video line 132A of the time line 95 is used.
In addition to displaying the events E1 and E2 as a reference,
The effect EF1 corresponding to the length of time for effecting the effect on the effect line 135 provided on one line of the base video line 132A is displayed together with the effect type name. Further, the boundary between the event E1 and the event E2 is represented by oblique lines. This makes it easy to visually recognize that the cut has been switched from the event E1 to the event E2. Incidentally, transition effects include wipes, page turns, and the like.

【0237】また図34(B)に示すように、トランジ
シヨン・エフエクトの内フリツプ/タンブル系の場合、
トランジシヨン系の場合と同様にタイムライン95のベ
ースビデオ・ライン132A上に基準となるイベントE
1及びE2を表示すると共に、ベースビデオ・ライン1
32Aの一行上に設けられたエフエクト・ライン135
にエフエクトをかける時間長に応じたエフエクトEF2
を当該エフエクトEF2のエフエクトの種類名と共に表
示する。さらにイベントE1とイベントE2との境界を
斜線によつて表わす。これによりイベントE1からイベ
ントE2へカツト切り換えがフリツプ/タンブルによつ
てなされることを視覚により容易に識別することができ
る。さらにフリツプ/タンブル系の場合は、画像の中心
線を基準にしてイベント画像を3次元的に回転させるエ
フエクトなので、画像が丁度90°回転したときのイン
ターナル・ビデオ(Internal Video)が見えないという
ことをオーバレイライン122においてエフエクトIV
によつて表示するようになされている。
As shown in FIG. 34B, in the case of the flip / tumble system in the transition effect,
As in the case of the transition system, a reference event E is displayed on the base video line 132A of the timeline 95.
1 and E2 as well as the base video line 1
Effect line 135 provided on one line of 32A
EF2 according to the length of time to effect
Is displayed together with the effect type name of the effect EF2. Further, the boundary between the event E1 and the event E2 is represented by oblique lines. As a result, it is possible to easily visually recognize that the cut switching from the event E1 to the event E2 is performed by flip / tumble. Further, in the case of the flip / tumble system, since the event image is rotated three-dimensionally with reference to the center line of the image, the internal video (Internal Video) when the image is rotated exactly 90 ° cannot be seen. The effect IV in the overlay line 122
Are displayed.

【0238】次にアニメーシヨン・エフエクトにはイベ
ントに対してかけられるビデオエフエクトが1つのイベ
ントにエフエクトをかける、又は所定のイベントにエフ
エクトのかかつたイベントを挿入するものがあり、この
アニメーシヨン・エフエクトは、さらにスタンダードア
ニメーシヨン系及びモデイフアイ系(=エフエクトタイ
プ)に分けられる。
Next, in the animation effect, a video effect applied to an event applies an effect to one event, or inserts an event having an effect into a predetermined event. The effect is further divided into a standard animation system and a modifiable system (= effect type).

【0239】すなわち図34(C)に示すように、基準
イベントに対してエフエクトのかかつたイベントを挿入
するピクチユア・イン・ピクチユア等によるスタンダー
ドアニメーシヨン系の場合、基準となるイベントE1を
ベースビデオ・ライン132Aに表示し、挿入するエフ
エクトのかかつたイベントE2をオーバレイライン13
6に表示するようになされている。この場合、ベースビ
デオ・ライン132A上のビデオエフエクトがかけられ
ている位置には、縦線を表示することによつてイベント
に対してアニメーシヨン・エフエクトがかけられている
状態を表示するようになされている。このように基準イ
ベントと挿入イベントとを別々のラインに表示すると共
に、アニメーシヨン・エフエクトがかけられている位置
には、縦線を表示するようにしたことにより、基準イベ
ントに対してアニメーシヨン・エフエクトの挿入イベン
トを挿入しているということを視覚によつて容易に識別
し得る。またこの場合、挿入イベントに用いられるエフ
エクトの種類をエフエクトライン135にエフエクトE
F3として表示するようにしたことにより、イベントに
対するエフエクトの種類を視覚によつて容易に識別し得
る。
That is, as shown in FIG. 34C, in the case of a standard animation system such as a picture-in-picture system in which an effect event is inserted into a reference event, the base event E1 The event E2, which is displayed on the line 132A and is inserted into the effect, is displayed on the overlay line 13A.
6 is displayed. In this case, at the position where the video effect is applied on the base video line 132A, the state where the animation effect is applied to the event is displayed by displaying a vertical line. It has been done. In this way, the reference event and the insertion event are displayed on separate lines, and a vertical line is displayed at the position where the animation effect is applied. It can be easily visually identified that the effect insertion event is being inserted. In this case, the effect type used for the insertion event is indicated in the effect line 135 by the effect E.
By displaying it as F3, the type of effect for the event can be easily identified visually.

【0240】図34(D)に示すように、1つのイベン
トに対してモザイク処理等を施すモデイフアイ系の場
合、基準となるイベントE1及びE2をベースビデオ・
ライン132Aに表示し、挿入するエフエクトをエフエ
クトEF3としてエフエクトライン136に表示するよ
うになされている。この場合、ベースビデオ・ライン1
32A上のビデオエフエクトがかけられている位置に
は、縦線を表示することによつてイベントE1及びE2
に対してアニメーシヨン・エフエクトがかけられている
状態を表示するようになされている。このように基準イ
ベントと挿入イベントとを別々のラインに表示すると共
に、アニメーシヨン・エフエクトがかけられている位置
に縦線を表示することによつてイベントに対してエフエ
クトがかけられているということを視覚によつて容易に
識別し得る。またこの場合、挿入イベントに用いられる
エフエクトの種類をエフエクトライン135にエフエク
トEF4として表示するようにしたことにより、イベン
トに対するエフエクトの種類を視覚によつて容易に識別
し得る。
As shown in FIG. 34 (D), in the case of a modi? Ed system in which mosaic processing or the like is performed on one event, events E1 and E2 serving as references are used as base video data.
The effect is displayed on the line 132A, and the effect to be inserted is displayed on the effect line 136 as the effect EF3. In this case, base video line 1
At the position where the video effect is applied on 32A, events E1 and E2 are displayed by displaying vertical lines.
Is displayed to indicate a state in which animation effect is being applied. In this way, the reference event and the insertion event are displayed on separate lines, and the effect is applied to the event by displaying the vertical line at the position where the animation effect is applied. Can be easily identified visually. In this case, the type of the effect used for the insertion event is displayed as the effect EF4 on the effect line 135, so that the type of the effect for the event can be easily visually identified.

【0241】(2−17)オーデイオの出力ルーテイン
グ設定 図35に示すように、プログラムウインドウ94(図1
8)のツールバーからオーデイオミツクスダウン用のダ
イアログ選択ボタン162をクリツク入力することによ
り編集用画面90上にダイアログ200を画面表示さ
せ、当該ダイアログ200を用いてタイムライン95上
に複数並べられたイベントの各オーデイオトラツクを出
力チヤネルに対応付けて出力経路を設定して各イベント
毎にオーデイオレベルを設定するようになされている。
(2-17) Audio Output Routing Setting As shown in FIG. 35, as shown in FIG.
8) By clicking on the dialogue selection button 162 for audio omics down from the toolbar, the dialog 200 is displayed on the editing screen 90, and a plurality of events are arranged on the timeline 95 using the dialog 200. Each audio track is associated with an output channel to set an output path, and an audio level is set for each event.

【0242】ダイアログ200は、ベースオーデイオ、
サブオーデイオ及びボイスオーバそれぞれがもつ4つの
トラツクT1〜T4と4つの出力チヤネルCh1〜Ch
4とをマトリクス形式で対応させたパネル201を設け
ており、当該パネル201において、各トラツクT1〜
T4に対して所望の出力チヤネルCh1〜Ch4位置に
対応するボタンを選択してクリツクすることにより、各
トラツクを各出力チヤネルにルーテイング設定する。
The dialog 200 includes a base audio,
Four tracks T1 to T4 and four output channels Ch1 to Ch of sub audio and voice over, respectively.
4 is provided in a matrix form in which the tracks T1 to T4 correspond to each other.
By selecting and clicking the buttons corresponding to the desired output channel positions Ch1 to Ch4 for T4, each track is set to be routed to each output channel.

【0243】この場合、例えば図35に示すパネル20
1おいては、第1列の1行目のトラツクT1に属するボ
タン201Aをクリツクすることにより、トラツクT1
を出力チヤネルCh1にルーテイング設定している。以
下同様にして、パネル201上にてトラツクT2を出力
チヤネルCh2、トラツクT3を出力チヤネルCh3
に、またトラツクT4を出力チヤネルCh4にルーテイ
ング設定していることを示している。
In this case, for example, the panel 20 shown in FIG.
1, by clicking the button 201A belonging to the track T1 in the first row of the first column, the track T1 is clicked.
Is set to the output channel Ch1. Similarly, on the panel 201, the track T2 is output to the output channel Ch2 and the track T3 is output to the output channel Ch3.
2 shows that the track T4 is set to be routed to the output channel Ch4.

【0244】またサブオーデイオ・ライン134及びボ
イスオーバ・ライン138についても同様にして例え
ば、サブオーデイオのもつトラツクT1〜T4をそれぞ
れ出力チヤネルCh1〜Ch4に、またボイスオーバの
もつトラツクT1及びT2をそれぞれ出力チヤネルCh
1及びCh2にルーテイング設定していることを示す。
Similarly, for the sub audio line 134 and the voice over line 138, for example, the tracks T1 to T4 of the sub audio are output channels Ch1 to Ch4, respectively, and the tracks T1 and T2 of the voice over are output, respectively. Output channel Ch
This indicates that routing setting is set to 1 and Ch2.

【0245】ここでダイアログ200に設けられた、マ
ニユアルフエイダボタン(「ManualFader」)202を
クリツク入力すると、編集用画面90には図36に示す
ようなフエイダアサイン用のダイアログ205が画面表
示される。
When the manual feeder button (“ManualFader”) 202 provided in the dialog 200 is clicked, a dialog 205 for feeder assignment as shown in FIG. 36 is displayed on the editing screen 90. You.

【0246】ダイアログ205は、ベースオーデイオ、
サブオーデイオ及びボイスオーバそれぞれのもつ4つの
トラツクT1〜T4とフエイダF1〜F4とをマトリク
スで対応させるようにしたパネル206を設けており、
当該パネル206において、各列に設定された各トラツ
クT1〜T4に対して各行に設定された所望のフエイダ
F1〜F4位置に対応するボタンを選択してクリツクす
ることにより、各トラツクをそれぞれフエイダF1〜F
4にルーテイング設定する。
[0246] The dialog 205 includes a base audio,
A panel 206 is provided in which the four tracks T1 to T4 of the sub audio and the voice over respectively correspond to the faders F1 to F4 in a matrix.
On the panel 206, the buttons corresponding to the desired faders F1 to F4 set in the respective rows are selected and clicked for the tracks T1 to T4 set in the respective columns. ~ F
Set routing to 4.

【0247】この場合、例えば図36に示すパネル20
6においては、ベースオーデイオの第1列及び第2列の
トラツクT1及びT2に属するボタン206A及び20
6Bをクリツク入力することにより、ベースオーデイオ
のトラツクT1及びT2をフエイダF1にルーテイング
設定していることを示す。以下同様にして、サブオーデ
イオの第1列及び第2列のトラツクT1及びT2に属す
るボタン206C及び206Dをクリツク入力すること
によりトラツクT1及びT2をフエイダF2にルーテイ
ング設定していることを示し、さらにボタン206E及
び206Fをクリツク選択することによりボイスオーバ
のトラツクT1及びT2をフエイダF3にルーテイング
設定していることを示す。
In this case, for example, the panel 20 shown in FIG.
In button 6, buttons 206A and 20B belonging to tracks T1 and T2 in the first and second rows of the base audio, respectively.
Clicking on 6B indicates that the tracks T1 and T2 of the base audio are routed to the fader F1. Similarly, by clicking the buttons 206C and 206D belonging to the tracks T1 and T2 in the first and second rows of the sub-audio, the tracks T1 and T2 are set to be routed to the fader F2. By clicking the buttons 206E and 206F, it is indicated that the voice over tracks T1 and T2 are set to be routed to the fader F3.

【0248】また、このパネル206における各トラツ
クT1〜T4に対する各フエイダF1〜F4の設定状態
は、表示部207にて各トラツクT1〜T4の各列の対
応位置に表示される。
The setting state of each of the faders F1 to F4 for each of the tracks T1 to T4 on the panel 206 is displayed on the display unit 207 at the corresponding position of each of the tracks T1 to T4.

【0249】ここで、上述したようにダイアログ200
及び205上において、オーデイオ出力を各チヤネルに
ルーテイング設定したイベントをビユーアウインドウ9
2上のプレビユボタン117をクリツク入力することに
よつてプレビユする場合について説明する。
Here, as described above, the dialog 200
And 205, an event in which audio output is set to be routed to each channel is displayed in the view window 9.
A case in which the preview is performed by clicking the preview button 117 on the upper part 2 will be described.

【0250】例えば図37に示すようにタイムライン9
5上に並べられたイベントが、ダイアログ200上のパ
ネル201及びダイアログ205上のパネル206での
設定に従つてルーライング設定されている場合、図38
(A)及び(B)に示すように実際、編集装置1の変容
コントローラ5の各フエイダF1〜F4に対してベース
オーデイオ・ライン132BのイベントE1〜E3がフ
エイダF1に、サブオーデイオ・ライン134のイベン
トE4がフエイダF2に、またボイスオーバ138のイ
ベントE5〜E7がフエイダF3にルーテイング設定さ
れることを示している。
For example, as shown in FIG.
When the events arranged on the line 5 are set in the routing according to the settings on the panel 201 on the dialog 200 and the panel 206 on the dialog 205, FIG.
As shown in (A) and (B), the events E1 to E3 of the base audio line 132B are actually transmitted to the fader F1 and the sub audio lines 134 are transmitted to the respective faders F1 to F4 of the transformation controller 5 of the editing apparatus 1. The event E4 indicates that routing is set to the fader F2, and the events E5 to E7 of the voice over 138 are set to be routed to the fader F3.

【0251】このようにしてタイムライン95上のベー
スオーデイオ・ライン132B、サブオーデイオ・ライ
ン134及びボイスオーバ・ライン138の各トラツク
T1及びT2に対してフエイダF1、F2及びF3が対
応付けられた後、マニユアルフエイダのオン/オフボタ
ン202A(図36)の「ON」をクリツク入力するこ
とにより、イベントをプレビユ又はレコーデイングする
ときにベースオーデイオ・ライン132B、サブオーデ
イオ・ライン134及びボイスオーバ138の各オーデ
イオレベルをフエイダF1、F2、及びF3に対応付け
された各フエイダレバー208を操作することによつて
各々調整することができる。
After the tracks T1 and T2 of the base audio line 132B, the sub audio line 134 and the voice over line 138 on the timeline 95 are associated with the faders F1, F2 and F3 in this manner. By clicking "ON" of the manual feeder on / off button 202A (FIG. 36), each of the base audio line 132B, the sub audio line 134, and the voice over 138 is displayed when an event is previewed or recorded. The audio levels can be adjusted by operating the respective fader levers 208 associated with the faders F1, F2 and F3.

【0252】(2−18)エフエクトの設定手順 タイムライン95上に並べられたイベントに対するエフ
エクトの設定は、図39及び図40に示すようなビデオ
編集アプリケーシヨン・ソフトウエアによるエフエクト
の設定手順に従つてCPU21の制御により実行され
る。
(2-18) Effect Setting Procedure The effect setting for the events arranged on the timeline 95 follows the effect setting procedure by the video editing application software as shown in FIG. 39 and FIG. This is executed under the control of the CPU 21.

【0253】すなわちエフエクトの設定手順は、まずス
テツプSP40においてエフエクトを付加する対象とな
るイベントをタイムライン95(図17及び図18)上
のベースビデオ・ライン132Aに並べる。ここでステ
ツプSP41においてプログラムウインドウ94上のエ
フエクトボタン159をクリツク入力することによりエ
フエクトの各種設定を行うためのダイアログ190(図
29)を画面表示させる。
That is, in the effect setting procedure, first, in step SP40, the event to which the effect is to be added is arranged on the base video line 132A on the timeline 95 (FIGS. 17 and 18). Here, in step SP41, by clicking on the effect button 159 on the program window 94, a dialog 190 (FIG. 29) for performing various effect settings is displayed on the screen.

【0254】次にステツプSP42において、ダイアロ
グ190上のフエイバレツトパターン・表示部192に
表示されるエフエクトのパターン・ビツトマツプの中か
ら所望のパターンをクリツクして選択する。この結果、
CPU21の制御によりパターン番号設定部191のパ
ターン番号欄191Aに選択されたパターンの番号が出
力表示される。
Next, in step SP42, a desired pattern is clicked and selected from the effect pattern / bit map displayed on the favorite pattern / display section 192 on the dialog 190. As a result,
The number of the selected pattern is output and displayed in the pattern number column 191A of the pattern number setting section 191 under the control of the CPU 21.

【0255】因みにエフエクトのパターンは、所望のパ
ターン番号が既に判つている場合は直接、パターン番号
設定部191のパターン番号欄191Aに所望のパター
ン番号をキーボード2Cよりテンキー入力した後、エン
ターキーをクリツクすることによつても選択することが
できる。
For the effect pattern, if the desired pattern number is already known, the desired pattern number is directly input from the keyboard 2C into the pattern number field 191A of the pattern number setting section 191 and then the enter key is clicked. Can also be selected.

【0256】ここでCPU21は、イベントに対して設
定するエフエクトがアニメーシヨン・エフエクトである
かトランジシヨン・エフエクトであるかを判断し、次の
ステツプSP43において、ビデオエフエクトがアニメ
ーシヨン・エフエクトである場合には続くステツプSP
44に進む。ステツプSP44において、まずタイムラ
イン95上の所望の位置でビユーア106上のマークイ
ンボタン115及びアウトボタン116を押すことによ
つてイベントに対してイン点及びアウト点を設定してタ
イムライン95上のエフエクトをかける範囲を指定する
(図31(A))。
At this point, the CPU 21 determines whether the effect set for the event is an animation effect or a transition effect, and in the next step SP43, the video effect is the animation effect. Step SP to follow in case
Go to 44. In step SP44, first, by pressing the mark-in button 115 and the out button 116 on the viewer 106 at desired positions on the timeline 95, an in-point and an out-point are set for the event, and A range to be effected is designated (FIG. 31A).

【0257】次にステツプSP45において、ステツプ
SP42にて選択されたクリツプCLをドラツグ・アン
ド・ドロツプによりタイムライン95上に貼り付ける。
この結果、図31(B)に示すように新しいイベント
「New Event 」がタイムライン95のオーバレイ・ビデ
オ・ライン136に貼り付けられる。このようにオーバ
レイビデオ・ライン136にオーバレイイベントが貼り
付けられると、タイムライン95のエフエクトライン1
35にも選択したエフエクト例えばピクチヤ・イン・ピ
クチヤ「PinP」が貼り付けられる。これによりベー
スビデオ・ライン132Aのイベントに対してアニメー
シヨン・エフエクトを設定することができる。(図31
(B))。
Next, at step SP45, the clip CL selected at step SP42 is pasted on the timeline 95 by drag and drop.
As a result, a new event “New Event” is pasted on the overlay video line 136 of the timeline 95 as shown in FIG. When the overlay event is pasted on the overlay video line 136 in this manner, the effect line 1 of the timeline 95 is output.
A selected effect, for example, a picture-in-picture "PinP" is also pasted on 35. As a result, an animation effect can be set for the event of the base video line 132A. (FIG. 31
(B)).

【0258】かくしてマウス2Dを用いたドラツグ・ア
ンド・ドロツプによる簡易な操作によつて、タイムライ
ン95上に貼り付けられたイベントのイン点及びアウト
点間にアニメーシヨン・エフエクトを設定し得る。
Thus, an animation effect can be set between the in-point and the out-point of the event pasted on the timeline 95 by a simple operation of drag and drop using the mouse 2D.

【0259】このようにしてイベントに対してアニメー
シヨン・エフエクトが設定されると、ステツプSP46
においてダイアログ190を閉じるようにして、次の処
理ステツプSP47に移る。
When the animation effect is set for the event in this manner, step SP46 is executed.
Then, the dialog 190 is closed, and the routine proceeds to the next processing step SP47.

【0260】ここでステツプSP43において、CPU
21によつてイベントに対して設定するエフエクトがト
ランジシヨン・エフエクトであると判断された場合、C
PU21の制御によりステツプSP48に移り、ダイア
ログ190を用いてトランジシヨン時間を設定した後、
次のステツプSP49において、選択されたエフエクト
をドラツグ・アンド・ドロツプによりタイムライン95
上に貼り付ける(図30(A))。この結果、タイムラ
イン95のエフエクトライン135に選択したエフエク
トが貼り付けられ、これによりベースビデオ・ライン1
32Aのイベントに対してトランジシヨン・エフエクト
を設定することができる(図30)。かくしてマウス2
Dを用いたドラツグ・アンド・ドロツプによる簡易な操
作によつてタイムライン95上に貼り付けられたイベン
トに対してトランジシヨン・エフエクトを設定し得る。
この後、処理ステツプはステツプSP46に移る。
Here, in step SP43, the CPU
If the effect set for the event is determined to be a transition effect by C.21,
The process proceeds to step SP48 under the control of the PU 21, and after setting a transition time using the dialog 190,
In the next step SP49, the selected effect is added to the timeline 95 by drag-and-drop.
Paste on top (FIG. 30 (A)). As a result, the selected effect is pasted on the effect line 135 of the timeline 95, and the base video line 1
A transition effect can be set for the event of 32A (FIG. 30). Thus mouse 2
A transition effect can be set for an event pasted on the timeline 95 by a simple operation of drag and drop using D.
Thereafter, the processing step moves to step SP46.

【0261】ここでステツプSP46においてダイアロ
グ190が閉じられると、次にステツプSP47におい
て、イベントに対して設定したエフエクトを修正するか
否かを判断する。ここでイベントに対して設定したエフ
エクトを修正する場合は、ステツプSP50に移つて一
旦設定したエフエクト・イベントを削除した後、ステツ
プSP41に戻り、ビデオエフエクトの設定手順をステ
ツプSP42から再度、実行し直す。
When the dialog 190 is closed in step SP46, it is next determined in step SP47 whether or not the effect set for the event is to be corrected. If the effect set for the event is to be corrected here, the process moves to step SP50, deletes the effect event once set, returns to step SP41, and executes the video effect setting procedure again from step SP42. cure.

【0262】またステツプSP47において、イベント
に対して設定したエフエクトを修正しないとした場合
は、イベントに対するエフエクトの設定を完了してエフ
エクトの設定手順を終了する。これによりタイムライン
95上に読み出されたイベントに対して、アニメーシヨ
ン・エフエクト又はトランジシヨン・エフエクトを容易
に設定し得る。
If it is determined in step SP47 that the effect set for the event is not to be modified, the effect setting for the event is completed, and the effect setting procedure ends. This makes it possible to easily set an animation effect or a transition effect for the event read on the timeline 95.

【0263】(3)実施の形態の動作 以上の構成において、まず、コンピユータ2のモニタ2
B上に表示されるビユーアウインドウ92上のソース選
択ボタン102A〜102Eのいずれかを選択してクリ
ツクすることにより、所定のソースデバイスを選択し
て、当該ソースデバイスより所望の編集素材、すなわち
プログラムを読み出すことができる。
(3) Operation of Embodiment In the above configuration, first, the monitor 2 of the computer 2
By selecting and clicking one of the source selection buttons 102A to 102E on the viewer window 92 displayed on B, a predetermined source device is selected, and a desired editing material, that is, a program, is selected from the source device. Can be read.

【0264】次にソースデバイスより読み出したプログ
ラムをイン点及びアウト点を指定して所望の長さに切り
取つた後、登録部122のADDボタン122Aをクリ
ツク入力することによりログウインドウ93上又はプロ
グラムウインドウ94のタイムライン95上に登録する
ことができる。
Next, the program read from the source device is cut into a desired length by designating the in point and the out point, and then the ADD button 122A of the registration unit 122 is clicked on to display the program on the log window 93 or the program window. 94 can be registered on the timeline 95.

【0265】ここで切り取つたプログラムをタイムライ
ン95上に登録した場合、ビユーアウインドウ92上の
TLボタン126をクリツク入力することにより、デバ
イスコントロール部96の制御をタイムライン95上に
移すことができる。
When the cut program is registered on the timeline 95, the control of the device control section 96 can be transferred to the timeline 95 by clicking the TL button 126 on the viewer window 92. .

【0266】この場合、タイムライン95上の所定のラ
インには登録されたプログラムが当該プログラムの長さ
に応じた長さで帯状にグラフイツク表示される。このタ
イムライン95上には、ナウライン139が表示され、
当該ナウライン139の表示位置の画像がビユーア10
6に表示される。またタイムコード表示欄108にはナ
ウライン139位置のタイムコードが表示される。これ
によりナウライン139位置の画像及びタイムコードを
確認し得る。
In this case, the registered program is graphically displayed on a predetermined line on the time line 95 in a band shape with a length corresponding to the length of the program. On the timeline 95, a now line 139 is displayed,
The image at the display position of the now line 139 is the view 10
6 is displayed. The time code at the position of the now line 139 is displayed in the time code display column 108. Thereby, the image and the time code at the now line 139 can be confirmed.

【0267】ここでデバイスコントロール部96のスラ
イダ部120によりタイムライン95上の所望の位置に
ナウライン139を移動させることによつてフアイルの
所望位置を容易にサーチすることができる。このときタ
イムライン95上に登録されたプログラムをデバイスコ
ントロール部96の制御を介して再生し、ビユーア10
6によつて再生画像をモニタしながらプログラムをサー
チして、所望の位置にてマークインボタン115及びマ
ークアウトボタン116をクリツク入力することにより
プログラムに対してイン点又はアウト点を設定すること
ができる。
Here, the desired position of the file can be easily searched by moving the now line 139 to a desired position on the time line 95 by the slider section 120 of the device control section 96. At this time, the program registered on the timeline 95 is reproduced under the control of the device control section 96, and the viewer 10
6, the program is searched while monitoring the reproduced image, and a mark-in button 115 and a mark-out button 116 are click-input at desired positions to set an in point or an out point for the program. it can.

【0268】このようにタイムライン95上のプログラ
ムに対してイン点及びアウト点が設定されると、CPU
21の制御によりプログラムに設定されたイン点及びア
ウト点それぞれのタイムコードからイン点及びアウト点
間の長さを計算してその長さDURをビユーアウインド
ウ92上のDUR表示欄114に表示することができ
る。
When the IN point and the OUT point are set for the program on the timeline 95, the CPU
The length between the in-point and the out-point is calculated from the time code of each of the in-point and the out-point set in the program under the control of 21 and the length DUR is displayed in the DUR display field 114 on the viewer window 92. be able to.

【0269】ここでログウインドウ93上の所定のクリ
ツプ素材をドラツグしてタイムライン95のプログラム
に設定されたイン点付近にドロツプするという簡易な操
作により、タイムライン95上のプログラムのイン点及
びアウト点間に所望のイベントを貼り付けることができ
る。
Here, a simple operation of dragging a predetermined clip material on the log window 93 and dropping it near the in-point set in the program on the timeline 95 allows the in-point and out-point of the program on the timeline 95. A desired event can be pasted between points.

【0270】この場合、図23に示すように例えば、第
1のケースとしてタイムライン95上にイン点及びアウ
ト点が設定され、かつクリツプ素材にイン点のみが設定
されている場合、タイムライン及びクリツプ素材のイン
点及びアウト点それぞれのタイムコードをもとにCPU
21の演算処理によりタイムライン95に設定されたア
ウト点に合わせてクリツプ素材のアウト点が設定され
る。
In this case, as shown in FIG. 23, for example, as a first case, when the in point and the out point are set on the timeline 95 and only the in point is set in the clip material, the timeline and the CPU based on the time code of each of the in and out points of the clip material
The out-point of the clip material is set in accordance with the out-point set in the timeline 95 by the arithmetic processing of 21.

【0271】また第2のケースとしてタイムライン95
上にはイン点のみが設定され、かつクリツプ素材にイン
点及びアウト点が設定されている場合、タイムライン9
5及びクリツプのイン点及びアウト点それぞれのタイム
コードをもとにCPU21の演算処理によつて挿入クリ
ツプ素材のアウト点が設定される。
As a second case, the time line 95
When only the in point is set above and the in and out points are set in the clip material, the timeline 9
The CPU 21 sets the out point of the inserted clip material on the basis of the time codes of the in point 5 and the in point and out point of the clip.

【0272】また第3のケースとしてクリツプに対して
イン点及びアウト点が設定され、かつタイムライン95
上にはアウト点のみが設定されている場合、クリツプの
イン点のタイムコードをもとにCPU21の演算処理に
よつて挿入クリツプのイン点に合わせた値がタイムライ
ン95のイン点として設定される。
As a third case, an in point and an out point are set for a clip, and a time line 95 is set.
When only the OUT point is set above, a value corresponding to the IN point of the inserted clip is set as the IN point of the timeline 95 by the arithmetic processing of the CPU 21 based on the time code of the IN point of the clip. You.

【0273】さらに第4のケースとしてタイムライン9
5上にイン点及びアウト点が設定され、かつクリツプに
対してイン点及びアウト点が設定されている場合、タイ
ムライン95上のイベントのイン点及びアウト点間の長
さと、クリツプ素材の長さとがそれぞれ一致していると
CPU21が判断したときは、クリツプCLはそのまま
タイムライン上のイン点及びアウト点間に貼り付けら
れ。
Further, as a fourth case, time line 9
5, the in-point and the out-point are set on the clip 5 and the in-point and the out-point are set for the clip, and the length between the in-point and the out-point of the event on the timeline 95 and the length of the clip material When the CPU 21 determines that the two match, the clip CL is pasted as it is between the IN point and the OUT point on the timeline.

【0274】これに対してタイムライン95上のイベン
トのイン点及びアウト点の長さと、クリツプ素材の長さ
が一致していないとCPU21が判断したときは、CP
U21の演算処理によつてクリツプ素材の長さをタイム
ライン95上のイン点又はアウト点に合わせて設定し直
しされる。
On the other hand, if the CPU 21 determines that the lengths of the IN and OUT points of the event on the timeline 95 do not match the length of the clip material,
The length of the clip material is reset according to the in-point or out-point on the timeline 95 by the arithmetic processing of U21.

【0275】これにより挿入するクリツプ素材のイン点
及び又はアウト点のタイムコード情報と、タイムライン
95上のイベントのイン点及び又はアウト点のタイムコ
ード情報とをもとにしたCPU21の演算処理により、
クリツプ素材の長さ又はタイムライン95上のイベント
のイン点及び又はアウト点を設定してタイムライン95
上に所望のクリツプ素材を容易に貼り付けることができ
る。
[0275] Thus, the CPU 21 performs arithmetic processing based on the time code information of the in point and / or the out point of the clip material to be inserted and the time code information of the in point and / or the out point of the event on the time line 95. ,
By setting the length of the clip material or the in-point and / or out-point of the event on the timeline 95,
A desired clip material can be easily attached on top.

【0276】(4)実施の形態の効果 以上の構成によれば、ソースデバイスから入力される編
集素材を読み出し、当該編集素材の長さに応じてタイム
ライン95上においてイベントとして帯状にグラフイツ
ク表示することによつて、視覚により大まかなプログラ
ムの長さ及び位置を確認することができる。
(4) Effects of the Embodiment According to the above configuration, the editing material input from the source device is read out and graphically displayed as an event on the timeline 95 in the form of a band according to the length of the editing material. This allows the user to visually confirm the approximate program length and position.

【0277】さらにタイムライン95上のプログラムを
デバイスコントロール部96を介して再生することがで
きると共に、再生中にタイムライン95上に表示される
ナウライン139の位置のプログラムの画像及びタイム
コードをそれぞれビユーア106及びタイムコード表示
欄108によつて確認することができる。
Further, the program on the timeline 95 can be reproduced via the device control section 96, and the image of the program and the time code at the position of the now line 139 displayed on the timeline 95 during the reproduction can be respectively viewed. This can be confirmed by using the time code 106 and the time code display field 108.

【0278】これによりタイムライン95上においてプ
ログラムの画像及びタイムコードを確認しながらプログ
ラムに対してマークインボタン115及び又はマークア
ウトボタン116をクリツク入力という簡易な方法によ
つてイン点及び又はアウト点を設定することができる。
Thus, while checking the image and the time code of the program on the time line 95, the mark-in button 115 and / or the mark-out button 116 are click-inputted to the program by a simple method of inputting the program into and out points. Can be set.

【0279】さらにログウインドウ93よりクリツプ素
材を読み出してタイムライン95に貼り付けるときに、
クリツプ素材のもつタイムコード情報及びタイムライン
95上に設定されたイン点及び又はアウト点のタイムコ
ード情報をもとにCPU21の演算処理によつてクリツ
プ素材の長さを設定し直すか、タイムライン95上のイ
ン点及び又はアウト点のタイムコードを設定し直すよう
にしたことにより、挿入イベントをタイムライン95上
の所定位置に確実に貼り付けることができる。
Further, when the clip material is read from the log window 93 and pasted on the timeline 95,
Based on the time code information of the clip material and the time code information of the in-point and / or the out-point set on the time line 95, the length of the clip material is reset by the arithmetic processing of the CPU 21, or By re-setting the time code of the in point and / or the out point on the 95, the insertion event can be reliably pasted at a predetermined position on the time line 95.

【0280】(5)他の実施の形態 なお上述の実施例においては、ログウインドウ93より
編集カツトのプログラム情報であるクリツプ素材をフア
イルとして読み出してタイムライン95に貼り付けると
きに、編集領域であるタイムライン95上にイン点及び
又はアウト点を設定した場合について述べたが、本発明
はこれに限らず、例えばエフエクトのプログラム情報を
編集する場合に用いても良く、これにより上述の実施の
形態と同様の効果を得ることができる。
(5) Other Embodiments In the above-described embodiment, when a clip material, which is program information of an edit cut, is read out from the log window 93 as a file and is pasted on the timeline 95, the edit area is used. The case where the in-point and / or the out-point is set on the timeline 95 has been described. However, the present invention is not limited to this, and may be used, for example, when editing effect program information. The same effect as described above can be obtained.

【0281】[0281]

【発明の効果】上述のように本発明によれば、編集領域
上に表示されたプログラム情報に対して編集開始位置及
び又は編集終了位置間の所定の挿入範囲を設定して、当
該挿入範囲にプログラム情報を挿入して指定された編集
作業を実行することができ、かくしてプログラム情報の
挿入による迅速な編集が容易になし得る編集装置を実現
し得る。
As described above, according to the present invention, a predetermined insertion range between the editing start position and the editing end position is set for the program information displayed on the editing area, and It is possible to execute the designated editing work by inserting the program information, and thus to realize an editing apparatus capable of easily performing quick editing by inserting the program information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した編集装置を示すブロツク図で
ある。
FIG. 1 is a block diagram showing an editing apparatus to which the present invention is applied.

【図2】編集装置を構成するコンピユータの内部構成を
示すブロツク図である。
FIG. 2 is a block diagram showing an internal configuration of a computer constituting the editing apparatus.

【図3】編集装置を構成する編集処理装置の内部構成を
示すブロツク図である。
FIG. 3 is a block diagram showing an internal configuration of an editing processing device constituting the editing device.

【図4】編集処理装置のシステムコントロール部の構成
を示すブロツク図である。
FIG. 4 is a block diagram illustrating a configuration of a system control unit of the editing processing device.

【図5】編集処理装置のマトリクススイツチヤ部の構成
を示すブロツク図である。
FIG. 5 is a block diagram showing a configuration of a matrix switch unit of the editing processing device.

【図6】編集処理装置の画像処理部の構成を示すブロツ
ク図である。
FIG. 6 is a block diagram illustrating a configuration of an image processing unit of the editing processing device.

【図7】編集処理装置の音声処理部の構成を示すブロツ
ク図である。
FIG. 7 is a block diagram showing a configuration of an audio processing unit of the editing processing device.

【図8】編集装置に接続されるローカルストレージの構
成を示すブロツク図である。
FIG. 8 is a block diagram showing a configuration of a local storage connected to the editing device.

【図9】ローカルストレージのデイスクアレイブロツク
の構成を示すブロツク図である。
FIG. 9 is a block diagram showing a configuration of a disk array block of a local storage.

【図10】デイスクアレイブロツクにおける動作の説明
に供する図表である。
FIG. 10 is a chart for explaining the operation in the disk array block.

【図11】デイスクアレイブロツクにおける動作の説明
に供する図表である。
FIG. 11 is a chart for explaining the operation in the disk array block.

【図12】編集用画面の説明に供する略線図である。FIG. 12 is a schematic diagram illustrating an editing screen.

【図13】ビユーアウインドウの説明に供する略線図で
ある。
FIG. 13 is a schematic diagram illustrating a view window.

【図14】フアイルリスト(図14(A)及びソースリ
スト(図14(B)の説明に供する略線図である。
14 is a schematic diagram used for describing a file list (FIG. 14A) and a source list (FIG. 14B).

【図15】補助入力素材設定用のダイアログの説明に供
する略線図である。
FIG. 15 is a schematic diagram for explaining a dialog for setting an auxiliary input material;

【図16】ログウインドウの説明に供する略線図であ
る。
FIG. 16 is a schematic diagram illustrating a log window.

【図17】プログラムウインドウの説明に供する略線図
である。
FIG. 17 is a schematic diagram used for describing a program window.

【図18】プログラムウインドウの説明に供する略線図
である。
FIG. 18 is a schematic diagram used for describing a program window.

【図19】デバイスアイコンの説明に供する略線図であ
る。
FIG. 19 is a schematic diagram for explaining a device icon;

【図20】ビデオレベル設定用のダイアログの説明に供
する略線図である。
FIG. 20 is a schematic diagram illustrating a dialog for setting a video level.

【図21】オーデイオレベル設定用のダイアログの説明
に供する略線図である。
FIG. 21 is a schematic diagram explaining a dialog for setting an audio level;

【図22】シーンチエンジのダイアログの説明に供する
略線図である。
FIG. 22 is a schematic diagram illustrating a scene change dialog.

【図23】クリツプのシーン名設定手順を示すフローチ
ヤートである。
FIG. 23 is a flowchart showing a clip scene name setting procedure.

【図24】ログウインドウ上に表示されるクリツプの説
明に供する略線図である。
FIG. 24 is a schematic diagram for explaining a clip displayed on a log window.

【図25】ログウインドウ上に表示されるクリツプの説
明に供する略線図である。
FIG. 25 is a schematic diagram for explaining a clip displayed on a log window.

【図26】イン点及びアウト点の設定手順を示すフロー
チヤートである。
FIG. 26 is a flowchart showing a procedure for setting an in point and an out point.

【図27】イン点及びアウト点の設定手順を示すフロー
チヤートである。
FIG. 27 is a flowchart showing a procedure for setting an in point and an out point.

【図28】タイムライン上へのクリツプの貼り付けの説
明に供する略線図である。
FIG. 28 is a schematic diagram for explaining the attachment of a clip on a timeline.

【図29】エフエクト設定用のダイアログの説明に供す
る略線図である。
FIG. 29 is a schematic diagram for explaining an effect setting dialog;

【図30】タイムライン上におけるエフエクトの設定の
説明に供する略線図である。
FIG. 30 is a schematic diagram for explaining setting of effects on a timeline.

【図31】タイムライン上におけるエフエクトの設定の
説明に供する略線図である。
FIG. 31 is a schematic diagram for explaining setting of effects on a timeline.

【図32】タイムライン上におけるエフエクト設定位置
の説明に供する略線図である。
FIG. 32 is a schematic diagram for explaining an effect setting position on a timeline.

【図33】タイムライン上におけるエフエクトの修正の
説明に供する略線図である。
FIG. 33 is a schematic diagram for describing correction of effects on a timeline.

【図34】タイムライン上におけるエフエクトの表現の
説明に供する略線図である。
FIG. 34 is a schematic diagram for describing the expression of effects on a timeline.

【図35】出力チヤネル・アサイン用のダイアログの説
明に供する略線図である。
FIG. 35 is a schematic diagram for explaining a dialog for output channel assignment;

【図36】フエイダ・アサイン用のダイアログの説明に
供する略線図である。
FIG. 36 is a schematic diagram for explaining a dialog for feeder assignment;

【図37】タイムライン上に貼り付けられたイベントの
説明に供する略線図である。
FIG. 37 is a schematic diagram for describing an event pasted on a timeline.

【図38】オーデイオフエイダのルーテイング設定の説
明に供する略線図である。
FIG. 38 is a schematic diagram used for explaining a routing setting of an audio-off ada.

【図39】エフエクトの設定手順を示すフローチヤート
である。
FIG. 39 is a flowchart showing an effect setting procedure.

【図40】エフエクトの設定手順を示すフローチヤート
である。
FIG. 40 is a flowchart showing an effect setting procedure.

【符号の説明】[Explanation of symbols]

1……編集装置、2……コンピユータ、2A……本体、
2B……モニタ2B、2C……キーボード、2D……マ
ウス、3……編集処理装置、4、5……専用コントロー
ラ、6……デイリーサーバ、7……VTR、8……ロー
カルストレージ、9……オンエアバツフア、10……ロ
ーカルエリアネツトワーク、90……編集用画面、92
……ビユーアウインドウ、93……ログウインドウ、9
4……プログラムウインドウ、95……タイムライン、
96……デバイスコントロール部、102、102A、
102A、102C、102AD、102E……ソース
選択ボタン、103A……フアイルリスト、103B…
…ソースリスト、106……ビユーア、108……タイ
ムコード表示欄、110……イン点画像表示部、111
……イン点タイムコード表示欄、112……アウト点画
像表示部、113……アウト点タイムコード表示欄、1
20……スライダ部、126……TLボタン、132…
…ベースライン、132A……ベースビデオ・ライン、
132B……ベースオーデイオ・ライン、134……サ
ブライン、135……エフエクトライン、137……D
SKライン、138……ボイスオーバ・ライン、139
……ナウライン、147……スケールライン、165…
…デバイスアイコン、165A……サーバアイコン、1
65B……ローカルストレージアイコン、165C……
VTRアイコン、165D……AUXアイコン、CL…
…クリツプ、170、172、190、200……ダイ
アログ、174……フエイダ部、180……クリツクエ
ントリ・ボタン、192……フアイバレツト・パターン
表示部。
1 ... editing device, 2 ... computer, 2A ... body,
2B Monitor 2B, 2C Keyboard, 2D Mouse, 3 Editing processor, 4, 5 Dedicated controller, 6 Daily server, 7 VTR, 8 Local storage, 9 ... On-air buffer, 10 ... Local area network, 90 ... Edit screen, 92
…… View window, 93 …… Log window, 9
4 ... Program window, 95 ... Timeline,
96 device control section, 102, 102A,
102A, 102C, 102AD, 102E ... source selection button, 103A ... file list, 103B ...
... Source list, 106, View, 108, Time code display column, 110, In-point image display section, 111
... In-point time code display field, 112... Out-point image display area, 113.
20: slider part, 126: TL button, 132 ...
... Baseline, 132A ... Base video line,
132B: Base audio line, 134: Sub line, 135: Effect line, 137: D
SK line, 138 ... Voice over line, 139
... Now line, 147 ... Scale line, 165 ...
... device icon, 165A ... server icon, 1
65B: Local storage icon, 165C:
VTR icon, 165D ... AUX icon, CL ...
... Clip, 170, 172, 190, 200... Dialogue, 174... Fader section, 180... Click entry button, 192.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 5/262 ──────────────────────────────────────────────────の Continued on front page (51) Int.Cl. 6 Identification code FI H04N 5/262

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】プログラム情報を記憶する記憶手段と、 上記プログラム情報及び上記プログラム情報を編集する
編集画面を表示する表示手段と、 上記表示手段によつて上記編集画面に表示される上記プ
ログラム情報に対する外部からの編集操作を仲介するユ
ーザインターフエイス手段と、 上記プログラム情報の長さ情報に応じたプログラム領域
を上記編集画面内に設けられた編集領域に表示して上記
ユーザインターフエイス手段を介して上記編集領域上の
上記プログラムに対して編集開始位置及び又は編集終了
位置を設定してして上記プログラム情報に対して指定さ
れた編集作業を実行する編集処理手段とを具えることを
特徴とする編集装置。
A storage means for storing program information; a display means for displaying the program information and an edit screen for editing the program information; and a display means for displaying the program information on the edit screen by the display means. User interface means for mediating an editing operation from the outside, and a program area corresponding to the length information of the program information is displayed in an editing area provided in the editing screen, and the user interface means Editing processing means for setting an editing start position and / or an editing end position for the program on the editing area and executing an editing operation specified for the program information. apparatus.
【請求項2】上記編集処理手段は、上記編集開始位置及
び上記編集終了位置間の所定の挿入範囲に第2の上記プ
ログラム情報を挿入することを特徴とする請求項1に記
載の編集装置。
2. The editing apparatus according to claim 1, wherein said edit processing means inserts the second program information into a predetermined insertion range between the edit start position and the edit end position.
【請求項3】上記編集処理手段は、上記編集開始位置及
び上記編集終了位置間の所定の挿入範囲に所定のエフエ
クト情報を挿入することを特徴とする請求項1に記載の
編集装置。
3. The editing apparatus according to claim 1, wherein the editing processing means inserts predetermined effect information into a predetermined insertion range between the editing start position and the editing end position.
【請求項4】上記編集処理手段は、上記編集領域内に表
示される上記プログラム領域の所定位置を指示する指示
手段を有し、当該指示手段によつて指示される上記編集
領域上の上記プログラム領域の所定位置に対応する上記
プログラム情報の画像情報を上記編集画面内の所定領域
に表示することを特徴とする請求項1に記載の編集装
置。
4. The editing processing means has an instruction means for instructing a predetermined position of the program area displayed in the editing area, and the program on the editing area which is instructed by the instruction means. 2. The editing apparatus according to claim 1, wherein image information of the program information corresponding to a predetermined position of the area is displayed in a predetermined area in the editing screen.
【請求項5】上記編集処理手段は、上記編集領域におい
て時間情報に対応付けて上記プログラム領域を帯状にグ
ラフイツク表示することを特徴とする請求項1に記載の
編集装置。
5. The editing apparatus according to claim 1, wherein the editing processing means graphically displays the program area in a band shape in association with time information in the editing area.
【請求項6】上記編集処理手段は、上記編集領域に表示
される上記プログラム領域の所定位置を指示する指示手
段を有し、当該指示手段によつて指示される上記プログ
ラム領域の所定位置に対応する上記プログラム情報の時
間情報を上記編集画面内の所定領域に表示することを特
徴とする請求項1に記載の編集装置。
6. The editing processing means has an instruction means for instructing a predetermined position of the program area displayed in the editing area, and corresponds to a predetermined position of the program area instructed by the instruction means. 2. The editing apparatus according to claim 1, wherein time information of the program information to be executed is displayed in a predetermined area in the editing screen.
JP11049297A 1997-04-12 1997-04-12 Editing device Expired - Fee Related JP3951196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11049297A JP3951196B2 (en) 1997-04-12 1997-04-12 Editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11049297A JP3951196B2 (en) 1997-04-12 1997-04-12 Editing device

Publications (2)

Publication Number Publication Date
JPH10290418A true JPH10290418A (en) 1998-10-27
JP3951196B2 JP3951196B2 (en) 2007-08-01

Family

ID=14537129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11049297A Expired - Fee Related JP3951196B2 (en) 1997-04-12 1997-04-12 Editing device

Country Status (1)

Country Link
JP (1) JP3951196B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000028543A1 (en) * 1998-11-10 2000-05-18 Sony Corporation Edit data creating device and edit data creating method
JP2009278329A (en) * 2008-05-14 2009-11-26 Toshiba It & Control Systems Corp High-speed photographic apparatus
USRE41081E1 (en) 1998-11-10 2010-01-19 Sony Corporation Data recording and reproducing apparatus and data editing method
WO2016035728A1 (en) * 2014-09-04 2016-03-10 ソニー株式会社 Video data processing apparatus and video data processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000028543A1 (en) * 1998-11-10 2000-05-18 Sony Corporation Edit data creating device and edit data creating method
US6670966B1 (en) 1998-11-10 2003-12-30 Sony Corporation Edit data creating device and edit data creating method
USRE41081E1 (en) 1998-11-10 2010-01-19 Sony Corporation Data recording and reproducing apparatus and data editing method
JP2009278329A (en) * 2008-05-14 2009-11-26 Toshiba It & Control Systems Corp High-speed photographic apparatus
WO2016035728A1 (en) * 2014-09-04 2016-03-10 ソニー株式会社 Video data processing apparatus and video data processing method
JPWO2016035728A1 (en) * 2014-09-04 2017-06-22 ソニー株式会社 Video data processing apparatus and video data processing method
US9924132B2 (en) 2014-09-04 2018-03-20 Sony Corporation Video data processing device and video data processing method

Also Published As

Publication number Publication date
JP3951196B2 (en) 2007-08-01

Similar Documents

Publication Publication Date Title
JP4536164B2 (en) Editing apparatus and editing method
US20030091329A1 (en) Editing system and editing method
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
US6670966B1 (en) Edit data creating device and edit data creating method
US7903927B2 (en) Editing apparatus and control method thereof, and program and recording medium
JP4168334B2 (en) Editing apparatus and editing method
JP4229199B2 (en) Editing apparatus and editing method
JP4588126B2 (en) Editing system and editing method
JP3951196B2 (en) Editing device
JP4174718B2 (en) Editing apparatus and editing method
KR100603173B1 (en) Editing apparatus and editing method
JPH10290419A (en) Editor
KR100603161B1 (en) Editing system and editing method
JPH10283759A (en) Editing apparatus
JP4172525B2 (en) Editing apparatus and editing method
JP2007317352A (en) Editing device and editing method
JPH10290393A (en) Editing device
JPH10290417A (en) Editor
JPH10290416A (en) Editor
JPH10290394A (en) Editing device
JP4051648B2 (en) Editing apparatus and editing method
JP3899586B2 (en) Editing apparatus and editing method
JPH1141517A (en) Editor
JP4158064B2 (en) Editing data creation device
JP2000149499A (en) Edition data preparing apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 19970513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070412

LAPS Cancellation because of no payment of annual fees