JP2007317352A - Editing device and editing method - Google Patents

Editing device and editing method Download PDF

Info

Publication number
JP2007317352A
JP2007317352A JP2007166155A JP2007166155A JP2007317352A JP 2007317352 A JP2007317352 A JP 2007317352A JP 2007166155 A JP2007166155 A JP 2007166155A JP 2007166155 A JP2007166155 A JP 2007166155A JP 2007317352 A JP2007317352 A JP 2007317352A
Authority
JP
Japan
Prior art keywords
video
editing
event
audio
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007166155A
Other languages
Japanese (ja)
Inventor
Akifumi Matsui
昌文 松井
Naomi Egashira
奈緒実 江頭
Tetsuo Nakada
哲郎 中田
Toshiyuki Tanaka
敏幸 田中
Motomu Ueda
求 植田
Yoshiyuki Nakamura
嘉幸 中村
Katsuaki Yamashita
功誠 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007166155A priority Critical patent/JP2007317352A/en
Publication of JP2007317352A publication Critical patent/JP2007317352A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To quickly produce a video program where immediacy is demanded. <P>SOLUTION: A viewer window generates an event by determining an edit point, while viewing a video image of a supplied source material. A log window displays a clip image concerning the event set in the view window. A program window makes a program list, by arranging a plurality of events on a time line in the desired order. A fader assign dialog, for assigning audio fader provided at an audio only controller, is displayed for audio tracks of respective events arranged on the time line, and levels of respective audio tracks of the event are controlled, based on information set in the fader assign dialog. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は編集装置に関し、例えば放送局などで使用されるニュース素材等を編集するための編集装置及び編集方法に適用して好適なものである。   The present invention relates to an editing apparatus, and is suitably applied to an editing apparatus and an editing method for editing news material used in a broadcasting station, for example.

従来、放送局等における編集素材を編集するためのポストプロダクションの分野では、編集素材を記録するための記録装置として磁気テープを使用したテープ編集が一般的であった。このテープ編集とは、素材テープをサーチしながら編集点を決定することによって必要なシーンだけを選び、マスタテープへダビングしながら番組のストーリーを組み立てていく作業である。しかし、このテープ編集作業は、テープ上の記録された素材の所望のフレームにアクセスするために、試行錯誤しながらキューアップを繰り返さなければならないため、編集点の決定に膨大な時間がかかっていた。また、編集点が決定されたカット毎にテープからテープへのダビングが必要であり、その都度、素材テープのVTRとマスタのVTRを制御しなければけないため、編集作業に多大な時間が必要であった。その結果、編集作業者は、長時間にわたって精神の集中が求められるこのテープ編集作業から解放されることはなかった。   Conventionally, in the field of post-production for editing editing material in a broadcasting station or the like, tape editing using a magnetic tape as a recording device for recording the editing material has been common. The tape editing is an operation of selecting a necessary scene by determining an editing point while searching for a material tape, and assembling a program story while dubbing to a master tape. However, in this tape editing work, in order to access the desired frame of the recorded material on the tape, it is necessary to repeat the cue-up through trial and error, so it takes a long time to determine the editing point. . In addition, it is necessary to perform dubbing from tape to tape every time the editing point is determined, and the VTR of the material tape and the master VTR must be controlled each time. there were. As a result, editors have not been relieved from this tape editing task, which requires mental concentration for a long time.

放送局でのニュース番組、報道番組及びスポーツ番組の制作では、各地で起こった当日の出来事をいち早く視聴者に提供すること、すなわち速報性が要求される。特に、このようなニュース番組、報道番組及びスポーツ番組の制作では、単に編集されたシーンをつなぎあわせるようなアッセンブル編集だけでななく、編集シーンの映像に対してモザイク効果やA/Bロール等のエフェクトや、編集シーンの音声に対して、話者の声色の変更、取材現場の周辺ノイズの除去などのエフェクと追加しなければいけない。   In the production of news programs, news programs, and sports programs at broadcasting stations, it is necessary to provide viewers with the events of the day that have occurred in various places, that is, prompt reporting. In particular, in the production of such news programs, news programs, and sports programs, not only assemble editing that connects edited scenes, but also mosaic effects, A / B rolls, etc. on the edited scene video. It is necessary to add effects and effects such as editing the voice of the speaker and removing noise around the interview site.

エフェクト等を追加するためには、ソースVTR及びマスタVTRを操作する編集作業だけで無く、これらのエフェクトを施すためのビデオスイッチャ装置や特殊効果装置を操作するための別の編集作業が必要であった。   In order to add effects and the like, not only editing work for operating the source VTR and master VTR but also another editing work for operating the video switcher device and special effect device for applying these effects is necessary. It was.

そのため、従来の編集装置では、ニュース番組、報道番組及びスポーツ番組に提供されるビデオプログラムを、素早く迅速に制作することができないという問題があった。   Therefore, the conventional editing apparatus has a problem that video programs provided for news programs, news programs, and sports programs cannot be quickly and quickly produced.

本発明は以上の点を考慮してなされたもので、迅速に、ニュース番組、報道番組及びスポーツ番組等に提供される即時性の要求されるビデオプログラムを制作することのできる使い勝手の向上した編集装置及び編集方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and has improved usability and can quickly produce video programs requiring immediacy to be provided for news programs, news programs, sports programs and the like. An apparatus and an editing method are proposed.

本発明の編集装置は、ソース素材をビューイングしながら編集点を決定することによってイベントを生成するためのビューアウィンドウと、ビューアウンドウにおいて設定されたイベントに関するクリップイメージを表示するログウィンドウと、複数のイベントを所望の順にタイムライン上に並べることによってプログラムリストを作成するプログラムウィンドウと、ビューアウィンドウと、ログウィンドウと、プログラムウィンドウを表示するディスプレイとを備え、タイムラインに並べられた各イベントのオーディオトラックに対してオーディオ専用コントローラに設けられたオーディオフェーダをアサインするためのフェーダアサインダイアログを表示し、フェーダアサインダイアログに設定された情報に基づいて、イベントの各オーディオトラックのレベルを制御することを特徴とするものである。   The editing apparatus of the present invention includes a viewer window for generating an event by determining an editing point while viewing a source material, a log window for displaying a clip image related to an event set in the viewer window, and a plurality of windows An audio track for each event arranged in the timeline, including a program window that creates a program list by arranging events on the timeline in the desired order, a viewer window, a log window, and a display that displays the program window Displays the fader assign dialog for assigning the audio fader provided in the audio controller, and based on the information set in the fader assign dialog, each event It is characterized in that to control the level of Iotorakku.

また、本発明の編集方法は、ソース素材をビューアウィンドウでビューイングしながら編集点を決定することによってイベントを生成するステップと、ビューアウンドウにおいて設定されたイベントに関するクリップイメージをログウィンドウに表示するステップと、プログラムウィンドウに複数のイベントを所望の順にタイムライン上に並べることによってプログラムリストを作成するステップと、ビューアウィンドウと、ログウィンドウと、プログラムウィンドウをディスプレイに表示するステップとを備え、タイムラインに並べられた各イベントのオーディオトラックに対してオーディオ専用コントローラに設けられたオーディオフェーダをアサインするためのフェーダアサインダイアログを表示し、フェーダアサインダイアログに設定された情報に基づいて、イベントの各オーディオトラックのレベルを制御することを特徴とするものである。   The editing method of the present invention includes a step of generating an event by determining an editing point while viewing a source material in a viewer window, and a step of displaying a clip image related to the event set in the viewer window in a log window. A program list by arranging a plurality of events on the timeline in a desired order in the program window, a viewer window, a log window, and a step of displaying the program window on a display. Displays the fader assignment dialog for assigning the audio fader provided in the audio controller to the audio track of each event arranged, and sets it in the fader assignment dialog. Based on the information, it is characterized in that to control the level of each audio track event.

すなわち、本発明の編集装置及び方法によれば、即時性の求められるニュース番組の制作時に、ノンリニアの特徴であるランダムアクセス性を生かした素早い編集作業が行える。また、本発明の編集装置及び方法は、全ての編集カットのクリップ画と、入力画と、タイムラインなどがGUI上で一覧できると共に、並んだクリップを見ながら編集順序をきめたり、それを簡単に入れ替えることができる。また、本発明の編集装置及び方法は、多彩なエフェクト機能を設定することができるので、高速に表現力豊かな映像制作を行うことができる。   In other words, according to the editing apparatus and method of the present invention, when a news program that requires immediateness is produced, a quick editing operation can be performed using the random accessibility that is a non-linear characteristic. In addition, the editing apparatus and method of the present invention can list all editing cut clip images, input images, timelines, etc. on the GUI, determine the editing order while viewing the arranged clips, and simplify it. Can be replaced. In addition, since the editing apparatus and method of the present invention can set various effect functions, it is possible to produce a video with high expressiveness at high speed.

ニュース番組制作や報道番組制作において、本発明の編集装置及び方法を適用することによって、モザイク効果の追加や話者の声色の変更、取材現場の周辺ノイズの除去機能などの編集を、自分一人で行うことができる。また、本発明の編集装置及び方法は、これらの多彩なエフェクトを実現するために、コンピュータによるソフト上の処理とハードウエアの両方を最適になるように使用して、リアルタイムでの高速ディジタル画像編集及びオーディオ編集を実現できる。   By applying the editing apparatus and method of the present invention in news program production and news program production, editing by itself, such as adding a mosaic effect, changing the voice of a speaker, and removing noise around the interview site, etc. It can be carried out. Further, the editing apparatus and method of the present invention uses real-time high-speed digital image editing by optimizing both software processing and hardware by a computer in order to realize these various effects. And audio editing.

従って、本発明の編集装置によれば、専用コントローラによって、各イベントのオーディオトラックを個別に制御することができるとともに、イベントに応じて各トラックとフォーダレバーとの設定を任意に可変することができる。   Therefore, according to the editing apparatus of the present invention, the audio track of each event can be individually controlled by the dedicated controller, and the setting of each track and the forward lever can be arbitrarily changed according to the event. it can.

また、本発明の編集方法によれば、専用コントローラによって、各イベントのオーディオトラックを個別に制御することができるとともに、イベントに応じて各トラックとフォーダレバーとの設定を任意に可変することができる。   Further, according to the editing method of the present invention, the audio track of each event can be individually controlled by the dedicated controller, and the setting of each track and the forward lever can be arbitrarily changed according to the event. it can.

以下、本発明に係る編集システム及び編集方法の好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of an editing system and an editing method according to the present invention will be described.

1. 編集装置の構成
1−1. 編集装置の全体構成
図1において、1は全体として本発明を適用した編集装置を示し、大きく分けてコンピュータ2と編集処理装置3からなる。
1. Configuration of editing apparatus 1-1. Overall Configuration of Editing Device In FIG. 1, reference numeral 1 denotes an editing device to which the present invention is applied as a whole.

制御手段としてコンピュータ2は、CPU(中央処理ユニット)や各種処理回路、或いはフロッピー(登録商標)ディスクドライブ、ハードディスクドライブ等を備える本体2Aと、当該本体2Aに接続される表示手段としてのモニタ2Bと、入力手段としてのキーボード2C及びマウス2Dとを有している。このようなコンピュータ2は編集のためのアプリケーションソフトウェアがハードディスクドライブに予めインストールされており、オペレーティングシステムの基で当該アプリケーションソフトウェアを動作させることにより編集装置用のコンピュータとして起動するようになされている。   The computer 2 as a control means includes a main body 2A including a CPU (Central Processing Unit), various processing circuits, a floppy (registered trademark) disk drive, a hard disk drive, and the like, and a monitor 2B as a display means connected to the main body 2A. And a keyboard 2C and a mouse 2D as input means. In such a computer 2, application software for editing is preinstalled in a hard disk drive, and the computer 2 is started up as a computer for an editing apparatus by operating the application software based on an operating system.

このアプリケーションソフトウェアを動作させたときには、モニタ2B上に編集用のGUI(グラフィカルユーザインターフェース)のためのグラフィックイメージが表示されるようになされている。この編集装置1では、このグラフィック表示と上述した入力手段とによってユーザインターフェースを構成し、例えばマウス2Dを使用して、モニタ2Bに表示される制御コマンドボタンを示すグラフィック表示の中から所望のグラフィック表示を選択することにより、編集処理の処理内容を指定するための制御コマンドを入力するようになされている。なお、コンピュータ2は、入力された制御コマンドが編集処理装置3における編集処理動作を制御するものであれば当該制御コマンドに応じた制御信号S1を生成し、これを編集処理装置3に送出して編集処理動作を指示するようになされている。   When this application software is operated, a graphic image for editing GUI (graphical user interface) is displayed on the monitor 2B. In this editing apparatus 1, a user interface is constituted by this graphic display and the above-described input means, and a desired graphic display is displayed from among the graphic displays indicating control command buttons displayed on the monitor 2B using, for example, the mouse 2D. By selecting, a control command for designating the processing content of the editing process is input. Note that if the input control command controls the editing processing operation in the editing processing device 3, the computer 2 generates a control signal S 1 corresponding to the control command and sends it to the editing processing device 3. An edit processing operation is instructed.

またこのコンピュータ2には編集処理装置3を介してビデオ信号S2が入力され、これにより各素材の映像をモニタ2Bに表示して素材内容を確認しながらイン点(イベントの開始点)やアウト点(イベントの終了点)をマーキングしたりすることができる。このイベントとは、イン点及びアント点によって指定された編集区間のことであって、タイムライン上に並べられた1つの編集素材のことを示している。また、このイベントは、オーディオイベント、ビデオイベント、DSK(Down Stream Key)イベント等から構成される。   The computer 2 also receives the video signal S2 via the editing processing device 3, thereby displaying the video of each material on the monitor 2B and confirming the material content while checking the in-point (event start point) and out-point. (Event end point) can be marked. This event is an editing section designated by the IN point and the ANT point, and indicates one editing material arranged on the timeline. Further, this event includes an audio event, a video event, a DSK (Down Stream Key) event, and the like.

このコンピュータ2は、イン点及びアウト点を指示することによって切り取られたイベントや編集した完成プログラムの映像をモニタ上に表示することによって、それらを確認することができる。(以下、この切り取られたイベントや編集プログラムを再生して表示することをプレビューと呼ぶ)。   The computer 2 can confirm the event clipped by instructing the IN point and the OUT point, and displaying the edited video of the completed program on the monitor. (Hereinafter, the reproduction and display of the cut event or editing program is referred to as a preview).

一方、編集処理装置3は内部にマトリクススイッチャ部、画像処理部及び音声処理部を有しており、素材の切り取りや繋ぎ合わせ、或いはビデオ信号やオーディオ信号に対するエフェクト処理等、実際の編集作業を実行する編集実行装置である。   On the other hand, the edit processing device 3 has a matrix switcher section, an image processing section, and an audio processing section inside, and executes actual editing operations such as cutting and joining of materials or effect processing for video signals and audio signals. The editing execution device.

この編集処理装置3には上述したようなコンピュータ2が接続されているだけでなく、別の入力手段として専用コントローラ4、5も接続されており、当該専用コントローラ4、5を使用しても編集のための制御コマンドを入力し得るようになされている。   Not only the computer 2 as described above is connected to the editing processing apparatus 3, but also dedicated controllers 4 and 5 are connected as another input means, and editing is possible even if the dedicated controllers 4 and 5 are used. It is designed to allow you to enter control commands for.

専用コントローラ4は、素材のイン点やアウト点を指示するためのボタン操作子や、素材の再生を指示するためのボタン操作子、或いは編集したプログラムの記録を指示するためのボタン操作子等を有していると共に、変速再生(いわゆるシャトル再生)やコマ送り再生(いわゆるジョグ再生)の指示を入力するためのダイアル操作子等を有しており、それらのボタン操作子又はダイアル操作子を介して入力された指示情報に応じた制御信号S3を編集処理装置3に送出するようになされている。   The dedicated controller 4 includes a button operator for instructing the in point and out point of the material, a button operator for instructing the reproduction of the material, or a button operator for instructing recording of the edited program. And a dial operator for inputting instructions for variable speed playback (so-called shuttle playback) and frame-by-frame playback (so-called jog playback), etc., via these button operator or dial operator The control signal S3 corresponding to the input instruction information is sent to the edit processing device 3.

また専用コントローラ5は、オーディオ信号の信号レベルを設定するための4つのオーディオ用フェーダレバーや2つの映像を切り換えるときの切換率を設定するためのビデオ用フェーダレバー等を有しており、それらのフェーダレバーを介して入力された指示情報(この指示情報はフェーダレバーによる設定値を示す)に応じた制御信号S4を編集処理装置3に送出するようになされている。   The dedicated controller 5 also has four audio fader levers for setting the signal level of the audio signal, a video fader lever for setting the switching rate when switching two images, and the like. A control signal S4 corresponding to instruction information input via the fader lever (the instruction information indicates a setting value by the fader lever) is sent to the editing processing apparatus 3.

また、この編集処理装置3に対しては、デイリーサーバ6(一般に放送局において映像や音声等の編集素材を記憶している記憶手段)が接続されており、この編集処理装置3は、デイリーサーバ6に記憶されているビデオ及びオーディオ信号を取り込むことができる。デイリーサーバ6は2チヤンネル分の出力ポートを有しており、編集処理装置3から供給されるチヤンネル毎の制御信号S5、S6に応じて所望のビデオ及びオーディオ信号S7、S8を記憶媒体6Aから読み出して出力することができる。なお、記憶媒体6Aには圧縮率1/10のMPEG(Moving Picture coding Experts Group)規格で圧縮されたビデオ及びオーディオ信号が記憶されており、読み出されたビデオ及びオーディオ信号はそれぞれデコーダ6B、6Cを介して復号化が行われた後、シリアルディジタルインターフェイス(以下、これをSDIと呼ぶ)規格のフォーマットに変換され、そのSDI規格のビデオ及びオーディオ信号S7、S8が編集処理装置3に供給される。   The editing processing apparatus 3 is connected to a daily server 6 (generally storing means for storing editing materials such as video and audio in a broadcasting station). The editing processing apparatus 3 is connected to the daily processing server 3. 6 can capture the video and audio signals stored in it. The daily server 6 has an output port for two channels, and reads out desired video and audio signals S7 and S8 from the storage medium 6A according to the control signals S5 and S6 for each channel supplied from the editing processing device 3. Can be output. Note that the storage medium 6A stores video and audio signals compressed according to the MPEG (Moving Picture coding Experts Group) standard with a compression ratio of 1/10. The read video and audio signals are decoders 6B and 6C, respectively. Is then converted into a serial digital interface (hereinafter referred to as SDI) standard format, and the SDI video and audio signals S7 and S8 are supplied to the editing processing device 3. .

またこの編集処理装置3に対してはVTR7も接続されており、この編集処理装置3は、VTR7に記憶されているビデオ及びオーディオ信号も取り込むことができる。VTR7はSDI規格の入出力インターフェイスを有しており、編集処理装置3から供給される制御信号S9に応じて所望のビデオ及びオーディオ信号S10を読み出して出力することができる。またVTR7は、編集処理された後のビデオ及びオーディオ信号やデイリーサーバ6から読み出されたビデオ及びオーディオ信号S7、S8を記録対象のビデオ及びオーディオ信号S11として編集処理装置3から受けることができとともに、制御信号S9に応じてそのビデオ及びオーディオ信号S11をビデオテープに記録できるようにも構成されている。   A VTR 7 is also connected to the editing processing device 3, and the editing processing device 3 can also capture video and audio signals stored in the VTR 7. The VTR 7 has an SDI standard input / output interface, and can read and output a desired video and audio signal S10 in accordance with a control signal S9 supplied from the editing processing device 3. The VTR 7 can receive the video and audio signals after the editing process and the video and audio signals S7 and S8 read from the daily server 6 from the editing processing apparatus 3 as the recording target video and audio signals S11. The video and audio signal S11 can be recorded on the video tape in response to the control signal S9.

またこの編集処理装置3に対しては、記憶手段として、複数のハードディスクからなるローカルストレージ8も接続されており、編集処理装置3は、当該ローカルストレージ8に記憶されているビデオ及びオーディオ信号も取り込むことができるように構成されている。ローカルストレージ8はSDI規格の入出力インターフェイスを有していると共に、出力ポートとしては2チヤンネル分のポートを有しており、編集処理装置3から供給される制御信号S12に応じて所望のビデオ及びオーディオ信号S13A〜S13Eを読み出して出力するようになされている。またローカルストレージ8は、編集処理された後のビデオ及びオーディオ信号やデイリーサーバ6又はVTR7から読み出されたビデオ及びオーディオ信号を記録対象のビデオ及びオーディオ信号S15として編集処理装置3から受けるようになされており、制御信号S9に応じてそのビデオ及びオーディオ信号S15を内部のハードディスクに記録するようにもなされている。   The editing processing device 3 is also connected with a local storage 8 comprising a plurality of hard disks as storage means, and the editing processing device 3 also captures video and audio signals stored in the local storage 8. It is configured to be able to. The local storage 8 has an input / output interface conforming to the SDI standard, and also has a port for two channels as an output port, and a desired video and an output in accordance with a control signal S12 supplied from the editing processing device 3. The audio signals S13A to S13E are read out and output. The local storage 8 receives the video and audio signals after the editing process and the video and audio signals read from the daily server 6 or the VTR 7 from the editing processing apparatus 3 as the recording target video and audio signals S15. In response to the control signal S9, the video and audio signals S15 are recorded on the internal hard disk.

またこの編集処理装置3に対しては、オンエアバッファ(放送の際にプログラムを一時的に記憶するための記憶手段)9も接続されており、当該編集処理装置3によって編集処理したプログラムのビデオ及びオーディオ信号S16をオンエアバッファ9に記憶し得るようになされている。この場合、オンエアバッファ9はSDI規格の入力インターフェイスを有しているので、送出されるビデオ及びオーディオ信号S16としてはSDI規格の信号フォーマットになっている。またオンエアバッファ9においては、供給されたビデオ及びオーディオ信号S16をエンコーダ9Aによって圧縮率1/10のMPEG規格で圧縮した後、内部の記憶媒体9Bに記憶するようになされている。   An on-air buffer (storage means for temporarily storing a program during broadcasting) 9 is also connected to the editing processing device 3, and a video of the program edited by the editing processing device 3 and The audio signal S16 can be stored in the on-air buffer 9. In this case, since the on-air buffer 9 has an SDI standard input interface, the video and audio signals S16 to be transmitted are in the SDI standard signal format. In the on-air buffer 9, the supplied video and audio signal S16 is compressed by the encoder 9A according to the MPEG standard with a compression rate of 1/10 and then stored in the internal storage medium 9B.

なお、このオンエアバッファ9と編集装置1のコンピュータ2は例えばイーサネット(登録商標)等のローカルエリアネットワーク(以下、これをLANと呼ぶ)10を介して接続されており、オンエアバッファ9に対する制御コマンドはコンピュータ2及びLAN10を介して当該オンエアバッファ9に送出される。また編集されたプログラムがどのような素材で構成されているかを示す編集リスト(一般にエディットディシジョンリストと呼ばれる)も、このLAN10を介してオンエアバッファ9に送出される。   The on-air buffer 9 and the computer 2 of the editing apparatus 1 are connected to each other via a local area network (hereinafter referred to as a LAN) 10 such as Ethernet (registered trademark). The data is sent to the on-air buffer 9 via the computer 2 and the LAN 10. An edit list (generally called an edit decision list) indicating what kind of material the edited program is composed of is also sent to the on-air buffer 9 via the LAN 10.

また編集装置1のコンピュータ2とデイリーサーバ6もこのLAN10を介して接続されており、当該LAN10を介してデイリーサーバ6に記憶されている各素材のファイル名等をコンピュータ2から参照し得るようになされている。   The computer 2 of the editing apparatus 1 and the daily server 6 are also connected via the LAN 10 so that the file names of the respective materials stored in the daily server 6 can be referred to from the computer 2 via the LAN 10. Has been made.

また編集処理装置3に対しては、オプション接続としてスピーカ11及び12が接続されるようになされており、編集処理装置3によって編集されたオーディオ信号S17、S18を当該スピーカ11、12から送出してオーディオに関する編集結果を確認し得るようになされている。   Speakers 11 and 12 are connected to the editing processing device 3 as an optional connection, and audio signals S17 and S18 edited by the editing processing device 3 are sent from the speakers 11 and 12. Audio editing results can be confirmed.

さらに編集処理装置3に対しては、オプション接続としてプレビュー専用のモニタ13も接続されるようになされており、編集処理装置3によって編集されたビデオ信号S19を当該モニタ13に表示してビデオに関する編集結果をこのモニタ13によっても確認し得るようになされている。このモニタ13に表示されるプレビュー画面の方がコンピュータ2のモニタ2Bに表示されるプレビュー画面よりも大きいので、モニタ13を接続した方がより鮮明に編集結果を確認し得る。   Furthermore, a preview-dedicated monitor 13 is also connected to the editing processing device 3 as an optional connection, and the video signal S19 edited by the editing processing device 3 is displayed on the monitor 13 to edit the video. The result can be confirmed also by the monitor 13. Since the preview screen displayed on the monitor 13 is larger than the preview screen displayed on the monitor 2B of the computer 2, the result of editing can be confirmed more clearly when the monitor 13 is connected.

ここでこの編集装置1における編集方法を簡単に説明する。まずこの編集装置1では、アプリケーションソフトウェアを起動させると、上述したようにモニタ2BにGUIのためのグラフィック表示が表示される。このグラフィック表示としては、後述するように、素材の映像を見ながらイン点やアウト点を指定することによってイベントを生成するビューアウィンドウの画面や、ビューアウィンドウによって生成したイベントのクリップ画を表示するログウィンドウの画面、或いはこの編集装置1で行う編集処理内容を指定すると共に、指定された編集処理内容をグラフィック表示を使用して表示するプログラムウィンドウの画面や、その他、制御コマンドを入力するための制御コマンドボタン等である。   Here, an editing method in the editing apparatus 1 will be briefly described. First, in the editing apparatus 1, when the application software is activated, a graphic display for GUI is displayed on the monitor 2B as described above. As described later, this graphic display includes a viewer window that generates events by specifying the In and Out points while viewing the video of the material, and a log that displays clip images of events generated by the Viewer window. The window screen or the editing process content to be performed by the editing apparatus 1 is specified, and the program window screen for displaying the specified editing process content using a graphic display, and other control for inputting a control command. Command buttons, etc.

まず編集オペレータは、このモニタ2Bに表示される所定の制御コマンドボタンをマウス2Dを使用してボタンやアイコンをクリックすることにより、編集素材が記憶されているデバイス(すなわちデイリーサーバ6、VTR7又はローカルストレージ8)を指示すると共に、その素材の再生を指示する。これによりその指示された素材のビデオ信号S2が編集処理装置3を介してコンピュータ2に供給され、その素材の映像がモニタ2Bに表示される。オペレータはその素材の映像を見ながらイン点とアウト点を指示することにより、プログラム作成に必要なイベントを生成する。オペレータはこの処理を繰り返し、プログラム作成に必要なイベントを一通り用意し、これをログウィンドウに登録する。   First, the editing operator uses a mouse 2D to click a predetermined control command button displayed on the monitor 2B by clicking a button or icon, so that the editing material is stored (that is, the daily server 6, the VTR 7 or the local memory). The storage 8) is instructed and the reproduction of the material is instructed. As a result, the video signal S2 of the instructed material is supplied to the computer 2 via the editing processing device 3, and the image of the material is displayed on the monitor 2B. The operator generates an event necessary for creating a program by instructing an IN point and an OUT point while watching the video of the material. The operator repeats this process, prepares a series of events necessary for program creation, and registers them in the log window.

続いてオペレータは、ログウィンドウに示されている所望のクリップ画をマウス2Dによってクリックすることにより所望のイベントを選択する。これにより選択したイベントを示す帯状グラフィックが表示されるので、これをプログラムウィンドウ内にあるタイムライン(詳細は後述する)上の所望位置に置く。これを順に繰り返してイベントを示す帯状グラフィック表示を所望の順番に並べることによりプログラムの順番を指示する。また所望のイベントにビデオエフェクトを付加するのであれば、所定の制御コマンドボタンをクリックすることによりビデオエフェクト設定のためのダイアログを表示させ、その中から付加したいビデオエフェクトを選択する。これにより選択したビデオエフェクトを示す帯状グラフィック表示が表示されるので、これをタイムライン上のビデオエフェクトを付加したい位置に置く。   Subsequently, the operator selects a desired event by clicking the desired clip image displayed in the log window with the mouse 2D. As a result, a band graphic indicating the selected event is displayed, and is placed at a desired position on a timeline (details will be described later) in the program window. The sequence of the program is instructed by repeating this in order and arranging the strip-like graphic display indicating the events in a desired order. If a video effect is to be added to a desired event, a video effect setting dialog is displayed by clicking a predetermined control command button, and the video effect to be added is selected from the dialog. As a result, a band-shaped graphic display showing the selected video effect is displayed, and this is placed on the timeline where the video effect is to be added.

このようにしてプログラムの概案が決まると、オペレータは所定の制御コマンドボタンをクリックすることによりプレビューの指示を入力する。これを受けた編集装置1は、編集処理装置3を制御することによりプログラムウィンドウで指示されたプログラムの順番に基づいて各イベントを再生すると共に、編集処理装置3を制御することにより指示されたイベントにビデオエフェクトを施し、ビデオ信号S2を生成する。このビデオ信号S2はコンピュータ2に供給され、モニタ2Bに表示される。これによりオペレータはプログラムウィンドウを使用して指示したプログラム内容を確認することができる。   When the outline of the program is determined in this way, the operator inputs a preview instruction by clicking a predetermined control command button. Receiving this, the editing device 1 controls the editing processing device 3 to reproduce each event based on the order of the program specified in the program window, and also controls the editing processing device 3 to specify the event. Is subjected to a video effect to generate a video signal S2. This video signal S2 is supplied to the computer 2 and displayed on the monitor 2B. As a result, the operator can confirm the contents of the designated program using the program window.

このようなプレビューの結果、プログラム内容に変更がなければ、オペレータは所定の制御コマンドボタンをクリックすることにより記録指示を入力する。これを受けた編集装置1は、先程と同様に編集処理装置3を制御することにより指示されたプログラムを示すビデオ及びオーディオ信号S15a、S15bを生成し、これをローカルストレージ8に供給して記録する。かくしてこの処理により、プログラムウィンドウによって指示されたプログラムが完成し、ローカルストレージに記憶される。なお、この編集により生成したプログラムを放送する場合には、GUIを介して転送の指示を入力すれば、ローカルストレージからそのビデオ及びオーディオ信号が読み出され、編集処理装置3を介してオンエアバッファ9に転送される。   If there is no change in the program contents as a result of such a preview, the operator inputs a recording instruction by clicking a predetermined control command button. Upon receiving this, the editing apparatus 1 generates video and audio signals S15a and S15b indicating the instructed program by controlling the editing processing apparatus 3 in the same manner as described above, and supplies this to the local storage 8 for recording. . Thus, by this processing, the program designated by the program window is completed and stored in the local storage. When broadcasting the program generated by this editing, if a transfer instruction is input via the GUI, the video and audio signals are read from the local storage, and the on-air buffer 9 is transmitted via the editing processing device 3. Forwarded to

このようにしてこの編集装置1では、各素材の映像やプログラムの映像をモニタ2Bで確認しながら当該プログラムを作成し得るので、編集の使い勝手を向上し得る。またこの編集装置1では、オペレータがスイッチャや特殊効果装置を直接操作しなくても編集が行えるので、編集操作を容易に行うことができ、編集に掛かる手間を削減し得る。   In this way, the editing apparatus 1 can create the program while confirming the video of each material and the video of the program on the monitor 2B, so that the usability of editing can be improved. Further, in the editing apparatus 1, since editing can be performed without the operator directly operating the switcher or the special effect device, the editing operation can be easily performed, and the labor required for editing can be reduced.

1−2. コンピュータの構成
この項ではコンピュータ2の内部構成について具体的に説明する。図2に示すように、コンピュータ2は、コマンドデータやビデオデータを伝送するためのシステムバス20、コンピュータ全体の制御を行うCPU21、入力されるビデオ信号S2に対して画像処理等を行うビデオプロセッサ22、モニタ2Bに表示されるビデオデータやGUIのためのグラフィック表示を管理する表示コントローラ23、ローカルハードディスクドライブ(ローカルHDD)24Aを制御するためのHDDインターフェイス24、フロッピーディスクドライブ(FDD)25Aを制御するためのFDDインターフェイス25、マウス2D及びキーボード2C等のポインティングデバイスからのコマンドに基づいて制御コマンドを生成するポインティングデバイスインターフェイス26、編集処理装置3に制御信号S1を送出するためのソフトウエアドライバを備えた外部インターフェイス27を有している。
1-2. Computer Configuration In this section, the internal configuration of the computer 2 will be specifically described. As shown in FIG. 2, the computer 2 includes a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire computer, and a video processor 22 for performing image processing and the like on an input video signal S2. The display controller 23 for managing video data displayed on the monitor 2B and the graphic display for GUI, the HDD interface 24 for controlling the local hard disk drive (local HDD) 24A, and the floppy disk drive (FDD) 25A are controlled. Control signal S1 is sent to the editing device 3 and the pointing device interface 26 for generating control commands based on commands from the pointing device such as the FDD interface 25, the mouse 2D and the keyboard 2C. It has an external interface 27 provided with a software driver for.

システムバス20は、コンピュータ2内部でビデオデータやコマンドデータ、或いはアドレスデータ等の通信を行うためのバスであり、ビデオデータを伝送するための画像データバス20Aと、コマンドデータやアドレスデータを伝送するためのコマンドデータバス20Bとからなる。   The system bus 20 is a bus for communicating video data, command data, address data, and the like inside the computer 2, and transmits command data and address data to an image data bus 20A for transmitting video data. And a command data bus 20B.

画像データバス20AにはCPU21、ビデオプロセッサ22、表示コントローラ23、HDDインターフェイス24及びFDDインターフェイス25がそれぞれ接続されており、当該CPU21、ビデオプロセッサ22、表示コントローラ23、HDDインターフェイス24及びFDDインターフェイス25はこの画像データバス20Aを介してビデオデータの伝送を行うようになされている。   A CPU 21, a video processor 22, a display controller 23, an HDD interface 24, and an FDD interface 25 are connected to the image data bus 20A. The CPU 21, the video processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 are connected to the image data bus 20A. Video data is transmitted through the image data bus 20A.

一方、コマンドデータバス20Bには、CPU21、ビデオプロセッサ22、表示コントローラ23、HDDインターフェイス24、FDDインターフェイス25、ポインティングデバイスインターフェイス26及び外部インターフェイス27がそれぞれ接続されており(すなわちコンピュータ2内部の全てのブロックが接続されている)、当該コマンドデータバス20Bを介してコマンドデータやアドレスデータの伝送を行うようになされている。   On the other hand, a CPU 21, a video processor 22, a display controller 23, an HDD interface 24, an FDD interface 25, a pointing device interface 26, and an external interface 27 are connected to the command data bus 20B (that is, all blocks in the computer 2). The command data and address data are transmitted via the command data bus 20B.

CPU21はコンピュータ2全体の制御を行うブロックであり、コンピュータ2のオペレーティングシステムが格納されているROM21Aと、アップロードされたアプリケーションソフトウェア等が格納されるRAM21Bとを有している。コンピュータ2を起動する場合には、CPU21はROM21Aに記憶されたオペレーティングシステムに基づいたソフトウエアを実行する。またアプリケーションソフトウェアをこの起動中のオペレーティングシステムの下で実行する場合には、CPU21はまずハードディスクドライブ24Aのハードディスクに記録されているアプリケーションソフトウェアを読み出してRAM21Bにアップロードし、その後、当該アプリケーションソフトウェアを実行する。   The CPU 21 is a block that controls the entire computer 2, and includes a ROM 21A that stores an operating system of the computer 2 and a RAM 21B that stores uploaded application software and the like. When starting up the computer 2, the CPU 21 executes software based on the operating system stored in the ROM 21A. When the application software is executed under this operating system, the CPU 21 first reads the application software recorded on the hard disk of the hard disk drive 24A, uploads it to the RAM 21B, and then executes the application software. .

ビデオプロセッサ22は、コンピュータ2に入力されるSDI規格のビデオ信号S2を受け取り、当該ビデオ信号S2に対してデータ変換を施すと共に、その変換されたビデオデータを一時的にバッファリングするためのブロックである。具体的には、ビデオプロセッサ22は、当該ビデオプロセッサ22の全体を制御するプロセッサコントローラ22Aと、受け取ったビデオ信号S2のペイロード部からコンポジットビデオ信号を抽出し、かつ当該コンポジットビデオ信号をディジタルのコンポーネントビデオ信号に変換するデータ変換部22Bと、データ変換部22Bから送出される数フレーム分のビデオデータを一時的に記憶するフレームメモリ22Cとからなる。   The video processor 22 is a block for receiving an SDI standard video signal S2 input to the computer 2, performing data conversion on the video signal S2, and temporarily buffering the converted video data. is there. Specifically, the video processor 22 extracts a composite video signal from a processor controller 22A that controls the entire video processor 22, a payload portion of the received video signal S2, and converts the composite video signal into digital component video. The data conversion unit 22B converts the signal into a signal, and the frame memory 22C temporarily stores video data for several frames transmitted from the data conversion unit 22B.

プロセッサコントローラ22Aは、データ変換部22Bに対して制御信号を送出することにより当該データ変換部22Bのデータ変換動作を制御すると共に、当該データ変換部22Bにビデオ信号S2からタイムコードを抽出させる。またプロセッサコントローラ22Aは、フレームメモリ22Cに対して制御信号を送出することにより当該フレームメモリ22Cのリード/ライトタイミング及びリード/ライトアドレスを制御する。リードタイミングに関しては、プロセッサコントローラ22Aは表示コントローラ23に送出するタイムコードとビデオデータ(フレームデータ)とが対応するようにフレームメモリ22Cのリードタイミングを制御する。   The processor controller 22A controls the data conversion operation of the data converter 22B by sending a control signal to the data converter 22B, and causes the data converter 22B to extract a time code from the video signal S2. Further, the processor controller 22A controls the read / write timing and read / write address of the frame memory 22C by sending a control signal to the frame memory 22C. Regarding the read timing, the processor controller 22A controls the read timing of the frame memory 22C so that the time code sent to the display controller 23 corresponds to the video data (frame data).

データ変換部22Bは、プロセッサコントローラ22Aからの制御信号に基づいてコンポジットビデオ信号をディジタルのコンポーネントビデオ信号に変換する。タイムコードはこの変換過程において抽出される。この変換により得られたビデオデータは上述したようにフレームメモリ22Cに送出され、また抽出されたタイムコードはプロセッサコントローラ22Aに送出される。   The data converter 22B converts the composite video signal into a digital component video signal based on the control signal from the processor controller 22A. The time code is extracted in this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.

フレームメモリ22Cはデータ変換部22Bから供給されるビデオデータを一時的に記憶する。このフレームメモリ22Cのリード/ライトタイミングは、上述したようにプロセッサコントローラ22Aによって制御される。このフレームメモリ22Cは2個のフレームメモリから構成され、2フレーム分のビデオデータを記憶し得るようになされている。   The frame memory 22C temporarily stores the video data supplied from the data converter 22B. The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above. The frame memory 22C is composed of two frame memories, and can store video data for two frames.

このフレームメモリ22Cに記憶されたビデオデータは、プロセッサコントローラ22Aの読み出し制御に基づいて読み出される。その際、フレームメモリ22Cに記憶されたビデオデータを全画素読み出すのではなく、所定の間隔で間引いて読み出すことにより画像サイズを原画像よりも小さくする。このようにして画像サイズが小さく変換されたビデオデータは、モニタ2Bのビューアウィンドウ(詳細は後述する)に表示されるため、画像データバス20Aを介して表示コントローラ23に送出される。   The video data stored in the frame memory 22C is read based on the read control of the processor controller 22A. At this time, the video data stored in the frame memory 22C is not read out for all pixels, but is read out by thinning out at a predetermined interval to make the image size smaller than the original image. The video data whose image size has been converted in this way is displayed in a viewer window (details will be described later) of the monitor 2B, and is therefore sent to the display controller 23 via the image data bus 20A.

表示コントローラ23は、モニタ2Bに表示されるデータを制御するための制御ブロックである。表示コントローラ23はメモリコントローラ23AとVRAM(ビデオランダムアクセスメモリ)23Bとを有している。メモリコントローラ23Aはコンピュータ2の内部同期に従ってVRAM23Bのリード/ライトタイミングを制御する。このVRAM23Bには、ビデオプロセッサ22のフレームメモリ22Cから送出されたビデオデータ及びCPU21によって生成されるイメージデータが、メモリコントローラ23Aからのタイミング制御信号に基づいて記憶される。このVRAM23Bに記憶されたビデオデータやイメージデータは、コンピュータ2の内部同期に基づいたメモリコントローラ23Aからのタイミング制御信号に基づいて読み出され、モニタ2Bに表示される。   The display controller 23 is a control block for controlling data displayed on the monitor 2B. The display controller 23 includes a memory controller 23A and a VRAM (video random access memory) 23B. The memory controller 23A controls the read / write timing of the VRAM 23B according to the internal synchronization of the computer 2. The VRAM 23B stores the video data sent from the frame memory 22C of the video processor 22 and the image data generated by the CPU 21 based on the timing control signal from the memory controller 23A. The video data and image data stored in the VRAM 23B are read based on a timing control signal from the memory controller 23A based on the internal synchronization of the computer 2 and displayed on the monitor 2B.

この場合、イメージデータによるグラフィック表示がGUIのためのグラフィック表示となる。CPU10からVRAM23Bに送出されるイメージデータは、例えばウィンドウやカーソル、或いはスクロールバーやデバイスを示すアイコン等のイメージデータである。このコンピュータ2では、これらの複数種類のイメージデータをモニタ2Bに表示することによってGUIのためのグラフィック表示を得ている。   In this case, the graphic display based on the image data is the graphic display for the GUI. The image data sent from the CPU 10 to the VRAM 23B is, for example, image data such as a window, a cursor, a scroll bar, or an icon indicating a device. The computer 2 obtains a graphic display for the GUI by displaying these plural types of image data on the monitor 2B.

HDDインターフェイス24は、コンピュータ2内部に設けられたローカルハードディスクドライブ(HDD)24Aと通信するためのインターフェイスブロックである。このHDDインターフェイス24とハードディスクドライブ24AとはSCSI(Small Computer System Interface)の伝送フォーマットに基づいて通信が行われるようになされている。   The HDD interface 24 is an interface block for communicating with a local hard disk drive (HDD) 24A provided in the computer 2. The HDD interface 24 and the hard disk drive 24A communicate with each other based on a SCSI (Small Computer System Interface) transmission format.

ハードディスクドライブ24Aには、このコンピュータ2で起動するアプリケーションソフトウェアがインストールされており、当該アプリケーションソフトウェアを実行する場合には、このハードディスクドライブ24Aから読み出されてCPU21のRAM21Bにアップロードされる。またこのアプリケーションソフトウェアを終了する際には、RAM21Bに記憶されている編集オペレーシヨンによって生成された各種情報(例えばファイル情報等)は、このハードディスクドライブ24Aを介してハードディスクにダウンロードされる。   Application software that is activated on the computer 2 is installed in the hard disk drive 24A. When the application software is executed, the application software is read from the hard disk drive 24A and uploaded to the RAM 21B of the CPU 21. When the application software is terminated, various types of information (for example, file information) generated by the editing operation stored in the RAM 21B are downloaded to the hard disk via the hard disk drive 24A.

FDDインターフェイス25は、コンピュータ2内部に設けられたフロッピーディスクドライブ(FDD)25Aと通信するためのインターフェイスブロックである。このFDDインターフェイス25とフロッピーディスクドライブ25AとはSCSIの伝送フォーマットに基づいて通信が行われるようになされている。   The FDD interface 25 is an interface block for communicating with a floppy disk drive (FDD) 25 </ b> A provided in the computer 2. The FDD interface 25 and the floppy disk drive 25A communicate with each other based on the SCSI transmission format.

ポインティングデバイスインターフェイス26は、コンピュータ2に接続されたマウス2D及びキーボード2Cからの情報を受信するインターフェイスブロックである。ポインティングデバイスインターフェイス26は、マウス2Dに設けられた2次元ロータリーエンコーダの検出情報と、マウス2Dに設けられた左右のボタンのクリック情報とを当該マウス2Dから受け取り、受け取ったそれらの情報をデコードしてCPU21に送出する。同様に、ポインティングデバイスインターフェイス26はキーボード2Cに設けられたボタンからの入力情報を受け取り、受け取った入力情報をデコードしてCPU21に送出する。これによりCPU21は、モニタ2Bに表示されるGUIのうちいずれのコマンドボタンが指示されたか認識し得ると共に、キーボード2Cより入力された各種データを認識し得、それらに対応する制御を行うことができる。   The pointing device interface 26 is an interface block that receives information from the mouse 2D and the keyboard 2C connected to the computer 2. The pointing device interface 26 receives the detection information of the two-dimensional rotary encoder provided on the mouse 2D and the click information of the left and right buttons provided on the mouse 2D from the mouse 2D, and decodes the received information. The data is sent to the CPU 21. Similarly, the pointing device interface 26 receives input information from buttons provided on the keyboard 2C, decodes the received input information, and sends it to the CPU 21. As a result, the CPU 21 can recognize which command button of the GUI displayed on the monitor 2B has been instructed, can recognize various data input from the keyboard 2C, and can perform control corresponding thereto. .

外部インターフェイス27は、コンピュータ2の外部に接続された編集処理装置3と通信するためのブロックである。外部インターフェイス27はCPU21で生成された再生コマンドや記録コマンド等の各種制御コマンドを所定の通信プロトコルのデータに変換するドライバを有しており、当該ドライバを介して制御コマンドを示す制御信号S1を編集処理装置3に送出する。   The external interface 27 is a block for communicating with the editing processing apparatus 3 connected to the outside of the computer 2. The external interface 27 has a driver that converts various control commands such as a reproduction command and a recording command generated by the CPU 21 into data of a predetermined communication protocol, and edits a control signal S1 indicating the control command via the driver. It is sent to the processing device 3.

1−2. 編集処理装置の構成
この項では編集処理装置3の構成について説明する。図3に示すように、編集処理装置3は大きく分けてシステムコントロール部3A、マトリクススイッチャ部3B、画像処理部3C及び音声処理部3Dからなっている。システムコントロール部3Aは、コンピュータ2から送られてくる制御信号S1や専用コントローラ4、5から送られてくる制御信号S3、S4を受け、当該制御信号S1、S3又はS4を基に各ブロックの動作を制御する。具体的には、システムコントロール部3Aは、コントロールバス3Eを介してマトリクススイッチャ部3B、画像処理部3C及び音声処理部3Dの動作を制御すると共に、制御信号S5、S6、S9又はS12を送出してデイリーサーバ6、VTR7及びローカルストレージ8の再生又は記録動作等を制御する。システムコントロール部3Aは外部より供給されるリフエレンスタイムコード(REF-TC)も受け取り、タイムコードの管理も行うようになされている。
1-2. Configuration of Editing Processing Device In this section, the configuration of the editing processing device 3 will be described. As shown in FIG. 3, the editing processing apparatus 3 is roughly divided into a system control unit 3A, a matrix switcher unit 3B, an image processing unit 3C, and an audio processing unit 3D. The system control unit 3A receives the control signal S1 sent from the computer 2 and the control signals S3 and S4 sent from the dedicated controllers 4 and 5, and operates each block based on the control signal S1, S3 or S4. To control. Specifically, the system control unit 3A controls the operations of the matrix switcher unit 3B, the image processing unit 3C, and the audio processing unit 3D via the control bus 3E, and sends a control signal S5, S6, S9, or S12. The playback or recording operation of the daily server 6, the VTR 7 and the local storage 8 is controlled. The system control unit 3A also receives a reference time code (REF-TC) supplied from the outside and manages the time code.

マトリスクスイッチャ部3Bは複数の入力端子と複数の出力端子とを有し、システムコントロール部3Aからの制御に応じて所望の入力端子を所望の出力端子に接続するようになされており、これにより各デバイス(デイリーサーバ6、VTR7又はローカルストレージ8)から読み出されたビデオ及びオーディオ信号のうち所望の信号を画像処理部3Cや音声処理部3Dに送出し得ると共に、所望の信号をコンピュータ2や各デバイス(VTR7、ローカルストレージ8又はオンエアバッファ9)に送出し得るようになされている。さらに画像処理部3Cによって処理されたビデオ信号をコンピュータ2に送出したり、或いはそのビデオ信号に音声処理部3Dによって処理されたオーディオ信号を重畳して各デバイス(VTR7、ローカルストレージ8又はオンエアバッファ9)に送出し得るようにもなされている。   The matrisk switcher unit 3B has a plurality of input terminals and a plurality of output terminals, and connects a desired input terminal to a desired output terminal in accordance with control from the system control unit 3A. Of the video and audio signals read from each device (daily server 6, VTR 7 or local storage 8), a desired signal can be sent to the image processing unit 3C or the audio processing unit 3D, and the desired signal can be sent to the computer 2 or It can be sent to each device (VTR 7, local storage 8 or on-air buffer 9). Further, the video signal processed by the image processing unit 3C is sent to the computer 2, or the audio signal processed by the audio processing unit 3D is superimposed on the video signal to superimpose each device (VTR 7, local storage 8 or on-air buffer 9). ) Can also be sent.

画像処理部3Cは、トランジションエフェクト(ワイプやページターン等、バックグラウンドの映像からフォアグラウンドの映像に切り換えるようなエフェクト)やアニメーションエフェクト(モザイクやピクチャインピクチャ等、特殊な画像処理や挿入処理を伴うエフェクト)といったエフェクト処理をビデオ信号に施すブロックであり、マトリクススイッチャ部3Bによって選択されたビデオ及びオーディオ信号からビデオ信号を抽出し、当該ビデオ信号にエフェクト処理を施した後、そのビデオ信号をマトリクススイッチャ部3Bに出力する。   The image processing unit 3C has transition effects (effects such as wipe and page turn that switch from background video to foreground video) and animation effects (mosaic and picture-in-picture effects that involve special image processing and insertion processing). ) Is applied to the video signal, the video signal is extracted from the video and audio signals selected by the matrix switcher unit 3B, the effect processing is performed on the video signal, and the video signal is then applied to the matrix switcher unit. Output to 3B.

尚、この編集装置においては、エフェクトの種類としてトランジションエフェクトとアニメーションエフェクトの2種類を有している。トランジションエフェクトとは、ワイプ効果やページターン効果等のように、2つの画像を切り換えるビデオエフェクトのことを言い、アニメーションエフェクトとは、3次元画像空間変換等の画像に特殊効果をかけるエフェクト、または、スポットライト効果、ズームアップ効果及びピクチャインピクチャ効果等のようにある画像にビデオエフェクトのかかった画像を挿入するエフェクトのことを言う。   Note that this editing apparatus has two types of effects: transition effects and animation effects. Transition effects are video effects that switch between two images, such as wipe effects and page turn effects, and animation effects are effects that apply special effects to images, such as 3D image space conversion, or An effect that inserts an image with a video effect into a certain image, such as a spotlight effect, a zoom-up effect, and a picture-in-picture effect.

音声処理部3Dは、オーディオ信号のレベル調整や合成を行うブロックであり、マトリクススイッチャ部3Dによって選択されたビデオ及びオーディオ信号からオーディオ信号を抽出した後、そのオーディオ信号にレベル調整を施したり、或いはオーディオ信号同士をそれぞれ合成したりし、その結果得られるオーディオ信号をマトリクススイッチャ部3B又はスピーカ11、12に出力する。   The audio processing unit 3D is a block that adjusts and synthesizes the level of the audio signal. After the audio signal is extracted from the video and audio signals selected by the matrix switcher unit 3D, the audio signal is subjected to level adjustment, or The audio signals are synthesized with each other, and the resulting audio signal is output to the matrix switcher unit 3B or the speakers 11 and 12.

ここでこれら各ブロックの構成を図を用いて以下に具体的に説明する。図4に示すように、システムコントロール部3Aは、メインCPU(M−CPU)30、コミュニケーションCPU(C−CPU)31及びデバイス制御用CPU(D−CPU)32〜34の複数のCPUから構成される。メインCPU30は、コントロールバス3Eを介して各ブロック(すなわちマトリクススイッチャ部3B、画像処理部3C及び音声処理部3D)に制御コマンドを与えることにより当該各ブロックの動作を制御するためのCPUである。またコミュニケーションCPU31は、外部のタイムコード発生器(図示せず)によって発生したリフアレンスタイムコード(REF-TC)を受け取ったり、或いはコンピュータ2からの制御信号S1や専用コントローラ4、5からの制御信号S3、S4を受け取ったりするための通信用CPUである。またデバイス制御用CPU32〜34は、各デバイス(すなわちデイリーサーバ6、VTR7及びローカルストレージ8)に対して制御信号S5、S6、S9又はS12を送出して当該各デバイスの動作を制御するためのCPUである。   Here, the configuration of each block will be specifically described below with reference to the drawings. As shown in FIG. 4, the system control unit 3A is composed of a plurality of CPUs including a main CPU (M-CPU) 30, a communication CPU (C-CPU) 31, and device control CPUs (D-CPUs) 32-34. The The main CPU 30 is a CPU for controlling the operation of each block by giving a control command to each block (that is, the matrix switcher unit 3B, the image processing unit 3C, and the sound processing unit 3D) via the control bus 3E. The communication CPU 31 receives a reference time code (REF-TC) generated by an external time code generator (not shown), or receives a control signal S1 from the computer 2 and control signals from the dedicated controllers 4 and 5. This is a communication CPU for receiving S3 and S4. The device control CPUs 32 to 34 are CPUs for sending control signals S5, S6, S9 or S12 to each device (that is, the daily server 6, the VTR 7 and the local storage 8) to control the operation of each device. It is.

このようなシステムコントロール部3Aは、コミュニケーションCPU31によって制御信号S1、S3又はS4を受け取り、当該コミュニケーションCPU31によってその制御信号S1、S3又はS4が示す制御コマンドを再生する。この制御コマンドはシステムコントロール部3A内部のバス35を介してメインCPU30に転送される。メインCPU30はこの制御コマンドを解析し、デバイス制御が必要であれば対応するデバイス制御用CPU32、33又は34に制御コマンドを送出して当該デバイス制御用CPU32、33又は34を介してデバイスの動作を制御し、マトリクススイッチャ部3B、画像処理部3C又は音声処理部3Dの制御が必要であれば対応するブロックにコントロールバス3Eを介して制御コマンドを送出して当該ブロックの動作を制御する。   Such a system control unit 3A receives the control signal S1, S3 or S4 by the communication CPU 31, and reproduces the control command indicated by the control signal S1, S3 or S4 by the communication CPU 31. This control command is transferred to the main CPU 30 via the bus 35 in the system control unit 3A. The main CPU 30 analyzes this control command, and if device control is necessary, sends the control command to the corresponding device control CPU 32, 33 or 34, and operates the device via the device control CPU 32, 33 or 34. If the control of the matrix switcher unit 3B, the image processing unit 3C or the audio processing unit 3D is necessary, a control command is sent to the corresponding block via the control bus 3E to control the operation of the block.

コミュニケーションCPU31は、内部にコンピュータ2の外部インターフェイス27に対応した通信用のドライバを有しており、当該ドライバによってコンピュータ2から送られてくる制御信号S1を受信するようになされている。またデバイス制御用CPU32〜34は内部にRS−422規格のドライバを有しており、当該ドライバによってRS−422規格の制御信号S5、S6、S9又はS12を各デバイスに送出するようになされている。   The communication CPU 31 has a communication driver corresponding to the external interface 27 of the computer 2, and receives a control signal S1 sent from the computer 2 by the driver. The device control CPUs 32 to 34 have a driver of the RS-422 standard inside, and the driver sends out a control signal S5, S6, S9 or S12 of the RS-422 standard to each device. .

続いて図5を用いてマトリクススイッチャ部3Bについて説明する。この図5に示すように、マトリクススイッチャ部3Bは大きく分けて制御回路40、マトリクススイッチャブロック41及びフォーマット変換ブロック42からなっている。制御回路40はこのマトリクススイッチャ部3Bの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S20、S21を生成し、当該制御信号S20、S21をそれぞれマトリクススイッチャブロック41、フォーマット変換ブロック42に出力してその動作を制御する。   Next, the matrix switcher unit 3B will be described with reference to FIG. As shown in FIG. 5, the matrix switcher unit 3B is roughly composed of a control circuit 40, a matrix switcher block 41, and a format conversion block. The control circuit 40 is a circuit that controls the entire matrix switcher unit 3B, generates control signals S20 and S21 based on a control command received via the control bus 3E, and controls the control signals S20 and S21 respectively. It outputs to the block 41 and the format conversion block 42 to control its operation.

マトリクススイッチャブロック41は、入力端子IN1〜IN11にそれぞれ接続される複数の入力ラインと、出力端子OUT1〜OUT13にそれぞれ接続される複数の出力ラインとが格子状に配列されており、入力ラインと出力ラインが交差するクロスポイントP(図中×印で示す)の所で当該入力ラインと出力ラインを接続し得るようになされている。このためマトリクススイッチャブロック41は、制御回路40から供給される制御信号S20に基づいて所望のクロスポイントの所で入力ラインと出力ラインを接続すれば、入力端子IN1〜IN11に入力された所望の信号を所望の出力端子OUT1〜OUT13に出力することができる。尚、移行の説明において、例えばIN7とOUT9を接続するクロスポイントを「P79」とし、IN10とOUT4とを接続するクロスポイントを「P104」とする。   In the matrix switcher block 41, a plurality of input lines connected to the input terminals IN1 to IN11 and a plurality of output lines connected to the output terminals OUT1 to OUT13, respectively, are arranged in a lattice pattern. The input line and the output line can be connected at a cross point P (indicated by x in the figure) where the lines intersect. Therefore, if the matrix switcher block 41 connects the input line and the output line at a desired cross point based on the control signal S20 supplied from the control circuit 40, the desired signal input to the input terminals IN1 to IN11. Can be output to desired output terminals OUT1 to OUT13. In the description of the transition, for example, the cross point connecting IN7 and OUT9 is “P79”, and the cross point connecting IN10 and OUT4 is “P104”.

このマトリクススイッチャ部3Bにおいては、デイリーサーバ6、VTR7及びローカルストレージ8の各デバイスから読み出されたビデオ及びオーディオ信号がそれぞれ入力端子IN1〜IN8に入力されるようになされている(但し、この図5の例では、入力端子IN1〜IN5にビデオ及びオーディオ信号S7、S8、S10及びS13A〜S13Eが入力され、入力端子IN5〜IN8は空き端子となっている)。また入力端子IN9及びIN10には画像処理部3Cによって画像処理が施されたビデオ信号S31、S32がそれぞれ入力され、入力端子IN11には音声処理部3Dによって信号処理が施されたオーディオ信号S33が入力されるようになされている。   In the matrix switcher unit 3B, video and audio signals read from the devices of the daily server 6, the VTR 7 and the local storage 8 are input to input terminals IN1 to IN8, respectively (however, FIG. In the example of 5, the video and audio signals S7, S8, S10 and S13A to S13E are input to the input terminals IN1 to IN5, and the input terminals IN5 to IN8 are empty terminals). Video signals S31 and S32 that have been subjected to image processing by the image processing unit 3C are input to the input terminals IN9 and IN10, respectively, and an audio signal S33 that has been subjected to signal processing by the audio processing unit 3D is input to the input terminal IN11. It is made to be done.

またこのマトリクススイッチャ部3Bにおいては、出力端子OUT1はローカルストレージ8にビデオ及びオーディオ信号S15を出力するための端子として割り当てられ、出力端子OUT2はVTR7にビデオ及びオーディオ信号S11を出力するための端子として割り当てられ、出力端子OUT3はオンエアバッファ9にビデオ及びオーディオ信号S16を出力するための端子として割り当てられており、出力端子OUT1〜OUT3はそれぞれプログラム出力用の端子として割り当てられている。また出力端子OUT4はプレビュー専用のモニタ13にビデオ信号S19を出力するためのプレビュー用の出力端子として割り当てられており、出力端子OUT5はコンピュータ2にビデオ信号S2を出力するためのキヤプチヤ用の出力端子として割り当てられている。さらに出力端子OUT6〜OUT10は画像処理部3Cにビデオ及びオーディオ信号S23〜S27を出力するための端子として割り当てられ、出力端子OUT11〜OUT13は音声処理部3Dにビデオ及びオーディオ信号S28〜S30を出力するための端子として割り当てられている。   In this matrix switcher unit 3B, the output terminal OUT1 is assigned as a terminal for outputting the video and audio signal S15 to the local storage 8, and the output terminal OUT2 is used as a terminal for outputting the video and audio signal S11 to the VTR 7. The output terminal OUT3 is assigned as a terminal for outputting the video and audio signal S16 to the on-air buffer 9, and the output terminals OUT1 to OUT3 are assigned as program output terminals, respectively. The output terminal OUT4 is assigned as a preview output terminal for outputting the video signal S19 to the monitor 13 dedicated to previewing, and the output terminal OUT5 is a capture output terminal for outputting the video signal S2 to the computer 2. Assigned as. Furthermore, the output terminals OUT6 to OUT10 are assigned as terminals for outputting video and audio signals S23 to S27 to the image processing unit 3C, and the output terminals OUT11 to OUT13 output video and audio signals S28 to S30 to the audio processing unit 3D. Assigned as a terminal.

フォーマット変換ブロック42は、制御回路40から供給される制御信号S21に基づいて、出力端子OUT1〜OUT5に出力する信号をSDI規格の信号に変換する回路ブロックであり、出力端子OUT1〜OUT3に出力する信号をフォーマット変換するアウトプットプロセッサ43及びオーディオコンバイナ44と、出力端子OUT4に出力する信号をフォーマット変換するアウトプットプロセッサ45と、出力端子OUT5に出力する信号をフォーマット変換するアウトプットプロセッサ46とを有している。   The format conversion block 42 is a circuit block that converts signals output to the output terminals OUT1 to OUT5 into SDI standard signals based on the control signal S21 supplied from the control circuit 40, and outputs the signals to the output terminals OUT1 to OUT3. An output processor 43 and an audio combiner 44 for format conversion of the signal, an output processor 45 for format conversion of the signal output to the output terminal OUT4, and an output processor 46 for format conversion of the signal output to the output terminal OUT5. is doing.

アウトプットプロセッサ43は、画像処理部3Cによって画像処理されたビデオ信号(すなわち入力端子IN9又はIN10に入力されるビデオ信号S31又はS32)を出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。オーディオコンバイナ44は、音声処理部3Dによって処理されたエンベデッドオーディオ信号(すなわち入力端子IN11に入力されるオーディオ信号S33)を出力するとき、アウトプットプロセッサ43から出力されるSDI規格のビデオ信号に当該エンベデッドオーディオ信号S33を重畳する。これにより画像処理部3Cによって処理されたビデオ信号S31、S32や音声処理部3Dによって処理されたオーディオ信号S33をSDI規格の信号でローカルストレージ8やVTR7或いはオンエアバッファ9に送出し得る。尚、このエンベデッドオーディオ(Embedded Audio)とは、SDI規格の補助データ領域のパケットを使用して伝送されるディジタルオーディオデータのことである。   When the output processor 43 outputs the video signal image-processed by the image processing unit 3C (that is, the video signal S31 or S32 input to the input terminal IN9 or IN10), the output processor 43 outputs the video signal S31 or S32 to the SDI standard video. Convert to signal. When the audio combiner 44 outputs the embedded audio signal processed by the audio processing unit 3D (that is, the audio signal S33 input to the input terminal IN11), the audio combiner 44 converts the embedded SDI video signal output from the output processor 43 into the embedded video signal. The audio signal S33 is superimposed. Thus, the video signals S31 and S32 processed by the image processing unit 3C and the audio signal S33 processed by the audio processing unit 3D can be sent to the local storage 8, the VTR 7 or the on-air buffer 9 as SDI standard signals. The embedded audio is digital audio data transmitted using a packet in the auxiliary data area of the SDI standard.

入力端子IN1〜IN8に入力されたビデオ及びオーディオ信号を出力端子OUT1〜OUT3に出力する場合には、当該ビデオ及びオーディオ信号がSDI規格で各デバイスから出力されているので、アウトプットプロセッサ43及びオーディオコンバイナ44は何ら処理せず、入力されるビデオ及びオーディオ信号をそのまま出力端子OUT1〜OUT3に出力する。   When the video and audio signals input to the input terminals IN1 to IN8 are output to the output terminals OUT1 to OUT3, the video and audio signals are output from each device according to the SDI standard. The combiner 44 does not perform any processing and outputs the input video and audio signals as they are to the output terminals OUT1 to OUT3.

アウトプットプロセッサ45、46も、同様に、それぞれ画像処理部3Cによって画像処理されたビデオ信号S31又はS32を出力端子OUT4又はOUT5に出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。これにより画像処理部3Cによって処理されたビデオ信号S31又はS32をSDI規格の信号でプレビュー専用のモニタ13やコンピュータ2に送出し得る。このアウトプットプロセッサ45、46も、入力端子IN1〜IN8に入力されたビデオ及びオーディオ信号を出力端子OUT4、OUT5に出力する場合には、当該ビデオ及びオーディオ信号に何ら処理せず、そのまま出力端子OUT4、OUT5に出力する。   Similarly, when each of the output processors 45 and 46 outputs the video signal S31 or S32 image-processed by the image processing unit 3C to the output terminal OUT4 or OUT5, the video signal S31 or S32 is converted into an SDI standard video signal. Convert. As a result, the video signal S31 or S32 processed by the image processing unit 3C can be sent to the monitor 13 or the computer 2 dedicated to the preview as an SDI standard signal. When the output processors 45 and 46 also output the video and audio signals input to the input terminals IN1 to IN8 to the output terminals OUT4 and OUT5, the output processors 45 and 46 do not perform any processing on the video and audio signals and output the output terminal OUT4. , Output to OUT5.

続いて図6を用いて画像処理部3Cについて説明する。この図6に示すように、画像処理部3Cは大きく分けて制御回路50と、デマルチプレクサブロック51と、スイッチャブロック52と、特殊効果ブロック53と、ミキサブロック54とを有している。制御回路50はこの画像処理部3Cの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S40、S41、S42、S43を生成し、当該制御信号S40、S41、S42、S43をそれぞれデマルチプレクサブロック51、スイッチャブロック52、特殊効果ブロック53、ミキサブロック54に出力してその動作を制御する。これによりこの画像処理部3Cでは、マトリクススイッチャ部3Bから供給されたビデオ信号(S23〜S27)に対して画像処理を施す。ここで言う画像処理とは、ソースビデオ信号に特殊効果を施したり、バックグラウンドビデオ信号に特殊効果のかかったビデオ信号を挿入したりするアニメーションエフェクトや、バックグラウンドビデオ信号からフォアグラウンドビデオ信号に映像を切り換えるトランジションエフェクトのことである。   Next, the image processing unit 3C will be described with reference to FIG. As shown in FIG. 6, the image processing unit 3C is roughly divided into a control circuit 50, a demultiplexer block 51, a switcher block 52, a special effect block 53, and a mixer block 54. The control circuit 50 is a circuit that controls the entire image processing unit 3C, generates control signals S40, S41, S42, and S43 based on a control command received via the control bus 3E, and controls the control signals S40 and S41. , S42, and S43 are output to the demultiplexer block 51, the switcher block 52, the special effect block 53, and the mixer block 54, respectively, to control their operations. As a result, the image processing unit 3C performs image processing on the video signals (S23 to S27) supplied from the matrix switcher unit 3B. Image processing here refers to animation effects that apply a special effect to the source video signal, insert a video signal with a special effect into the background video signal, and video from the background video signal to the foreground video signal. It is a transition effect that switches.

デマルチプレクサブロック51は、SDI規格の信号形式で送られてくるビデオ及びオーディオ信号S23〜S27からビデオ信号又はキー信号を抽出するブロックである。このデマルチプレクサブロック51は、入力されるビデオ及びオーディオ信号S23〜S27からそれぞれ信号抽出を行う5つのデマルチプレクサ回路51A〜51Eからなっている。デマルチプレクサ回路51Aは、ビデオ及びオーディオ信号S23を形成する各パケットのペイロード部からキー信号を抽出する回路であり、当該キー信号の先頭に配置されている同期信号及びヘッダ情報に基づいて抽出を行う。またデマルチプレクサ回路51Bは、ビデオ及びオーディオ信号S24を形成する各パケットのペイロード部からビデオ信号を抽出する回路であり、当該ビデオ信号の先頭に配置されている同期信号及びヘッダ情報に基づいて抽出を行う。同様に、デマルチプレクサ回路51Cはビデオ及びオーディオ信号S25からキー信号を抽出し、デマルチプレクサ回路51Dはビデオ及びオーディオ信号S26からビデオ信号を抽出し、デマルチプレクサ回路51Eはビデオ及びオーディオ信号S27からビデオ信号を抽出する。   The demultiplexer block 51 is a block for extracting a video signal or a key signal from the video and audio signals S23 to S27 transmitted in the SDI standard signal format. The demultiplexer block 51 includes five demultiplexer circuits 51A to 51E that perform signal extraction from input video and audio signals S23 to S27, respectively. The demultiplexer circuit 51A is a circuit that extracts a key signal from the payload portion of each packet forming the video and audio signal S23, and performs extraction based on a synchronization signal and header information arranged at the head of the key signal. . The demultiplexer circuit 51B is a circuit that extracts a video signal from the payload portion of each packet forming the video and audio signal S24, and performs extraction based on the synchronization signal and header information arranged at the head of the video signal. Do. Similarly, the demultiplexer circuit 51C extracts the key signal from the video and audio signal S25, the demultiplexer circuit 51D extracts the video signal from the video and audio signal S26, and the demultiplexer circuit 51E receives the video signal from the video and audio signal S27. To extract.

スイッチャブロック52は、抽出されたキー信号及びビデオ信号に対してトランジションエフェクトのための処理を施すブロックであり、ワイプ信号発生器52A、52B、キー信号処理回路52C、52D、及びビデオ信号処理回路52E、52Fからなっている。ワイプ信号発生器52Aは、制御回路50からの制御信号S41に基づいてオペレータが指定したトランジションエフェクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52C及びビデオ信号処理回路52Eに送出する。キー信号処理回路52Cは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Aから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述するミキサブロック54に送出する。またビデオ信号処理回路52Eは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Bから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述するミキサブロック54に送出する。   The switcher block 52 is a block that performs processing for the transition effect on the extracted key signal and video signal, and includes wipe signal generators 52A and 52B, key signal processing circuits 52C and 52D, and a video signal processing circuit 52E. , 52F. The wipe signal generator 52A generates a wipe signal corresponding to the transition effect designated by the operator based on the control signal S41 from the control circuit 50, and sends the wipe signal to the key signal processing circuit 52C and the video signal processing circuit 52E. To do. The key signal processing circuit 52C converts the key signal supplied from the demultiplexer circuit 51A based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal to the wipe signal based on the supplied wipe signal. A corresponding desired key signal is newly generated), and the resulting key signal is sent to the mixer block 54 described later. Further, the video signal processing circuit 52E converts the video signal supplied from the demultiplexer circuit 51B based on the supplied wipe signal so as to correspond to the wipe signal, and the resulting video signal is a mixer block 54 described later. To send.

同様に、ワイプ信号発生器52Bは、制御回路50からの制御信号S41に基づいてオペレータが指定したトランジションエフェクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52D及びビデオ信号処理回路52Fに送出する。キー信号処理回路52Dは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Cから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述する特殊効果ブロック53に送出する。またビデオ信号処理回路52Fは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Dから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述する特殊効果ブロック53に送出する。   Similarly, the wipe signal generator 52B generates a wipe signal corresponding to the transition effect designated by the operator based on the control signal S41 from the control circuit 50, and uses the wipe signal as a key signal processing circuit 52D and a video signal processing circuit. 52F. The key signal processing circuit 52D converts the key signal supplied from the demultiplexer circuit 51C based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal to the wipe signal based on the supplied wipe signal. A corresponding desired key signal is newly generated), and the resulting key signal is sent to a special effect block 53 described later. The video signal processing circuit 52F converts the video signal supplied from the demultiplexer circuit 51D based on the supplied wipe signal so as to correspond to the wipe signal, and the resulting video signal is a special effect block described later. 53.

特殊効果ブロック53は、制御回路50から供給される制御信号S42に基づいて、キー信号処理回路52Dから出力されるキー信号及びビデオ信号処理回路52Fから出力されるビデオ信号を3次元的に画像変換するためのブロックであり、3次元アドレス発生回路53A、フレームメモリ53B、53C及び補間回路53D、53Eからなっている。3次元アドレス発生回路53Aは、制御信号S42に基づいて、オペレータが指定した3次元的な画像変換を行うための変換アドレスを生成し、当該変換アドレスをフレームメモリ53B、53C及び補間回路53D、53Eに出力する。   The special effect block 53 three-dimensionally converts the key signal output from the key signal processing circuit 52D and the video signal output from the video signal processing circuit 52F based on the control signal S42 supplied from the control circuit 50. And includes a three-dimensional address generation circuit 53A, frame memories 53B and 53C, and interpolation circuits 53D and 53E. Based on the control signal S42, the three-dimensional address generation circuit 53A generates a conversion address for performing three-dimensional image conversion specified by the operator, and the conversion address is used as the frame memories 53B and 53C and interpolation circuits 53D and 53E. Output to.

フレームメモリ53Bは、キー信号処理回路52Dから供給されるキー信号を順次内部のメモリ領域に格納すると共に、その格納されたキー信号を変換アドレスに基づいて読み出すことにより、当該キー信号に対して3次元的な画像変換を施し、その結果得られるキー信号を補間回路53Dに送出する。同様に、フレームメモリ53Bは、ビデオ信号処理回路52Fから供給されるビデオ信号を順次内部のメモリ領域に格納すると共に、その格納されたビデオ信号を変換アドレスに基づいて読み出すことにより、当該ビデオ信号に対して3次元的な画像変換を施し、その結果得られるビデオ信号を補間回路53Eに送出する。   The frame memory 53B sequentially stores the key signals supplied from the key signal processing circuit 52D in the internal memory area, and reads out the stored key signals based on the conversion address, thereby 3 A two-dimensional image conversion is performed, and a key signal obtained as a result is sent to the interpolation circuit 53D. Similarly, the frame memory 53B sequentially stores the video signal supplied from the video signal processing circuit 52F in the internal memory area, and reads out the stored video signal based on the conversion address, thereby converting the video signal into the video signal. On the other hand, three-dimensional image conversion is performed, and a video signal obtained as a result is sent to the interpolation circuit 53E.

補間回路53Dは3次元的な変換処理が施されたキー信号に補間処理を施す回路であり、変換アドレスに基づいてキー信号の画素を空間的に補間し、その結果得られるキー信号を後述するミキサブロック54に送出する。同様に、補間回路53Eは3次元的な変換処理が施されたビデオ信号に補間処理を施す回路であり、変換アドレスに基づいてビデオ信号の画素を空間的に補間し、その結果得られるビデオ信号を後述するミキサブロック54に送出する。   The interpolation circuit 53D is a circuit that performs an interpolation process on the key signal that has been subjected to the three-dimensional conversion process, and spatially interpolates the pixels of the key signal based on the conversion address, and the key signal obtained as a result will be described later. The data is sent to the mixer block 54. Similarly, the interpolation circuit 53E is a circuit that performs interpolation processing on a video signal that has been subjected to three-dimensional conversion processing, and spatially interpolates the pixels of the video signal based on the conversion address, and the resulting video signal Is sent to the mixer block 54 described later.

ミキサブロック54は制御信号S43による指示に従ってビデオ信号を合成するブロックであり、2つのミックス回路54A、54Bからなっている。ミックス回路54Aは、特殊効果ブロック53から出力されるキー信号に基づいて、当該特殊効果ブロック53によって画像変換されたビデオ信号とデマルチプレクサ回路51Eから出力されるビデオ信号とを合成することによりビデオ信号S31を生成する。またミックス回路54Bは、スイッチャブロック52から出力されるキー信号に基づいて、当該スイッチャブロック52から出力されるビデオ信号とミックス回路54Aから出力されるビデオ信号S31とを合成することによりビデオ信号S32を生成する。このようにして生成されたビデオ信号S31、S32は、上述したようにマトリクススイッチャ部3Bに送出される。   The mixer block 54 is a block for synthesizing a video signal in accordance with an instruction by the control signal S43, and includes two mix circuits 54A and 54B. Based on the key signal output from the special effect block 53, the mix circuit 54A combines the video signal image-converted by the special effect block 53 with the video signal output from the demultiplexer circuit 51E. S31 is generated. The mix circuit 54B combines the video signal output from the switcher block 52 and the video signal S31 output from the mix circuit 54A based on the key signal output from the switcher block 52 to generate the video signal S32. Generate. The video signals S31 and S32 generated in this way are sent to the matrix switcher unit 3B as described above.

単に2つの映像を切り換えるだけのトランジションエフェクトを行う場合には、デマルチプレクサ回路51Dから出力されるビデオ信号をバックグラウンドビデオ信号としてミックス回路54Aを介してミックス回路54Bに入力すると共に、ビデオ信号処理回路52Eから出力されるビデオ信号をフォアグラウンドビデオ信号としてミックス回路54Bに入力し、その2つのビデオ信号をキー信号処理回路52Cから出力されるキー信号に基づいて合成する。これによりバックグラウンドビデオ信号からフォアグラウンドビデオ信号に切り換わるビデオ信号S32が生成される。   When performing a transition effect that simply switches between two images, the video signal output from the demultiplexer circuit 51D is input as a background video signal to the mix circuit 54B via the mix circuit 54A, and the video signal processing circuit The video signal output from 52E is input to the mix circuit 54B as a foreground video signal, and the two video signals are combined based on the key signal output from the key signal processing circuit 52C. As a result, a video signal S32 for switching from the background video signal to the foreground video signal is generated.

尚、フォアグランド映像とは、トランジションエフェクトの実行によって画面に現れる画像または、アニメーションエフェクトの実行によってバックグランド画像に挿入され、エフェクトパターンを埋める画像の事を言う。また、バックグランド映像とは、トランジションエフェクトの実行によって、画面から消し去られる画像または、アニメーションエフェクトの実行によってフォアグランド画像が埋められたエフェクトパターンが挿入される画像のことを言う。   Note that the foreground video refers to an image that appears on the screen by executing the transition effect or an image that is inserted into the background image by executing the animation effect and fills the effect pattern. The background video refers to an image that is erased from the screen by executing a transition effect or an image in which an effect pattern in which a foreground image is filled by executing an animation effect is inserted.

またページターンのような画像変換を伴うトランジションエフェクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバックグラウンドビデオ信号としてミックス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号をフォアグラウンドビデオ信号として特殊効果ブロック53を介して画像変換した後にミックス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロック53を介して信号処理されたキー信号に基づいて合成する。これによりページをめくるようにしてバックグラウンドビデオ信号からフォアグラウンドビデオ信号に切り換わるビデオ信号S31が生成される。   When a transition effect with image conversion such as page turn is performed, the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54A as a background video signal and output from the video signal processing circuit 52F. The video signal is converted into a foreground video signal through the special effect block 53 and then input to the mixing circuit 54A, and the two video signals are synthesized based on the key signal processed through the special effect block 53. . Thus, a video signal S31 that switches from the background video signal to the foreground video signal so as to turn the page is generated.

またピクチャインピクチャのようなアニメーションエフェクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバックグラウンドビデオ信号としてミックス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号を挿入素材として特殊効果ブロック53を介して画像変換した後にミックス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロック53を介して信号処理されたキー信号に基づいて合成する。これによりバックグラウンドビデオ信号に挿入素材が挿入されたピクチャインピクチャのビデオ信号S31が生成される。   When an animation effect such as picture-in-picture is performed, the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54A as a background video signal and the video signal output from the video signal processing circuit 52F. Is inserted into the mixing circuit 54A after being converted through the special effect block 53 as an insertion material, and the two video signals are synthesized based on the key signal processed through the special effect block 53. As a result, a picture-in-picture video signal S31 in which the insertion material is inserted into the background video signal is generated.

続いて図7を用いて音声処理部3Dについて説明する。この図7に示すように、音声処理部3Dは大きく分けて制御回路55、入力信号処理ブロック56、補助入力信号処理ブロック57、ミキサブロック58及び出力信号処理ブロック59からなっている。制御回路55はこの音声処理部3Dの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S45、S46、S47、S48を生成し、当該制御信号S45、S46、S47、S48をそれぞれ入力信号処理ブロック56、補助入力信号処理ブロック57、ミキサブロック58、出力信号処理ブロック59に出力してその動作を制御する。これによりこの音声処理部3Dでは、マトリクススイッチャ部3Bから供給されたオーディオ信号(S28〜S30)に対して音声処理が施される。ここで言う音声処理とは、オーディオ信号のレベル調整と合成のことである。   Next, the voice processing unit 3D will be described with reference to FIG. As shown in FIG. 7, the audio processing unit 3D is roughly composed of a control circuit 55, an input signal processing block 56, an auxiliary input signal processing block 57, a mixer block 58, and an output signal processing block 59. The control circuit 55 is a circuit that controls the entire sound processing unit 3D, generates control signals S45, S46, S47, and S48 based on a control command received via the control bus 3E, and controls the control signals S45 and S46. , S47, and S48 are output to the input signal processing block 56, auxiliary input signal processing block 57, mixer block 58, and output signal processing block 59, respectively, to control their operations. As a result, the audio processing unit 3D performs audio processing on the audio signals (S28 to S30) supplied from the matrix switcher unit 3B. The audio processing here refers to level adjustment and synthesis of the audio signal.

入力信号処理ブロック56は、SDI規格の信号形式がパラレル化され送られてくるビデオ及びオーディオ信号S28〜S30からオーディオ信号を抽出し、そのオーディオ信号を信号処理部(DSP部)で処理するためにDSPフォーマットのオーディオ信号に変換して送出するブロックである。この入力信号処理ブロック56は、信号分離回路としてのセパレータ56A〜56Cを有している。セパレータ56A〜56Cは、それぞれパラレル化されたSDI規格のビデオ及びオーディオ信号S28〜S30からDSPフォーマットのオーディオ信号を抽出する回路である。すなわち、セパレータ56A〜56Cは、入力されるビデオ及びオーディオ信号S28〜S30からエンベデットオーディオ信号を抽出して、シリアル化した後オーディオ信号をそれぞれミキサブロック58に送出する。   The input signal processing block 56 extracts an audio signal from the video and audio signals S28 to S30 sent in parallel with the signal format of the SDI standard, and processes the audio signal by a signal processing unit (DSP unit). This block is converted into a DSP format audio signal and transmitted. The input signal processing block 56 has separators 56A to 56C as signal separation circuits. The separators 56A to 56C are circuits that extract DSP format audio signals from the parallelized SDI video and audio signals S28 to S30, respectively. That is, the separators 56 </ b> A to 56 </ b> C extract embedded audio signals from the input video and audio signals S <b> 28 to S <b> 30, serialize them, and send the audio signals to the mixer block 58.

補助入力信号処理ブロック57は、外部から入力されるAES/EBU(Audio Engineering Society / European Broadcasting Union)フォーマットのオーディオ信号をDSPフォーマットのオーディオ信号に変換するブロックである。この補助入力信号処理ブロック57は、レート変換のためのサンプリングレートコンバータ57A〜57Dと、フォーマット変換回路としてのデコーダ57E〜57Hとを有している。サンプリングレートコンバータ57A〜57Dでは、供給されたAES/EBUフォーマットのオーディオ信号の異なるサンプリングレートが音声処理部3D内の所定のサンプリングレートに変換される。サンプリングレートが変換されたオーディオ信号は、デコーダ57E〜57Hに送出される。デコーダ57E〜57Hは、それぞれオーディオ信号をフォーマット変換する回路であり、入力されるAES/EBUフォーマットのオーディオ信号をそれぞれDSPフォーマットのオーディオ信号に変換し、その結果得られるオーディオ信号をそれぞれミキサブロック58に送出する。   The auxiliary input signal processing block 57 is a block for converting an AES / EBU (Audio Engineering Society / European Broadcasting Union) format audio signal input from the outside into a DSP format audio signal. The auxiliary input signal processing block 57 includes sampling rate converters 57A to 57D for rate conversion and decoders 57E to 57H as format conversion circuits. In the sampling rate converters 57A to 57D, different sampling rates of the supplied AES / EBU format audio signal are converted into predetermined sampling rates in the audio processing unit 3D. The audio signal whose sampling rate is converted is sent to the decoders 57E to 57H. Each of the decoders 57E to 57H is a circuit for converting the format of the audio signal. The decoders 57E to 57H convert the input AES / EBU format audio signal to the DSP format audio signal, respectively, and the resulting audio signal to the mixer block 58. Send it out.

ミキサブロック58は、オーディオ信号のレベル調整を行うと共に、信号合成を行うブロックであり、ゲイン設定回路58A〜58Nと、加算回路58O、58Pと、ゲイン設定回路58A〜58Nの信号レベルを専用コントローラ5へ送信するメータデータ発生回路58Qとからなっている。入力信号処理ブロック56から供給されたオーディオ信号及び補助入力信号処理ブロック57から供給されたオーディオ信号は、それぞれ右側成分と左側成分に分離された後にゲイン設定回路58A〜58Gとゲイン設定回路58H〜58Nに入力される。ゲイン設定回路58A〜58Gと58H〜58Nは、コンピユータ2のモニタ2Bに表示されるGUIのオーディオフェーダ又は専用コントローラ5に設けられたオーディオフェーダの操作に連動して抵抗値が変化するようになされており、これにより入力されるオーディオ信号をそれぞれオペレータが指定した信号レベルにレベル調整する。   The mixer block 58 is a block that adjusts the level of the audio signal and performs signal synthesis. The mixer block 58 sets the signal levels of the gain setting circuits 58A to 58N, the addition circuits 58O and 58P, and the gain setting circuits 58A to 58N. Meter data generation circuit 58Q for transmission to The audio signal supplied from the input signal processing block 56 and the audio signal supplied from the auxiliary input signal processing block 57 are separated into a right component and a left component, respectively, and then gain setting circuits 58A to 58G and gain setting circuits 58H to 58N. Is input. The gain setting circuits 58 </ b> A to 58 </ b> G and 58 </ b> H to 58 </ b> N have resistance values that change in conjunction with the operation of the GUI audio fader displayed on the monitor 2 </ b> B of the computer 2 or the audio fader provided in the dedicated controller 5. Thus, the level of the input audio signal is adjusted to the signal level designated by the operator.

ゲイン設定回路58A〜58Gによってレベル調整されたオーディオ信号は、それぞれ加算回路58Oに入力され、ここで加算された後に出力信号処理ブロック59に送出される。同様に、ゲイン設定回路58H〜58Nによってレベル調整されたオーディオ信号は、それぞれ加算回路58Pに入力され、ここで加算された後に出力信号処理ブロック59に送出される。メータデータ発生回路58Qは、後述する専用コントローラ5のパネルのディジタルメータを直接制御するように、この時の信号レベルをデータへ変換する。変換されたデータは、専用コントローラ5へ送出される。   The audio signals whose levels have been adjusted by the gain setting circuits 58A to 58G are respectively input to the adding circuit 58O, added here, and then sent to the output signal processing block 59. Similarly, the audio signals whose levels have been adjusted by the gain setting circuits 58H to 58N are respectively input to the adding circuit 58P, added here, and then sent to the output signal processing block 59. The meter data generation circuit 58Q converts the signal level at this time into data so as to directly control the digital meter on the panel of the dedicated controller 5 described later. The converted data is sent to the dedicated controller 5.

出力信号処理ブロック59は出力するDSPフォーマットのオーディオ信号をSDI規格の信号形式をパラレル化したエンベデッドオーディオ信号に変換するブロックである。この出力信号処理ブロック59は、信号合成回路としてのエンベデット回路59Aと、フォーマット変換回路としてのエンコーダ59B、59Cとを有している。エンベデット回路59Aは、マトリクススイッチャ部3Bのコンバイナ44によってオーディオ信号をSDI規格のビデオ信号に重畳し得るように所定の信号形式に信号変換を行う回路であり、加算回路58O及び58Pから供給されたシリアルのオーディオ信号を合成した後に所定の信号形式、すなわちパラレルのエンベデッドオーディオ信号に信号変換を行う。この処理により得られたエンベデッドオーディオ信号S33は、上述したようにマトリクススイッチャ部3Bのコンバイナ44に送出される。   The output signal processing block 59 is a block for converting the output DSP format audio signal into an embedded audio signal obtained by parallelizing the signal format of the SDI standard. The output signal processing block 59 has an embedded circuit 59A as a signal synthesis circuit and encoders 59B and 59C as format conversion circuits. The embedded circuit 59A is a circuit that converts the audio signal into a predetermined signal format so that the audio signal can be superimposed on the SDI standard video signal by the combiner 44 of the matrix switcher unit 3B. The serial circuit supplied from the addition circuits 58O and 58P Are then converted into a predetermined signal format, that is, a parallel embedded audio signal. The embedded audio signal S33 obtained by this processing is sent to the combiner 44 of the matrix switcher unit 3B as described above.

エンコーダ59BはDSPフォーマットのオーディオ信号をAES/EBUフォーマットのオーディオ信号にフォーマット変換する回路であり、加算回路58Oから出力されたオーディオ信号をAES/EBUフォーマットのオーディオ信号S17にフォーマット変換し、音声確認用のスピーカ11(図1参照)に送出する。同様に、エンコーダ59CはDSPフォーマットのオーディオ信号をAES/EBUフォーマットのオーディオ信号にフォーマット変換する回路であり、加算回路58Pから出力されたオーディオ信号をAES/EBUフォーマットのオーディオ信号S18にフォーマット変換し、音声確認用のスピーカ12(図1参照)に送出する。   The encoder 59B is a circuit for converting a DSP format audio signal into an AES / EBU format audio signal. The encoder 59B converts the audio signal output from the adder circuit 58O into an AES / EBU format audio signal S17 for voice confirmation. To the speaker 11 (see FIG. 1). Similarly, the encoder 59C is a circuit that converts the audio signal in the DSP format into an audio signal in the AES / EBU format, converts the audio signal output from the adder circuit 58P into the audio signal S18 in the AES / EBU format, The sound is sent to the speaker 12 for voice confirmation (see FIG. 1).

1−4. ローカルストレージの構成
次にこの項では編集処理装置3に接続されるデータ記憶手段としてローカルストレージ8について説明する。図8に示すように、このローカルストレージ8は、入出力インターフェイスとしてのデータ入出力ブロック60と、このローカルストレージ8全体の動作を制御するシステムコントロールブロック61と、ビデオデータを記憶するディスクアレイブロック62と、オーディオデータを記憶するディスクアレイブロック63とを有している。尚、この図8には、1チャンネル分の入出力ブロック及びディスクアレイブロックしか書かれていないが、実際には、5チャンネル分の入出力ブロック及びディスクアレイブロックがある。
1-4. Configuration of Local Storage Next, in this section, the local storage 8 will be described as data storage means connected to the editing processing device 3. As shown in FIG. 8, the local storage 8 includes a data input / output block 60 as an input / output interface, a system control block 61 for controlling the operation of the entire local storage 8, and a disk array block 62 for storing video data. And a disk array block 63 for storing audio data. In FIG. 8, only the input / output block and disk array block for one channel are written, but there are actually the input / output block and disk array block for five channels.

データ入出力ブロック60は入力1チヤンネル、出力2チヤンネルの構成を有しており、システムコントロールブロック61からの制御信号S60に基づいて、編集処理装置3から供給されたビデオ及びオーディオ信号S15にデータ記憶に先立って所定の信号処理を施すと共に、ディスクアレイブロック62、63から読み出したデータに所定の信号処理を施してビデオ及びオーディオ信号S13A〜S13Eとして出力する。   The data input / output block 60 has a configuration of an input 1 channel and an output 2 channel. Based on a control signal S60 from the system control block 61, the data input / output block 60 stores data in the video and audio signal S15 supplied from the editing processing device 3. Prior to this, predetermined signal processing is performed, and predetermined signal processing is performed on the data read from the disk array blocks 62 and 63 to output video and audio signals S13A to S13E.

具体的に説明すると、まず編集処理装置3から供給されたビデオ及びオーディオ信号S15はエンコーダ60Aに入力される。エンコーダ60AはSDI規格のビデオ及びオーディオ信号S15からビデオ信号S61とオーディオ信号S62を抽出し、当該ビデオ信号S61をビデオ圧縮回路60Bに出力すると共に、オーディオ信号S62をオーディオ圧縮回路60Jに出力する。ビデオ圧縮回路60Bは、圧縮率1/10のMPEG規格でビデオ信号S61を圧縮し、その圧縮したビデオデータをバッファメモリ60Cに格納する。同様に、オーディオ圧縮回路60Jは、所定の音声圧縮方式を用いてオーディオ信号S62を圧縮し、その圧縮したオーディオデータをバッファメモリ60Kに格納する。バッファメモリ60C、60Kに格納されたビデオデータとオーディオデータは、システムコントロールブロック61の制御の基に順次読み出され、ビデオデータ用のディスクアレイブロック62とオーディオ用のディスクアレイブロック63にそれぞれ記録される。   More specifically, the video and audio signal S15 supplied from the editing processing device 3 is first input to the encoder 60A. The encoder 60A extracts the video signal S61 and the audio signal S62 from the SDI standard video and audio signal S15, outputs the video signal S61 to the video compression circuit 60B, and outputs the audio signal S62 to the audio compression circuit 60J. The video compression circuit 60B compresses the video signal S61 according to the MPEG standard with a compression ratio of 1/10, and stores the compressed video data in the buffer memory 60C. Similarly, the audio compression circuit 60J compresses the audio signal S62 using a predetermined audio compression method, and stores the compressed audio data in the buffer memory 60K. The video data and audio data stored in the buffer memories 60C and 60K are sequentially read out under the control of the system control block 61, and are recorded in the video data disk array block 62 and the audio disk array block 63, respectively. The

一方、再生第1チヤンネルのビデオデータとしてディスクアレイブロック62から読み出されたビデオデータは、システムコントロールブロック61の制御の基に、順次バッファメモリ60Fに格納される。同様に、再生第1チヤンネルのオーディオデータとしてディスクアレイブロック63から読み出されたオーディオデータは、システムコントロールブロック61の制御の基に、順次バッファメモリ60Mに格納される。第1のビデオ伸長回路60Fは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバッファメモリ60Fから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS63を第1のデコーダ60Dに出力する。同様に、第1のオーディオ伸長回路60Lは、圧縮されているオーディオデータをバッファメモリ60Mから読み出し、当該オーディオデータを伸長処理した後、そのオーディオデータS64を第1のデコーダ60Dに出力する。第1のデコーダ60DはSDI規格のフォーマットに基づいてビデオデータS63にオーディオデータS64を重畳する。これによりディスクアレイブロック62から読み出した再生第1チヤンネルのビデオデータとディスクアレイブロック63から読み出した再生第1チヤンネルのオーディオデータをSDI規格のビデオ及びオーディオ信号S13Aとして送出し得る。   On the other hand, the video data read from the disk array block 62 as the video data of the first reproduction channel is sequentially stored in the buffer memory 60F under the control of the system control block 61. Similarly, the audio data read from the disk array block 63 as the playback first channel audio data is sequentially stored in the buffer memory 60M under the control of the system control block 61. The first video decompression circuit 60F reads from the buffer memory 60F video data compressed by the MPEG standard with a compression ratio of 1/10, decompresses the video data, and then decompresses the video data S63 into the first decoder 60D. Output to. Similarly, the first audio decompression circuit 60L reads the compressed audio data from the buffer memory 60M, decompresses the audio data, and then outputs the audio data S64 to the first decoder 60D. The first decoder 60D superimposes the audio data S64 on the video data S63 based on the SDI standard format. As a result, the reproduced first channel video data read from the disk array block 62 and the reproduced first channel audio data read from the disk array block 63 can be transmitted as SDI standard video and audio signals S13A.

同様に、再生第2チヤンネルのビデオデータとしてディスクアレイブロック62から読み出されたビデオデータは、システムコントロールブロック61の制御の基に、順次バッファメモリ60Iに格納される。また再生第2チヤンネルのオーディオデータとしてディスクアレイブロック63から読み出されたオーディオデータも、システムコントロールブロック61の制御の基に、順次バッファメモリ60Pに格納される。第2のビデオ伸長回路60Hは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバッファメモリ60Iから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS65を第2のデコーダ60Gに出力する。同様に、第2のオーディオ伸長回路60Nも、圧縮されているオーディオデータをバッファメモリ60Pから読み出し、当該オーディオデータを伸長処理した後、そのオーディオデータS66を第2のデコーダ60Gに出力する。第2のデコーダ60GはSDI規格のフォーマットに基づいてビデオデータS65にオーディオデータS66を重畳する。これによりディスクアレイブロック62から読み出した再生第2チヤンネルのビデオデータとディスクアレイブロック63から読み出した再生第2チヤンネルのオーディオデータをSDI規格のビデオ及びオーディオ信号S14として送出し得る。   Similarly, the video data read from the disk array block 62 as the video data of the second playback channel is sequentially stored in the buffer memory 60I under the control of the system control block 61. Also, the audio data read from the disk array block 63 as the playback second channel audio data is sequentially stored in the buffer memory 60P under the control of the system control block 61. The second video decompression circuit 60H reads from the buffer memory 60I video data compressed by the MPEG standard with a compression ratio of 1/10, decompresses the video data, and then decompresses the video data S65 into the second decoder 60G. Output to. Similarly, the second audio decompression circuit 60N also reads the compressed audio data from the buffer memory 60P, decompresses the audio data, and then outputs the audio data S66 to the second decoder 60G. The second decoder 60G superimposes the audio data S66 on the video data S65 based on the SDI standard format. As a result, the reproduced second channel video data read from the disk array block 62 and the reproduced second channel audio data read from the disk array block 63 can be transmitted as SDI standard video and audio signals S14.

システムコントロールブロック61は、このローカルストレージ8の全体を制御するブロックであり、CPU61Aと、DMAコントローラ(Direct Memory Access controller)61B、61Cと、SCSIプロトコルコントローラ61D、61Eと、制御信号S12の入力インターフェイス61Fとを有している。CPU61Aはシステムコントロールブロック61の中心的存在である制御回路を構成しており、編集処理装置3からRS−422の通信プロトコルで送られてくる制御信号S12を入力インターフェイス61Fを介して受け、その制御信号S12が示す制御コマンドに基づいて、DMAコントローラ61B、61CとSCSIプロトコルコントローラ61D、61Eの動作を制御する。またCPU61Aは上述したように制御信号S60を生成してデータ入出力ブロック60に出力することにより当該データ入出力ブロック60の動作を制御する。   The system control block 61 controls the entire local storage 8, and includes a CPU 61A, DMA controllers (Direct Memory Access controllers) 61B and 61C, SCSI protocol controllers 61D and 61E, and an input interface 61F for the control signal S12. And have. The CPU 61A constitutes a control circuit which is the central existence of the system control block 61, and receives the control signal S12 sent from the editing processing apparatus 3 by the RS-422 communication protocol via the input interface 61F and controls it. Based on the control command indicated by the signal S12, the operations of the DMA controllers 61B and 61C and the SCSI protocol controllers 61D and 61E are controlled. The CPU 61A controls the operation of the data input / output block 60 by generating the control signal S60 and outputting it to the data input / output block 60 as described above.

さらにCPU61Aは、ディスクアレイブロック62及び63の記録アドレスを、記録されるデータのタイムコードと共に管理しており、これによりタイムコードを基準にしてそのタイムコードが示すデータの記録アドレスを容易に検索し得るようになされている。具体的には、CPU61Aは、ディスクアレイブロック62にフレーム単位で記録されるビデオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。同様に、CPU61Aは、ディスクアレイブロック63にフレーム単位で記録されるオーディオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。従って外部からタイムコードを指定しさえすれば、対応表を参照して記録アドレスを容易に探し出すことができ、ビデオデータ及びオーディオデータを速やかに再生することができる。   Further, the CPU 61A manages the recording addresses of the disk array blocks 62 and 63 together with the time code of the data to be recorded, and thereby easily searches for the recording address of the data indicated by the time code based on the time code. Has been made to get. Specifically, the CPU 61A stores, in the built-in memory, a correspondence table in which all recording addresses of video data recorded in the disk array block 62 in units of frames are associated with all time codes of recorded frames. . Similarly, the CPU 61A stores, in the built-in memory, a correspondence table in which all recording addresses of audio data recorded in the disk array block 63 in units of frames are associated with all time codes of recorded frames. Therefore, as long as the time code is designated from the outside, the recording address can be easily found with reference to the correspondence table, and the video data and audio data can be reproduced quickly.

ビデオ系のDMAコントローラ61Bは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロック60のバッファメモリ60Cからビデオデータを読み出し、データ再生時にはデータ入出力ブロック60のバッファメモリ60F、60Iにビデオデータを書き込む。またビデオ系のSCSIプロトコルコントローラ61Dは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Bから受け取ったフレーム単位のビデオデータと、そのビデオデータのフレームに付与されているタイムコードとをSCSIフォーマットのデータS67に変換してビデオデータ用のディスクアレイブロック62に送出し、ビデオデータの記録を当該ディスクアレイブロック62に指示する。またSCSIプロトコルコントローラ61Dは、データ再生時、ディスクアレイブロック62から再生されたSCSIフォーマットのビデオデータS67を受け取り、これを元のデータ形式に変換してDMAコントローラ61Bに送出する。   In response to a command from the CPU 61A, the video DMA controller 61B reads video data from the buffer memory 60C of the data input / output block 60 at the time of data recording and stores video data in the buffer memories 60F and 60I of the data input / output block 60 at the time of data reproduction. Write data. Further, when recording data, the video SCSI protocol controller 61D converts the command from the CPU 61A, the video data in frame units received from the DMA controller 61B, and the time code attached to the frame of the video data in the SCSI format. The data is converted into data S67 and sent to the disk array block 62 for video data, and the recording of the video data is instructed to the disk array block 62. Also, the SCSI protocol controller 61D receives the SCSI format video data S67 reproduced from the disk array block 62 at the time of data reproduction, converts it to the original data format, and sends it to the DMA controller 61B.

同様に、オーディオ系のDMAコントローラ61Cは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロック60のバッファメモリ60Kからオーディオデータを読み出し、データ再生時にはデータ入出力ブロック60のバッファメモリ60M、60Pにオーディオデータを書き込む。またオーディオ系のSCSIプロトコルコントローラ61Eは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Cから受け取ったフレーム単位のオーディオデータと、そのオーディオデータのフレームに付与されているタイムコードとをSCSIフォーマットのデータS68に変換してオーディオデータ用のディスクアレイブロック63に送出し、オーディオデータの記録を当該ディスクアレイブロック63に指示する。またSCSIプロトコルコントローラ61Eは、データ再生時、ディスクアレイブロック63から再生されたSCSIフォーマットのオーディオデータS68を受け取り、これを元のデータ形式に変換してDMAコントローラ61Cに送出する。   Similarly, the audio DMA controller 61C reads audio data from the buffer memory 60K of the data input / output block 60 at the time of data recording in response to a command from the CPU 61A, and buffers the buffer memory 60M of the data input / output block 60 at the time of data reproduction. Audio data is written to 60P. Also, the audio SCSI protocol controller 61E, in the data recording mode, converts the command from the CPU 61A, the frame-unit audio data received from the DMA controller 61C, and the time code assigned to the frame of the audio data into the SCSI format. The data is converted into data S68 and sent to the disk array block 63 for audio data, and the disk array block 63 is instructed to record the audio data. Further, the SCSI protocol controller 61E receives the SCSI format audio data S68 reproduced from the disk array block 63 at the time of data reproduction, converts it to the original data format, and sends it to the DMA controller 61C.

ビデオデータ用のディスクアレイブロック62及びオーディオデータ用のディスクアレイブロック63は、それぞれ内部に複数のハードディスクを有したディスクアレイ装置からなり、その複数のバードディスクを並列的に同時運転してビデオデータやオーディオデータを記録するようになされている。またディスクアレイブロック62及び63は、データを記録するときに冗長性を持たせて記録するようになされており、これによりディスクアレイ装置内のいずれかのハードディスクが故障した場合でも、故障したハードディスクに記録されていたデータを復旧(再構築動作ともいう)し得るようになされている。なお、このようなデータの再構築機能を有するディスクアレイ装置は、一般に、RAID(Redandant Array of Inexpensive Disks)と呼ばれている。   Each of the disk array block 62 for video data and the disk array block 63 for audio data is composed of a disk array device having a plurality of hard disks therein. Audio data is recorded. In addition, the disk array blocks 62 and 63 are configured to record data with redundancy, so that even if any hard disk in the disk array apparatus fails, The recorded data can be restored (also referred to as a reconstruction operation). A disk array device having such a data reconstruction function is generally called RAID (Redandant Array of Inexpensive Disks).

ここでこのようなディスクアレイブロック62、63について、以下に図を用いて具体的に説明する。但し、ディスクアレイブロック62、63は基本的に同一の構成を有しているので、ここではディスクアレイブロック62についてのみ説明する。図9に示すように、ディスクアレイブロック62は、大きく分けてバッファメモリ62Aと、ディスクアレイコントローラ62Bと、データマルチプレクサ62Cと、パリティ演算回路62Dと、複数のSCSIプロトコルコントローラ62E〜62Iと、複数のハードディスク62J〜62Nとからなっている。   The disk array blocks 62 and 63 will be specifically described below with reference to the drawings. However, since the disk array blocks 62 and 63 basically have the same configuration, only the disk array block 62 will be described here. As shown in FIG. 9, the disk array block 62 is roughly divided into a buffer memory 62A, a disk array controller 62B, a data multiplexer 62C, a parity operation circuit 62D, a plurality of SCSI protocol controllers 62E to 62I, and a plurality of It consists of hard disks 62J-62N.

バッファメモリ62Aはデータの一時記憶用のメモリであり、図8に示したシステムコントロールブロック61から送出されるSCSIフォーマットのデータS67を順次受け取って記憶すると共に、データ再生時には後述するデータマルチプレクサ62Cから送られてくるデータをデータ送出に伴って一時的に記憶する。   The buffer memory 62A is a memory for temporary storage of data. The buffer memory 62A sequentially receives and stores the SCSI format data S67 sent from the system control block 61 shown in FIG. The received data is temporarily stored with the data transmission.

ディスクアレイコントローラ62Bは、このディスクアレイブロック62における記録動作や再生動作等、ブロック全体の動作を制御する回路である。このディスクアレイコントローラ62Bは、バッファメモリ62Aに記憶されているデータのうちシステムコントロールブロック61からの制御コマンドに関するデータをコマンドデータバス62Pを介して受け取り、その制御コマンドに対応したコマンドデータをコマンドデータバス62Pを介してデータマルチプレクサ62C、SCSIプロトコルコントローラ62E〜62I及びハードディスク62J〜62Nに送出することにより各部の動作を制御する。   The disk array controller 62B is a circuit that controls the operation of the entire block such as a recording operation and a reproducing operation in the disk array block 62. The disk array controller 62B receives data related to the control command from the system control block 61 among the data stored in the buffer memory 62A via the command data bus 62P, and receives command data corresponding to the control command from the command data bus. The operation of each unit is controlled by sending the data to the data multiplexer 62C, the SCSI protocol controllers 62E to 62I, and the hard disks 62J to 62N via 62P.

データマルチプレクサ62Cは、データ記録時、ビデオデータ等の記録対象のデータをバッファメモリ62Aから読み出して当該データをSCSIプロトコルコントローラ62E〜62Hを介して各ハードディスク62J〜62Mに振り分けると共に、振り分けたデータ内容をパリティ演算回路62Dに通知する。またデータマルチプレクサ62Cは、データ再生時、各ハードディスク62J〜62Mから再生されたデータを1つにまとめてバッファメモリ62Aに送出すると共に、ハードディスク62J〜62Mの損傷等により再生できなかったデータがあるのであればパリティ演算回路62Dから供給されるパリティデータを基にそのデータを再構築演算によって再生する。   At the time of data recording, the data multiplexer 62C reads data to be recorded such as video data from the buffer memory 62A and distributes the data to the hard disks 62J to 62M via the SCSI protocol controllers 62E to 62H. This is notified to the parity calculation circuit 62D. The data multiplexer 62C collects the data reproduced from each of the hard disks 62J to 62M and sends it to the buffer memory 62A at the time of data reproduction, and there is data that could not be reproduced due to damage of the hard disks 62J to 62M. If there is, the data is reproduced by a reconstruction operation based on the parity data supplied from the parity operation circuit 62D.

パリティ演算回路62Pは、データ記録時、データマルチプレクサ62Cが振り分けたデータ内容に基づいてそれらのデータのパリティデータを演算し、当該パリティデータをSCSIプロトコルコントローラ62Iを介してハードディスク62Nに供給する。またパリティ演算回路62Pは、データ再生時、ハードディスク62J〜62Mから再生できないデータがあるのであれば、ハードディスク62Nから再生したパリティデータをデータマルチプレクサ62Cに送出する。   At the time of data recording, the parity calculation circuit 62P calculates the parity data of the data based on the data contents distributed by the data multiplexer 62C, and supplies the parity data to the hard disk 62N via the SCSI protocol controller 62I. Further, when there is data that cannot be reproduced from the hard disks 62J to 62M during data reproduction, the parity calculation circuit 62P sends the parity data reproduced from the hard disk 62N to the data multiplexer 62C.

SCSIプロトコルコントローラ62E〜62Iは、データ記録時、データマルチプレクサ62Cから供給された記録対象のデータ又はパリティ演算回路62Pから供給されたパリティデータをハードディスク62J〜62Nの記録フォーマットに合ったデータ形式に変換し、当該変換されたデータをハードディスク62J〜62Nに送出する。またSCSIプロトコルコントローラ62E〜62Iは、データ再生時、各ハードディスク62J〜62Nから再生されたデータをSCSIフォーマットのデータ形式に変換し、これをデータマルチプレクサ62C又はパリティ演算回路62Pに送出する。   The SCSI protocol controllers 62E to 62I convert the data to be recorded supplied from the data multiplexer 62C or the parity data supplied from the parity calculation circuit 62P into a data format suitable for the recording format of the hard disks 62J to 62N at the time of data recording. The converted data is sent to the hard disks 62J to 62N. Further, the SCSI protocol controllers 62E to 62I convert the data reproduced from the hard disks 62J to 62N into a data format of the SCSI format at the time of data reproduction, and send this to the data multiplexer 62C or the parity calculation circuit 62P.

SCSIプロトコルコントローラ62E〜62Iは、ハードディスク62J〜62Nをアクセスした際に当該ハードディスク62J〜62Nの故障等によりデータ再生ができないことが検出された場合には、その検出結果をディスクアレイコントローラ62Bに送出するようになされており、これによりディスクアレイコントローラ62Bからデータマルチプレクサ62Cにデータ再構築を指示し得るようになされている。   If the SCSI protocol controllers 62E to 62I access the hard disks 62J to 62N and detect that data cannot be reproduced due to a failure of the hard disks 62J to 62N, the SCSI protocol controllers 62E to 62I send the detection results to the disk array controller 62B. Thus, the disk array controller 62B can instruct the data multiplexer 62C to reconstruct data.

ハードディスク62J〜62Nは、ビデオデータ等の記録対象のデータを分散して並列的に記録するためのデータ記憶手段である。この例では、4つのハードディスク62J〜62Mを設けてデータを分散するようになっているが、この数は特に限定されるものではない。このハードディスク62J〜62Mは、データ記録時、SCSIプロトコルコントローラ62E〜62Hから供給されるデータを順次所望の記録エリアに記録すると共に、データ再生時にはデータを順次読み出してSCSIプロトコルコントローラ62E〜62Hに送出する。このように複数のハードディスク62J〜62Mを設けてデータを分散して記録するようにしたことにより、このディスクアレイブロック62ではビデオデータ等のような大容量のデータであっても確実に記録することができる。   The hard disks 62J to 62N are data storage means for distributing and recording data to be recorded such as video data in parallel. In this example, four hard disks 62J to 62M are provided to distribute data, but this number is not particularly limited. The hard disks 62J to 62M sequentially record data supplied from the SCSI protocol controllers 62E to 62H in a desired recording area at the time of data recording, and sequentially read out the data and transmit it to the SCSI protocol controllers 62E to 62H at the time of data reproduction. . Thus, by providing a plurality of hard disks 62J to 62M and recording data in a distributed manner, even this large amount of data such as video data can be recorded reliably in this disk array block 62. Can do.

またハードディスク62Nは、記録対象のデータを基に算出したパリティデータを記録するためのデータ記憶手段である。このハードディスク62Nは、データ記録時、SCSIプロトコルコントローラ62Iから供給されるパリティデータを順次所望の記録エリアに記録すると共に、データ再生時にはパリティデータを順次読み出してSCSIプロトコルコントローラ62Iに送出する。このように記録対象のデータを基に算出したパリティデータを、当該記録対象のデータを記録するハードディスク62J〜62Mとは別のハードディスク62Nに記録するようにしたことにより、故障等によってハードディスク62J〜62Mからデータを再生できない場合でも、当該パリティデータを基にデータを再構築することができる。   The hard disk 62N is data storage means for recording parity data calculated based on data to be recorded. The hard disk 62N sequentially records the parity data supplied from the SCSI protocol controller 62I in a desired recording area at the time of data recording, and sequentially reads out the parity data and transmits it to the SCSI protocol controller 62I at the time of data reproduction. Since the parity data calculated based on the data to be recorded in this manner is recorded on the hard disk 62N different from the hard disks 62J to 62M that record the data to be recorded, the hard disks 62J to 62M are caused by a failure or the like. Even if the data cannot be reproduced from the data, the data can be reconstructed based on the parity data.

ここでこのデータ再構築の原理について説明する。まずデータマルチプレクサ62Cによって割り振られたデータのうちハードディスク62Jに割り振られたデータをD0、ハードディスク62Kに割り振られたデータをD1、ハードディスク62Lに割り振られたデータをD2、ハードディスク62Mに割り振られたデータをD3とし、パリティ演算回路62Pによって算出されたパリティデータをPDとする。   Here, the principle of data reconstruction will be described. First, of the data allocated by the data multiplexer 62C, the data allocated to the hard disk 62J is D0, the data allocated to the hard disk 62K is D1, the data allocated to the hard disk 62L is D2, and the data allocated to the hard disk 62M is D3. And the parity data calculated by the parity calculation circuit 62P is PD.

パリティ演算回路62P内部には、図10Aに示すような論理演算手段70が設けられており、当該論理演算手段70によってパリティデータを算出するようになされている。この論理演算手段70は、ハードディスク62Jに割り振られたデータD0と、ハードディスク62Kに割り振られたデータD1と、ハードディスク62Lに割り振られたデータD2と、ハードディスク62Mに割り振られたデータD3とを加算し、その加算結果が偶数であれば値「1」のパリティデータPDを出力し、加算結果が奇数であれば値「0」のパリティデータを出力する。加算結果が「0」である場合には、偶数と見なして値「1」のパリティデータPDを出力する。   A logical operation means 70 as shown in FIG. 10A is provided inside the parity operation circuit 62P, and parity data is calculated by the logical operation means 70. The logical operation means 70 adds the data D0 allocated to the hard disk 62J, the data D1 allocated to the hard disk 62K, the data D2 allocated to the hard disk 62L, and the data D3 allocated to the hard disk 62M. If the addition result is an even number, parity data PD having a value “1” is output, and if the addition result is an odd number, parity data having a value “0” is output. When the addition result is “0”, it is regarded as an even number and the parity data PD having the value “1” is output.

具体的には、図10Bに示すように、例えばデータD0〜D3が全て値「0」の場合には、論理演算手段70は加算結果が「0」となるので値「1」なるパリティデータPDを出力し、データD0〜D2が値「0」でデータD3が値「1」の場合には、加算結果が「1」となるので値「0」なるパリティデータPDを出力する。以下、同様の原理でその他のデータの組み合わせについても、図10Bの図表のようなパリティデータPDを出力する。このように算出されたパリティデータPDは、上述したようにSCSIプロトコルコントローラ62Iを介してハードディスク62Nに記録される。   Specifically, as shown in FIG. 10B, for example, when the data D0 to D3 are all values “0”, the logical operation means 70 makes the addition result “0”, and therefore the parity data PD having the value “1”. When the data D0 to D2 are the value “0” and the data D3 is the value “1”, the addition result is “1”, so that the parity data PD having the value “0” is output. Thereafter, parity data PD as shown in the chart of FIG. 10B is output for other data combinations based on the same principle. The parity data PD calculated in this way is recorded on the hard disk 62N via the SCSI protocol controller 62I as described above.

ここで再生時にハードディスク62Lの故障で当該ハードディスク62Lに記録されているデータD2が再生できなかったとすると、ディスクアレイコントローラ62Bは、SCSIプロトコルコントローラ62Gからの再生不可の検出結果を受けて、データマルチプレクサ62Cにパリティデータによるデータ再構築を指示する。これを受けたデータマルチプレクサ62Cは、図11Aに示すように、内部に設けられた論理演算手段71に対してハードディスク62Jから再生されたデータD0、ハードディスク62Kから再生されたデータD1、ハードディスク62Mから再生されたデータD3及びハードディスク62Nから再生されたパリティデータPDを入力し、当該論理演算手段71によってデータD2の再構築のための演算を実行する。この論理演算手段71は、パリティデータPDを算出する論理演算手段70と同様に、入力されるデータD0、D1、D3及びパリティデータPDを加算し、その加算結果が偶数であれば値「1」の再構築データ(D2)を出力し、加算結果が奇数であれば値「0」の再構築データ(D2)を出力する。   If the data D2 recorded on the hard disk 62L cannot be reproduced due to a failure of the hard disk 62L at the time of reproduction, the disk array controller 62B receives the detection result indicating that reproduction is not possible from the SCSI protocol controller 62G and receives the data multiplexer 62C. Is instructed to reconstruct data with parity data. Upon receiving this, the data multiplexer 62C, as shown in FIG. 11A, reproduces data D0 reproduced from the hard disk 62J, data D1 reproduced from the hard disk 62K, and reproduced from the hard disk 62M with respect to the logical operation means 71 provided therein. The data D3 and the parity data PD reproduced from the hard disk 62N are input, and the logical operation means 71 performs an operation for reconstructing the data D2. This logical operation means 71 adds the input data D0, D1, D3 and the parity data PD in the same manner as the logical operation means 70 for calculating the parity data PD. If the addition result is an even number, the value “1” is added. The reconstructed data (D2) of the value “0” is output if the addition result is an odd number.

具体的には、図11Aに示すように、例えばデータD0、D1、D3が値「0」でパリティデータPDが値「1」の場合には、論理演算手段71は加算結果が「1」となるので値「0」なる再構築データ(D2)を出力し、データD0、D1、PDが値「0」でデータD3が値「1」の場合には、加算結果が同じく「1」となるので値「0」なる再構築データ(D2)を出力する。以下、同様の原理でその他のデータの組み合わせについても、図11Bの図表のような再構築データ(D2)を出力する。この図11Bと先の図10Bを対比させれば分かるように、ハードディスク62Lの故障により再生できなかったデータD2が正確に復元できている。   Specifically, as shown in FIG. 11A, for example, when the data D0, D1, and D3 are the value “0” and the parity data PD is the value “1”, the logical operation unit 71 sets the addition result to “1”. Therefore, when the reconstructed data (D2) having the value “0” is output and the data D0, D1, and PD are the value “0” and the data D3 is the value “1”, the addition result is also “1”. Therefore, the reconstruction data (D2) having the value “0” is output. Hereinafter, reconstructed data (D2) as shown in the chart of FIG. 11B is output for other data combinations based on the same principle. As can be seen by comparing FIG. 11B and FIG. 10B, the data D2 that could not be reproduced due to the failure of the hard disk 62L can be accurately restored.

このようにしてこのディスクアレイブロック62では、データ記録時、記録対象のデータD0〜D3を基にパリティデータPDを算出してハードディスク62Nに当該パリティデータPDを記録するようにしたことにより、データ再生時にハードディスク62J、62K、62L又は62Mの故障によりデータD0、D1、D2又はD3が再生できなかった場合でも、当該パリティデータPDを基に再生できなかったデータD0、D1、D2又はD3を確実に復元し得る。   In this manner, in this disk array block 62, when data is recorded, the parity data PD is calculated based on the data to be recorded D0 to D3, and the parity data PD is recorded on the hard disk 62N. Even if the data D0, D1, D2, or D3 cannot be reproduced due to a failure of the hard disk 62J, 62K, 62L, or 62M, the data D0, D1, D2, or D3 that could not be reproduced based on the parity data PD is surely obtained. Can be restored.

2. グラフィックユーザインターフェースの構成
2−1. 本実施例の編集装置1においては、まずコンピュータ2により編集用のアプリケーションソフトウェアを、コンピュータ内部のハードディスクHDDより読み出して起動することによって、モニタ2B上に図12に示すような編集用のグラフィカルユーザインターフェース90を表示させる。
2. 2. Configuration of graphic user interface 2-1. In the editing apparatus 1 according to the present embodiment, the editing application software is first read by the computer 2 from the hard disk HDD in the computer and started, so that the editing graphical user interface as shown in FIG. 12 is displayed on the monitor 2B. 90 is displayed.

編集処理を行うためのグラフィカルユーザインターフェース90は、ビューアウィンドウ92、ログウィンドウ93及びプログラムウィンドウ94の3つのウィンドウから構成され、これら3つのウィンドウを使用して編集操作を行う。   The graphical user interface 90 for performing the editing process includes three windows, a viewer window 92, a log window 93, and a program window 94, and an editing operation is performed using these three windows.

ビューアウィンドウ92は、選択されたソースデバイスから再生されたビデオイメージをビューイングしながら、そのソースデバイスから再生された編集素材に対してイン点及びアウト点を設定するためのウィンドウである。   The viewer window 92 is a window for setting an in point and an out point for an editing material reproduced from the source device while viewing a video image reproduced from the selected source device.

ログウィンドウ93は、イン点及びアウト点の指定によって生成されたイベントを表すクリップカード(スタンプピクチャ)を登録するためのウィンドウである。   The log window 93 is a window for registering a clip card (stamp picture) representing an event generated by specifying an IN point and an OUT point.

プログラムウィンドウ94は、イン点及びアウト点が指定されたイベントを、タイムラインに並べることによって、所望のプログラムを作成するためのウィンドウである。   The program window 94 is a window for creating a desired program by arranging events with designated in and out points on the timeline.

大まかな編集方法としては、ビューアウィンドウ92においてイン点及びアウト点を指定することでイベントを生成する。そして、ログウィンドウ93にその作成したイベントをクリップカードとして表示する。このような作業を繰り返すことによってログウィンドウ93上に複数のイベントを表すクリップカードが表示される。   As a rough editing method, an event is generated by specifying an In point and an Out point in the viewer window 92. Then, the created event is displayed as a clip card in the log window 93. By repeating such operations, a clip card representing a plurality of events is displayed on the log window 93.

次に、ログウィンドウ93に登録されたイベントの中から所望のイベントをドラッグアンドドロップを使用して、プログラムウィンドウ94のタイムライン95に並べることによって、プログラムを作成することができる。また、このタイムライン上で、タイムライン95上に並べられたイベントに対してアニメーションエフェクト又はトランジションエフェクト等ビデオエフェクトを設定することができる。   Next, a program can be created by arranging desired events from events registered in the log window 93 on the timeline 95 of the program window 94 by using drag and drop. On the timeline, video effects such as animation effects or transition effects can be set for events arranged on the timeline 95.

2−2. ビューアウィンドウの構成
ビューアウィンドウ92は、ソースデバイスを選択し、選択されたソースデバイスから再生されたビデオイメージをビューイングしながら、そのソースデバイスから再生された編集素材に対してイン点及びアウト点を設定するためのウィンドウである。
2-2. Configuration of Viewer Window The viewer window 92 selects a source device, displays a video image played back from the selected source device, and sets an in point and an out point for editing material played back from the source device. This is a window for setting.

図13に示すように、ビューアウィンドウ92は、ソースデバイスから再生されたビデオイメージをビューイングするビューア106と、選択されたソースデバイスをコントロールするためのデバイスコントロール部96と、ビューアウィンドウ92に表示されている素材に対して、イン点を指定するためのマークインボタン115と、マークインボタン115のクリックによって指定されたイン点のスタンプ画像を表示するイン点画像表示部110と、ビューアウィンドウ92に表示されている素材に対して、アウト点を指定するためのマークアウトボタン116と、マークアウトボタン116のクリックによって指定されたアウト点のスタンプ画像を表示するアウト点画像表示部112有している。   As shown in FIG. 13, the viewer window 92 is displayed on the viewer 106 for viewing the video image reproduced from the source device, the device control unit 96 for controlling the selected source device, and the viewer window 92. A mark-in button 115 for designating an in-point for the selected material, an in-point image display unit 110 for displaying a stamp image of the in-point designated by clicking the mark-in button 115, and a viewer window 92. A mark-out button 116 for designating an out-point for the displayed material and an out-point image display unit 112 for displaying a stamp image of the out-point designated by clicking the mark-out button 116 are provided. .

ビューアウィンドウ92は、イン点画像表示部110に表示されているスタンプ画像のタイムコードつまりイン点のタイムコードを表示するためのイン点タイムコード表示欄111と、アウト点画像表示部112に表示されているスタンプ画像のタイムコードつまりアウト点のタイムコードを表示するためのアウト点タイムコード表示欄113と、イン点とアウト点のマーキングによって生成されたイベントの期間(Duration)を表示するための欄であって、イン点のタイムコード及びアウト点のタイムコードに基づいて演算されたタイムコードが表示されるDUR表示欄114とを有している。   The viewer window 92 is displayed on the in-point time code display field 111 for displaying the time code of the stamp image displayed on the in-point image display unit 110, that is, the in-point time code, and the out-point image display unit 112. Out point time code display field 113 for displaying the time code of the stamp image, that is, the time code of the out point, and a field for displaying the duration (Duration) of the event generated by marking the in point and the out point The DUR display column 114 displays a time code calculated based on the time code of the IN point and the time code of the OUT point.

さらに、ビューアウィンドウ92は、デイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTの各ソースデバイスを任意の選択するためのソース選択ボタン102(102A〜102E)を有している。編集オペレータが、これらのいずれかのソース選択ボタンをクリックすることにより、デイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTのいずれかをソースデバイスとして選択することができる。   Further, the viewer window 92 has source selection buttons 102 (102A to 102E) for arbitrarily selecting source devices of the daily server 6, the VTR 7, the local storage 8, the auxiliary input unit AUX, and the internal input INT. . By clicking one of these source selection buttons, the editing operator can select one of the daily server 6, the VTR 7, the local storage 8, the auxiliary input unit AUX, and the internal input INT as a source device.

補助入力部AUXは複数のソースを有するもので、現在、補助入力部AUXとして設定されている補助入力部(AUX1〜AUXn)内のいずれかの入力部名がソース選択ボタン102Dに表示される。   The auxiliary input unit AUX has a plurality of sources, and any input unit name in the auxiliary input units (AUX1 to AUXn) currently set as the auxiliary input unit AUX is displayed on the source selection button 102D.

デバイスコントロール部96は、スライダ(Slider)部120及びジョグシャトル部121とを有している。スライダ部120を操作することによって、イベントの長さを示すデユレーシヨン表示部120Aの範囲内においてスライダ120Bの表示される位置によって、現在、再生中のファイルの現在位置を表すと共に、当該スライダ120Bをマウス2Dによってデユレーシヨン表示部120Aの任意の位置にスライドすることによってファイルの所望の位置をサーチすることができる。矢印ボタン120C又は120Dをクリックすることにより、ファイルの位置をそれぞれ±1フレームずつ前後に移動させることができるようになされている。   The device control unit 96 includes a slider unit 120 and a jog shuttle unit 121. By operating the slider section 120, the position of the slider 120B displayed within the range of the delay display section 120A indicating the length of the event represents the current position of the file currently being played, and the slider 120B is moved to the mouse. The desired position of the file can be searched by sliding to an arbitrary position of the delay display unit 120A by 2D. By clicking the arrow button 120C or 120D, the position of the file can be moved forward and backward by ± 1 frame, respectively.

ジョグシャトル部121は、1倍速再生を指示する再生ボタン119Aと、スチル再生を指示するスチルボタン119Bと、シャトル再生するシャトルモードを指示するシャトルボタン121Aと、このシャトルモードにおいてデバイスのサーチ速度を−50倍速から+50倍速範囲で可変にするためのボタン121B又は121Cとを有している。   The jog shuttle unit 121 includes a playback button 119A for instructing 1 × speed playback, a still button 119B for instructing still playback, a shuttle button 121A for instructing shuttle mode for shuttle playback, and a device search speed in this shuttle mode − It has a button 121B or 121C for changing the speed from 50 × to + 50 ×.

ビューアウィンドウ92は、さらに、選択された編集素材名が表示される素材名欄107と、ビューア106に表示されている映像フレームのタイムコードが表示されるタイムコード表示欄108と、ビューアウィンドウ92の状況(ステイタス)を表示するためのステイタス欄109とを有している。   The viewer window 92 further includes a material name field 107 in which the selected editing material name is displayed, a time code display field 108 in which the time code of the video frame displayed in the viewer 106 is displayed, and a viewer window 92 And a status column 109 for displaying a status.

タイムコード表示欄108をクリックすることにより、当該タイムコード表示欄108を入力モードに設定することができ、ここでタイムコード表示欄108に素材の所望の位置のタイムコードを入力してエンターキーを入力することにより、素材の所望の位置をタイムコードに応じて探し出す(サーチ)ことができる。   By clicking the time code display field 108, the time code display field 108 can be set to the input mode. Here, the time code at the desired position of the material is input to the time code display field 108 and the enter key is pressed. By inputting, a desired position of the material can be searched (searched) according to the time code.

また、ステイタス欄109のステイタス表示が「OPEN」となると、デバイスコントロール部96によるデバイスコントロールによって選択された素材に対するデバイスコントロールが実行可能な状態に設定されていることを示す。   Further, when the status display in the status column 109 becomes “OPEN”, it indicates that the device control for the material selected by the device control by the device control unit 96 is set to be executable.

さらに、ステイタス欄109にテンキー入力により再生速度を入力すると、当該再生速度でデバイスを再生モードに設定することができる。このとき再生中の素材の所望位置において、マークインボタン115をクリック入力することにより、その位置にイン点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれイン点画像表示部110とイン点タイムコード表示欄111とに表示される。さらに選択された素材のサーを行い、マークアウトボタン116をクリック入力することにより、その位置にアウト点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれアウト点画像表示部112とアウト点タイムコード表示欄113とに表示される。   Furthermore, when a playback speed is input to the status field 109 by a numeric keypad, the device can be set to the playback mode at the playback speed. At this time, by clicking and inputting the mark-in button 115 at a desired position of the material being played back, an In point is set at that position, and a stamp image and a time code are taken in. It is displayed in the in-point time code display field 111. When the selected material is scanned and the mark-out button 116 is clicked on, an out point is set at that position, and a stamp image and a time code are taken in. It is displayed in the point time code display field 113.

また、イン点タイムコード表示欄111をクリックすることによってイン点タイムコード表示欄111をタイムコードの入力モードにかえることができ、このときイン点タイムコード表示欄111に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をイン点画像として読み出し、イン点画像表示部110に表示させることもできる。同様にしてアウト点タイムコード表示欄113をクリックすることによってアウト点タイムコード表示欄113をタイムコードの入力モードにかえることができ、このときアウト点タイムコード表示欄113に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をアウト点画像として読み出し、アウト点画像表示部112に表示させることもできる。   Further, by clicking the in-point time code display field 111, the in-point time code display field 111 can be changed to the time code input mode. By inputting, an image of material data corresponding to the input time code can be read out as an in-point image and displayed on the in-point image display unit 110. Similarly, by clicking the out-point time code display column 113, the out-point time code display column 113 can be changed to the time code input mode. At this time, the target time code value is displayed in the out-point time code display column 113. By inputting with the numeric keypad, an image of material data corresponding to the input time code can be read as an out point image and displayed on the out point image display unit 112.

またビューアウィンドウ92は、イン点とアウト点によって規定された編集素材を、イベントとして登録する前に、イン点からアウト点の素材をプレビューするためのプレビューボタン117と、そしてその設定状態でビューアウィンドウ92においてイン点及びアウト点をが設定された素材をイベントとして登録するためのADDボタン122Aと、イベントを登録する際のエントリーモードとして、イベントをログウィンドウ93にクリップカードをして登録するログモードを選択するログボタン122B、イベントを登録する際のエントリーモードとして、タイムライン95にイベントを登録するタイムラインモードを選択するタイムラインボタン122Cとを有している。   The viewer window 92 includes a preview button 117 for previewing the material at the out point from the in point before the editing material defined by the in point and the out point is registered as an event, and the viewer window in the setting state. A log mode for registering an event as a clip card in the log window 93 as an entry mode when registering an event, and an ADD button 122A for registering the material with the in and out points set in 92 as an event And a timeline button 122C for selecting a timeline mode for registering an event in the timeline 95 as an entry mode when registering an event.

2−3. ログウィンドウの構成
ログウィンドウ93は、ビューアウィンドウ92において登録されたイベントをクリップカード179として格納しておくためのデータベースウィンドウである。
2-3. Structure of Log Window The log window 93 is a database window for storing events registered in the viewer window 92 as a clip card 179.

このログウィンドウは、複数のクリップカードを表示するためのクリップカード表示エリアと、ダイレクトエントリーボタン180と、シーンチェンジボタン178Aと、リコールボタン178Cと、ソートボタン178D、デリートボタン178E、ダウンロードボタン178Bとを有している。   This log window includes a clip card display area for displaying a plurality of clip cards, a direct entry button 180, a scene change button 178A, a recall button 178C, a sort button 178D, a delete button 178E, and a download button 178B. Have.

ダイレクトエントリーボタン178Cは、ログウィンドウに格納されているクリップカード179をタイムライン上に自動的に並べるダイレクトエントリーモードを設定するためのボタンである。このダイレクトエントリーモードとは、ログウィンドウ93に表示されているクリップカード179を、ドラッグアンドドロップせずにクリックするだけで、タイムライン上に並べることができるモードである。具体的には、後述する。   The direct entry button 178C is a button for setting a direct entry mode in which the clip cards 179 stored in the log window are automatically arranged on the timeline. The direct entry mode is a mode in which the clip cards 179 displayed in the log window 93 can be arranged on the timeline simply by clicking without dragging and dropping. Specifically, it will be described later.

シーンチェンジボタン178Cは、このログウィンドウ93にクリップカード179として格納されるイベントに対して、一連のクリップ名を付けたい場合に使用するボタンである。このシーンチェンジボタン178Cがクリックされると、シーン名設定ダイアログがオープンする。このシーンの設定方法については後述する。   The scene change button 178C is a button used to assign a series of clip names to events stored in the log window 93 as the clip card 179. When this scene change button 178C is clicked, a scene name setting dialog is opened. This scene setting method will be described later.

リコールボタン178Cは、クリックすることによりクリップ名等をもとにクリップカード179を検索するボタンであって、ソートボタン178Dはクリックすることによりクリップカード179を降順又は昇順に並べ替えするボタンであって、さらにデリートボタン178Eはクリックすることによってログウィンドウ93上に登録したクリップカード179の削除を設定するボタンである。   The recall button 178C is a button for searching the clip card 179 based on the clip name by clicking, and the sort button 178D is a button for rearranging the clip card 179 in descending or ascending order by clicking. Further, the delete button 178E is a button for setting deletion of the clip card 179 registered on the log window 93 by clicking.

さらにダウンロードボタン178Bは、選択されたクリップカード179をローカルストレージ8へのダウンロードを指示するためのボタンである。   Furthermore, the download button 178B is a button for instructing the download of the selected clip card 179 to the local storage 8.

このログウィンドウ93に登録されたクリップカード179を表示するための表示形式として、図15A〜図15Cに示すように、3つのクリップカード表示形式が存在する。   As display formats for displaying the clip card 179 registered in the log window 93, there are three clip card display formats as shown in FIGS. 15A to 15C.

図15Aに示すような第1のクリップカード表示形式は、クリップ名、イン点のスタンプピクチャ及びイベントのデュレーションを表示する形式である。図15Bに示すような第2のクリップカード表示形式は、クリップ名、イベントデュレーション、イン点及びアウト点のタイムコード及びイン点及びアウト点のスタンプピクチャを表示する形式である。図15Cに示すような第3のクリップカード表示形式は、クリップ名、イベントデュレーション、イン点のスタンプピクチャ及びイベントに関する情報を記載したテキストを表示するテキスト表示欄を表示する形式である。   The first clip card display format as shown in FIG. 15A is a format for displaying a clip name, an IN point stamp picture, and an event duration. The second clip card display format as shown in FIG. 15B is a format for displaying a clip name, event duration, time code of In point and Out point, and stamp picture of In point and Out point. The third clip card display format as shown in FIG. 15C is a format for displaying a text display field for displaying text describing information related to the clip name, event duration, in-point stamp picture, and event.

編集オペレータによって、これらの3つのクリップカード表示形式の中から所望のクリップカード表示形式が選択され、このログウィンドウ93にイベントをクリップカードとして格納する場合には、その選択されクリップカード表示形式となるようにクリップカードが表示される。   When an editing operator selects a desired clip card display format from among these three clip card display formats and stores an event as a clip card in the log window 93, the selected clip card display format is selected. The clip card is displayed as follows.

2−4. プログラムウィンドウの構成
プログラムウィンドウ94は、ビューアウィンドウ92においてイン点とアウト点が指定された素材及びログウィンドウ93に格納されているクリップカード179を、タイムライン上にイベントとして並べることによって、プログラムリスト(ED)を作成するためのウィンドウである。
2-4. Configuration of Program Window The program window 94 arranges the material for which the in and out points are specified in the viewer window 92 and the clip card 179 stored in the log window 93 as events on the timeline, thereby arranging a program list ( ED).

図16及び図17に示すようにプログラムウィンドウは、ビデオ及びオーディオを貼り付ける複数のラインにより構成されているタイムライン95を有している。このタイムライン95は、ベースビデオライン(Base Video Line)132A、ベースオーディオライン132B、サブオーディオライン134、エフェクトライン135と、オーバレイライン(Overlay Line)136と、DSKライン137と、ボイスオーバライン138A、138Bとから構成される。   As shown in FIGS. 16 and 17, the program window has a time line 95 composed of a plurality of lines for pasting video and audio. The timeline 95 includes a base video line 132A, a base audio line 132B, a sub audio line 134, an effect line 135, an overlay line 136, a DSK line 137, a voice overline 138A, 138B.

ベースビデオライン(Base Video Line)132Aは、ベースとなるベースビデオを貼るためのラインであって、ベースオーディオライン132Bは、ベースビデオに関連するベースオーディオを貼るためのラインである。このベースビデオライン138Aとベースオーディオライン138Bは、常にリンクしており、同じ素材が使用される。   The base video line 132A is a line for attaching a base video as a base, and the base audio line 132B is a line for attaching a base audio related to the base video. The base video line 138A and the base audio line 138B are always linked, and the same material is used.

オーバレイライン(Overlay Line)136は、2つの映像を合成するようなアニメーションエフェクトを設定した場合に使用するラインであって、ベースビデオに対してオーバレイさせるビデオを貼るためのラインである。サブオーディオライン134は、オーバレイライン136に貼られたオーバレイビデオのオーディオを設定するためのラインである。このオーバレイライン136とサブオーディオライン138Bは、常にリンクしており、同じ素材が使用される。   An overlay line 136 is a line used when an animation effect that synthesizes two images is set, and is a line for attaching a video to be overlaid on the base video. The sub audio line 134 is a line for setting the audio of the overlay video pasted on the overlay line 136. The overlay line 136 and the sub audio line 138B are always linked, and the same material is used.

エフェクトライン135は、ビデオエフェクトを設定するためのラインである。このエフェクトライン135の使い方については後述する。   The effect line 135 is a line for setting a video effect. How to use the effect line 135 will be described later.

DSKライン137は、タイトルや文字スーパの合成等に使用されるダウンストリームキー(Down Stream Key)を設定するためのラインである。   The DSK line 137 is a line for setting a downstream stream key (Down Stream Key) used for composition of a title or a character super.

ボイスオーバライン138A及び138Bは、ベースオーディオに対して、アナウンサ等の声(Voice)を合成するためのラインである。   The voice overlines 138A and 138B are lines for synthesizing a voice such as an announcer with the base audio.

タイムライン95に表示されるイベント及び設定されたエフェクトは各ライン毎に異なった色に設定されている。例えば、ビデオイベントは青、オーディオイベントは黄色、エフェクトイベントはピンク色、DSKイベントは緑色によって表示される。   The event displayed on the timeline 95 and the set effect are set to different colors for each line. For example, a video event is displayed in blue, an audio event is displayed in yellow, an effect event is displayed in pink, and a DSK event is displayed in green.

またタイムライン95は、タイムライン上におけるカレントタイム又はカレント位置を表すナウライン139を有している。タイムライン95上のイベントをプレビューするプレビューモードのときには、ビューアウィンドウ92に画面表示されるビデオフレームと連動して、ナウライン139がタイムライン上を右に移動する。   The timeline 95 has a nowline 139 that represents the current time or current position on the timeline. In the preview mode for previewing the event on the timeline 95, the nowline 139 moves to the right on the timeline in conjunction with the video frame displayed on the viewer window 92.

ナウライン139はタイムライン95が表示されているときは、当該タイムライン95上に常時表示されるようになされており、通常は灰色表示され、プレビュー又は再生実行中には赤色に色別表示される。このようにナウライン139をプレビュー又は再生実行中とで色別表示するようにしたことにより、現在、ナウライン139によって示されるタイムコード位置に対応する映像クリップがビューアウィンドウ92に画面表示されているものであるか否かを視覚により容易に識別し得る。   When the timeline 95 is displayed, the nowline 139 is always displayed on the timeline 95. Normally, the nowline 139 is displayed in gray, and displayed in red during preview or playback. . As described above, the now line 139 is displayed by color depending on whether the preview or playback is being executed, so that a video clip corresponding to the time code position indicated by the now line 139 is currently displayed on the viewer window 92. It can be easily identified visually whether or not there is.

図16に示すようにナウライン139は、タイムライン95の上部に表示される入力ツール140によって簡易にタイムライン95上の所望の位置へ移動させることができるようになされている。プログラムウィンドウ94には、入力ツール140としてナウライン139をタイムライン95の先頭に移動させるヘッドボタン141、ナウライン139をタイムライン95上の最後尾のイベントに直後に移動させるテールボタン142、ナウライン139を現在位置するイベントの一つ前のイベントに移動させる前ボタン143、ナウライン139を現在位置するイベントの一つ後のイベントに移動させる次ボタン144、ナウライン139をタイムライン95上の所定の位置に移動しスライダ146が設けられている。   As shown in FIG. 16, the now line 139 can be easily moved to a desired position on the time line 95 by the input tool 140 displayed on the upper part of the time line 95. The program window 94 includes a head button 141 for moving the nowline 139 to the beginning of the timeline 95 as the input tool 140, a tail button 142 for moving the nowline 139 immediately to the last event on the timeline 95, and a nowline 139. Move the previous button 143 to move to the event immediately before the positioned event, the next button 144 to move the now line 139 to the event immediately after the currently positioned event, and move the now line 139 to a predetermined position on the timeline 95 A slider 146 is provided.

またタイムライン95には、ナウライン139のタイムライン上の現在位置を表示するためのカウントタイム表示欄152が設けられている。   The timeline 95 is provided with a count time display field 152 for displaying the current position on the timeline of the nowline 139.

また、タイムライン95上には、タイムコードに対応した目盛りを表すスケールライン147(Scale Line)が設けられている。このスケールライン147のスケール幅は、タイムライン95に貼り付けられるイベントの長さ、及びタイムライン上で作成されるプログラムの長さに応じて任意に変更できる。   On the time line 95, a scale line 147 (Scale Line) representing a scale corresponding to the time code is provided. The scale width of the scale line 147 can be arbitrarily changed according to the length of the event pasted on the time line 95 and the length of the program created on the time line.

図17に示すように、プログラムウィンドウ94には、GUIツールとしてタイムライン95に設定される時間又は、スケールライン147の一目盛りが示す時間を調整するためのズームアウトボタン150及びズームインボタン151が設けられている。ズームアウトボタン150は、プログラムウィンドウ94の1画面で表示できるタイムラインの時間を長く設定するものである。またズームインボタン151はプログラムウィンドウ94の1画面で表示できるタイムラインの時間を短く設定するものである。   As shown in FIG. 17, the program window 94 is provided with a zoom-out button 150 and a zoom-in button 151 for adjusting the time set on the time line 95 as a GUI tool or the time indicated by one scale on the scale line 147. It has been. The zoom-out button 150 is used to set a longer time on the timeline that can be displayed on one screen of the program window 94. The zoom-in button 151 is used to set a short time on the timeline that can be displayed on one screen of the program window 94.

またプログラムウィンドウ94には、入力ツールとして、リップルボタン154、マニュアルロケーションボタン155、トリムボタン156、マッチカットボタン157、デリートボタン158及びビデオエフェクトボタン159が設けられている。   The program window 94 includes a ripple button 154, a manual location button 155, a trim button 156, a match cut button 157, a delete button 158, and a video effect button 159 as input tools.

リップルボタン154は、既にベースラインに並んでいるイベントの途中にイベントを貼り付ける場合、貼り付けるイベントを挿入イベントとしてベースラインに挿入し、以降のイベントをその挿入イベントの次に続くように順次、繰下げて並べ替える処理を設定すると共に、ベースライン上のイベントが削除又は移動された場合にはベースラインに穴が開いた部分に後に続くイベントを繰り上げて並べるという処理を設定する。   The ripple button 154 inserts an event to be pasted into the baseline as an insertion event when pasting an event in the middle of an event already in line with the baseline, and sequentially follows the inserted event, In addition to setting a process of rearranging and rearranging, when an event on the baseline is deleted or moved, a process of setting up a subsequent event to a part where a hole is opened in the baseline is set.

またマニュアルロケーションボタン155は、エフェクトの位置(ロケーション)を設定し得るようなアニメーションエフェクトを設定するときに、当該アニメーションエフェクトをかけるイベントのプレビュー又はレコーディング実行中にマウス2Dによる操作によってエフェクトのロケーションを制御し得るように設定する。   The manual location button 155 controls the location of the effect by operating the mouse 2D during the execution of the preview or recording of the event to which the animation effect is applied when setting the animation effect so that the position (location) of the effect can be set. Set as possible.

またトリムボタン156は、タイムライン95上においてイベントにトリムを設定しモニタ上にてイベントのバックグランド及びバックグランドをその境界部分とと共に表示し、マッチカットボタン157は、イベントをナウライン139の位置にて2つに切り離す設定をするためのボタンとして設けられている。   The trim button 156 sets the trim to the event on the timeline 95 and displays the event background and the background together with the boundary portion on the monitor. The match cut button 157 displays the event at the position of the now line 139. It is provided as a button for setting to separate into two.

またデリートボタン158は、イベントに対して削除を設定するものである。またビデオエフェクトボタン159は、映像の変わり目や映像自体にエフェクト(ビデオエフェクト)をかけるためのダイアログを表示させるものである。   The delete button 158 sets deletion for an event. The video effect button 159 displays a dialog for applying an effect (video effect) to the transition of the video or the video itself.

さらにプログラムウィンドウ94には、サブオーディオライン134、ボイスオーバライン138に貼り付けられたオーディオイベントのフェードイン又はフェイドアウトの効果を付けるためのオーディオフェードボタン160、DSKの各種設定を行うためのダイアログを開くためのDSKボタン161及び最終的なオーディオの4チヤネル出力に対してタイムライン上のオーディオをどのようにルーティングするかを決定するためのダイアログを表示させるミックスダウンボタン162が設けられている。   Further, the program window 94 opens a sub-audio line 134, an audio fade button 160 for applying an effect of fade-in or fade-out of an audio event pasted on the voice overline 138, and a dialog for performing various settings of DSK. And a mixdown button 162 for displaying a dialog for deciding how to route the audio on the timeline to the final 4 channel output of audio.

2−5. デバイスアイコン
本実施例の編集装置においては、ビューアウィンドウ92、ログウィンドウ93及びプログラムウィンドウ94の各ウィンドウにおいて、編集対象となっている素材及びイベントが、どのソースデバイスの素材及びイベントであるのかを示すデバイスアイコン165が表示される。
2-5. Device Icon In the editing apparatus of the present embodiment, the source device material and event that are the editing target material and event in each of the viewer window 92, the log window 93, and the program window 94 are shown. A device icon 165 is displayed.

デバイスアイコン165は、図18A〜図18Eに示すような、5種類のデバイスアイコンを有している。素材のソースデバイスがデイリーサーバ6の場合はサーバアイコン165A、素材のソースデバイスがローカルストレージ8の場合はローカルストレージアイコン165B、素材のソースデバイスがVTR7の場合はVTRアイコン165C、素材のソースデバイスが補助入力部AUXである場合はAUXアイコン165D、素材のソースデバイスが編集装置内部の信号発生装置である場合はINTアイコン126がそれぞれ表示される。   The device icon 165 has five types of device icons as shown in FIGS. 18A to 18E. When the source device of the material is the daily server 6, the server icon 165A, when the source device of the material is the local storage 8, the local storage icon 165B, when the source device of the material is VTR7, the VTR icon 165C, the source device of the material is auxiliary An AUX icon 165D is displayed when the input unit is AUX, and an INT icon 126 is displayed when the source device of the material is a signal generator inside the editing apparatus.

ビューアウィンドウ92においては、図13に示されるように、ビューア106に表示されている映像がどのソースデバイスであるかを示すために、ビューア106の上部に、このデバイスアイコン165が表示される。つまり、デバイスアイコン165をイベント画像と同時にビューアウィンドウ92上に表示するようにしたことにより、ビューアウィンドウ92に再生されている映像がどのソースデバイスから供給されている映像であるかを、デバイスアイコン165によって容易に識別することができる。   In the viewer window 92, as shown in FIG. 13, this device icon 165 is displayed at the top of the viewer 106 to indicate which source device the video displayed on the viewer 106 is. That is, by displaying the device icon 165 on the viewer window 92 simultaneously with the event image, the device icon 165 indicates from which source device the video played back on the viewer window 92 is supplied. Can be easily identified.

ログウィンドウ93においては、図18に示されるように、各クリップカード179によって示されるイベントがどのソースデバイスから生成されたイベントであるかを示すために、各クリップカード毎にデバイスアイコン165が表示される。つまり、デバイスアイコン165を各クリップカード179毎に表示するようにしたことにより、各クリップカード179によって示されるイベントが、どのソースデバイスの映像から生成されたイベントであるかを、デバイスアイコン165によって容易に識別することができる。   In the log window 93, as shown in FIG. 18, a device icon 165 is displayed for each clip card to indicate from which source device the event indicated by each clip card 179 is generated. The That is, by displaying the device icon 165 for each clip card 179, the device icon 165 makes it easy to determine from which source device video the event indicated by each clip card 179 is generated. Can be identified.

プログラムウィンドウ94においては、図16に示すように、タイムライン上に登録された各イベントどのソースデバイスから生成されたイベントであるかを示すために、各イベント毎にデバイスアイコン165が表示される。つまり、デバイスアイコン165をタイムライン上の各イベント毎に表示するようにしたことにより、各イベントが、どのソースデバイスの映像から生成されたイベントであるかを、デバイスアイコン165によって容易に識別することができる。   In the program window 94, as shown in FIG. 16, a device icon 165 is displayed for each event in order to indicate which source device has generated each event registered on the timeline. That is, by displaying the device icon 165 for each event on the timeline, the device icon 165 can easily identify which source device generated each event. Can do.

編集オペレータが、編集プログラムを作成するにあたって、各イベントのソースデバイスを認識しなければいけない理由を説明する。本実施例の編集装置において使用されているローカルストレレージ8は、ランダムアクセス可能な記録媒体を使用し、しかも、マルチチャンネルのビデオ及びオーディオをリアルタイムで再生できる能力を有しているので、エフェクト設定やプログラム生成処理に関して何の制限もない。   The reason why the editing operator must recognize the source device of each event when creating the editing program will be described. The local storage 8 used in the editing apparatus of the present embodiment uses a randomly accessible recording medium and has the ability to reproduce multi-channel video and audio in real time. There are no restrictions on program generation processing.

しかし、VTR7のようにランダムアクセスできない記録媒体の場合には、キューアップするためにはテープをまき戻す時間が必要であるため、エフェクト設定及びプログラム生成処理に関して多くの制限が設けられている。例えば、VTR7のテープ上の素材から生成された2つ以上のイベントを、タイムライン上において近くに並べるようなプログラムを作成することはできない。また、同じように、VTR7のテープから生成された2つ以上のイベントを、時間的重なるように、ベースビデオラインとオーバレイビデオラインに配置するようなプログラムは作成することはできない。   However, in the case of a recording medium that cannot be randomly accessed, such as the VTR 7, it takes time to roll up the tape in order to cue up, and thus there are many restrictions on effect setting and program generation processing. For example, it is not possible to create a program in which two or more events generated from the material on the tape of the VTR 7 are arranged close to each other on the timeline. Similarly, it is not possible to create a program in which two or more events generated from the tape of the VTR 7 are arranged on the base video line and the overlay video line so as to overlap in time.

また、サーバから生成された素材に関しては、VTRほどエフェクト設定及びプログラム生成処理において制限はないが、ローカルストレージ8に比べるとアクセス性能が遅いという理由と、編集処理装置から離れた位置に配置されているため、ビデオ信号の受取りに遅延が発生することがあるという理由で、数種類のエフェクト設定に関して制限がある。   The material generated from the server is not limited in effect setting and program generation processing as much as the VTR, but the access performance is slower than that of the local storage 8, and it is arranged at a position away from the editing processing device. Therefore, there are limitations on several types of effect settings because there may be a delay in receiving the video signal.

以上のような理由で、編集オペレータは、編集プログラムを作成するにあたって、各イベントのソースデバイスを認識しなければいけない。   For the reasons described above, the editing operator must recognize the source device of each event when creating the editing program.

このように、各イベントに対して、デバイスアイコンを付与することによって、容易にソースデバイスを認識することができる。これにより、イベントに対してエフェクトを設定するとき、イベントのソースデバイスが、VTR7、デイリーサーバ6又はローカルストレージ8であるか否かを容易に判別することができる。例えば、エフェクトを付加しようとするイベントのソースデバイスがVTR7であって、タイムライン上においてそのイベントの近くに設定されているイベントのソースデバイスもVTRであることが判明した場合には、どちらかのイベントをVTR7からローカルストレージ8にダウンロードするように指示することができる。つまり、素材に対する編集操作をより確実に行うことができる。   In this way, by adding a device icon to each event, the source device can be easily recognized. Thereby, when setting an effect for an event, it is possible to easily determine whether the source device of the event is the VTR 7, the daily server 6, or the local storage 8. For example, if it is found that the event source device to which the effect is to be added is VTR 7 and the event source device set near the event on the timeline is also a VTR, An instruction can be given to download the event from the VTR 7 to the local storage 8. That is, the editing operation for the material can be performed more reliably.

3. ファイルマネージャ
本実施例の編集装置においては、ローカルストレージ8にダウンロードした素材や完成ビデオプログラム、コンピュータ2のハードディスクHDDに保存されたプログラムリストやログクリップ等の各種データは、ファイルマネージャで管理するようにされている。つまり、登録されたイベントは、1つのファイルとしてこのファイルマネージャによって管理されている。
3. File Manager In the editing apparatus of this embodiment, the file manager manages various data such as the material downloaded to the local storage 8, the completed video program, the program list stored in the hard disk HDD of the computer 2, and the log clip. Has been. That is, the registered event is managed as one file by the file manager.

また、このファイルマネージャによって、各ファイルは予め指定された特定のフォルダに格納されるように管理されている。例えば、ログファイルは、ログフォルダに格納され、プログラムリスト(EDL)ファイルは、プログラムリストフォルダに格納され、素材ファイルは、素材フォルダに格納され、完成ビデオプログラム(Edited Master)に関するデータを記憶する編集マスタファイルは、編集マスタフォルダに格納されるようになっている。   Each file is managed by this file manager so as to be stored in a specific folder designated in advance. For example, a log file is stored in a log folder, a program list (EDL) file is stored in a program list folder, a material file is stored in a material folder, and an edit that stores data related to a completed video program (Edited Master) The master file is stored in the edit master folder.

このファイルマネージャによって管理される全てのファイルは、図27に示したようなファイル情報を有している。このファイル情報は、ファイル名331、イベント名332、イン点のタイムコード333、イン点のクリップアドレス334、アウト点のタイムコード335、アウト点のクリップアドレス336、ディユレーション337、ファイルタイプ情報338、ファイル位置情報339、ソースデバイスID情報340、作成日時341、ビデオ調整情報342、オーディオ調整情報343、テキストデータ344、プログラムリスト名345等から構成されている。   All files managed by this file manager have file information as shown in FIG. This file information includes a file name 331, an event name 332, an in-point time code 333, an in-point clip address 334, an out-point time code 335, an out-point clip address 336, a duration 337, and file type information 338. , File position information 339, source device ID information 340, creation date and time 341, video adjustment information 342, audio adjustment information 343, text data 344, program list name 345, and the like.

このファイル名331は、このイベントがどのファイル名の素材から生成されたデータであるかを示すためのデータであって、ソースファイル名の名前が登録される。ソースデバイスが、ローカルストレージ8又はサーバ6の場合には、そのソースファイル名が登録されるが、ソースデバイスが、VTRの場合には、テープカセットのリール名が登録される。   The file name 331 is data for indicating from which file name material the event is generated, and the name of the source file name is registered. When the source device is the local storage 8 or the server 6, the source file name is registered. When the source device is a VTR, the reel name of the tape cassette is registered.

イベント名332は、編集オペレータが任意に付与することのできる名称である。このイベント名は、すでに説明したクリップ名と同じものであって、単に、ログウィンドウ93に表示されているクリップに付与されているされている名称をクリップ名と呼び、タイムラインウィンドウ95に表示されているイベントに付与されている名称をイベント名と呼んでいる。   The event name 332 is a name that can be arbitrarily given by the editing operator. This event name is the same as the clip name already described. The name assigned to the clip displayed in the log window 93 is simply called the clip name and is displayed in the timeline window 95. The name given to the event is called the event name.

イン点のクリップアドレス334及びアウト点のクリップアドレス336は、イン点及びアウト点をマーキングしたときに生成されたスタンプピクチャが記憶されているコンピュータ2のハードディスクHDDのアドレスを示している。   The in-point clip address 334 and the out-point clip address 336 indicate addresses of the hard disk HDD of the computer 2 in which the stamp pictures generated when marking the in-point and the out-point are stored.

ファイルタイプ情報338は、そのファイルがログクリップを示すファイルであるのか、プログラムリストを示すファイルであるのか、ローカルストレージにダウンロードされた素材を示すファイルであるのか、ローカルストレージに記録済みの完成プログラムであるのかを示す情報である。「Log」は、そのファイルがログクリップであることを示し、「EDL」は、そのファイルがプログラムリストであることを示し、「Material」は、そのファイルがローカルストレージにダウンロードされた素材であることを示し、「Master」は、そのファイルが、ローカルストレージに記録済みの完成プログラムであることを示している。   The file type information 338 indicates whether the file is a file indicating a log clip, a file indicating a program list, a file indicating a material downloaded to the local storage, or a completed program recorded in the local storage. It is information indicating whether or not there is. “Log” indicates that the file is a log clip, “EDL” indicates that the file is a program list, and “Material” indicates that the file is a material downloaded to the local storage. “Master” indicates that the file is a completed program recorded in the local storage.

ファイル位置情報339は、そのファイルがコンピュータ2のハードディスクHDDに記録されているデータファイルであるのか、ローカルストレージ8内の素材ファイルであるのかを示すデータである。「C」は、コンピュータ内のデータファイル「であることを示し、「L」はローカルストレージ内の素材ファイルを示している。   The file position information 339 is data indicating whether the file is a data file recorded in the hard disk HDD of the computer 2 or a material file in the local storage 8. “C” indicates a data file “in the computer”, and “L” indicates a material file in the local storage.

ソースデバイス情報は、このファイル情報によって示される素材がどのソースデバイスに記録されているかを示す情報である。「S」はソースデバイスがサーバ6であることを示し、「L」はソースデバイスがローカルストレージであることを示し、「V」は、ソースデバイスが、VTRであることを示し、「A」はAUX(オグジャリー)素材であることを示し、「I」は内部素材であることを示している。   The source device information is information indicating in which source device the material indicated by the file information is recorded. “S” indicates that the source device is the server 6, “L” indicates that the source device is a local storage, “V” indicates that the source device is a VTR, and “A” indicates that the source device is a local storage. This indicates that it is an AUX (auxiliary) material, and “I” indicates that it is an internal material.

4. 編集処理の動作
4−1. イベント作成処理
まず、図20のフローを参照して、編集処理の最初の処理であるイベント作成処理ついて説明する。尚、以下の説明において使用する「編集オペレータの操作」とは、コンピュータ1を操作する編集オペレータが、例えば、モニタ2Bに表示されたグラフィックイメージのある部分をマウス2D等のポインティングデバイスによってクリック、ドラッグ及びドロップする操作や、キーボード2C、マウス2D、専用コントーラ4、5等を直接操作することを示している。
4). Operation of editing process 4-1. Event Creation Processing First, the event creation processing, which is the first processing of editing processing, will be described with reference to the flow of FIG. The “editing operator operation” used in the following description means that the editing operator who operates the computer 1 clicks and drags a part of a graphic image displayed on the monitor 2B with a pointing device such as a mouse 2D, for example. In addition, a drop operation, a keyboard 2C, a mouse 2D, dedicated controllers 4, 5 and the like are directly operated.

まず、ステップSP301において、コンピュータ1のCPU21は、編集オペレータの操作に応答して、制御対象となるソースデバイスを選択する。具体的には、編集オペレータが、GUI用の画像としてモニタ2B上に表示されたビューアウィンドウ92のソース選択ボタン102A〜102Eのいずれかをクリックすることにより、CPU21は、制御対象となるソースデバイスを決定することになる。例えば、オペレータによってソース選択ボタン102AがクリックされるとCPU21はソースデバイスとしてデイリーサーバ6が選択されたと判断し、オペレータによってソース選択ボタン102Bがクリックされると、CPU21はソースデバイスとしてVTR7が選択されたと判断し、オペレータによってソース選択ボタン102Cがクリックされると、CPU21はソースデバイスとしてローカルストレージ8が選択されたと判断する。   First, in step SP301, the CPU 21 of the computer 1 selects a source device to be controlled in response to the operation of the editing operator. Specifically, when the editing operator clicks one of the source selection buttons 102A to 102E of the viewer window 92 displayed on the monitor 2B as a GUI image, the CPU 21 selects a source device to be controlled. Will be determined. For example, when the source selection button 102A is clicked by the operator, the CPU 21 determines that the daily server 6 is selected as the source device, and when the operator selects the source selection button 102B, the CPU 21 selects that the VTR 7 is selected as the source device. When the source selection button 102C is clicked by the operator, the CPU 21 determines that the local storage 8 has been selected as the source device.

ステップSP302では、CPU21は、編集オペレータの操作に応答して、ステップSP301において指定されたソースデバイスに登録されている素材ファイルを検索する。具体的には、まず、コンピュータ1のモニタ2B上に図21に示したような素材検索用のダイアログ300が表示される。このダイアログ300は、入力項目として、素材データの生成日時を入力するための生成日時入力覧301と、ファイル名称入力覧302と、ファイルタイプ入力覧303と、オーディオモード選択覧304と、プログラム名入力覧305と、検索実行指示ボタン306とを有している。例えば、ファイル名称入力覧302に「FIRE」というキーワードを入力すると、ファイル名称に「FIRE」という文字が含まれているファイルのみを検索することができる。編集オペレータがダイアログ300の各入力覧に所望のデータを入力することによって検索条件が設定され、その後、編集オペレータによって検索実行ボタン306が押されると、CPU21は、このダイアログ300に設定された条件に従ってソースデバイスに登録されたファイルを検索する検索処理を実行する。   In step SP302, the CPU 21 searches for a material file registered in the source device designated in step SP301 in response to the operation of the editing operator. Specifically, first, a material search dialog 300 as shown in FIG. 21 is displayed on the monitor 2B of the computer 1. The dialog 300 includes, as input items, a generation date / time input list 301 for inputting material data generation date / time, a file name input list 302, a file type input list 303, an audio mode selection list 304, and a program name input. It has a list 305 and a search execution instruction button 306. For example, when the keyword “FIRE” is input to the file name input list 302, only files having the characters “FIRE” in the file name can be searched. When the editing operator inputs desired data to each input list of the dialog 300, the search condition is set. After that, when the search execution button 306 is pressed by the editing operator, the CPU 21 follows the conditions set in the dialog 300. A search process for searching for a file registered in the source device is executed.

CPU21は、RAM21Bに記憶されたファイル情報を参照し、ダイアログ300に設定された条件にあったファイルを検索する。そして、CPU21は、その検索結果を図22に示されるようなファイルリスト310として表示する。   The CPU 21 refers to the file information stored in the RAM 21B and searches for a file that meets the conditions set in the dialog 300. Then, the CPU 21 displays the search result as a file list 310 as shown in FIG.

ステップSP303では、CPU21は、編集オペレータの指示に応答して、ステップSP302における検索結果のファイルリストから所望のファイルを選択する。具体的には、編集オペレータがファイルリスト310の中から所望のファイル名をクリックすると、CPU21は、編集オペレータによって指定されたファイルを選択する。   In step SP303, the CPU 21 selects a desired file from the search result file list in step SP302 in response to an instruction from the editing operator. Specifically, when the editing operator clicks a desired file name from the file list 310, the CPU 21 selects a file designated by the editing operator.

ステップSP304では、CPU21は、選択されたファイルに含まれるビデオデータ及びオーディオデータを再生し、その再生されたビデオデータがビューアウィンドウ92に表示される共に、再生されたオーディオデータがスピーカ11及び12から再生されるように、選択されたソースデバイス及び編集装置3を制御する。一例として、デイリーサーバ6に記録されているファイルを再生する場合を例にあげて説明する。   In step SP304, the CPU 21 reproduces the video data and audio data included in the selected file, the reproduced video data is displayed on the viewer window 92, and the reproduced audio data is transmitted from the speakers 11 and 12. The selected source device and the editing apparatus 3 are controlled so as to be reproduced. As an example, a case where a file recorded in the daily server 6 is reproduced will be described as an example.

まず、CPU21は、LAN10を介してデイリーサーバ6に対して、ステップSP303において選択されたファイルをデイリーサーバから再生するための制御信号を供給する。デイリーサーバ6は、この制御信号に基づいて、指定されたファイルに含まれるビデオデータ及びオーディオデータをSDIフォーマットの規格に基づいたディジタル信号S7として編集処理装置3に供給する。供給されたディジタル信号S7は、編集処理装置3のマトリクススイチャ部3Bの入力端子IN1に入力される。   First, the CPU 21 supplies a control signal for reproducing the file selected in step SP303 from the daily server to the daily server 6 via the LAN 10. Based on this control signal, the daily server 6 supplies video data and audio data contained in the designated file to the editing processing device 3 as a digital signal S7 based on the SDI format standard. The supplied digital signal S7 is input to the input terminal IN1 of the matrix switcher unit 3B of the editing processing device 3.

CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1と出力端子OUT9を接続するためのクロスポイントP19をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN1に供給されたSDIフォーマットのディジタル信号S7は、出力端子OUT9からSDIフォーマットのディジタルビデオ信号S26として出力され、画像処理部3Cに供給される。   The CPU 21 controls the matrix switcher unit 3B via the system control unit 3A of the editing processing device 3 so as to activate the cross point P19 for connecting the input terminal IN1 and the output terminal OUT9. As a result, the SDI format digital signal S7 supplied to the input terminal IN1 is output as an SDI format digital video signal S26 from the output terminal OUT9 and supplied to the image processing unit 3C.

出力端子OUT9から出力されたSDIフォーマットのディジタルビデオ信号S26は、画像処理部3Cのデマルチプレクサ51Dに供給される。デマルチプレクサ51Dは、SDIフォーマットのデータのペイロード部からディジタルビデオ信号を抽出し、その抽出されたディジタルビデオ信号は、スイッチャブロック52、特殊効果ブロック53及びミキサブロック54を介して出力ビデオ信号S31として出力される。   The SDI format digital video signal S26 output from the output terminal OUT9 is supplied to the demultiplexer 51D of the image processing unit 3C. The demultiplexer 51D extracts a digital video signal from the payload portion of the SDI format data, and the extracted digital video signal is output as an output video signal S31 via the switcher block 52, the special effect block 53, and the mixer block 54. Is done.

画像処理部3Cから出力されたディジタルビデオ信号S31は、再びマトリックススイッチャ部3Bの入力端子IN9に供給される。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN9と出力端子OUT5を接続するためのクロスポイントP95をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN9に供給されたディジタルビデオ信号S31は、アウトプットプロセッサ46を介して出力端子OUT5からディジタルビデオ信号S2としてコンピュータ2に出力される。   The digital video signal S31 output from the image processing unit 3C is supplied again to the input terminal IN9 of the matrix switcher unit 3B. The CPU 21 controls the matrix switcher unit 3B via the system control unit 3A of the editing processing device 3 so as to activate the cross point P95 for connecting the input terminal IN9 and the output terminal OUT5. As a result, the digital video signal S31 supplied to the input terminal IN9 is output to the computer 2 as the digital video signal S2 from the output terminal OUT5 via the output processor 46.

編集処理装置3から出力されたディジタルビデオ信号S2は、コンピュータ2のビデオプロセッサ22に供給され、表示コントローラ23を介してコンピュータモニタ2Bビューアウィンドウ92に表示される。   The digital video signal S2 output from the editing processing device 3 is supplied to the video processor 22 of the computer 2 and displayed on the computer monitor 2B viewer window 92 via the display controller 23.

一方、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1に供給されたSDIフォーマットのディジタル信号S7を、音声処理部3Dに供給するように、マトリクススイチャ部3Bを制御する。つまり、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1と出力端子OUT11を接続するためのクロスポイントP111をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN1に供給されたSDIフォーマットのディジタル信号S7は、出力端子OUT9からだけでは無く、出力端子OUT11からもディジタル出力信号S28として、音声処理部3Dに出力される。   On the other hand, the CPU 21 controls the matrix switcher unit 3B so that the digital signal S7 in the SDI format supplied to the input terminal IN1 is supplied to the audio processing unit 3D via the system control unit 3A of the editing processing device 3. To do. That is, the CPU 21 controls the matrix switcher unit 3B via the system control unit 3A of the editing processing apparatus 3 so as to activate the cross point P111 for connecting the input terminal IN1 and the output terminal OUT11. As a result, the digital signal S7 in the SDI format supplied to the input terminal IN1 is output not only from the output terminal OUT9 but also from the output terminal OUT11 as the digital output signal S28 to the audio processing unit 3D.

SDIフォーマットのディジタル出力信号S28のペイロード部には、ビデオデータが重畳され、補助データ部にはオーディオデータが重畳されているので、音声処理部3Dのセパレータ56Aは、SDIフォーマットのディジタル信号S28からオーディオデータのみをセパレートする。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、セパレートされたオーディオ信号S48を、ミキサブロック57を介して、出力オーディオ信号S17、S18としてスピーカ11及び12に供給するように音声処理部3Dを制御する。   Since the video data is superimposed on the payload portion of the digital output signal S28 in the SDI format and the audio data is superimposed on the auxiliary data portion, the separator 56A of the audio processing unit 3D receives the audio from the digital signal S28 in the SDI format. Separate only the data. The CPU 21 supplies the separated audio signal S48 to the speakers 11 and 12 as the output audio signals S17 and S18 via the mixer block 57 via the system control unit 3A of the editing processing device 3. Control 3D.

ステップSP305では、編集オペレータの操作に従って、コンピュータのCPU21は、選択されたソースデバイスから再生されたビデオデータとオーディオデータを調整する。具体的には、編集オペレータによってビューアウィンドウ92のビデオアジャストキー167Aがクリックされると、コンピュータ2のCPU21は、図23に示したようなビデオレベル設定用のダイアログ170をモニタ2Bに表示する。編集オペレータは、スライダ部170をマウス2Dによって移動させて、所望のLuminanceやChroma等のレベルを設定することができる。   In step SP305, the CPU 21 of the computer adjusts video data and audio data reproduced from the selected source device in accordance with the operation of the editing operator. Specifically, when the video operator key 167A in the viewer window 92 is clicked by the editing operator, the CPU 21 of the computer 2 displays a video level setting dialog 170 as shown in FIG. 23 on the monitor 2B. The editing operator can set a desired level such as Luminance or Chroma by moving the slider unit 170 with the mouse 2D.

コンピュータ2のCPU21は、システムコントロール部3Aを介して、このビデオレべル設定用のダイアログ170によって設定された各レベルを、ファイル情報のビデオ調整情報として記憶する。また、CPU21は、選択されたソースデバイスから再生されたビデオデータのLuminanceレベル及びChromaレベルが、このビデオレベル設定用のダイアログ170によって設定されたLuminanceレベル及びChromaレベルとなるように、画像処理部3Cのビデオ信号処理回路52E及び52Fを制御する。   The CPU 21 of the computer 2 stores each level set by the video level setting dialog 170 through the system control unit 3A as video adjustment information of file information. Further, the CPU 21 controls the image processing unit 3C so that the Luminance level and the Chroma level of the video data reproduced from the selected source device become the Luminance level and the Chroma level set by the video level setting dialog 170. The video signal processing circuits 52E and 52F are controlled.

尚、上述したビデオレベル調整処理は、編集オペレータによってビデオアジャストキー167Aがクリックされた場合にのみ行われる処理である。このようなビデオレベル調整処理が行われない場合には、基準Luminanceレベル及び基準Chromaレベルとして予め設定されたデフォルト値によってビデオ信号が調整される。   The video level adjustment process described above is a process that is performed only when the video adjust key 167A is clicked by the editing operator. When such video level adjustment processing is not performed, the video signal is adjusted by default values preset as the reference Luminance level and the reference Chroma level.

一方、編集オペレータによってビューアウィンドウ92のオーディオアジャストキー167Aがクリックされると、コンピュータ2のCPU21は、図24に示したようなオーディオビデオレベル設定用のダイアログ172をモニタ2B上に表示する。編集オペレータは、スライダ173Aを調整及びフェーダ174Aをマウス2Dによって移動させることによって、所望のオーディオ入出力レベルを設定することができる。   On the other hand, when the editing operator clicks the audio adjustment key 167A of the viewer window 92, the CPU 21 of the computer 2 displays an audio / video level setting dialog 172 as shown in FIG. 24 on the monitor 2B. The editing operator can set a desired audio input / output level by adjusting the slider 173A and moving the fader 174A with the mouse 2D.

コンピュータ2のCPU21は、システムコントロール部3Aを介して、このオーディオビデオレベル設定用のダイアログ172によって設定されたオーディオレベルを、ファイル情報のオーディオ調整情報として記憶する。また、CPU21は、選択されたソースデバイスから再生されたオーディオデータの入出力レベルが、このオーディオレベル設定用のダイアログ172によって設定されたオーディオデータの入出力レベルとなるように、音声処理部3Dのミキサブロック57を制御する。   The CPU 21 of the computer 2 stores the audio level set by the audio video level setting dialog 172 through the system control unit 3A as audio adjustment information of file information. Further, the CPU 21 controls the audio processing unit 3D so that the input / output level of the audio data reproduced from the selected source device becomes the input / output level of the audio data set by the dialog 172 for setting the audio level. The mixer block 57 is controlled.

尚、上述したオーディオレベル調整処理は、編集オペレータによってオーディオアジャストキー167Bがクリックされた場合にのみ行われる処理である。このようなオーディオレベル調整処理が行われない場合には、オーディオデータの基準入出力レベルとして予め設定されたデフォルト値によってオーディオ信号が調整される。   Note that the audio level adjustment process described above is a process that is performed only when the audio adjustment key 167B is clicked by the editing operator. When such audio level adjustment processing is not performed, the audio signal is adjusted by a default value preset as a reference input / output level of audio data.

ステップSP306において、CPU21は、編集オペレータの操作に基づいて、選択されたソースファイルに記録されているビデオ素材をサーチする。具体的には、編集オペレータが、ビューアウィンドウ92のデバイスコントロール部96を操作すると、コンピュータ2のCPU21は、その操作に対応するように、選択されたソースデバイスの再生動作を制御する。その結果、ビューアウィンドウ92のビューア106には、編集オペレータの指定した速度のビデオデータが表示される。   In step SP306, the CPU 21 searches for the video material recorded in the selected source file based on the operation of the editing operator. Specifically, when the editing operator operates the device control unit 96 of the viewer window 92, the CPU 21 of the computer 2 controls the reproduction operation of the selected source device so as to correspond to the operation. As a result, video data at a speed designated by the editing operator is displayed on the viewer 106 of the viewer window 92.

ステップSP307において、CPU21は、編集オペレータの操作に基づいて、イン点及びアウト点を設定する。具体的には、ステップSP306のサーチ処理によって、選択されたファイルのビデオイメージがビューア106に動画として表示されているときに、編集オペレータがステップSP306のようにビデオフレームをサーチすることによって所望のビデオフレームがビューアウィンドウ92のビューア106に表示されたときに、ビューアウィンドウ92のマークインボタン115をクリックすると、そのマークインボタン115をクリックしたタイミングでイン点が指定される。CPU21は、そのマークインボタン115がクリックされるとそのクリック操作に応答して、そのクリックされたタイミングにおけるビューア106に表示されていたビデオデータを、クリップ画(スタンプピクチャ)としてイン点画像表示部110に表示する。それと同時に、CPU21は、そのイン点がマーキングされたタイミングのビデオフレームに付与されていたタイムコードをイン点のタイムコードとして認識する。   In step SP307, the CPU 21 sets an in point and an out point based on the operation of the editing operator. Specifically, when the video image of the selected file is displayed as a moving image in the viewer 106 by the search process in step SP306, the editing operator searches for a video frame as in step SP306, so that a desired video is obtained. When the frame is displayed on the viewer 106 of the viewer window 92, when the mark-in button 115 of the viewer window 92 is clicked, the In point is designated at the timing when the mark-in button 115 is clicked. When the mark-in button 115 is clicked, the CPU 21 responds to the click operation, and the video data displayed on the viewer 106 at the clicked timing is displayed as an in-point image display unit as a clip image (stamp picture). 110. At the same time, the CPU 21 recognizes the time code given to the video frame at the timing when the in point is marked as the in point time code.

イン点が指定された後、編集オペレータがステップSP306のようにビデオフレームをさらにサーチし、所望のビデオフレームがビューアウィンドウ92のビューア106に表示されたときに、マークアウトボタン116をクリックすると、そのマークアウトボタン116をクリックしたタイミングでアウト点が指定される。CPU21は、そのマークアウトボタン116がクリックされるとそのクリック操作に応答して、そのクリックされたタイミングにおけるビューア106に表示されていたビデオデータを、クリップ画(スタンプピクチャ)としてアウト点画像表示部112に表示する。それと同時に、CPU21は、そのアウト点がマーキングされたタイミングのビデオフレームに付与されていたタイムコードをアウト点のタイムコードとして認識する。   After the In point is designated, when the editing operator searches the video frame further as in step SP306 and the desired video frame is displayed on the viewer 106 of the viewer window 92, when the markout button 116 is clicked, The out point is designated when the markout button 116 is clicked. When the markout button 116 is clicked, the CPU 21 responds to the click operation, and uses the video data displayed on the viewer 106 at the clicked timing as an out-point image display unit as a clip image (stamp picture). 112. At the same time, the CPU 21 recognizes the time code given to the video frame at the timing when the out point is marked as the out point time code.

このようにアウト点が指定されると、CPU21は、設定されたイン点及びアウト点それぞれのタイムコードからイン点及びアウト点間の時間が計算され、その計算した時間をビューアウィンドウ92上のDUR表示欄114に表示する。   When the out point is designated in this way, the CPU 21 calculates the time between the in point and the out point from the set time code of the in point and the out point, and calculates the calculated time as a DUR on the viewer window 92. Displayed in the display field 114.

ステップSP308では、CPU21は、編集オペレータの操作に基づいて、ステップSP307において設定されたイン点及びアウト点によって指定された期間をプレビューする。具体的には、編集オペレータが、ビューアウィンドウ92のプレビューボタン117をクリックすると、CPU21は、イン点よりも数秒前のビデオフレームからアウト点のビデオフレームまでを再生するように、編集制御装置3のシステムコントロール部3Aを介して、適切なソースデバイス(デイリーサーバ6、ローカルストレージ8又はVTR7)を制御する。   In step SP308, the CPU 21 previews the period specified by the in point and out point set in step SP307 based on the operation of the editing operator. Specifically, when the editing operator clicks the preview button 117 in the viewer window 92, the CPU 21 causes the editing control apparatus 3 to play back from the video frame several seconds before the In point to the video frame at the Out point. An appropriate source device (daily server 6, local storage 8 or VTR 7) is controlled via the system control unit 3A.

本実施例の編集システムにおけるプレビュー処理は、ステップSP307の処理によって生成されたイベントが、タイムライン95のナウライン139の位置に登録されたと仮定して行われる処理である。また、このプレビュー処理は、イン点から再生を開始するのではなく、イン点の数秒前(例えば5秒前)から再生を開始するようにしている。   The preview process in the editing system according to the present embodiment is a process performed on the assumption that the event generated by the process of step SP307 is registered at the position of the now line 139 of the timeline 95. In this preview process, the playback is not started from the In point, but is started a few seconds before the In point (for example, 5 seconds before).

つまり、このプレビュー処理は、仮想的にイベントをタイムライン上の登録し、イン点の数秒前から再生を開始するようにすることによって、実際にイベントをタイムライン上に登録する前に、これから登録しようとしているイベントとその直前のイベントとのつなぎめを仮想的に確認することができる。   In other words, this preview process virtually registers an event on the timeline and starts playback from a few seconds before the In point, so that it can be registered before actually registering the event on the timeline. It is possible to virtually check the connection between the event to be attempted and the event just before it.

もし、このプレビューの結果、素材自体及びイン点及びアウト点の設定等が気に入らない場合には、再びステップSP301又はステップSP306に戻ることができる。   If, as a result of the preview, you do not like the material itself and the settings of the in and out points, you can return to step SP301 or step SP306 again.

尚、このステップSP308は、必須の処理ではなくて、編集オペレータによってプレビューボタン117がクリックされたときにのみ行われる処理である。   Note that this step SP308 is not an essential process, and is a process performed only when the preview button 117 is clicked by the editing operator.

ステップSP309では、コンピュータ2のCPU21は、編集オペレータの操作に従って、デイリーサーバ6及びVTR7の素材をローカルストレージ8にダウンロードする処理が指定されたか否かを判断する。具体的には、編集オペレータが、ビューアウィンドウ92のダウンロードボタン123Aをクリックすると、CPU21は、ダウンロード処理が指定されたと判断する。尚、このダウンロード処理は、ステップSP301においてソースデバイスとして、デイリーサーバ6又はVTR7が指定されているときにのみ行える処理である。編集オペレータによって、ダウンロード処理が指定されると、CPU21は、図25に示すようにダウンロード処理設定用のダイアログ320をオープンし、ステップSP310に進む。一方、編集オペレータによってダウンロード処理が指定されない場合にはステップSP312に進む。   In step SP309, the CPU 21 of the computer 2 determines whether or not processing for downloading the materials of the daily server 6 and the VTR 7 to the local storage 8 has been designated in accordance with the operation of the editing operator. Specifically, when the editing operator clicks on the download button 123 </ b> A of the viewer window 92, the CPU 21 determines that download processing has been designated. This download process can be performed only when the daily server 6 or VTR 7 is designated as the source device in step SP301. When download processing is designated by the editing operator, the CPU 21 opens a download processing setting dialog 320 as shown in FIG. 25, and proceeds to step SP310. On the other hand, when the download process is not designated by the editing operator, the process proceeds to step SP312.

ステップSP310では、CPU21は、編集オペレータの操作に従って、ダウンロード処理を開始する。具体的には、CPU21が実際にダウンロード処理を開始する前に、まず、編集オペレータがダウンロード処理設定用のダイアログ320においてダウンロード処理おいて必要な設定を入力する。ファイル名称入力部321は、ローカルストレージにダウンロードされるファイルに対して付与される新たなファイル名を設定するための設定覧であって、スタートタイムコード設定部322は、ローカルストレージにダウンロードされるファイルのスタートタイムコードを設定するための設定覧であって、転送スピード設定覧323は、選択されたソースデバイスからローカルストレージに転送される転送スピードを設定するための設定覧である。   In step SP310, the CPU 21 starts download processing in accordance with the operation of the editing operator. Specifically, before the CPU 21 actually starts the download process, first, the editing operator inputs settings necessary for the download process in the download process setting dialog 320. The file name input unit 321 is a setting list for setting a new file name given to a file downloaded to the local storage, and the start time code setting unit 322 is a file downloaded to the local storage. The transfer speed setting list 323 is a setting list for setting the transfer speed transferred from the selected source device to the local storage.

編集オペレータが、ダウンロード処理設定用のダイアログ320に必要な設定を入力し、エグゼキュートボタン324をクリックすると、CPU21は、指定されたファイルのイン点からアウト点までのビデオデータをローカルストレージ8にダウンロードするように、ソースデバイス及び編集制御装置3を制御する。以下に、デイリーサーバ6に記録されているファイルのイン点からアウト点のビデオデータ及びオーディオデータをローカルストレージ8にダウンロードする場合を例に挙げて、コンピュータ2のCPU21及び編集制御装置3の動作を説明する。   When the editing operator inputs necessary settings in the download processing setting dialog 320 and clicks the execute button 324, the CPU 21 downloads the video data from the IN point to the OUT point of the specified file to the local storage 8. Thus, the source device and the editing control apparatus 3 are controlled. Hereinafter, the operation of the CPU 21 and the editing control device 3 of the computer 2 will be described by taking as an example the case of downloading video data and audio data from the IN point to the OUT point of the file recorded in the daily server 6 to the local storage 8. explain.

まず、デイリーサーバ6は、指定されたファイルのイン点のビデオデータ及びオーディオデータから再生を開始し、その再生されたビデオ信号及びオーディオ信号をSDIフォーマットの規格に基づいたディジタル信号S7として編集処理装置3に供給する。供給されたディジタル信号S7は、編集処理装置3のマトリクススイチャ部3Bの入力端子IN1に入力される。   First, the daily server 6 starts reproduction from in-point video data and audio data of a designated file, and the reproduced video signal and audio signal are edited as a digital signal S7 based on the SDI format standard. 3 is supplied. The supplied digital signal S7 is input to the input terminal IN1 of the matrix switcher unit 3B of the editing processing device 3.

デイリーサーバ6から再生されたディジタル信号S7をローカルストレージ8にダウンロードしなければいけないので、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1と出力端子OUT1を接続するためのクロスポイントP11をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN1に供給されたSDIフォーマットのディジタル信号S7は、アウトプットプロセッサ43を介して出力端子OUT1からSDIフォーマットのディジタル信号S15として出力される。   Since the digital signal S7 reproduced from the daily server 6 must be downloaded to the local storage 8, the CPU 21 connects the input terminal IN1 and the output terminal OUT1 via the system control unit 3A of the editing processing device 3. The matrix switcher unit 3B is controlled to activate the cross point P11. As a result, the SDI format digital signal S7 supplied to the input terminal IN1 is output from the output terminal OUT1 as the SDI format digital signal S15 via the output processor 43.

ローカルストレージ8は、編集処理装置3から供給されたディジタル信号S15を、RAIDアルゴリズムを使用して適切な記録媒体に記録する。その結果、デイリーサーバ6に記録されているビデオ及びオーディオデータが、ローカルストレージ8にダウンロードされる。   The local storage 8 records the digital signal S15 supplied from the editing processing device 3 on an appropriate recording medium using a RAID algorithm. As a result, the video and audio data recorded in the daily server 6 is downloaded to the local storage 8.

一方、このようなダインロード処理中、ローカルストレージにダウンロードされているビデオ信号をビューアウィンドウ92に表示するために、まず、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1に供給されたSDIフォーマットのディジタル信号S7を出力端子9に出力するように、マトリクススイチャ部3BのクロスポイントP19をアクティブにする。その結果、入力端子IN1に供給されたSDIフォーマットのディジタル信号S7は、出力端子S15を介してローカルストレージにダウンロードされると同時に、出力端子OUT9を介して、SDIフォーマットのディジタルビデオ信号S26として画像処理部3Cに供給される。   On the other hand, in order to display the video signal downloaded to the local storage in the viewer window 92 during such a dyne loading process, the CPU 21 firstly inputs the input terminal IN1 via the system control unit 3A of the editing processing device 3. The cross point P19 of the matrix switcher unit 3B is activated so that the digital signal S7 of the SDI format supplied to is output to the output terminal 9. As a result, the digital signal S7 in the SDI format supplied to the input terminal IN1 is downloaded to the local storage through the output terminal S15, and at the same time, image processing is performed as the digital video signal S26 in the SDI format through the output terminal OUT9. Supplied to the unit 3C.

出力端子OUT9から出力されたSDIフォーマットのディジタルビデオ信号S26は、画像処理部3C部を通って、出力ビデオ信号S31として再びマトリックススイッチャ部3Bの入力端子IN9に供給される。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN9と出力端子OUT5を接続するためのクロスポイントP95をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN9に供給されたディジタルビデオ信号S31は、アウトプットプロセッサ46を介して出力端子OUT5からディジタルビデオ信号S2としてコンピュータ2に出力される。   The digital video signal S26 in the SDI format output from the output terminal OUT9 is supplied to the input terminal IN9 of the matrix switcher unit 3B again as the output video signal S31 through the image processing unit 3C. The CPU 21 controls the matrix switcher unit 3B via the system control unit 3A of the editing processing device 3 so as to activate the cross point P95 for connecting the input terminal IN9 and the output terminal OUT5. As a result, the digital video signal S31 supplied to the input terminal IN9 is output to the computer 2 as the digital video signal S2 from the output terminal OUT5 via the output processor 46.

編集処理装置3から出力されたディジタルビデオ信号S2は、コンピュータ2のビデオプロセッサ22に供給され、表示コントローラ23を介してコンピュータモニタ2Bのビューアウィンドウ92に表示される。   The digital video signal S2 output from the editing processing device 3 is supplied to the video processor 22 of the computer 2 and displayed on the viewer window 92 of the computer monitor 2B via the display controller 23.

つまり、デイリーサーバ6から再生されたビデオデータは、ローカルストレージ8にダウンロードされると同時に、コンピュータ2のビューアウィンドウ92に表示される。尚、本実施例の編集装置では、編集素材を、このようにローカルストレージ8にダウンロードしながらビューアウィンドウ92に表示するようにする処理を「バックグランドでのダウンロード処理」と呼んでいる。   That is, the video data reproduced from the daily server 6 is downloaded to the local storage 8 and displayed on the viewer window 92 of the computer 2 at the same time. In the editing apparatus of the present embodiment, the process of displaying the editing material on the viewer window 92 while downloading it to the local storage 8 in this way is called “background download process”.

ステップSP311では、編集オペレータの指示に従って、CPU21は、バックグラウンドでダウンロード処理を行うように編集処理装置3を制御する。編集オペレータが、ダウンロード処理中にダウンロード設定用ダイアログ320のキャンセルボタン325をクリックすること、フォアグラウンド処理として行われていたダウンロード処理が、バックグランド処理として行われる。具体的には、CPU21は、編集オペレータによってダウンロード設定用ダイアログ320のキャンセルボタン325がクリックされると、デイリーサーバ6からのディジタルデータが供給される入力端子IN1と、ダウンロードするための出力端子OUT1とのクロスポイントP11は、アクティブの状態で維持するが、入力端子IN1と画像処理部3Dに出力するためのOUT端子OUT9とのクロスポイントP19を、インアクティブにするように、マトリックススイッチャ部3Bを制御する。   In step SP311, according to the instruction of the editing operator, the CPU 21 controls the editing processing device 3 so as to perform the download processing in the background. When the editing operator clicks the cancel button 325 of the download setting dialog 320 during the download process, the download process that has been performed as the foreground process is performed as the background process. Specifically, when the editing operator clicks a cancel button 325 of the download setting dialog 320, the CPU 21 has an input terminal IN1 to which digital data is supplied from the daily server 6, and an output terminal OUT1 for downloading. Although the cross point P11 is maintained in an active state, the matrix switcher unit 3B is controlled so that the cross point P19 between the input terminal IN1 and the OUT terminal OUT9 for output to the image processing unit 3D is inactive. To do.

その結果、デイリーサーバから再生されたディジタル信号S7は、ローカルストレージ8にダウンロードされ続けるが、画像処理部3C及びコンピュータ2への供給はストップする。つまり、コンピュータ2を操作する編集オペレータから見ると、オペレータの見えないバックグランドでこのダウンロード処理が行われていることになる。   As a result, the digital signal S7 reproduced from the daily server is continuously downloaded to the local storage 8, but the supply to the image processing unit 3C and the computer 2 is stopped. That is, when viewed from the editing operator who operates the computer 2, this download processing is performed in the background invisible to the operator.

このステップSP311の処理において、CPU21は、ローカルストレージをダウンロードで処理するように編集処理装置3を制御すると、バックグランドでのダウンロード処理を行いなから、再びステップSP301に戻り、次の素材を編集する処理に移行する。   In the processing of step SP311, if the CPU 21 controls the editing processing apparatus 3 so as to process the local storage by downloading, since the background downloading processing is not performed, the processing returns to step SP301 again to edit the next material. Transition to processing.

尚、このステップSP311において、編集オペレータによってバックグラウンドでのダウンロード処理が指定されない場合には、ダウンロード処理が終了するまで、バックグランドでのダウンロード処理が行われる。   If the background download process is not designated by the editing operator in step SP311, the background download process is performed until the download process ends.

次に、ステップSP309においてダウンロード処理が指定されない通常の編集プロセスについて、次のステップSP312からを参照して説明する。   Next, a normal editing process in which download processing is not specified in step SP309 will be described with reference to the next step SP312.

ステップSP312では、CPU21は、編集オペレータの操作に従って、シーン名設定処理を行う。具体的には、編集オペレータによってビューアウィンドウ92のシーンチェンジボタン178Aがクリックされると、シーン名設定処置(ステップSP313)に移行し、シーンチェンジボタン178Aがクリックされない場合には、ステップSP314に移行し、そのステップSP314において既に設定されているシーン名を使用してクリップ名及びイベント名を作成する。   In step SP312, the CPU 21 performs a scene name setting process according to the operation of the editing operator. Specifically, when the scene change button 178A of the viewer window 92 is clicked by the editing operator, the process proceeds to the scene name setting process (step SP313), and when the scene change button 178A is not clicked, the process proceeds to step SP314. Then, a clip name and an event name are created using the scene name already set in step SP314.

ステップSP313のシーン名設定処理について説明する。
まず、CPU21は、図26Aに示されるようなシーン名入力用のダイアログ180をモニタ2B上にオープンする。編集オペレータによって、ダイアログ180内に設けられたシーン名のリストを表示させるためのプルダウンボタン182が選択された場合、CPU21は、図26Bに示すようなシーン名のリスト183をモニタ2B上に表示する。このシーン名のリストは、前回の編集オペレーションのときに編集オペレータによって使用及び登録されたシーン名のリストであって、RAM21Bに履歴リストとして記憶されているデータである。
The scene name setting process in step SP313 will be described.
First, the CPU 21 opens a dialog 180 for inputting a scene name as shown in FIG. 26A on the monitor 2B. When the editing operator selects a pull-down button 182 for displaying a list of scene names provided in the dialog 180, the CPU 21 displays a list 183 of scene names as shown in FIG. 26B on the monitor 2B. . This list of scene names is a list of scene names used and registered by the editing operator during the previous editing operation, and is data stored as a history list in the RAM 21B.

編集オペレータによって表示されたリスト183中からシーン名が選択された場合には、CPU21は、その選択されたシーン名を、後述するクリップ生成処理及びイベント作成処理で使用するシーン名として登録する。   When a scene name is selected from the list 183 displayed by the editing operator, the CPU 21 registers the selected scene name as a scene name used in clip generation processing and event generation processing described later.

また、このプルダウンボタン182を選択せずに、編集オペレータがシーン名入力欄181に新たにシーン名をキーボード2Cから直接入力することもできる。この場合にも同じように、CPU21は、その入力されたシーン名を、後述するクリップ生成処理及びイベント作成処理で使用するシーン名として登録する。   Further, without selecting this pull-down button 182, the editing operator can directly input a new scene name into the scene name input field 181 directly from the keyboard 2C. Similarly, in this case, the CPU 21 registers the input scene name as a scene name used in clip generation processing and event generation processing described later.

本実施例の編集装置に、このようなシーン名を更新する機能が設けられている理由について説明する。   The reason why the editing apparatus of this embodiment is provided with such a function for updating the scene name will be described.

後述するクリップ作成処理及びイベント作成処理では、このシーン名を使用してクリップ名及びイベント名が付与される。具体的には、クリップ名及びイベント名は、「シーン名称」と「シリアル番号」とから生成される。すなわち、ステップSP313においてシーン名が「FIRE」に更新されたとすると、この後の、クリップ作成処理において、「FIRE001」、「FIRE002」、「FIRE003」....というようなクリップ名を有するクリップが順に作成される。例えば、この後、ステップSP313においてシーン名が「SEA」に更新されたとすると、同じように、この後の、クリップ作成処理において、「SEA001」、「SEA002」、「SEA003」....というようなクリップ名を有するクリップが順に作成される。   In a clip creation process and event creation process described later, a clip name and an event name are assigned using this scene name. Specifically, the clip name and event name are generated from “scene name” and “serial number”. In other words, if the scene name is updated to “FIRE” in step SP313, “FIRE001”, “FIRE002”, “FIRE003”,. . . . Clips having such clip names are created in order. For example, if the scene name is updated to “SEA” in step SP313, “SEA001”, “SEA002”, “SEA003”,. . . . Clips having such clip names are created in order.

つまりこのように、編集オペレータが、素材のシーンが変わった時に適切なシーン名を設定することによって、ログウィンドウ93に登録されたクリップをシーン名毎に分類することができる。それによって、何百というクリップを作成したとしても、その沢山のクリップを容易に管理することができる。また、ステップSP302においてローカルストレージ8のクリップを検索するときに、このシーン名をキーワードとすることによって、関連するクリップのみを容易に検索することができる。   That is, in this way, the editing operator can classify the clips registered in the log window 93 by scene name by setting an appropriate scene name when the scene of the material changes. As a result, even if hundreds of clips are created, a large number of clips can be easily managed. Further, when searching for a clip in the local storage 8 in step SP302, it is possible to easily search only related clips by using this scene name as a keyword.

ステップSP314において、編集オペレータの操作に応答して、CPU21は、エントリーモードを設定する。このエントリーモードとは、イン点及びアウト点が設定された素材を、ログウィンドウにエントリー(登録)するか、タイムラインウィンドウにエントリー(登録)するかを決めるためのモードである。このエントリーモードは、イン点及びアウト点が設定された素材を、ログウィンドウにクリップとして登録するログモードと、イン点及びアウト点が設定された素材をタイムラインウィンドウにイベントとして登録するタイムラインモードとの2つのモードを有し、エントリーモードとして何れかのモードが指定されるように構成されている。   In step SP314, in response to the operation of the editing operator, the CPU 21 sets the entry mode. This entry mode is a mode for deciding whether to enter (register) or enter (register) a material in which the In point and Out point are set in the log window or the timeline window. This entry mode includes a log mode that registers the material with the In and Out points set as clips in the log window, and a timeline mode that registers the material with the In and Out points set as events in the Timeline window. And any one of the modes is designated as the entry mode.

具体的には、編集オペレータが、ビューアウィンドウ92のログボタン122Bを選択すると、ログモードが選択され、編集オペレータが、ビューアウィンドウ92のタイムラインボタン122Cを選択すると、タイムラインモードが選択される。ログモードが設定された場合にはステップSP315に進み、タイムラインモードが設定された場合にはステップSP316に進む。   Specifically, when the editing operator selects the log button 122B of the viewer window 92, the log mode is selected, and when the editing operator selects the timeline button 122C of the viewer window 92, the timeline mode is selected. If the log mode is set, the process proceeds to step SP315, and if the timeline mode is set, the process proceeds to step SP316.

ステップSP315では、編集オペレータの操作に応答して、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。具体的には、編集オペレータが、ビューアウィンドウ92のADDボタン122Aをクリックすると、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。このとき、CPU21は、この登録されたイベントを表すための図27に示したようなファイル情報を生成する。   In step SP315, in response to the operation of the editing operator, the CPU 21 registers the material designated as the IN point and OUT point as an event. Specifically, when the editing operator clicks the ADD button 122A of the viewer window 92, the CPU 21 registers the material designated as the IN point and OUT point as an event. At this time, the CPU 21 generates file information as shown in FIG. 27 for representing the registered event.

さらに、ステップSP314においてログモードが選択されているので、CPU21は、イベントのイン点のスタンプピクチャと、イン点のタイムコードと、ステップSP313において設定されたシーン名に基づいて生成されたクリップ名とをクリップカード179としてログウィンドウ93に表示する。   Further, since the log mode is selected in step SP314, the CPU 21 determines the event In point stamp picture, the In point time code, and the clip name generated based on the scene name set in step SP313. Is displayed in the log window 93 as a clip card 179.

ステップSP306からこのステップSP315の処理を繰り返すことによって、編集オペレータによって指定された複数のイベントが登録される。さらに、このログモードでは、その複数のイベントを表す複数のクリップカード179をログウィンドウ93に表示されることができる。   By repeating the processing from step SP306 to step SP315, a plurality of events designated by the editing operator are registered. Further, in this log mode, a plurality of clip cards 179 representing the plurality of events can be displayed in the log window 93.

ステップSP316では、編集オペレータの操作に応答して、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。具体的には、ステップSP315と同じように、編集オペレータが、ビューアウィンドウ92のADDボタン122Aをクリックすると、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。このとき、CPU21は、図19に示したような、この登録されたイベントを表すためのファイル情報を生成する。   In step SP316, in response to the operation of the editing operator, the CPU 21 registers the material designated as the IN point and OUT point as an event. Specifically, as in step SP315, when the editing operator clicks the ADD button 122A of the viewer window 92, the CPU 21 registers the material designated as the IN point and OUT point as an event. At this time, the CPU 21 generates file information for representing the registered event as shown in FIG.

さらに、ステップSP314においてタイムラインモードが選択されているので、CPU21は、ビデオイベントをベースビデオライン132Aのナウライン139の位置に貼り付け、オーディオイベントをベースオーディオライン132Bのナウライン139の位置に貼り付ける。   Further, since the timeline mode is selected in step SP314, the CPU 21 pastes the video event at the position of the now line 139 of the base video line 132A, and pastes the audio event at the position of the now line 139 of the base audio line 132B.

ステップSP306からこのステップSP316の処理を繰り返すことによって、編集オペレータによって指定された複数のイベントが登録される。さらに、このタイムラインウィンドウでは、その複数のイベントをタイムライン95のベースビデオ及びベースオーディオライン132の所望の位置に貼り付けることができる。   By repeating the processing from step SP306 to step SP316, a plurality of events designated by the editing operator are registered. Further, in the timeline window, the plurality of events can be pasted at desired positions on the base video and base audio line 132 of the timeline 95.

尚、このログモードにおいて生成されるイベントと、タイムラインモードにおいて生成されるイベントとは全く同じである。このログモード及びタイムラインモードとの違いは、生成されたイベントを、クリップカードとしてログウィンドウ93に表示するか又はイベントとしてタイムライン95に表示されるかという点が異なるだけである。   The event generated in the log mode and the event generated in the timeline mode are exactly the same. The difference between the log mode and the timeline mode is only that the generated event is displayed on the log window 93 as a clip card or displayed on the timeline 95 as an event.

4−2. プログラムリスト作成処理
次に、ステップSP301からステップSP315のイベント生成処理によって作成されたイベントを使用して、プログラムリストを作成するプログラムリスト作成処理に関して説明する。
4-2. Program List Creation Processing Next, program list creation processing for creating a program list using the events created by the event generation processing from step SP301 to step SP315 will be described.

図27のフローチャートは、このプログラムリスト作成処理の動作を説明するための図である。この図27に示されたフローチャートは、ログウィンドウ93にクリップカード179として表示されたイベントを使用してプログラムリストを作成する場合のフローである。   The flowchart in FIG. 27 is a diagram for explaining the operation of the program list creation process. The flowchart shown in FIG. 27 is a flow when a program list is created using an event displayed as a clip card 179 in the log window 93.

まず、ステップSP401では、ログウィンドウ93にクリップカード179として表示されているイベントを、タイムライン上に並べる。このようにタイムライン上にイベントを並べるためには、以下の2つの方法がある。   First, in step SP401, events displayed as the clip card 179 in the log window 93 are arranged on the timeline. There are the following two methods for arranging events on the timeline in this way.

第1の方法は、編集オペレータが、マウス2Dを使用してクリップカードをドラッグアンドドロップを使用して、タイムライン95上の所望の位置に挿入する方法である。具体的には、ログウィンドウ93に表示されているクリップカード179をマウス2Dでクリックすることによって、このクリップカードがアクティブになり、ドラッグ可能な状態になる。次に、このクリップカード179をドラッグさせ、タイムライン95の所望の位置でドロップすると、ベースビデオライン132A上のドロップ位置に、クリップカード179に対応するビデオイベントが挿入され、ベースオーディオライン132B上のドロップ位置に、クリップカード179に対応するオーディオベントが挿入される。   The first method is a method in which the editing operator inserts a clip card at a desired position on the timeline 95 using the mouse 2D using drag and drop. Specifically, when the clip card 179 displayed in the log window 93 is clicked with the mouse 2D, the clip card becomes active and can be dragged. Next, when this clip card 179 is dragged and dropped at a desired position on the timeline 95, a video event corresponding to the clip card 179 is inserted at the drop position on the base video line 132A, and the clip card 179 is placed on the base audio line 132B. An audio vent corresponding to the clip card 179 is inserted at the drop position.

第2の方法は、ダイレクトエントリーモードを使用して、クリップカード179をタイムライン178B上に自動的に並べる方法である。まず、編集オペレータによってログウィンドウ93ダイレクトエントリーボタン180がクリックされると、通常モードから、ダイレクトエントリーモードになる。このダイレクトエントリーモードとは、ログウィンドウ93に表示されているクリップカード179を、ドラッグアンドドロップせずにクリックするだけで、タイムライン上に並べることができるモードである。具体的には、このダイレクトエントリーモードにおいて、編集オペレータが、ログウィンドウ93のクリップカード179をクリックすると、タイムライン95のナウライン139の位置に、クリックされたクリップカード179に対応するビデオイベント及びオーディオイベントが挿入される。また、このイベントの挿入に伴ってナウライン139は、ダイレクトエントリーモードによって新しく挿入されたイベントのアウト点の位置に自動的に移動する。つまり、ログウィンドウ93のクリップカード179を順にクリックすると、タイムライン95の右側にクリックされた順に挿入されていくことになる。   The second method is a method of automatically arranging the clip cards 179 on the timeline 178B using the direct entry mode. First, when the log window 93 direct entry button 180 is clicked by the editing operator, the normal mode is changed to the direct entry mode. The direct entry mode is a mode in which the clip cards 179 displayed in the log window 93 can be arranged on the timeline simply by clicking without dragging and dropping. Specifically, in this direct entry mode, when the editing operator clicks the clip card 179 in the log window 93, the video event and audio event corresponding to the clicked clip card 179 are displayed at the position of the now line 139 in the timeline 95. Is inserted. As the event is inserted, the now line 139 automatically moves to the position of the out point of the newly inserted event in the direct entry mode. That is, when the clip cards 179 in the log window 93 are clicked in order, they are inserted in the order in which they are clicked on the right side of the timeline 95.

ことようなダイレクトエントリーモードを使用することによって、ログウィンドウ93に表示されているクリップカード179を、ドラッグアンドドロップせずに、クリックするだけでタイムタイン95に貼り付けることができる。従って、数個では無く何十という沢山の数のクリップカード179を、タイムライン上に貼り付けなければいけないような場合に、このダイレクトエントリーモードによって、各クリップカード179に対するドラッグアンドドロップ操作を省略することができるので、編集操作を簡略化できると共に編集時間を短縮することができる。   By using the direct entry mode as described above, the clip card 179 displayed in the log window 93 can be pasted on the time tine 95 simply by clicking without dragging and dropping. Accordingly, when a large number of clip cards 179, not several, must be pasted on the timeline, the drag-and-drop operation for each clip card 179 is omitted by this direct entry mode. Therefore, the editing operation can be simplified and the editing time can be shortened.

ステップSP402では、編集オペレータの操作に応じて、CPU21は、タイムライン95に貼り付けられたオーディオのミックスダウン設定を行う。このミックスダウン処理とは、オーディオイベントに対して設定された4つのトラックの出力レベルを設定すると共に、この4つのトラックを最終オーディオ出力(プログラムアウト)の4チャンネルに対するルーティングを設定するための処理である。   In step SP402, the CPU 21 performs mixdown setting for the audio pasted on the timeline 95 in accordance with the operation of the editing operator. The mixdown process is a process for setting the output levels of the four tracks set for the audio event and setting the routing for the four channels of the final audio output (program out) for the four tracks. is there.

まず、プログラムウィンドウ94のツールバーからオーディオミックスダウン用のダイアログ選択ボタン162がクリックされると、グラフィカルユーザインターフェース90上にオーディオミックスダウン用のダイアログ200が表示される。   First, when the dialog selection button 162 for audio mixdown is clicked from the tool bar of the program window 94, an audio mixdown dialog 200 is displayed on the graphical user interface 90.

ダイアログ200は、ベースオーディオ(BASE)、サブオーディオ(SUB)、ボイスオーバ1(VO1)及びボイスオーバ2(VO2)に設定された各オーディオイベントがもつ4つのトラックT1〜T4(又は2つのトラックT1〜T2)を、夫々最終オーディオ出力(プログラムアウト)チャンネルCh1〜Ch4にどのように対応付けて出力するかを設定するための出力ルーティング部201と、この各オーディオイベントがもつ4つのトラックT1〜T4に対し、夫々オーディオのレベルを設定するためのトラックフェーダ部208と、専用コントローラ5に設けられたトタックフェーダが4つのトラックT1〜T4にどのようにアサインされているかを示すフェーダパネルアサイン部207と、オーディオラインの各トラックに対して専用コントローラ5に設けられた4つのフェーダレバーをアサインするための設定ダイアログをオープンするためのフェーダアサインボタン202と、専用コントローラ5に設けられた4つのフェーダレバーを使用して各トラックのオーディオレベルをマニュアル調整するモードを、オンするかオフするかを示すオン/オフボタン202Aとを備えている。   The dialog 200 displays four tracks T1 to T4 (or two tracks T1) included in each audio event set to base audio (BASE), sub audio (SUB), voice over 1 (VO1), and voice over 2 (VO2). To T2) are set in correspondence with the final audio output (program-out) channels Ch1 to Ch4, respectively, and an output routing unit 201 for setting the output routing unit 201 and the four tracks T1 to T4 of each audio event. On the other hand, a track fader section 208 for setting the audio level and a fader panel assign section 207 showing how the tack faders provided in the dedicated controller 5 are assigned to the four tracks T1 to T4. And each track of the audio line For each track, a fader assign button 202 for opening a setting dialog for assigning four fader levers provided in the dedicated controller 5 and four fader levers provided in the dedicated controller 5 are used. An on / off button 202A indicating whether the mode for manually adjusting the audio level is turned on or off is provided.

この出力ルーティング部201において、各トラックT1〜T4に対して所望の出力チャンネルCh1〜Ch4位置に対応するクロスポイントボタンをクリックすることにより、各トラックを所望の出力チャンネルにルーティングすることができる。   In this output routing unit 201, each track can be routed to a desired output channel by clicking a crosspoint button corresponding to the position of the desired output channel Ch1 to Ch4 for each track T1 to T4.

例えば、図28に示した例は、ベースオーディオライン132B上のイベントのトラックT1のクロスポイントボタン201Aをクリックすることにより、トラックT1を出力チャンネルCh1にルーティングしていることを示している。以下同様にして、トラックT2を出力チャンネルCh2、トラックT3を出力チャンネルCh3に、またトラックT4を出力チャンネルCh4にルーティングしていることを示している。またサブオーディオライン134、ボイスオーバ1ライン138A及びボイスオーバ2ライン138Bについても同様に、サブオーディオラインのオーディオイベントのトラックT1〜T4をそれぞれ出力チャンネルCh1〜Ch4にルーティングし、またボイスオーバ1のオーディオイベントのトラックT1及びT2をそれぞれ出力チャンネルCh1及びCh2にルーティングし、ボイスオーバ2のオーディオイベントのトラックT1及びT2をそれぞれ出力チャンネルCh3及びCh4にルーティングしていることを示している。   For example, the example shown in FIG. 28 indicates that the track T1 is routed to the output channel Ch1 by clicking the cross point button 201A of the track T1 of the event on the base audio line 132B. Similarly, the track T2 is routed to the output channel Ch2, the track T3 is routed to the output channel Ch3, and the track T4 is routed to the output channel Ch4. Similarly, for the sub audio line 134, the voice over 1 line 138A, and the voice over 2 line 138B, the audio event tracks T1 to T4 of the sub audio line are routed to the output channels Ch1 to Ch4, respectively. It shows that event tracks T1 and T2 are routed to output channels Ch1 and Ch2, respectively, and audio event tracks T1 and T2 of voice over 2 are routed to output channels Ch3 and Ch4, respectively.

ここでミックスダウン設定用のダイアログ200に設けられた、マニュアルフェーダボタン202をクリックすると、図29に示すようなフェーダアサイン用のダイアログ205が表示される。   When the manual fader button 202 provided in the mixdown setting dialog 200 is clicked, a fader assignment dialog 205 as shown in FIG. 29 is displayed.

ダイアログ205は、ベースオーディオ、サブオーディオ、ボイスオーバ1及びボイスオーバ2に登録されたオーディオイベントが有する4つのトラックT1〜T4(又は2つのトラックT1〜T2)を、専用コントローラ5のどのフェーダレバーF1〜F4にアサインするかを設定するためのアサインパネル206を有している。当該アサインパネル206において、各列に設定された各トラックT1〜T4に対して設定された所望のフェーダレバーF1〜F4に対応するボタンをクリックすることにより、それぞれのトラックT1〜T4を任意のフェーダレバーF1〜F4にアサインすることができる。   The dialog 205 displays four tracks T1 to T4 (or two tracks T1 to T2) included in the audio events registered in the base audio, sub audio, voice over 1 and voice over 2 to which fader lever F1 of the dedicated controller 5. An assignment panel 206 for setting whether to assign to .about.F4 is provided. In the assignment panel 206, by clicking a button corresponding to a desired fader lever F1 to F4 set for each track T1 to T4 set in each row, each track T1 to T4 is set to an arbitrary fader. It can be assigned to the levers F1 to F4.

例えば図29は、ベースオーディオのトラックT1及びT2に属するボタン206A及び206Bをクリックすることにより、ベースオーディオのトラックT1及びT2を第1のフェーダレバーF1にアサインしていることを示している。以下同様にして、サブオーディオのトラックT1及びT2のボタン206C及び206DをクリックすることによりトラックT1及びT2を第2のフェーダレバーF2にアサインしていることを示し、さらにボタン206E及び206FをクリックすることによりボイスオーバのトラックT1及びT2を第3のフェーダレバーF3にアサインしていることを示す。   For example, FIG. 29 shows that the bass audio tracks T1 and T2 are assigned to the first fader lever F1 by clicking the buttons 206A and 206B belonging to the bass audio tracks T1 and T2. In the same manner, clicking the buttons 206C and 206D of the sub audio tracks T1 and T2 indicates that the tracks T1 and T2 are assigned to the second fader lever F2, and then clicks the buttons 206E and 206F. This indicates that the voice-over tracks T1 and T2 are assigned to the third fader lever F3.

各オーディオラインのトラックT1〜T4のオーディオレベルを設定する場合には、マウス2Dで、トラックフェーダ部208のスライダ208Aを上下させることによって所望のオーディオを設定することができる。また、オン/オフボタン202Aがオンになっている場合には、専用コントローラのフェーダレバーによるマニュアル調整が可能である。従って、編集オペレータが、このフェーダレバーF1〜F4を上下させることによって、各フェーダレバーに対応付けられたトラックにおいて所望のオーディオレベルを設定することができる。また、この時、編集オペレータが専用コントローラ5のフェーダレバーを操作すると、そのフェーダレバーの操作に追従して、ミックスダウン設定ダイアログのトラックフェーダ部208のスライダ208Aが自動的にスライドする。   When setting the audio levels of the tracks T1 to T4 of each audio line, desired audio can be set by moving the slider 208A of the track fader unit 208 up and down with the mouse 2D. In addition, when the on / off button 202A is on, manual adjustment by the fader lever of the dedicated controller is possible. Therefore, the editing operator can set a desired audio level in the track associated with each fader lever by moving the fader levers F1 to F4 up and down. At this time, when the editing operator operates the fader lever of the dedicated controller 5, the slider 208A of the track fader section 208 of the mixdown setting dialog automatically slides following the operation of the fader lever.

また、フェーダアサインダイアログ205において、各オーディオライン(BASE、SUB、VO1及びVO2)の各トラックT1〜T4に対する専用コントローラのフェーダレバーF1〜F4のアサインを自由に設定することができる。従って、例えば、編集すべきオーディオがベースオーディオ(BASE)のみの場合には、このベースオーディオのトラックT1〜T4に対して、それぞれフェーダレバーF1〜F4をアサインすることができたりもする。つまり、各オーディオライン(BASE、SUB、VO1及びVO2)及び各トラックT1〜T4を、物理的に専用コントローラ5のフェーダレバーと関連付けているのでは無く、ソフト的に関連付けている事によって、各オーディオライン及び各トラックT1〜T4と、専用コントローラ5のフェーダレバーと関連付けを如何様にでも変更することができる。   Further, in the fader assign dialog 205, assignment of fader levers F1 to F4 of the dedicated controller for each track T1 to T4 of each audio line (BASE, SUB, VO1, and VO2) can be freely set. Therefore, for example, when the audio to be edited is only the base audio (BASE), the fader levers F1 to F4 may be assigned to the tracks T1 to T4 of the base audio, respectively. That is, each audio line (BASE, SUB, VO1, and VO2) and each track T1 to T4 are not physically associated with the fader lever of the dedicated controller 5, but are associated with each other by software. The association between the line and each track T1 to T4 and the fader lever of the dedicated controller 5 can be changed in any way.

ステップSP402においてオーディオミックスダウンの設定が終了すると、次のステップSP403に進む。   When the audio mixdown setting is completed in step SP402, the process proceeds to the next step SP403.

ステップSP403では、編集オペレータの編集操作に応答して、CPU21は、タイムライン上のイベントに対してエフェクトを設定するためのエフェクト設定ダイアログ190をオープンする。具体的には、編集オペレータが、プログラムウィンドウ94においてビデオエフェクトボタン159をクリックすると、図30に示すようなエフェクト設定用のダイアログ190がオープンする。   In step SP403, in response to the editing operation by the editing operator, the CPU 21 opens an effect setting dialog 190 for setting an effect for the event on the timeline. Specifically, when the editing operator clicks the video effect button 159 in the program window 94, an effect setting dialog 190 as shown in FIG. 30 is opened.

このエフェクト設定ダイアログ190は、現在設定されているエフェクトパターンを示すエフェクトパターン部191と、使用頻度の高いエフェクトパターンが表示されるフェイバリットパターン部192と、選択されたエフェクトのトランジションを設定するためのトランジション設定部193と、エフェクトを設定する対象(ビデオ/オーディオ)を選択するビデオ/オーディオ選択部195と、エフェクトをモディファイするためのパラメータが設定されるモディファイ部198と、キー信号に関するパラメータを設定するKey設定部199とを備えている。   The effect setting dialog 190 includes an effect pattern portion 191 that indicates the currently set effect pattern, a favorite pattern portion 192 that displays frequently used effect patterns, and a transition for setting a transition of the selected effect. A setting unit 193, a video / audio selection unit 195 for selecting a target (video / audio) for setting an effect, a modification unit 198 for setting a parameter for modifying an effect, and a key for setting a parameter relating to a key signal A setting unit 199.

ステップSP404では、エフェクト設定対象として、ビデオ及びオーディオを選択する。ビデオとオーディオの両方に同時にエフェクトをかける場合には、「Video」と「Audio」ボタン195の両方をクリックし、ビデオ又はオーディオのいずれか一方のみにエフェクトをかける場合には、「Video」又は「Audio」ボタン195のいずれかをクリックする。   In step SP404, video and audio are selected as effect setting targets. To apply an effect to both video and audio at the same time, click both “Video” and “Audio” buttons 195, and to apply an effect to only one of video and audio, “Video” or “Audio”. Click one of the “Audio” buttons 195.

ステップSP405では、編集オペレータは、所望のエフェクトを選択する。このエフェクトを選択する方法として、以下の3つの方法のいずれかによってエフェクトを選択することができる。   In step SP405, the editing operator selects a desired effect. As a method for selecting this effect, the effect can be selected by one of the following three methods.

第1のエフェクト選択方法は、エフェクトを表すパターン番号を直接入力することによって、所望のエフェクトを設定する方法である。例えば、編集オペレータが、所望のエフェクトパターン番号を予め知っている場合には、パターン番号設定部191に所望のエフェクトパターンのパターン番号を、キーボード2Cより直接入力すると、この入力されたパターン番号に対応した所望のエフェクトが設定される。   The first effect selection method is a method for setting a desired effect by directly inputting a pattern number representing the effect. For example, when the editing operator knows the desired effect pattern number in advance, when the pattern number of the desired effect pattern is directly input to the pattern number setting unit 191 from the keyboard 2C, the editing operator corresponds to the input pattern number. The desired effect is set.

第2のエフェクト選択方法は、編集オペレータが好んで使用する使用頻度の高いエフェクトのパターン(以下、これをフェイバリットパターン(Favorite Pattern)と呼ぶ)から所望のエフェクトを選択する方法である。具体的には、CPU21は、編集オペレータが好んで使用する使用頻度の高いエフェクトのパターンを常に記憶しておき、このエフェクト設定ダイアログ190のフェイバリットパターン表示部192に、この使用頻度の高いエフェクトのパターンを示すアイコンが表示されるように構成さされている。編集オペレータが、このフェイバリットパターン表示部192の中から所望のエフェクトパターンをクリックすることによって、所望のエフェクトが選択される。   The second effect selection method is a method of selecting a desired effect from an effect pattern frequently used by an editing operator (hereinafter referred to as a favorite pattern). Specifically, the CPU 21 always stores a frequently used effect pattern that is preferably used by the editing operator, and the frequently used effect pattern is displayed in the favorite pattern display section 192 of the effect setting dialog 190. It is comprised so that the icon which shows may be displayed. When the editing operator clicks a desired effect pattern from the favorite pattern display unit 192, a desired effect is selected.

第3のエフェクト選択方法は、全パターンリズトの中から所望のエフェクトパターンを選択する方法である。編集オペレータが、パターンリストボタン194を押すと、登録されている全てのエフェクトパターンが種類毎に表示され、その中から所望のエフェクトパターンをクリックすることによって、所望のエフェクトが選択される。   The third effect selection method is a method of selecting a desired effect pattern from all pattern lists. When the editing operator presses the pattern list button 194, all registered effect patterns are displayed for each type, and a desired effect is selected by clicking on the desired effect pattern from among them.

これらの何れかの方法でエフェクトが選択されると、その選択されたエフェクトのアイコンが、エフェクトパターン部191に表示される。これによって、エフェクトが選択される。   When an effect is selected by any of these methods, an icon of the selected effect is displayed on the effect pattern section 191. As a result, the effect is selected.

ステップSP406では、編集オペレータによって、選択されたエフェクトに対して所望のトランジション時間が設定される。この選択されたエフェクトに対してトランジション時間を設定する場合には、ダイアログ190上のトランジション設定部193Aにおいて、選択したエフェクトの遷移時間(トランジション時間)をキーボードから入力するか又はプリセットされた複数個のトランジション時間の中から所望のトランジション時間を選択することによりトランジション時間を設定することができる。   In step SP406, the editing operator sets a desired transition time for the selected effect. When setting the transition time for the selected effect, the transition setting unit 193A on the dialog 190 inputs the transition time (transition time) of the selected effect from the keyboard or sets a plurality of preset times. The transition time can be set by selecting a desired transition time from the transition times.

ステップSP407では、選択されたエフェクトに対してエフェクトパラメータを設定する。具体的には、このエフェクトパラメータとは、例えば、ビデオ切り替え位置のエッジ(Edge)に関するパラメータ、ライトを当てるような効果であるライティング(Lighting)に関するパラメータ、影や帯を引くような効果であるトライアル(Traial)/シヤドウ(Shadow)に関するパラメータ、エフェクトを設定する位置であるロケーション(Location)に関するパラメータ等であって、エフェクトの種類に応じて様々なパラメータを設定できるようになっている。エフェクト設定ダイアログ190のモディファイ部198を使用することによって、これらのエフェクトに関する各種パラメータを設定することができる。さらにダイアログ190上においては、キーボタン199をクリック入力することによってクロマ(Chroma)キー及び又は外部(External)キーを設定し得るようになされている。   In step SP407, an effect parameter is set for the selected effect. Specifically, this effect parameter is, for example, a parameter related to the edge (Edge) of the video switching position, a parameter related to lighting (Lighting) that is an effect that shines light, or a trial that is an effect that draws shadows or bands. Parameters related to (Traial) / Shadow, parameters related to location (Location) that is a position where an effect is set, and various parameters can be set according to the type of effect. By using the modification unit 198 of the effect setting dialog 190, various parameters related to these effects can be set. Further, on the dialog 190, a chroma key and / or an external key can be set by clicking and inputting a key button 199.

ステップSP408では、編集オペレータの操作にしたがって、CPU21は、設定されたエフェクトをプレビューするように各ソースデバイス及び編集処理装置を制御する。編集オペレータが、ダイアログ190のフェーダレバー196又はATボタン(Autoボタン)197を操作することによって、設定されたエフェクトをビューア106の画面上でプレビューすることができる。   In step SP408, according to the operation of the editing operator, the CPU 21 controls each source device and editing processing apparatus so as to preview the set effect. When the editing operator operates the fader lever 196 or the AT button (Auto button) 197 of the dialog 190, the set effect can be previewed on the screen of the viewer 106.

設定されたエフェクトが、ワイプ効果等のトランジションエフェクトの場合には、フェーダレバー196が最も上に位置している状態ではビューア106にはバックグランド画像が表示される。またフェーダレバー196をマウスによりドラッグして上から下の方向に向かって移動させるに従って、フォアグランド画像に次第にトランジションしていく。そして、フェーダレバー196が最も下に位置している状態ではビューア106にはフォアグランド画像が表示される。これによりフェーダレバー196のマニュアル操作による任意の速度及び位置でトランジションエフェクトをプレビューすることができる。   When the set effect is a transition effect such as a wipe effect, the background image is displayed on the viewer 106 in a state where the fader lever 196 is located at the uppermost position. The fader lever 196 is gradually transitioned to the foreground image as it is moved from the top to the bottom by dragging with the mouse. When the fader lever 196 is at the lowest position, the foreground image is displayed on the viewer 106. As a result, the transition effect can be previewed at an arbitrary speed and position by manual operation of the fader lever 196.

尚、フォアグランド画像とは、トランジションエフェクトの実行によって画面に現れる画像または、アニメーションエフェクトの実行によってバックグランド画像に挿入され、エフェクトパターンを埋める画像の事を言う。また、バックグランド画像とは、トランジションエフェクトの実行によって、画面から消し去られる画像または、アニメーションエフェクトの実行によってフォアグランド画像が埋められたエフェクトパターンが挿入される画像のことを言う。   Note that the foreground image refers to an image that appears on the screen when the transition effect is executed or an image that is inserted into the background image when the animation effect is executed and fills the effect pattern. The background image refers to an image that is erased from the screen by executing a transition effect or an image in which an effect pattern in which a foreground image is filled by executing an animation effect is inserted.

また、本実施例の編集装置においては、エフェクトの種類としてトランジションエフェクトとアニメーションエフェクトの2種類を有している。トランジションエフェクトとは、ワイプ効果やページターン効果等のように、2つの画像を切り換えるビデオエフェクトのことを言い、アニメーションエフェクトとは、3次元画像空間変換等の画像に特殊効果をかけるエフェクト、または、スポットライト効果、ズームアップ効果及びピクチャインピクチャ効果等のようにある画像にビデオエフェクトのかかった画像を挿入するエフェクトのことを言う。   Further, the editing apparatus according to the present embodiment has two types of effects, transition effects and animation effects. Transition effects are video effects that switch between two images, such as wipe effects and page turn effects, and animation effects are effects that apply special effects to images, such as 3D image space conversion, or An effect that inserts an image with a video effect into a certain image, such as a spotlight effect, a zoom-up effect, and a picture-in-picture effect.

また、フェーダレバー196のマニュアル操作の代わりに、ATボタン(Autoボタン)197がクリックされた場合には、エフェクトに対して予め設定されたトランジションスピードで、バックグランド画像からフォアグランド画像にトランジションしていく。具体的には、ATボタン197がクリックされると、まず初めにフェーダレバー196が最も上の位置に移動して、その後、自動的に一定のスピードで徐々に下に移動していく。そのフェーダレバー196の移動に伴って一定のスピードで、バックグランドビデオからフォアグランドビデオにトランジションするトランジションエフェクトが実行される。その結果、ビューア106上にてトランジションエフェクトをプレビューすることができる。   When the AT button (Auto button) 197 is clicked instead of manual operation of the fader lever 196, the background image is transitioned from the background image to the foreground image at a preset transition speed for the effect. Go. Specifically, when the AT button 197 is clicked, the fader lever 196 is first moved to the uppermost position, and then is automatically gradually moved downward at a constant speed. As the fader lever 196 moves, a transition effect that transitions from the background video to the foreground video is executed at a constant speed. As a result, the transition effect can be previewed on the viewer 106.

このプレビュー処理を行う段階では、このステップ503において選択されたエフェクトは編集オペレータによってまだタイムライン95のエフェクトライン135に貼り付けられていないので、このエフェクトがどのイベントに対して設定されるかはまだ分からない。従って、このエフェクトをプレビューするためのプレビュー処理を行うために必要なバックグランド画像及びフォアグランド画像は、既に、編集処理装置3の画像処理部3Cに設定されていたビデオ信号を使用し、エフェクトを仮想的に実行する。なぜなら、このエフェクトのプレビューは、設定されたエフェクト自体、設定されたトランジション時間及び設定されたエフェクトパラメータが適切か否かをチェックするためのプレビュー処理であるので、バックグランド画像及びフォアグランド画像はどのような画像であっても良いからである。   At the stage of performing this preview process, the effect selected in this step 503 has not yet been pasted to the effect line 135 of the timeline 95 by the editing operator, so it is not yet determined which event this effect is set for. I do not understand. Therefore, the background image and the foreground image necessary for performing the preview process for previewing the effect use the video signal that has already been set in the image processing unit 3C of the editing processing device 3, and apply the effect. Run virtually. Because the preview of this effect is a preview process for checking whether the set effect itself, the set transition time, and the set effect parameter are appropriate, which is the background image and the foreground image? This is because such an image may be used.

実際には、編集処理装置3のマトリックススイッチャ部3Bの制御によって、現在、画像処理部3Cに対してビデオ信号S24として供給されている信号をフォアグランドビデオとし、画像処理部3Cに対してビデオ信号S26として供給されている信号をバックグランドビデオとして使用する。つまり、このエフェクトのプレビューをおこなうときには、コンピュータのCPU21は、画像処理部3Cにビデオ信号S26として供給されていた信号をバックグランド画像として使用し、画像処理部3Cにビデオ信号S24として供給されている信号を、フォアグランド画像として使用するように編集処理装置を制御する。   Actually, the signal currently supplied as the video signal S24 to the image processing unit 3C is set as the foreground video by the control of the matrix switcher unit 3B of the editing processing device 3, and the video signal is supplied to the image processing unit 3C. The signal supplied as S26 is used as background video. That is, when previewing the effect, the CPU 21 of the computer uses the signal supplied to the image processing unit 3C as the video signal S26 as a background image and supplies it to the image processing unit 3C as the video signal S24. The editing processor is controlled to use the signal as a foreground image.

ステップSP408のプレビューの結果、エフェクトダイアログ190によって設定したエフェクトが所望のエフェクトであったときには、次のステップSP409に進む。   As a result of the preview in step SP408, when the effect set by the effect dialog 190 is a desired effect, the process proceeds to the next step SP409.

ステップSP409では、編集オペレータの操作にしたがって、CPU21は、選択されたエフェクト及び、そのエフェクトに関するフォアグランドイベントを、タイムライン95に貼り付ける。このタイムラインへのエフェクトの貼り付け方は、トランジションエフェクトとアニメーションエフェクトとで異なるので、トランジションエフェクトのタイムラインの貼り付け方法とアニメーションエフェクトのタイムラインの貼り付け方法とをそれぞれ説明する。   In step SP409, the CPU 21 pastes the selected effect and the foreground event related to the effect on the timeline 95 in accordance with the operation of the editing operator. Since the method of pasting the effect on the timeline is different between the transition effect and the animation effect, the transition effect timeline pasting method and the animation effect timeline pasting method will be described respectively.

まず、図31A及び図31Bを参照して、トランジションエフェクトをタイムラインに貼り付ける方法を説明する。   First, with reference to FIGS. 31A and 31B, a method for pasting a transition effect to a timeline will be described.

編集オペレータが、ダイアログ190のフェイバリットパターン表示部192内の選択されたトランジションエフェクトのアイコン191Bを、タイムライン95上にマウス2Dによってドラッグすると、図31Aに示すようなアイコンの影192Xが、タイムライン95上に表示される。   When the editing operator drags the selected transition effect icon 191B in the favorite pattern display section 192 of the dialog 190 with the mouse 2D onto the timeline 95, the shadow 192X of the icon as shown in FIG. Displayed above.

このアイコンの影192Xを、ライムライン95のエフェクトライン135の所望する位置でドロップすると、図31Bに示すように、トランジションエフェクト192Yが設定される。   When the shadow 192X of this icon is dropped at a desired position on the effect line 135 of the lime line 95, a transition effect 192Y is set as shown in FIG. 31B.

この図31Bは、「Heli−1」というイベントから「Ship2」というイベントに遷移するときに、「Mix」によって示されたエフェクト期間において、「Heli−1」の画像と「Ship2」の画像とをミックスすることを表している。つまり、このミックスエフェクトを実行する場合には、「Heli−1」というイベントがバックグランド画像として指定され、「Ship2」というイベントがフォアグランド画像として指定される。   FIG. 31B shows that when the event “Heli-1” transitions to the event “Ship2”, the images “Heli-1” and “Ship2” are displayed in the effect period indicated by “Mix”. Represents mixing. That is, when this mix effect is executed, the event “Heli-1” is designated as the background image, and the event “Ship2” is designated as the foreground image.

このようにイベント間にトランジションエフェクトを設定すると、バックグランド画像として指定されているイベントのアウト点が、自動的にトランジション時間分だけ延長される。例えば、バックグランド画像として指定されているイベント「Heli−1」のアウト点が、「00:00:05:00」であって、このミックスエフェクト192Yのトランジション時間が2秒であったとすると、バックグランド画像として指定されているイベント「Heli−1」のアウト点が、自動的に2秒だけ延長され、「00:00:07:00」になるということである。   When the transition effect is set between the events in this way, the out point of the event designated as the background image is automatically extended by the transition time. For example, if the out point of the event “Heli-1” specified as the background image is “00: 00: 05: 00” and the transition time of this mix effect 192Y is 2 seconds, This means that the out point of the event “Heli-1” designated as the grand image is automatically extended by 2 seconds to become “00: 00: 07: 00”.

このようなトランジションエフェクトを実行する場合には、コンピュータのCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、「Heli−1」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、「Ship2」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部は、このミックスエフェクトに設定されたトランジション時間及び各種のエフェクトパラメータに応じたエフェクトを実行するように、ミキサ54Bを制御する。   When such a transition effect is executed, in response to a control signal from the CPU 21 of the computer, the matrix switcher unit 3B of the editing processing device 3 outputs a video signal of a material “Heli-1” to an output terminal OUT9. The cross point is switched so that the video signal of the material “Ship2” is set as the signal S24 output from the output terminal OUT7. Further, in response to the control signal from the CPU 21 of the computer, the image processing unit of the editing processing device 3 executes the effect corresponding to the transition time and various effect parameters set for this mix effect. To control.

次に、図32から、図35を参照して、アニメーションエフェクトをタイムラインの貼り付け方法を説明する。アニメーションエフェクトをタイムライン上に貼り付ける方法は、エフェクトの種類及びイベントに対するエフェクトの設定の仕方によって異なってくるので以下の第1のケース及び第2のケースに分けで説明する。   Next, with reference to FIG. 32 to FIG. 35, a method for pasting animation effects to a timeline will be described. The method of pasting the animation effect on the timeline differs depending on the type of effect and the method of setting the effect for the event, and will be described separately in the following first case and second case.

第1のケースは、1つのイベントにズーム効果やライトスポット等の特殊効果をかけるためのエフェクトを設定する場合である。この第1のケースについて、図32A及び図32Bを参照して説明する。   The first case is a case where an effect for applying a special effect such as a zoom effect or a light spot to one event is set. The first case will be described with reference to FIGS. 32A and 32B.

トランジションエフェクトをタイムライン上に貼り付けた操作と同じように、編集オペレータが、ダイアログ190のフェイバリットパターン表示部192内の選択されたアニメーションエフェクトのアイコン191Bを、タイムライン95上にマウス2Dによってドラッグすると、図32Aに示すようなアイコンの影192Eが、タイムライン95上に表示される。このアイコンの影192Eを、ライムライン95のエフェクトライン135の所望する位置でドロップすると、図32Bに示すように、イベント「002」に対して特殊効果等のアニメーションエフェクト192Fが設定される。   Similar to the operation of pasting the transition effect on the timeline, the editing operator drags the icon 191B of the selected animation effect in the favorite pattern display section 192 of the dialog 190 onto the timeline 95 with the mouse 2D. An icon shadow 192E as shown in FIG. 32A is displayed on the timeline 95. When the shadow 192E of this icon is dropped at a desired position on the effect line 135 of the lime line 95, an animation effect 192F such as a special effect is set for the event “002” as shown in FIG. 32B.

尚、図32Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータ2のCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「002」という素材のビデオ信号を出力端子OUT9から出力される信号S26として設定するように、クロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部3Bは、このモディファイエフェクトに設定されたトランジション時間及び各種のエフェクトパラメータに応じたエフェクトを実行するように、特殊効果ブロック53を制御する。   When the animation effect as shown in FIG. 32B is executed, in response to a control signal from the CPU 21 of the computer 2, the matrix switcher unit 3 B of the editing processing device 3 makes a video of the material “event” 002. The cross point is switched so that the signal is set as the signal S26 output from the output terminal OUT9. Further, in response to a control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing device 3 executes a special effect so as to execute an effect corresponding to the transition time and various effect parameters set in the modify effect. The effect block 53 is controlled.

第2のケースは、ピクチャインピクチャ効果等のように、あるイベントに対してエフェクトのかかったイベントを挿入するためのエフェクと設定する場合である。この第2のケースを説明するために、以下のように、「エフェクトとクリップとを同時に設定する場合」、「先に貼ったエフェクトを、後から貼るクリップと同じ長さにする場合」及び「後から貼るクリップを、先に貼ったエフェクトと同じ長さにする場合」について、それぞれ説明する。   The second case is a case where an effect for inserting an effected event is set for a certain event, such as a picture-in-picture effect. In order to explain the second case, as described below, “when effect and clip are set simultaneously”, “when the effect pasted is made the same length as the clip pasted later” and “ Each of the cases where the clip to be pasted is made the same length as the effect pasted earlier will be described.

まず、エフェクトとクリップとを同時に設定する場合について、図33A及び図33Bを参照して説明する。   First, the case where an effect and a clip are set simultaneously will be described with reference to FIGS. 33A and 33B.

まず、編集オペレータが、ログウィンドウに表示されたクリップカード179をマウス2Dによってタイムライン上にドラッグすると、図33Aに示すようなアイコンの影192Gが、タイムライン95上に表示される。このアイコンの影192Gを、オーバレイビデオライン136の所望する位置でドロップすると、図33Bに示すように、オーバレイビデオライン136に、ログウィンドウ93からドラッグアンドドロップされたイベント「007」が貼り付けされる。さらに、これと同時に、エフェクト設定ダイアログ190に現在設定されているエフェクトが、自動的にエフェクトライン135に貼り付けられる。また、そのエフェクトの期間として、オーバレイビデオライン136に貼り付けられたイベント「007」の期間に対応する期間が設定される。   First, when the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D, an icon shadow 192G as shown in FIG. 33A is displayed on the timeline 95. When the shadow 192G of this icon is dropped at a desired position on the overlay video line 136, the event “007” dragged and dropped from the log window 93 is pasted on the overlay video line 136 as shown in FIG. 33B. . At the same time, the effect currently set in the effect setting dialog 190 is automatically pasted to the effect line 135. Further, as a period of the effect, a period corresponding to the period of the event “007” pasted on the overlay video line 136 is set.

このように、オーバレイビデオライン136に所望のイベントを貼り付けるだけで、タイムラインのエフェクトライン135に自動的にエフェクトが設定されることによって、一層操作性を向上させることができる。   As described above, by simply pasting a desired event on the overlay video line 136, an effect is automatically set on the effect line 135 of the timeline, so that the operability can be further improved.

図33Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータ2のCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「002」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、同じイベント「007」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部3Bは、このモディファイエフェクトに設定されたトランジション時間及び各種のエフェクトパラメータに応じたエフェクトを実行するように、特殊効果ブロック53を制御する。   When executing the animation effect as shown in FIG. 33B, in response to the control signal from the CPU 21 of the computer 2, the matrix switcher unit 3B of the editing processing device 3 receives the video signal of the material “event” 002. The cross point is switched so that the video signal of the same event “007” is set as the signal S24 output from the output terminal OUT7. Further, in response to a control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing device 3 executes a special effect so as to execute an effect corresponding to the transition time and various effect parameters set in the modify effect. The effect block 53 is controlled.

次に、先に貼ったエフェクトを、後から貼るクリップと同じ長さにする場合について、図34A及び図34Bを参照して説明する。   Next, the case where the effect pasted is made the same length as the clip pasted later will be described with reference to FIGS. 34A and 34B.

まず、編集オペレータが、図34Aに示すように、ダイアログ190において選択されたアニメーションエフェクトのアイコン191Bを、タイムライン95のエフェクトライン135上にマウス2Dによってドラッグし、所望にイベントの上にになるようにドロップすることによって、エフェクトライン135上に所望のエフェクト192Kを貼り付ける。   First, as shown in FIG. 34A, the editing operator drags the icon 191B of the animation effect selected in the dialog 190 onto the effect line 135 of the timeline 95 with the mouse 2D so that it is over the event as desired. The desired effect 192K is pasted on the effect line 135.

次に、編集オペレータが、図34Aに示すように、ログウィンドウに表示されたクリップカード179をマウス2Dによってタイムライン上にドラッグする。そして、図34Bに示すように、ドラッグしたクリップカードをタイムラインのオーバレイビデオライン136にドロップすると、所望にイベント192Lがオーバレイビデオライン136に貼り付けられる。そして、このフォアグランド画像として貼り付けられたイベント192Lの期間に応じて、先に貼り付けられたエフェクト192Kの期間が変更され、その結果、エフェクトライン135には、この後に貼り付けられたイベント192Lの期間に対応した期間を有したエフェクト192Mが表示される。つまり、後に貼り付けられたイベント192Lの期間に応じて、エフェクト192Mのトランジション期間が変更される。   Next, as shown in FIG. 34A, the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D. Then, as shown in FIG. 34B, when the dragged clip card is dropped on the overlay video line 136 of the timeline, the event 192L is pasted on the overlay video line 136 as desired. Then, the period of the effect 192K previously pasted is changed according to the period of the event 192L pasted as the foreground image, and as a result, the event 192L pasted in the effect line 135 is changed. The effect 192M having a period corresponding to the period is displayed. That is, the transition period of the effect 192M is changed according to the period of the event 192L pasted.

このようにして、このフォアグランド画像として貼り付けられたイベント192Lの期間に応じて、先に貼り付けられたエフェクトの期間を自動的に変更することによって、エフェクトの期間を再設定する必要がないので、編集操作性を向上させることができる。   In this way, it is not necessary to reset the effect period by automatically changing the period of the effect pasted in accordance with the period of the event 192L pasted as the foreground image. Therefore, editing operability can be improved.

図34Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータ2のCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「002」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、同じイベント「002」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部3Bは、このピクチャインピクチャエフェクトに設定されたトランジション時間及び各種のエフェクトパラメータに応じたエフェクトを実行するように、スイッチャブロック52を制御する。   When executing the animation effect as shown in FIG. 34B, in response to the control signal from the CPU 21 of the computer 2, the matrix switcher unit 3B of the editing processing device 3 receives the video signal of the material “event” 002. The cross point is switched so that the video signal of the same event “002” is set as the signal S24 output from the output terminal OUT7. Further, in response to a control signal from the CPU 21 of the computer, the image processing unit 3B of the editing processing device 3 executes an effect corresponding to the transition time set for the picture-in-picture effect and various effect parameters. The switcher block 52 is controlled.

次に、後から貼るクリップを、先に貼ったエフェクトと同じ長さにする場合について、図35A及び図35Bを参照して説明する。   Next, a case where a clip to be applied later is made the same length as the effect applied earlier will be described with reference to FIGS. 35A and 35B.

まず、編集オペレータが、図35Aに示すように、ダイアログ190において選択されたアニメーションエフェクトのアイコン191Bを、タイムライン95のエフェクトライン135上にマウス2Dによってドラッグし、所望にイベントの上にになるようにドロップすることによって、エフェクトライン135上に所望のエフェクト192Oを貼り付ける。   First, as shown in FIG. 35A, the editing operator drags the animation effect icon 191B selected in the dialog 190 onto the effect line 135 of the timeline 95 with the mouse 2D so that it is over the event as desired. The desired effect 192O is pasted on the effect line 135.

次に、編集オペレータが、図35Aに示すように、ログウィンドウに表示されたクリップカード179をマウス2Dによってタイムライン上にドラッグする。そして、図35Bに示すように、ドラッグしたクリップカードをタイムラインのエフェクトライン135の先に貼られたエフェクト192Oに重なるようにドロップすると、イベント192Pがオーバレイビデオライン136に貼り付けられる。そして、先に貼り付けられたエフェクト192Oの期間に応じて、このフォアグランド画像として貼り付けられたイベント192Nの期間が変更され、その結果、オーバレイビデオライン136には、この先に貼り付けられたエフェクト192Oの期間に対応した期間を有したイベント192Pが表示される。つまり、この先に貼り付けられたエフェクト192Oの期間と、後に貼られたイベント192Pの期間とが一致するように、イベント192Pのアウト点が変更されるということである。   Next, as shown in FIG. 35A, the editing operator drags the clip card 179 displayed in the log window onto the timeline with the mouse 2D. Then, as shown in FIG. 35B, when the dragged clip card is dropped so as to overlap the effect 192O pasted on the timeline effect line 135, the event 192P is pasted on the overlay video line 136. Then, the period of the event 192N pasted as the foreground image is changed according to the period of the effect 192O pasted earlier, and as a result, the effect pasted on the overlay video line 136 is changed. An event 192P having a period corresponding to the period of 192O is displayed. In other words, the out point of the event 192P is changed so that the period of the effect 192O pasted earlier matches the period of the event 192P pasted later.

このようにして、この先に貼り付けられたエフェクト期間と、後に貼られたイベントの期間とが一致するようにすることによって、イベントの期間を変更する作業を省略することができるので、編集操作性を向上させることができる。   In this way, by making the effect period pasted earlier match the event period pasted later, the work of changing the event period can be omitted. Can be improved.

図35Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータのCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「006」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、イベント「003」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部は、このモディファイエフェクトに設定されたトランジション時間及び各種のエフェクトパラメータに応じたエフェクトを実行するように、特殊効果ブロック53を制御する。   When executing the animation effect as shown in FIG. 35B, in response to the control signal from the CPU 21 of the computer, the matrix switcher unit 3B of the editing processing device 3 receives the video signal of the material “event” 006, The cross point is switched so as to set the signal S26 output from the output terminal OUT9 and set the video signal of the material “003” as the signal S24 output from the output terminal OUT7. Further, in response to the control signal from the CPU 21 of the computer, the image processing unit of the editing processing device 3 executes the special effect so as to execute the effect according to the transition time set for the modify effect and various effect parameters. The block 53 is controlled.

次に、タイムライン95を使用して、エフェクトをタイムライン95に貼り付ける方法について、図36A及び図36Bを参照して説明する。   Next, a method of attaching an effect to the timeline 95 using the timeline 95 will be described with reference to FIGS. 36A and 36B.

まず、編集オペレータが、ビューアウィンドウ92のTLボタン126をクリック入力するとタイムライン制御モードに切り換わる。このタイムライン制御モードとは、タイムライン95とビューアウィンドウ92を時間的に関連つけた制御モードである。従って、タイムライン95におけるナウライン139の表示位置のタイムコードに対応するビデオ画像が、ビューアウィンドウ92のビューア106に表示される。   First, when the editing operator clicks and inputs the TL button 126 in the viewer window 92, the timeline control mode is switched. This timeline control mode is a control mode in which the timeline 95 and the viewer window 92 are temporally related. Accordingly, a video image corresponding to the time code of the display position of the now line 139 in the time line 95 is displayed on the viewer 106 of the viewer window 92.

編集オペレータが、ファイルの所望フレームをサーチするために、デバイスコントロール部96のスライダ部120を操作すると、それに伴ってナウライン139は、タイムライン95上を移動する。つまり、編集オペレータが再生やジョグ走行等のデバイスコントロールを行うと、コンピュータ2は、ナウライン139がタイムライン95上を右に移動するように、モニタ2Dに表示されるグラフィカルユーザインターフェース90を変更し、これと連動してビューアウィンドウ92のビューア106にビデオ画像が表示されるように、各ソースデバイスを制御する。   When the editing operator operates the slider unit 120 of the device control unit 96 to search for a desired frame of the file, the now line 139 moves on the timeline 95 accordingly. That is, when the editing operator performs device control such as playback or jog running, the computer 2 changes the graphical user interface 90 displayed on the monitor 2D so that the nowline 139 moves to the right on the timeline 95, In conjunction with this, each source device is controlled so that a video image is displayed on the viewer 106 of the viewer window 92.

次に、編集オペレータが、ビューアウィンドウ92のビューア106に表示されたビデオイメージを見ながら、所望の位置にてマークインボタン115をクリックすると、CPU21は、マークインボタン115が押されたときに、タイムライン95上においてナウライン139が存在している位置に、イン点ポイントを示すフラグ166Cとマークライン166Cを表示する。   Next, when the editing operator clicks the mark-in button 115 at a desired position while watching the video image displayed on the viewer 106 of the viewer window 92, the CPU 21 determines when the mark-in button 115 is pressed. A flag 166C indicating the in-point and a mark line 166C are displayed at a position where the now line 139 exists on the time line 95.

また、このイン点がマーキングされたタイミングにおいて、ビューアウィンドウ92上のイン点表示欄110には、ビューア106に表示されているフレームのスタンプピクチャでは無くて、タイムライン制御モードにおいてイン点がマーキングされたことを示すために、フラグ116Cのような画像が表示される。   At the timing when the In point is marked, the In point display field 110 on the viewer window 92 is marked with the In point in the timeline control mode, not the stamp picture of the frame displayed on the viewer 106. In order to show that, an image like the flag 116C is displayed.

さらに、編集オペレータが、デバイスコントロール部96のスライダ部120を操作してファイルをサーチし、所望の位置にてマークアウトボタン116をクリックすると、CPU21は、マークアウトボタン116が押されたときに、タイムライン95上においてナウライン139が存在している位置に、アウト点ポイントを示すフラグ166Bとマークライン166Dを表示する。   Further, when the editing operator searches the file by operating the slider unit 120 of the device control unit 96 and clicks the markout button 116 at a desired position, the CPU 21 determines that when the markout button 116 is pressed, A flag 166B and a mark line 166D indicating the out point are displayed at a position where the now line 139 exists on the time line 95.

また、このアウト点がマーキングされたタイミングにおいて、ビューアウィンドウ92上のアウト点表示欄112には、ビューア106に表示されているフレームのスタンプピクチャでは無くて、タイムライン制御モードにおいてアウト点がマーキングされたことを示すために、フラグ116Dのような画像が表示される。   In addition, at the timing when the out point is marked, the out point display column 112 on the viewer window 92 is marked with the out point in the timeline control mode, not the stamp picture of the frame displayed on the viewer 106. In order to indicate that, an image such as flag 116D is displayed.

次に、編集オペレータは、図36Bに示すように、ログウィンドウ93のクリップカード179の中から所望のクリップカード179をマウス2Dによってドラッグし、設定したイン点のマークライン166Cとアウト点のマークライン166Dの間のオーバレイビデオライン136上にドロップする。その結果、オーバレイビデオライン136上のマークライン166C及びマークライン166Dの間に、ログウィンドウ93からドロップされたイベントが挿入される。また、図36Bに示すように、ステップSP407において設定されているエフェクトが、自動的に、エフェクトライン135上のマークライン166C及びマークライン166Dの間に、挿入される。   Next, as shown in FIG. 36B, the editing operator drags the desired clip card 179 from the clip card 179 in the log window 93 with the mouse 2D, and sets the in-point mark line 166C and the out-point mark line. Drop on overlay video line 136 between 166D. As a result, the event dropped from the log window 93 is inserted between the mark line 166C and the mark line 166D on the overlay video line 136. Also, as shown in FIG. 36B, the effect set in step SP407 is automatically inserted between the mark line 166C and the mark line 166D on the effect line 135.

もし、ログウンドウ93からドロップされるクリップのデュレーションと、マークライン166C及びマークライン166Dによって規定されるデュレーションとが異なる場合には、マークライン166C及びマークライン166Dによって規定されるデュレーションよ優先させるようにしている。つまり、マークライン166C及びマークライン166Dによって規定されるデュレーションに従って、ログウンドウ93からドロップされるクリップのアウト点のタイムコードを補正するようすることによって、マークライン166C及びマークライン166Dによって規定されるデュレーションに対して、ログウンドウ93からドロップされるクリップのデュレーションとを一致させることができる。   If the duration of the clip dropped from the log window 93 is different from the duration defined by the mark line 166C and the mark line 166D, priority is given to the duration defined by the mark line 166C and the mark line 166D. Yes. That is, by adjusting the time code of the out point of the clip dropped from the log window 93 according to the duration defined by the mark line 166C and the mark line 166D, the duration defined by the mark line 166C and the mark line 166D is obtained. On the other hand, the duration of the clip dropped from the log window 93 can be matched.

尚、図36A及び図36Bでは、オーバレイビデオライン136にイベントを貼る例を説明したが、同様に、他のライン(サブオーディオライン134、ボイスオーバライン138A、138B)にもクリップを貼ることができる。   In FIG. 36A and FIG. 36B, an example in which an event is pasted on the overlay video line 136 has been described. Similarly, clips can be pasted on other lines (sub audio line 134, voice overlines 138A, 138B). .

以上のような操作及び制御によって、既にタイムライン上に貼り付けられているバックグランドイベントの位置をタイムライン上で見ながら、タイムライン95上においてエフェクト及びエフェクトに関するフォアグランドイベントの挿入される区間を設定することができる。また、既にタイムライン上に貼り付けられているバックグランドイベントのイン点及びアウト点等の編集点にこだわることなく、任意の位置及び期間にエフェクト及びフォアグランドイベントを貼り付けることができる。   Through the operation and control as described above, while viewing the position of the background event that has already been pasted on the timeline on the timeline, on the timeline 95, the section in which the foreground event related to the effect and the effect is inserted is displayed. Can be set. In addition, effects and foreground events can be pasted at arbitrary positions and periods without sticking to editing points such as in and out points of background events already pasted on the timeline.

ステップSP409のエフェクトの貼り付け処理及びフォアグランドイベントの貼り付け処理が終了すると、次のステップSP410に進む。   When the effect pasting process and the foreground event pasting process in step SP409 are completed, the process proceeds to the next step SP410.

ステップSP410において、編集オペレータの制御にしたがって、コンピュータ2のCPU21は、タイムライン95上に作成したプログラムをプレビューするプレビュー処理を実行する。具体的には、編集オペレータが、プレビューボタン「PVW」123Bをクリックすると、タイムライン95のナウライン139の位置からプレビューが開始される。プレビュー中は、コンピュータ2の制御によって、タイムライン95上のプログラムに対応した映像及び音声がローカルストレージ8から再生される。さらに、コンピュータ2の制御によって、タイムライン95上のプログラムに対応した映像処理及び音声処理が行われるように、編集処理装置3は、供給された映像素材及び音声素材を処理し、コンピュータ2に出力する。コンピュータ2のCPU21は、供給された映像がビューアウィンドウ92のビューア106に表示するように表示コントローラ23を制御すると共に、その表示されている映像と対応するように、タイムライン95上においてナウライン139のタイムライン95上における位置を可変するように表示コントローラ23を制御する。   In step SP410, under the control of the editing operator, the CPU 21 of the computer 2 executes a preview process for previewing the program created on the timeline 95. Specifically, when the editing operator clicks the preview button “PVW” 123B, the preview starts from the position of the now line 139 in the timeline 95. During the preview, the video and audio corresponding to the program on the timeline 95 are reproduced from the local storage 8 under the control of the computer 2. Further, the editing processing device 3 processes the supplied video material and audio material so that the video processing and audio processing corresponding to the program on the timeline 95 are performed under the control of the computer 2, and outputs to the computer 2. To do. The CPU 21 of the computer 2 controls the display controller 23 so that the supplied video is displayed on the viewer 106 of the viewer window 92, and the current line 139 is displayed on the timeline 95 so as to correspond to the displayed video. The display controller 23 is controlled to change the position on the timeline 95.

ナウライン139が、ビューアウィンドウ92のビューア106に表示されている映像と対応するように移動しているので、編集オペレータは、ビューアウィンドウ92のビューア106に表示されている映像を見ながら、ビューア106に表示されている映像が、タイムライン95上に作成されたプログラムのどの位置の映像であるのかを容易に把握できると共に、タイムライン95上に作成されたプログラムのどの位置までビューイングが終了したかを容易に把握することができる。   Since the now line 139 has moved so as to correspond to the video displayed on the viewer 106 of the viewer window 92, the editing operator can view the video displayed on the viewer 106 of the viewer window 92 while viewing the video displayed on the viewer 106. It is possible to easily grasp which position of the program created on the timeline 95 the displayed video is, and to which position of the program created on the timeline 95 the viewing has been completed. Can be easily grasped.

次に、このプレビューのときの編集処理装置3の処理について、図37を参照して詳しく説明する。図37Aから図37Cは、プレビューを実行しているときのあるタイミングにおけるタイムラインの様子を表している図である。   Next, the processing of the editing processing device 3 during the preview will be described in detail with reference to FIG. FIG. 37A to FIG. 37C are diagrams showing the state of the timeline at a certain timing when the preview is executed.

図37は、イベントE0とイベントE1との間にトランジションエフェクト「Wipe」が指定されている例を示している。図37Aから図37Cは、プレビューを実行中のあるタイミングにおけるタイムラインの様子をそれぞれ表している図である。   FIG. 37 shows an example in which the transition effect “Wipe” is designated between the event E0 and the event E1. FIG. 37A to FIG. 37C are diagrams respectively showing the state of the timeline at a certain timing during execution of the preview.

図37Aは、エフェクト実行前であって、イベントE0が再生されている状態を示している。このときには、コンピュータ2は、このイベントE0をバックグランドイベントとして処理するように編集処理装置3を制御する。このイベントE0の信号がローカルストレージからの出力信号S13Aとして編集処理装置3のマトリクススイチャ部3Bの入力端子IN4に供給されている場合を例にあげて、この時の編集処理装置3の制御をより詳しく説明する。   FIG. 37A shows a state in which the event E0 is being played before the effect is executed. At this time, the computer 2 controls the editing processing device 3 so as to process this event E0 as a background event. Taking the case where the signal of the event E0 is supplied as an output signal S13A from the local storage to the input terminal IN4 of the matrix switcher unit 3B of the editing processing device 3, the control of the editing processing device 3 at this time is controlled. This will be described in more detail.

編集処理装置3のシステムコントロール部3Aは、まず、入力端子IN4と出力端子OUT9を接続するためのクロスポイントP49をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN4に供給されたイベントE0のビデオ信号S13Aは、出力端子OUT9から出力ビデオ信号S26として出力され、画像処理部3Cに供給される。   First, the system control unit 3A of the editing processing device 3 controls the matrix switcher unit 3B to activate the cross point P49 for connecting the input terminal IN4 and the output terminal OUT9. As a result, the video signal S13A of the event E0 supplied to the input terminal IN4 is output as the output video signal S26 from the output terminal OUT9 and supplied to the image processing unit 3C.

出力端子OUT9から出力された出力信号S26は、画像処理部3Cのデマルチプレクサ51Dに供給される。デマルチプレクサ51Dは、SDIフォーマットのデータのペイロード部からディジタルビデオ信号のみを抽出する。画像処理部3Cにおいて、ディジタルビデオ信号は、スイッチャブロック52、特殊効果ブロック53及びミキサブロック54を介して出力ビデオ信号S32として出力される。   The output signal S26 output from the output terminal OUT9 is supplied to the demultiplexer 51D of the image processing unit 3C. The demultiplexer 51D extracts only the digital video signal from the payload portion of the SDI format data. In the image processing unit 3C, the digital video signal is output as an output video signal S32 through the switcher block 52, the special effect block 53, and the mixer block 54.

画像処理部3Cから出力されたディジタルビデオ信号S32は、再びマトリックススイッチャ部3Bの入力端子IN10に供給される。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN10と出力端子OUT5を接続するためのクロスポイントP105をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN10に供給されたディジタルビデオ信号S32は、アウトプットプロセッサ46を介して出力端子OUT5からディジタルビデオ信号S2としてコンピュータ2に出力される。   The digital video signal S32 output from the image processing unit 3C is supplied again to the input terminal IN10 of the matrix switcher unit 3B. The CPU 21 controls the matrix switcher unit 3B via the system control unit 3A of the editing processing device 3 so as to activate the cross point P105 for connecting the input terminal IN10 and the output terminal OUT5. As a result, the digital video signal S32 supplied to the input terminal IN10 is output to the computer 2 as the digital video signal S2 from the output terminal OUT5 via the output processor 46.

編集処理装置3から出力されたディジタルビデオ信号S2は、コンピュータ2のビデオプロセッサ22に供給され、表示コントローラ23を介してコンピュータモニタ2Bビューアウィンドウ92に表示される。その結果、ローカルストレージ8から再生信号S13Aとして再生されたイベントE0のビデオ信号が、ビューアウィンドウに表示される。   The digital video signal S2 output from the editing processing device 3 is supplied to the video processor 22 of the computer 2 and displayed on the computer monitor 2B viewer window 92 via the display controller 23. As a result, the video signal of event E0 reproduced from the local storage 8 as the reproduction signal S13A is displayed in the viewer window.

図37Bは、図37Aに示した状態よりさらにプレビューが進んだ状態を示し、イベントE0とイベントE1の間に設定されたトランジションエフェクト「Wipe」が実行され始めるタイミングを示している。   FIG. 37B shows a state in which the preview has advanced further than the state shown in FIG. 37A, and shows the timing at which the transition effect “Wipe” set between the event E0 and the event E1 starts to be executed.

このタイミングにおいて、コンピュータ2は、このイベントE0をバックグランドイベントとして処理し、イベントE1をフォアグランドイベントとして処理するように編集処理装置3を制御する。先ほどと同じように、このイベントE0の信号がローカルストレージからの出力信号S13Aとして編集処理装置3のマトリクススイチャ部3Bの入力端子IN4に供給され、イベントE1の信号がローカルストレージからの出力信号S13Bとして編集処理装置3のマトリクススイチャ部3Bの入力端子IN5に供給されている場合を例にあげて、この時の編集処理装置3の制御をより詳しく説明する。   At this timing, the computer 2 controls the editing processing device 3 so as to process the event E0 as a background event and to process the event E1 as a foreground event. As before, the signal of event E0 is supplied as an output signal S13A from the local storage to the input terminal IN4 of the matrix switcher unit 3B of the editing processing device 3, and the signal of event E1 is output from the local storage. As an example, the control of the editing processing device 3 at this time will be described in more detail by taking as an example a case where the editing processing device 3 is supplied to the input terminal IN5 of the matrix switcher unit 3B.

編集処理装置3のマトリクススイチャ部3Bは、イベントE0のビデオ信号を画像処理装置3Cに供給するために、クロスポイントの制御は行わなくてよい。なぜなら、コンピュータ2によって、イベントE0は既にバックグランンドイベントとして処理されるように編集処理装置3が制御されているので、マトリックススイッチャ部3BのクロスポイントP49をアクティブにしておけば、入力端子IN4に供給されたイベントE0のビデオ信号S13Aは、出力端子OUT9から出力ビデオ信号S26として画像処理部3Cに出力されるからである。   The matrix switcher unit 3B of the editing processing device 3 does not need to control the cross point in order to supply the video signal of the event E0 to the image processing device 3C. Because the editing processing device 3 is controlled by the computer 2 so that the event E0 is already processed as a background event, if the cross point P49 of the matrix switcher unit 3B is made active, it is connected to the input terminal IN4. This is because the supplied video signal S13A of event E0 is output from the output terminal OUT9 to the image processing unit 3C as the output video signal S26.

画像処理部3Cに出力信号S26として供給されたイベントE0のビデオ信号は、デマルチプレクサ51Dを介して、スイッチャブロック52のビデオ信号処理回路52Fに供給される。ビデオ信号処理回路52Eは、供給されたイベントE0のビデオ信号に対して、ワイプ信号発生回路52Bからのワイプ制御信号に基づいて、ワイプ効果を施す処理を行う。ワイプ処理されたイベントE0のビデオ信号は、ミキサ回路54Bに供給される。   The video signal of event E0 supplied as the output signal S26 to the image processing unit 3C is supplied to the video signal processing circuit 52F of the switcher block 52 via the demultiplexer 51D. The video signal processing circuit 52E performs a process of applying a wipe effect to the supplied video signal of the event E0 based on the wipe control signal from the wipe signal generation circuit 52B. The wiped video signal of the event E0 is supplied to the mixer circuit 54B.

尚、イベントE0に関するキー信号は、イベントE0のビデオ信号に対するマトリックススイッチャ部3Bにおけるルーティング処理及びビデオ信号処理回路52Fにおけるワイプ処理と同じように、マトリックススイッチャ部3Bにおけるルーティング処理が行われ、さらに、キー信号処理回路52Dにおけるワイプ処理が行われる。   The key signal related to the event E0 is subjected to the routing process in the matrix switcher unit 3B in the same manner as the routing process in the matrix switcher unit 3B and the wipe process in the video signal processing circuit 52F for the video signal of the event E0. Wipe processing is performed in the signal processing circuit 52D.

一方、ローカルストレージ8から再生されたイベントE1のビデオ信号をコンピュータ2に供給するため、編集処理装置3のシステムコントロール部3Aは、まず、入力端子IN5と出力端子OUT7を接続するためのクロスポイントP57をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN5に供給されたイベントE1のビデオ信号S13Bは、出力端子OUT7から出力ビデオ信号S24として出力され、画像処理部3Cに供給される。出力端子OUT7から出力された出力信号S26は、画像処理部3Cのデマルチプレクサ51Bに供給される。デマルチプレクサ51Bから出力されたイベントE1のビデオ信号は、スイッチャブロック52のビデオ信号処理回路52Eに供給される。ビデオ信号処理回路52Eは、供給されたイベントE1のビデオ信号に対して、ワイプ信号発生回路52Aからのワイプ制御信号に基づいて、ワイプ効果を施す処理を行う。ワイプ処理されたイベントE1のビデオ信号は、ミキサ回路54Bに供給される。   On the other hand, in order to supply the video signal of the event E1 reproduced from the local storage 8 to the computer 2, the system control unit 3A of the editing processing device 3 first has a cross point P57 for connecting the input terminal IN5 and the output terminal OUT7. The matrix switcher unit 3B is controlled so as to be active. As a result, the video signal S13B of the event E1 supplied to the input terminal IN5 is output as the output video signal S24 from the output terminal OUT7 and supplied to the image processing unit 3C. The output signal S26 output from the output terminal OUT7 is supplied to the demultiplexer 51B of the image processing unit 3C. The video signal of event E1 output from the demultiplexer 51B is supplied to the video signal processing circuit 52E of the switcher block 52. The video signal processing circuit 52E performs a process of applying a wipe effect to the video signal of the supplied event E1 based on the wipe control signal from the wipe signal generation circuit 52A. The wiped video signal of the event E1 is supplied to the mixer circuit 54B.

尚、イベントE1に関するキー信号は、イベントE1のビデオ信号に対するマトリックススイッチャ部3Bにおけるルーティング処理及びビデオ信号処理回路52Eにおけるワイプ処理と同じように、マトリックススイッチャ部3Bにおけるルーティング処理が行われ、さらに、キー信号処理回路52Cにおけるワイプ処理が行われる。   The key signal related to the event E1 is subjected to the routing process in the matrix switcher unit 3B in the same manner as the routing process in the matrix switcher unit 3B and the wipe process in the video signal processing circuit 52E for the video signal of the event E1, Wipe processing is performed in the signal processing circuit 52C.

ミキサ回路54Bは、ワイプ処理されたイベントE1のビデオ信号と、ワイプ処理されたイベントE0のビデオ信号とをミックスし、ミックスした信号を出力信号S32として出力する。
画像処理部3Cから出力されたディジタルビデオ信号S32は、再びマトリックススイッチャ部3Bを介して、コンピュータ2に供給される。その結果、ローカルストレージ8から再生されたイベントE0の映像とイベントE1の映像とに基づいて生成されたワイプ映像が、ビューアウィンドウ92に表示される。
The mixer circuit 54B mixes the wiped event E1 video signal and the wiped event E0 video signal, and outputs the mixed signal as an output signal S32.
The digital video signal S32 output from the image processing unit 3C is supplied to the computer 2 again via the matrix switcher unit 3B. As a result, a wipe video generated based on the video of the event E0 and the video of the event E1 reproduced from the local storage 8 is displayed in the viewer window 92.

図37Cは、図37Bに示した状態よりさらにプレビューが進んだ状態を示し、イベントE0とイベントE1の間に設定されたトランジションエフェクト「Wipe」が終了したタイミングを示している。   FIG. 37C shows a state in which the preview has advanced further than the state shown in FIG. 37B, and shows the timing at which the transition effect “Wipe” set between the event E0 and the event E1 ends.

ワイプ処理が行われているときには、コンピュータ2は、このイベントE0をバックグランドイベントとして処理し、イベントE1をフォアグランドイベントとして処理していたが、このワイプ処理が終了したタイミングにおいて、コンピュータ2は、イベントE0に代わって、イベントE1をバックグランドイベントとして処理するように編集処理装置3を制御する。この時の編集処理装置3の制御をより詳しく説明する。   When the wipe process is being performed, the computer 2 processes the event E0 as a background event and the event E1 as a foreground event. At the timing when the wipe process ends, the computer 2 Instead of the event E0, the editing processing device 3 is controlled so that the event E1 is processed as a background event. The control of the editing processing device 3 at this time will be described in more detail.

まず、編集処理装置3のマトリクススイチャ部3Bは、イベントE0のビデオ信号を画像処理装置3C及びコンピュータ2に供給する必要がないので、いままでアクティブであった入力端子IN4と出力端子OUT9を接続するためのクロスポイントP49を、インアクティブに変更する。その結果、入力端子IN4に供給されたイベントE0のビデオ信号S13Aは、出力端子OUT9から出力されなくなる。一方、イベントE0の代わりに、イベントE1をバックグランドビデオとして処理しなければいけないので、編集処理装置3のマトリクススイチャ部3Bは、イベントE1の信号が供給されている入力端子IN5と出力端子OUT9とを接続するためのクロスポイントP59をアクティブにする。その結果、入力端子IN5に供給されているイベントE1のビデオ信号S13Bは、出力端子OUT9から出力される。   First, since the matrix switcher unit 3B of the editing processing device 3 does not need to supply the video signal of the event E0 to the image processing device 3C and the computer 2, it connects the input terminal IN4 and the output terminal OUT9 that have been active so far. To change the cross point P49 to be inactive. As a result, the video signal S13A of the event E0 supplied to the input terminal IN4 is not output from the output terminal OUT9. On the other hand, since the event E1 must be processed as a background video instead of the event E0, the matrix switcher unit 3B of the editing processing device 3 has an input terminal IN5 and an output terminal OUT9 to which the signal of the event E1 is supplied. The cross point P59 for connecting the two is made active. As a result, the video signal S13B of the event E1 supplied to the input terminal IN5 is output from the output terminal OUT9.

このように、エフェクトの実行タイミングに応じて、適切な信号が出力されるように編集処理装置3のマトリックススイッチャ部3Bのクロスポイントを自動的に制御しているので、編集オペレータはタイムライン95上に所望のプログラムを作成するだけで、作成したプログラムに対応したビデオプログラムを自動で作成することができる。   As described above, since the cross point of the matrix switcher unit 3B of the editing processing apparatus 3 is automatically controlled so that an appropriate signal is output in accordance with the execution timing of the effect, the editing operator is on the timeline 95. By simply creating a desired program, a video program corresponding to the created program can be created automatically.

このステップSP410におけるプレビュー処理の結果、満足のいくプログラムでなく、修正が必要であるのであれば次のステップSP411に進み、満足のいいくプログラムであれば、次のステップSP412に進む。   As a result of the preview processing in step SP410, if the program is not satisfactory and correction is necessary, the process proceeds to the next step SP411, and if the program is satisfactory, the process proceeds to the next step SP412.

ステップSP411では、編集オペレータの操作に従って、CPU21は、タイムライン95に貼り付けられたイベント及びエフェクトを修正する。   In step SP411, the CPU 21 corrects the event and the effect pasted on the timeline 95 according to the operation of the editing operator.

イベントを修正する場合には、まず、タイムライン95において修正を必要とするイベントをマウス2Dでダブルクリックする。CPU21は、ダブルクリックされたイベントをローカルストレージ8から再生し、ビューアウィンドウ92に表示するように、ローカルストレージ8及び編集処理装置3を制御する。また、CPU21は、ローカルストレージ8から再生された映像をビューアウィンドウ92のビューア106に表示すると共に、内部ハードディスクHDDに記憶されたイン点及びアウト点のスタンプピクチャをイン点画像表示部110及びアウト点画像表示部120にそれぞれ表示する。   When correcting an event, first, an event that needs to be corrected in the timeline 95 is double-clicked with the mouse 2D. The CPU 21 controls the local storage 8 and the editing processing device 3 so that the double-clicked event is reproduced from the local storage 8 and displayed on the viewer window 92. In addition, the CPU 21 displays the video reproduced from the local storage 8 on the viewer 106 of the viewer window 92 and displays the in-point and out-point stamp pictures stored in the internal hard disk HDD as the in-point image display unit 110 and the out-point. They are displayed on the image display unit 120, respectively.

クリップを作成したときと同じ要領で、必要に応じて、イン点及びアウト点の再設定、ビデオ及びオーディオレベル等の各種パラメータの再調整を行う。   In the same way as when the clip was created, reset the In and Out points and readjust various parameters such as video and audio levels as necessary.

所望の修正処理が終了し、編集オペレータは、ADDボタン122Aをクリックすると、CPU21は、修正されたイベントに関する情報を、タイムライン95上の古いイベントの情報にオーバライトすると共に、タイムライン95の表示を、古いイベントから修正されたイベントに変更する。   When the desired correction processing is completed and the editing operator clicks the ADD button 122A, the CPU 21 overwrites the information on the corrected event with the information on the old event on the timeline 95 and displays the timeline 95. From the old event to the modified event.

また、エフェクトを修正する場合には、まず、タイムライン95において修正を必要とするエフェクトをマウス2Dでダブルクリックする。CPU21は、ダブルクリックされたエフェクトを設定したエフェクト設定ダイアログ190をオープンする。   When correcting an effect, first, the effect requiring correction on the timeline 95 is double-clicked with the mouse 2D. The CPU 21 opens an effect setting dialog 190 in which the double clicked effect is set.

エフェクトを設定したときと同じ要領で、必要に応じて、エフェクト種類、トランジション時間及びモディファイパラメータ等の再設定を行う。   Reset the effect type, transition time, modification parameters, etc. as necessary in the same way as when the effect was set.

所望の修正が終了し、エフェクト設定ダイアログ190が閉じられると、CPU21は、修正されたエフェクトに関する情報を、古いエフェクトの情報にオーバライトすると共に、タイムライン95の表示を、古いエフェクトから修正されたエフェクトに変更する。   When the desired correction is completed and the effect setting dialog 190 is closed, the CPU 21 overwrites the information on the corrected effect with the information on the old effect, and the display of the timeline 95 is corrected from the old effect. Change to effect.

ステップSP412では、CPU21は、タイムライン95上に作成されたプログラムに従ってプログラムリスト(EDL)を作成し、そのEDLを内部ハードディスクHDDに設けされたEDLフォルダにファイルとして記録する。   In step SP412, the CPU 21 creates a program list (EDL) according to the program created on the timeline 95, and records the EDL as a file in an EDL folder provided in the internal hard disk HDD.

ステップSP412では、CPU21は、編集オペレータの指示に従って、完成ビデオプログラムを作成する。編集オペレータが、RECボタン123Dをクリックすると、図38のようなRECダイアログがオープンする。まず、編集オペレータは、完成ビデオプログラムを記録するための記録デバイスを、ローカルストレージ8、VTR7及びオンエアサーバ9の中から選択し、適切なファイル名を入力する。編集オペレータが、エグゼキュートボタン「Execute」をクリックすると、コンピュータ2は、プレビューのときと同じように、作成したプログラムリスト(EDL)又はタイムライン95上のプログラムに従って、ローカルストレージ8及び編集処理装置3を制御する。その結果、指定されたデバイス上に、完全ビデオプログラムが記録される。   In step SP412, the CPU 21 creates a completed video program in accordance with an instruction from the editing operator. When the editing operator clicks the REC button 123D, a REC dialog as shown in FIG. 38 is opened. First, the editing operator selects a recording device for recording the completed video program from the local storage 8, the VTR 7, and the on-air server 9, and inputs an appropriate file name. When the editing operator clicks the execute button “Execute”, the computer 2 performs the local storage 8 and the editing processing device 3 according to the created program list (EDL) or the program on the timeline 95 as in the preview. To control. As a result, the complete video program is recorded on the designated device.

以上のように、本発明の編集装置は、ソース素材をビューイングしながら編集点を決定することによってイベントを生成するためのビューアウィンドウと、ビューアウンドウにおいて設定されたイベントに関するクリップイメージを表示するログウィンドウと、複数のイベントを所望の順にタイムライン上に並べることによってプログラムリストを作成するプログラムウィンドウと、ビューアウィンドウと、ログウィンドウと、プログラムウィンドウを表示するディスプレイとを備え、タイムラインに並べられた各イベントのオーディオトラックに対してオーディオ専用コントローラに設けられたオーディオフェーダをアサインするためのフェーダアサインダイアログを表示し、フェーダアサインダイアログに設定された情報に基づいて、イベントの各オーディオトラックのレベルを制御することを特徴とするものである。   As described above, the editing apparatus of the present invention has a viewer window for generating an event by determining an editing point while viewing a source material, and a log for displaying a clip image related to the event set in the viewer window. A window, a program window for creating a program list by arranging a plurality of events on the timeline in a desired order, a viewer window, a log window, and a display for displaying the program window are arranged in the timeline. Displays the fader assignment dialog for assigning the audio fader provided in the audio dedicated controller to the audio track of each event, and based on the information set in the fader assignment dialog It is characterized in that to control the level of each audio track cement.

従って、本発明の編集装置によれば、専用コントローラによって、各イベントのオーディオトラックを個別に制御することができるとともに、イベントに応じて各トラックとフォーダレバーとの設定を任意に可変することができる。   Therefore, according to the editing apparatus of the present invention, the audio track of each event can be individually controlled by the dedicated controller, and the setting of each track and the forward lever can be arbitrarily changed according to the event. it can.

以上のように、本発明の編集方法は、ソース素材をビューアウィンドウでビューイングしながら編集点を決定することによってイベントを生成するステップと、ビューアウンドウにおいて設定されたイベントに関するクリップイメージをログウィンドウに表示するステップと、プログラムウィンドウに複数のイベントを所望の順にタイムライン上に並べることによってプログラムリストを作成するステップと、ビューアウィンドウと、ログウィンドウと、プログラムウィンドウをディスプレイに表示するステップとを備え、タイムラインに並べられた各イベントのオーディオトラックに対してオーディオ専用コントローラに設けられたオーディオフェーダをアサインするためのフェーダアサインダイアログを表示し、フェーダアサインダイアログに設定された情報に基づいて、イベントの各オーディオトラックのレベルを制御することを特徴とするものである。   As described above, according to the editing method of the present invention, an event is generated by determining an editing point while viewing source material in a viewer window, and a clip image related to the event set in the viewer window is displayed in a log window. A step of displaying, a step of creating a program list by arranging a plurality of events on the program window in a desired order on a timeline, a viewer window, a log window, and a step of displaying the program window on a display, Displays the fader assignment dialog for assigning the audio fader provided in the audio dedicated controller to the audio track of each event arranged on the timeline. Based on the information set in grayed, it is characterized in that to control the level of each audio track event.

従って、本発明の編集方法によれば、専用コントローラによって、各イベントのオーディオトラックを個別に制御することができるとともに、イベントに応じて各トラックとフォーダレバーとの設定を任意に可変することができる。   Therefore, according to the editing method of the present invention, the audio track of each event can be individually controlled by the dedicated controller, and the setting of each track and the forward lever can be arbitrarily changed according to the event. it can.

すなわち、本発明の編集装置及び方法は、即時性の求められるニュース番組の制作時に、ノンリニアの特徴であるランダムアクセス性を生かした素早い編集作業が行える。また、本発明の編集装置及び方法は、全ての編集カットのクリップ画と、入力画と、タイムラインなどがGUI上で一覧できると共に、並んだクリップを見ながら編集順序をきめたり、それを簡単に入れ替えることができる。また、本発明の編集装置及び方法は、多彩なエフェクト機能を設定することができるので、高速に表現力豊かな映像制作を行うことができる。   That is, the editing apparatus and method of the present invention can perform a quick editing operation utilizing the random accessibility, which is a non-linear characteristic, when producing a news program that requires immediateness. In addition, the editing apparatus and method of the present invention can list all editing cut clip images, input images, timelines, etc. on the GUI, determine the editing order while viewing the arranged clips, and simplify it. Can be replaced. In addition, since the editing apparatus and method of the present invention can set various effect functions, it is possible to produce a video with high expressiveness at high speed.

ニュース番組制作や報道番組制作において、本発明の編集装置及び方法を適用することによって、モザイク効果の追加や話者の声色の変更、取材現場の周辺ノイズの除去機能などの編集を、自分一人で行うことができる。また、本発明の編集装置及び方法は、これらの多彩なエフェクトを実現するために、コンピュータによるソフト上の処理とハードウエアの両方を最適になるように使用して、リアルタイムでの高速ディジタル画像編集及びオーディオ編集を実現できる。   By applying the editing apparatus and method of the present invention in news program production and news program production, editing by itself, such as adding a mosaic effect, changing the voice of a speaker, and removing noise around the interview site, etc. It can be carried out. Further, the editing apparatus and method of the present invention uses real-time high-speed digital image editing by optimizing both software processing and hardware by a computer in order to realize these various effects. And audio editing.

本発明を適用した編集装置を示すブロック図である。It is a block diagram which shows the editing apparatus to which this invention is applied. 編集装置を構成するコンピュータの内部構成を示すブロック図である。And FIG. 12 is a block diagram showing an internal configuration of a computer constituting the editing apparatus. 編集装置を構成する編集処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the edit processing apparatus which comprises an editing apparatus. 編集処理装置のシステムコントロール部の構成を示すブロック図である。It is a block diagram which shows the structure of the system control part of an edit processing apparatus. 編集処理装置のマトリクススイッチャ部の構成を示すブロック図である。It is a block diagram which shows the structure of the matrix switcher part of an edit processing apparatus. 編集処理装置の画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part of an edit processing apparatus. 編集処理装置の音声処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the audio | voice processing part of an edit processing apparatus. 編集装置に接続されるローカルストレージの構成を示すブロック図である。It is a block diagram which shows the structure of the local storage connected to an editing apparatus. ローカルストレージのディスクアレイブロックの構成を示すブロック図である。It is a block diagram which shows the structure of the disk array block of local storage. ディスクアレイブロックにおける動作を説明するための図である。It is a figure for demonstrating the operation | movement in a disk array block. ディスクアレイブロックにおける動作を説明するための図である。It is a figure for demonstrating the operation | movement in a disk array block. 編集用のグラフィックユーザインターフェース画面を説明するための図である。It is a figure for demonstrating the graphic user interface screen for edit. ビューアウィンドウを説明するための図である。It is a figure for demonstrating a viewer window. ログウィンドウを説明するための図である。It is a figure for demonstrating a log window. ログウィンドウにおけるクリップカードの表示形式を説明するための図である。It is a figure for demonstrating the display format of the clip card in a log window. プログラムウィンドウを説明するための略線図である。It is a basic diagram for demonstrating a program window. プログラムウィンドウを説明するための略線図である。It is a basic diagram for demonstrating a program window. デバイスアイコンを説明するための略線図である。It is a basic diagram for demonstrating a device icon. ファイル情報を説明するための図である。It is a figure for demonstrating file information. イベント登録処理の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of an event registration process. ファイル検索ダイアログを説明するための図である。It is a figure for demonstrating a file search dialog. ファイルリスト表示ダイアログを説明するための図である。It is a figure for demonstrating a file list display dialog. ビデオレベル設定ダイアログを説明するための図である。It is a figure for demonstrating a video level setting dialog. オーディオレベル設定ダイアログを説明するための図である。It is a figure for demonstrating an audio level setting dialog. ダウンロード設定ダイアログを説明するための図である。It is a figure for demonstrating a download setting dialog. シーン名設定ダイアログを説明するための図である。It is a figure for demonstrating a scene name setting dialog. プログラムリスト作成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a program list creation process. ミックスダウン設定用のダイアログを説明するための図である。It is a figure for demonstrating the dialog for a mixdown setting. フェーダアサイン用のダイアログを説明するための図である。It is a figure for demonstrating the dialog for fader assignment. エフェクト設定ダイアログを説明するための図である。It is a figure for demonstrating an effect setting dialog. タイムライン上でのエフェクト設定作業を説明するための図である。It is a figure for demonstrating the effect setting operation | work on a timeline. タイムライン上でのエフェクト設定作業を説明するための図である。It is a figure for demonstrating the effect setting operation | work on a timeline. タイムライン上でのエフェクト設定作業を説明するための図である。It is a figure for demonstrating the effect setting operation | work on a timeline. タイムライン上でのエフェクト設定作業を説明するための図である。It is a figure for demonstrating the effect setting operation | work on a timeline. タイムライン上でのエフェクト設定作業を説明するための図である。It is a figure for demonstrating the effect setting operation | work on a timeline. タイムライン上でのエフェクト設定作業を説明するための図である。It is a figure for demonstrating the effect setting operation | work on a timeline. プレビュー実行時におけるタイムライン上のナウラインの状態を説明するための図である。It is a figure for demonstrating the state of the now line on the timeline at the time of preview execution. 記録デバイスを設定するためのダイログを説明するための図である。It is a figure for demonstrating the dialog for setting a recording device.

符号の説明Explanation of symbols

1 編集装置
2 コンピュータ
2B モニタ
3 編集処理装置
6 デイリーサーバ
7 VTR
8 ローカルストレージ
9 オンエアバッファ
90 編集用画面
92 ビューアウィンドウ
93 ログウィンドウ
94 プログラムウィンドウ
95 ライムライン
96 デバイスコントロール部
102A〜102E ソース選択ボタン
110 イン点画像表示部
112 アウト点画像表示部
135 エフェクトライン
139 ナウライン
165A〜165E デバイスアイコン
179 クリップ
1 Editing Device 2 Computer 2B Monitor 3 Editing Processing Device 6 Daily Server 7 VTR
8 Local Storage 9 On-Air Buffer 90 Editing Screen 92 Viewer Window 93 Log Window 94 Program Window 95 Lime Line 96 Device Control Unit 102A-102E Source Selection Button 110 In Point Image Display Unit 112 Out Point Image Display Unit 135 Effect Line 139 Now Line 165A ~ 165E Device icon 179 clips

Claims (2)

ソース素材として供給されたビデオ信号及びオーディオ信号を編集するための編集装置において、
上記ソース素材をビューイングしながら編集点を決定することによってイベントを生成するためのビューアウィンドウと、
上記ビューアウィンドウにおいて設定されたイベントに関するクリップイメージを表示するログウィンドウと、
上記複数のイベントを所望の順にタイムライン上に並べることによってプログラムリストを作成するプログラムウィンドウと、
上記ビューアウィンドウと、上記ログウィンドウと、上記プログラムウィンドウを表示するディスプレイとを備え、
上記タイムラインに並べられた各イベントのオーディオトラックに対してオーディオ専用コーントローラに設けられたオーディオフェーダをアサインするためのフェーダアサインダイアログを表示し、
上記フェーダアサインダイアログに設定された情報に基いて、上記イベントの各オーディオトラックのレベルを制御する
ことを特徴とする編集装置。
In an editing device for editing a video signal and an audio signal supplied as source materials,
A viewer window for generating an event by determining an editing point while viewing the source material;
A log window displaying a clip image related to the event set in the viewer window;
A program window for creating a program list by arranging the plurality of events on a timeline in a desired order; and
The viewer window, the log window, and a display for displaying the program window,
Display the fader assignment dialog to assign the audio fader provided in the audio dedicated cone track to the audio track of each event arranged on the timeline,
An editing apparatus for controlling a level of each audio track of the event based on information set in the fader assign dialog.
ソース素材を編集するための編集方法において、
上記ソース素材をビューアウィンドウでビューイングしながら編集点を決定することによってイベントを生成するステップと、
上記ビューアウィンドウにおいて設定されたイベントに関するクリップイメージをログウィンドウに表示するステップと、
プログラムウィンドウに上記複数のイベントを所望の順にタイムライン上に並べることによってプログラムリストを作成するステップと、
上記ビューアウィンドウと、上記ログウィンドウと、上記プログラムウィンドウをディスプレイに表示するステップとを備え、
上記タイムラインに並べられた各イベントのオーディオトラックに対してオーディオ専用コーントローラに設けられたオーディオフェーダをアサインするためのフェーダアサインダイアログを表示し、
上記フェーダアサインダイアログに設定された情報に基いて、上記イベントの各オーディオトラックのレベルを制御する
ことを特徴とする編集方法。
In the editing method for editing the source material,
Generating an event by determining edit points while viewing the source material in a viewer window;
Displaying a clip image related to the event set in the viewer window in a log window;
Creating a program list by arranging the plurality of events on a timeline in a desired order in a program window;
Displaying the viewer window, the log window, and the program window on a display;
Display the fader assignment dialog to assign the audio fader provided in the audio dedicated cone track to the audio track of each event arranged on the timeline,
An editing method, wherein the level of each audio track of the event is controlled based on information set in the fader assign dialog.
JP2007166155A 1997-04-12 2007-06-25 Editing device and editing method Pending JP2007317352A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007166155A JP2007317352A (en) 1997-04-12 2007-06-25 Editing device and editing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11030797 1997-04-12
JP2007166155A JP2007317352A (en) 1997-04-12 2007-06-25 Editing device and editing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP54372798A Division JP4536164B2 (en) 1997-04-12 1998-04-13 Editing apparatus and editing method

Publications (1)

Publication Number Publication Date
JP2007317352A true JP2007317352A (en) 2007-12-06

Family

ID=38851049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007166155A Pending JP2007317352A (en) 1997-04-12 2007-06-25 Editing device and editing method

Country Status (1)

Country Link
JP (1) JP2007317352A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016514335A (en) * 2013-02-07 2016-05-19 スコア アディクション ピーティーワイ リミテッド System and method for enabling interaction with multi-channel media files
CN112381907A (en) * 2020-11-12 2021-02-19 上海哔哩哔哩科技有限公司 Multimedia track drawing method and system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016514335A (en) * 2013-02-07 2016-05-19 スコア アディクション ピーティーワイ リミテッド System and method for enabling interaction with multi-channel media files
CN112381907A (en) * 2020-11-12 2021-02-19 上海哔哩哔哩科技有限公司 Multimedia track drawing method and system
CN112381907B (en) * 2020-11-12 2023-04-18 上海哔哩哔哩科技有限公司 Multimedia track drawing method and system

Similar Documents

Publication Publication Date Title
JP4536164B2 (en) Editing apparatus and editing method
US20030091329A1 (en) Editing system and editing method
US5801685A (en) Automatic editing of recorded video elements sychronized with a script text read or displayed
US6952221B1 (en) System and method for real time video production and distribution
US8560951B1 (en) System and method for real time video production and distribution
US6670966B1 (en) Edit data creating device and edit data creating method
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
US7024677B1 (en) System and method for real time video production and multicasting
US6441832B1 (en) Hierarchical processing apparatus and hierarchical processing method for video and audio data
JP4229199B2 (en) Editing apparatus and editing method
US20060168521A1 (en) Edition device and method
EP1262063B1 (en) System for real time video production and multicasting
JP4588126B2 (en) Editing system and editing method
KR100603173B1 (en) Editing apparatus and editing method
JP4172525B2 (en) Editing apparatus and editing method
KR100603161B1 (en) Editing system and editing method
JP2007317352A (en) Editing device and editing method
JP4174718B2 (en) Editing apparatus and editing method
JP3951196B2 (en) Editing device
JPH10283759A (en) Editing apparatus
JPH10290419A (en) Editor
JPH1051734A (en) Dynamic image compiling device/method
JPH10290417A (en) Editor
JPH10290393A (en) Editing device
JP4051648B2 (en) Editing apparatus and editing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722