JPH10285457A - Edit device - Google Patents

Edit device

Info

Publication number
JPH10285457A
JPH10285457A JP8703597A JP8703597A JPH10285457A JP H10285457 A JPH10285457 A JP H10285457A JP 8703597 A JP8703597 A JP 8703597A JP 8703597 A JP8703597 A JP 8703597A JP H10285457 A JPH10285457 A JP H10285457A
Authority
JP
Japan
Prior art keywords
signal
audio
video
circuit
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8703597A
Other languages
Japanese (ja)
Inventor
Motomu Ueda
求 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP8703597A priority Critical patent/JPH10285457A/en
Publication of JPH10285457A publication Critical patent/JPH10285457A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To simplify a device and to reduce cost by using a video signal mixed with an audio signal, so as to place a video-processing section and an audio- processing section in a same case. SOLUTION: An embedded audio/video signal is reproduced from VTRs 71A-71n and the signal is fed to an edit processing unit 72. A signal which is fed to a video processor circuit 72B via an A/V matrix circuit 72A is given to a blanking circuit included in the circuit 72B, where the audio signal is deleted and only the video signal is extracted, and video effect processing is applied to the video signal. The audio signal is extracted from the signal supplied via the circuit 72A in an audio separator circuit 72C, and the audio processor circuit 72D applies audio effect processing to the audio signal. The audio signal is superimposed on the video signal in an A/V combiner 72E, in which the embedded audio/video signal is generated and from which the signal is outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【目次】以下の順序で本発明を説明する。[Table of Contents] The present invention will be described in the following order.

【0002】発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態 発明の効果BACKGROUND OF THE INVENTION Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention Effects of the Invention

【0003】[0003]

【発明の属する技術分野】この発明は、伝送される音声
混入映像信号を用いてビデオ信号及びオーディオ信号を
編集することができる編集装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an editing apparatus that can edit a video signal and an audio signal using a transmitted audio mixed video signal.

【0004】[0004]

【従来の技術】従来、編集装置としては、映像及び音声
を記録する記録手段としてビデオテープレコーダ(以
下、これを略してVTRと呼ぶ)を用いたものが提案さ
れている。このような編集装置においては、素材として
の映像及び音声をVTRに記録しておき、当該VTRか
ら所望の映像及び音声を読み出して使用することにより
編集を行うようになされている。
2. Description of the Related Art Hitherto, as an editing apparatus, an editing apparatus using a video tape recorder (hereinafter, abbreviated as VTR) as a recording means for recording video and audio has been proposed. In such an editing apparatus, video and audio as materials are recorded on a VTR, and editing is performed by reading and using a desired video and audio from the VTR.

【0005】また、従来の編集装置においては、映像の
信号処理を行う機器(ビデオスイッチャ、ビデオエフェ
クタ等)と、音声の信号処理を行う機器(オーディオミ
キサ、オーディオエフェクタ等)を別々に用意する必要
があった。
In a conventional editing apparatus, it is necessary to separately prepare a device for processing video signals (video switcher, video effector, etc.) and a device for processing audio signals (audio mixer, audio effector, etc.). was there.

【0006】近年音声を映像のデータに混入した混合デ
ィジタル信号、すなわち音声混入映像信号(以下、エン
ベデッド・オーディオ/ビデオ信号と称する)を利用し
た映像/音声信号伝達方法が確立されている。具体的に
は、図11に示すようにオーディオ信号をビデオ信号の
ブランキング区間に重畳する形でオーディオ信号とビデ
オ信号とが伝送される。実際に、放送機器においてはデ
ィジタルVTRを初めとする主要ディジタル機器が既に
この信号形態での伝送を行っている。
In recent years, a video / audio signal transmission method using a mixed digital signal in which audio is mixed with video data, that is, an audio mixed video signal (hereinafter referred to as an embedded audio / video signal) has been established. Specifically, as shown in FIG. 11, the audio signal and the video signal are transmitted such that the audio signal is superimposed on the blanking interval of the video signal. In fact, in broadcasting equipment, major digital equipment such as a digital VTR has already transmitted in this signal form.

【0007】その編集装置の概略図を図12に示す。デ
ィジタルVTR81A〜81nでは、エンベデッド・オ
ーディオ/ビデオ信号が再生される。再生されたエンベ
デッド・オーディオ/ビデオ信号は、ディジタルVTR
81A〜81nからA/Vセパレータ82A〜82nへ
供給される。A/Vセパレータ82A〜82nでは、供
給されたエンベデッド・オーディオ/ビデオ信号がエン
ベデッド・オーディオ信号とビデオ信号へ分離される。
A/Vセパレータ82A〜82nで分離されたビデオ信
号はビデオプロセッサ83へ供給され、オーディオ信号
はオーディオプロセッサ84へ供給される。ビデオプロ
セッサ83では、供給されたビデオ信号に対して特殊効
果等が施され、A/Vコンバイナ85へ供給される。同
様に、オーディオプロセッサ84でも供給されたオーデ
ィオ信号に対して特殊効果等が施され、A/Vコンバイ
ナ85へ供給される。A/Vコンバイナ85では、ビデ
オ信号にオーディオ信号が図11に示すように重畳さ
れ、出力される。
FIG. 12 is a schematic diagram of the editing apparatus. In the digital VTRs 81A to 81n, embedded audio / video signals are reproduced. The reproduced embedded audio / video signal is output from a digital VTR.
81A to 81n are supplied to A / V separators 82A to 82n. In the A / V separators 82A to 82n, the supplied embedded audio / video signal is separated into an embedded audio signal and a video signal.
The video signals separated by the A / V separators 82A to 82n are supplied to a video processor 83, and the audio signals are supplied to an audio processor 84. In the video processor 83, the supplied video signal is subjected to special effects and the like, and is supplied to the A / V combiner 85. Similarly, the audio signal supplied to the audio processor 84 is also subjected to special effects and the like, and is supplied to the A / V combiner 85. In the A / V combiner 85, the audio signal is superimposed on the video signal as shown in FIG.

【0008】このように、従来の編集装置においては、
ビデオ信号及びオーディオ信号がエンベデッド・オーデ
ィオ/ビデオ信号で送信された場合、まずビデオ信号と
オーディオとに分離しなければならない。そして、ビデ
オプロセッサ83において映像信号のスイッチング及び
ミキシング、さらに特殊効果等の付加が行われる。この
処理系の中に映像信号用クロスポイント回路を有してお
り、選択された信号に対して上述の処理を行う。また、
オーディオプロセッサ84においてもまず内部に含まれ
る音声信号用クロスポイント回路によって複数のオーデ
ィオ信号の入力から必要とするオーディオ信号を選択し
(時にはこの選択は専用の機器を用いて行う)、選択さ
れたオーディオ信号に対してミキシング、音声特殊効果
等の処理が行われる。このようにビデオ信号及びオーデ
ィオ信号が別々に処理され、その各々の出力を最終的に
はビデオ信号にオーディオ信号を混入する回路(A/V
コンバイナ85)を有する機器により1系統の信号とし
て出力される。
As described above, in the conventional editing device,
When video and audio signals are transmitted as embedded audio / video signals, they must first be separated into video and audio signals. Then, in the video processor 83, switching and mixing of video signals, and addition of special effects and the like are performed. This processing system includes a video signal cross point circuit, and performs the above-described processing on the selected signal. Also,
In the audio processor 84, a required audio signal is selected from a plurality of audio signal inputs by an audio signal crosspoint circuit included in the audio processor 84 (this selection is sometimes made using a dedicated device). Processing such as mixing and audio special effects is performed on the signal. In this way, the video signal and the audio signal are separately processed, and the output of each is finally combined with a circuit (A / V) for mixing the audio signal with the video signal.
The signal is output as one system signal by a device having the combiner 85).

【0009】[0009]

【発明が解決しようとする課題】このように従来の編集
装置においては、映像処理、音声処理が全く独立に行わ
れていた。また、近年のノンリニア編集機においてもそ
の入出力はビデオ信号、オーディオ信号それぞれ存在し
ていた。このため、エンベデッド・オーディオ/ビデオ
信号を使用した場合、各機器への入力前に一旦ビデオ信
号とオーディオ信号に分離を行う処理ブロックを通して
からそれぞれの処理ブロックに介す構成をとらざるを得
なかった。
As described above, in the conventional editing apparatus, the video processing and the audio processing are performed completely independently. In recent years, the input and output of a non-linear editing machine also include a video signal and an audio signal. For this reason, when an embedded audio / video signal is used, it is necessary to adopt a configuration in which the video signal and the audio signal are once separated before being input to each device and then passed through the respective processing blocks. .

【0010】また、映像処理部と音声処理部とが全く別
の筐体であるため、当然その双方にそれぞれの入力数
(処理する対象の入力数)分の口を持ったクロスポイン
トを必要としていた。当然ケーブルもその分必要として
いた。
Further, since the video processing unit and the audio processing unit are completely different housings, it is naturally necessary to provide a cross point having a mouth for each of the number of inputs (the number of inputs to be processed). Was. Of course, cables were needed accordingly.

【0011】従って、この発明の目的は、伝送されるエ
ンベデッド・オーディオ/ビデオ信号を用いて1つの筐
体でビデオ信号及びオーディオ信号の編集を行うことに
より、できるだけシステム内のケーブル結線を少なくす
ることができるため、また、各機器の入力数を抑えるこ
とができるため、編集にかかる装置全体のコストを抑え
るようにした編集装置を提供することにある。
Accordingly, it is an object of the present invention to edit a video signal and an audio signal in a single housing using an embedded audio / video signal to be transmitted, thereby minimizing cable connections in the system. In addition, an object of the present invention is to provide an editing apparatus which can reduce the number of inputs to each device, thereby reducing the cost of the entire editing apparatus.

【0012】[0012]

【課題を解決するための手段】請求項1の発明は、ビデ
オ信号のブランキング区間にオーディオ信号が重畳され
ている音声混入映像信号が供給され、供給された音声混
入映像信号のビデオ信号とオーディオ信号とを編集する
ことができる編集装置において、複数の音声混入映像信
号を入力し、複数の音声混入映像信号を選択するクロス
ポイント手段と、クロスポイント手段で選択された音声
混入映像信号からビデオ信号を抜き取り、ビデオ信号に
対する処理を行う映像処理手段と、クロスポイント手段
で選択された音声混入映像信号からオーディオ信号を抜
き取り、オーディオ信号に対する処理を行う音声処理手
段と、映像処理手段の出力と、音声処理手段の出力とを
合成して音声混入映像信号を生成するコンバイナ手段と
を有することを特徴とする編集装置である。
According to the first aspect of the present invention, an audio mixed video signal in which an audio signal is superimposed in a blanking section of a video signal is supplied, and the video signal and the audio signal of the supplied audio mixed video signal are supplied. In an editing device capable of editing a signal, a plurality of audio-mixed video signals are input, and a cross-point means for selecting a plurality of audio-mixed video signals, and a video signal from the audio-mixed video signal selected by the cross-point means. Video processing means for extracting the audio signal from the audio mixed video signal selected by the cross point means, processing the audio signal, and outputting the video signal. Combiner means for synthesizing the output of the processing means and generating an audio mixed video signal. It is an editing apparatus for the.

【0013】ビデオ信号のブランキング区間にオーディ
オ信号が重畳されるエンベデッド・オーディオ/ビデオ
信号を用いてビデオ信号及びオーディオ信号を編集する
場合、複数のエンベデッド・オーディオ/ビデオ信号が
A/Vマトリックス回路へ供給される。A/Vマトリッ
クス回路では、供給されたエンベデッド・オーディオ/
ビデオ信号が映像処理部へ供給されるか、音声処理部へ
供給されるかが判断され、対応する処理部へ供給され
る。映像処理部において、供給されたエンベデッド・オ
ーディオ/ビデオ信号は、通常備わっているブランキン
グ回路によって、オーディオ信号が抜き取られ、ビデオ
信号のみが取り出される。取り出されたビデオ信号に対
して編集処理が行われる。音声処理部側に供給されたエ
ンベデッド・オーディオ/ビデオ信号は、音声処理部の
入力の前段でオーディオセパレータ回路によって、オー
ディオ信号のみ抜き取られる。音声処理部では、抜き取
られたオーディオ信号の編集処理が行われる。処理が行
われたビデオ信号及びオーディオ信号では、A/Vコン
バイナによって、ビデオ信号にオーディオ信号が重畳さ
れ、出力される。
When a video signal and an audio signal are edited using an embedded audio / video signal in which an audio signal is superimposed on a blanking section of the video signal, a plurality of embedded audio / video signals are sent to an A / V matrix circuit. Supplied. In the A / V matrix circuit, the supplied embedded audio /
It is determined whether the video signal is supplied to the video processing unit or the audio processing unit, and is supplied to the corresponding processing unit. In the video processing section, an audio signal is extracted from the supplied embedded audio / video signal by an ordinary blanking circuit, and only a video signal is extracted. Editing processing is performed on the extracted video signal. From the embedded audio / video signal supplied to the audio processing unit, only the audio signal is extracted by an audio separator circuit before the input of the audio processing unit. The audio processing unit performs an editing process on the extracted audio signal. In the processed video signal and audio signal, the audio signal is superimposed on the video signal by the A / V combiner and output.

【0014】[0014]

【発明の実施の形態】以下図面について、本発明の実施
の一形態を詳述する。
An embodiment of the present invention will be described in detail with reference to the drawings.

【0015】(1)編集装置の全体構成 図1において、1は全体として本発明を適用した編集装
置を示し、大きく分けてコンピユータ2と編集処理装置
3からなる。
(1) Overall Configuration of Editing Apparatus In FIG. 1, reference numeral 1 denotes an editing apparatus to which the present invention is applied as a whole, and is roughly composed of a computer 2 and an editing processing apparatus 3.

【0016】コンピユータ2はCPU(中央処理ユニツ
ト)や各種処理回路、或いはフロツピーデイスクドライ
ブ、ハードデイスクドライブ等を備える本体2Aと、当
該本体2Aに接続される表示手段としてのモニタ2B
と、入力手段としてのキーボード2C及びマウス2Dと
を有している。このようなコンピユータ2は編集のため
のソフトウエアとしてアプリケーシヨンプログラムがハ
ードデイスクドライブに予めインストールされており、
オペレーテイングシステムの基で当該アプリケーシヨン
プログラムを動作させることにより編集装置用のコンピ
ユータとして起動するようになされている。
The computer 2 includes a main body 2A having a CPU (central processing unit) and various processing circuits, a floppy disk drive, a hard disk drive, and the like, and a monitor 2B as a display means connected to the main body 2A.
And a keyboard 2C and a mouse 2D as input means. In such a computer 2, an application program is preinstalled on a hard disk drive as software for editing.
By running the application program under the operating system, the application program is started as a computer for the editing apparatus.

【0017】因みに、このアプリケーシヨンプログラム
を動作させたときには、モニタ2B上にGUI(グラフ
イカル・ユーザ・インターフエイス)のためのグラフイ
ツク表示が表示されるようになされており、この編集装
置1では、このGUIを介して編集のための制御コマン
ドを入力し得るようになされている。なお、コンピユー
タ2は、入力された制御コマンドの内容が編集処理装置
3の動作を制御するものであれば当該制御コマンドに応
じた制御信号S1を生成し、これを編集処理装置3に送
出するようになされている。
By the way, when this application program is operated, a graphic display for a GUI (graphical user interface) is displayed on the monitor 2B. A control command for editing can be input through this GUI. Note that the computer 2 generates a control signal S1 corresponding to the control command if the content of the input control command controls the operation of the editing processing device 3, and sends the control signal S1 to the editing processing device 3. Has been made.

【0018】またこのコンピユータ2には編集処理装置
3を介してビデオ信号S2が入力されるようになされて
おり、これにより各素材の映像をモニタ2Bに表示して
その内容を確認しながらイン点(イベントの開始点)や
アウト点(イベントの終了点)を指示し得るようになさ
れていると共に、イン点及びアウト点を指示することに
よつて切り取られたイベント素材や編集したプログラム
の映像を表示してその内容を確認し得るようになされて
いる(以下、この切り取られた素材や編集したプログラ
ムの内容を確認することをプレビユウと呼ぶ)。
A video signal S2 is input to the computer 2 via the editing processor 3, whereby the video of each material is displayed on the monitor 2B, and the contents are checked while checking the contents. (Start point of the event) and Out point (End point of the event) can be indicated, and the event material or the video of the edited program cut out by indicating the In and Out points can be displayed. The contents can be displayed and confirmed (hereinafter, confirming the contents of the cut material or the edited program is referred to as preview).

【0019】一方、編集処理装置3は内部にマトリクス
スイツチヤ部、画像処理部及び音声処理部を有してお
り、素材の切り取りや繋ぎ合わせ、或いはビデオ信号や
オーデイオ信号に対する信号処理等、実際の編集作業を
実行する装置である。
On the other hand, the editing processing device 3 has a matrix switch unit, an image processing unit and an audio processing unit therein, and performs actual processing such as cutting and joining of materials or signal processing for video signals and audio signals. This is a device that performs editing work.

【0020】この編集処理装置3には上述したようなコ
ンピユータ2が接続されているだけでなく、専用コント
ローラ4、5も接続されており、当該専用コントローラ
4、5を使用しても編集のための制御コマンドを入力し
得るようになされている。
The editing processor 3 is connected not only to the computer 2 as described above, but also to dedicated controllers 4 and 5, so that even if the dedicated controllers 4 and 5 are used, editing is performed. The user can input a control command.

【0021】因みに、専用コントローラ4は、素材のイ
ン点やアウト点を指示するためのボタン操作子や、素材
の再生を指示するためのボタン操作子、或いは編集した
プログラムの記録を指示するためのボタン操作子等を有
していると共に、変速再生(いわゆるシヤトル再生)や
コマ送り再生(いわゆるジヨグ再生)の指示を入力する
ためのダイアル操作子等を有しており、それらのボタン
操作子又はダイアル操作子を介して入力された指示情報
に応じた制御信号S3を編集処理装置3に送出するよう
になされている。また専用コントローラ5は、オーデイ
オレベルを入力するためのスライド操作子(いわゆるオ
ーデイオフエーダ)や2つの映像を切り換えるときの切
換率を入力するためのスライド素子(いわゆるビデオフ
エーダ)等を有しており、それらのスライド操作子を介
して入力された指示情報に応じた制御信号S4を編集処
理装置3に送出するようになされている。
Incidentally, the dedicated controller 4 has a button operator for instructing an in point or an out point of a material, a button operator for instructing reproduction of a material, or a command for recording an edited program. In addition to having button operators and the like, it also has dial operators and the like for inputting instructions for variable-speed playback (so-called shuttle playback) and frame-by-frame playback (so-called jog playback). The control signal S3 corresponding to the instruction information input via the dial operator is transmitted to the editing processing device 3. Also, the dedicated controller 5 has a slide operator (so-called audio-off ada) for inputting an audio level, a slide element (so-called video fader) for inputting a switching ratio when switching between two images, and the like. A control signal S4 corresponding to the instruction information input via these slide operators is sent to the editing processing device 3.

【0022】またこの編集処理装置3に対しては、デイ
リーサーバ6(一般に放送局において映像や音声等の編
集素材を記憶している記憶手段)が接続されており、当
該デイリーサーバ6に記憶されているビデオ及びオーデ
イオ信号を取り込めるようになされている。この場合、
デイリーサーバ6は2チヤンネル分の出力ポートを有し
ており、編集処理装置3から供給されるチヤンネル毎の
制御信号S5、S6に応じて所望のビデオ及びオーデイ
オ信号S7、S8を記憶媒体6Aから読み出して出力す
るようになされている。なお、記憶媒体6Aには圧縮率
1/10のMPEG(Moving Picture coding Experts Grou
p )規格で圧縮されたビデオ及びオーデイオ信号が記憶
されており、読み出されたビデオ及びオーデイオ信号は
それぞれデコーダ6B、6Cを介して復号化が行われた
後、シリアル・デイジタル・インターフエイス(以下、
これをSDIと呼ぶ)規格のフオーマツトに変換され、
そのSDI規格のビデオ及びオーデイオ信号S7、S8
が編集処理装置3に供給されるようになされている。
A daily server 6 (storage means for storing editing materials such as video and audio in a broadcasting station) is connected to the editing processing device 3 and stored in the daily server 6. Video and audio signals. in this case,
The daily server 6 has output ports for two channels, and reads desired video and audio signals S7 and S8 from the storage medium 6A in accordance with control signals S5 and S6 for each channel supplied from the editing processing device 3. Output. The storage medium 6A has a compression ratio
1/10 MPEG (Moving Picture coding Experts Grou
p) Video and audio signals compressed according to the standard are stored, and the read video and audio signals are decoded via decoders 6B and 6C, respectively, and then read out from a serial digital interface (hereinafter referred to as "digital interface"). ,
This is called an SDI) standard format.
The SDI standard video and audio signals S7, S8
Is supplied to the editing processing device 3.

【0023】またこの編集処理装置3に対してはVTR
7も接続されており、当該VTR7に記憶されているビ
デオ及びオーデイオ信号も取り込めるようになされてい
る。この場合、VTR7はSDI規格の入出力インター
フエイスを有しており、編集処理装置3から供給される
制御信号S9に応じて所望のビデオ及びオーデイオ信号
S10を読み出して出力するようになされている。また
VTR7は、編集処理された後のビデオ及びオーデイオ
信号やデイリーサーバ6から読み出されたビデオ及びオ
ーデイオ信号S7、S8を記録対象のビデオ及びオーデ
イオ信号S11として編集処理装置3から受けるように
なされており、制御信号S9に応じてそのビデオ及びオ
ーデイオ信号S11をビデオテープに記録するようにも
なされている。
The editing processing device 3 has a VTR
7 is also connected so that the video and audio signals stored in the VTR 7 can also be captured. In this case, the VTR 7 has an SDI-standard input / output interface, and reads and outputs a desired video and audio signal S10 in accordance with a control signal S9 supplied from the editing processing device 3. The VTR 7 receives the video and audio signals after the editing processing and the video and audio signals S7 and S8 read from the daily server 6 from the editing processing device 3 as the recording target video and audio signals S11. In addition, the video and audio signal S11 are recorded on a video tape in response to a control signal S9.

【0024】またこの編集処理装置3に対しては、複数
のハードデイスクからなるローカルストレージ8も接続
されており、当該ローカルストレージ8に記憶されてい
るビデオ及びオーデイオ信号も取り込めるようになされ
ている。この場合、ローカルストレージ8はSDI規格
の入出力インターフエイスを有していると共に、出力ポ
ートとしては2チヤンネル分のポートを有しており、編
集処理装置3から供給される制御信号S12に応じて所
望のビデオ及びオーデイオ信号S13、S14を読み出
して出力するようになされている。またローカルストレ
ージ8は、編集処理された後のビデオ及びオーデイオ信
号やデイリーサーバ6又はVTR7から読み出されたビ
デオ及びオーデイオ信号を記録対象のビデオ及びオーデ
イオ信号S15として編集処理装置3から受けるように
なされており、制御信号S12に応じてそのビデオ及び
オーデイオ信号S15を内部のハードデイスクに記録す
るようにもなされている。
A local storage 8 composed of a plurality of hard disks is also connected to the editing processor 3 so that video and audio signals stored in the local storage 8 can be taken in. In this case, the local storage 8 has an input / output interface conforming to the SDI standard, has a port for two channels as an output port, and responds to a control signal S12 supplied from the editing processing device 3. The desired video and audio signals S13 and S14 are read and output. The local storage 8 receives the video and audio signal after the editing process and the video and audio signal read from the daily server 6 or the VTR 7 from the editing processing device 3 as a video and audio signal S15 to be recorded. The video and audio signal S15 is recorded on an internal hard disk in response to the control signal S12.

【0025】またこの編集処理装置3に対しては、オン
エアバツフア(放送の際にプログラムを一時的に記憶す
るための記憶手段)9も接続されており、当該編集処理
装置3によつて編集処理したプログラムのビデオ及びオ
ーデイオ信号S16をオンエアバツフア9に記憶し得る
ようになされている。この場合、オンエアバツフア9は
SDI規格の入力インターフエイスを有しているので、
送出されるビデオ及びオーデイオ信号S16としてはS
DI規格の信号フオーマツトになつている。またオンエ
アバツフア9においては、供給されたビデオ及びオーデ
イオ信号S16をエンコーダ9Aによつて圧縮率1/10の
MPEG規格で圧縮した後、内部の記憶媒体9Bに記憶
するようになされている。
An on-air buffer (storage means for temporarily storing a program at the time of broadcasting) 9 is also connected to the editing processing device 3, and the editing processing device 3 edits the data. The video and audio signal S16 of the processed program can be stored in the on-air buffer 9. In this case, since the on-air buffer 9 has an input interface of the SDI standard,
The transmitted video and audio signal S16 is S
It is a DI format signal format. In the on-air buffer 9, the supplied video and audio signals S16 are compressed by the encoder 9A according to the MPEG standard with a compression ratio of 1/10, and then stored in the internal storage medium 9B.

【0026】なお、このオンエアバツフア9と編集装置
1のコンピユータ2は例えばイーサネツト等のローカル
エリアネツトワーク(以下、これをLANと呼ぶ)10
を介して接続されており、オンエアバツフア9に対する
制御コマンドはコンピユータ2及びLAN10を介して
当該オンエアバツフア9に送出される。また編集された
プログラムがどのような素材で構成されているかを示す
編集リスト(一般にエデイツト・デイシジヨン・リスト
と呼ばれる)も、このLAN10を介してオンエアバツ
フア9に送出される。
The on-air buffer 9 and the computer 2 of the editing apparatus 1 are connected to a local area network (hereinafter, referred to as a LAN) 10 such as an Ethernet.
The control command for the on-air buffer 9 is sent to the on-air buffer 9 via the computer 2 and the LAN 10. An edit list (generally called an edit decision list) indicating what kind of material the edited program is made of is also sent to the on-air buffer 9 via the LAN 10.

【0027】また編集装置1のコンピユータ2とデイリ
ーサーバ6もこのLAN10を介して接続されており、
当該LAN10を介してデイリーサーバ6に記憶されて
いる各素材のフアイル名等をコンピユータ2から参照し
得るようになされている。
The computer 2 of the editing device 1 and the daily server 6 are also connected via this LAN 10.
The computer 2 can refer to the file name and the like of each material stored in the daily server 6 via the LAN 10.

【0028】また編集処理装置3に対しては、オプシヨ
ン接続としてスピーカ11及び12が接続されるように
なされており、編集処理装置3によつて編集されたオー
デイオ信号S17、S18を当該スピーカ11、12か
ら送出してオーデイオに関する編集内容を確認し得るよ
うになされている。
Speakers 11 and 12 are connected to the editing processing device 3 as option connections, and the audio signals S17 and S18 edited by the editing processing device 3 are transmitted to the speakers 11 and 12, respectively. 12 to confirm the editing contents related to audio.

【0029】さらに編集処理装置3に対しては、オプシ
ヨン接続としてプレビユウ専用のモニタ13も接続され
るようになされており、編集処理装置3によつて編集さ
れたビデオ信号S19を当該モニタ2Bに表示してビデ
オに関する編集内容をこのモニタ13によつても確認し
得るようになされている。因みに、このモニタ13に表
示されるプレビユウ画面の方がコンピユータ2のモニタ
2Bに表示されるプレビユウ画面よりも大きいので、モ
ニタ13を接続した方がより鮮明に編集内容を確認し得
る。
Further, a monitor 13 for exclusive use of preview is also connected to the editing processing device 3 as an option connection, and the video signal S19 edited by the editing processing device 3 is displayed on the monitor 2B. Then, the contents of editing concerning the video can be confirmed on the monitor 13 as well. Incidentally, the preview screen displayed on the monitor 13 is larger than the preview screen displayed on the monitor 2B of the computer 2, so that the editing contents can be more clearly confirmed by connecting the monitor 13.

【0030】ここでこの編集装置1における編集方法を
簡単に説明する。まずこの編集装置1では、アプリケー
シヨンプログラムを起動させると、上述したようにモニ
タ2BにGUIのためのグラフイツク表示が表示され
る。オペレータは、モニタ2Bに表示されるGUIをマ
ウス2Dを使用してクリツク操作することにより、編集
素材が記憶されているデバイス(すなわちデイリーサー
バ6、VTR7又はローカルストレージ8)を指示する
と共に、その素材の再生を指示する。これによりその指
示された素材のビデオ信号S2が編集処理装置3を介し
てコンピユータ2に供給され、その素材の映像がモニタ
2Bに表示される。オペレータはその素材の映像を見な
がらイン点とアウト点を指示することにより、プログラ
ム作成に必要なイベントを生成する。オペレータはこの
処理を繰り返し、プログラム作成に必要なイベントを一
通り用意する。
Here, an editing method in the editing apparatus 1 will be briefly described. First, in the editing apparatus 1, when the application program is started, the graphic display for the GUI is displayed on the monitor 2B as described above. The operator clicks on the GUI displayed on the monitor 2B using the mouse 2D to indicate the device (that is, the daily server 6, the VTR 7, or the local storage 8) in which the editing material is stored, and also displays the material. To play. Thus, the video signal S2 of the specified material is supplied to the computer 2 via the editing processing device 3, and the video of the material is displayed on the monitor 2B. The operator generates an event necessary for program creation by designating an in point and an out point while watching the video of the material. The operator repeats this process and prepares all events necessary for program creation.

【0031】続いてオペレータは、先程指定したイベン
トをプログラムウインドウと呼ばれる表示エリア内で所
望の順番に並び換えることによりプログラムの順番を指
示する。また所望のイベントに特殊効果を施すのであれ
ば、その位置や特殊効果の種類をプログラムウインドウ
内で指示する。因みに、このプログラムウインドウはプ
ログラム作成に当たつて使用される仮想的な空間であ
り、このプログラムウインドウ内で各イベントを並べた
だけではプログラムは作成されない。
Subsequently, the operator instructs the order of the program by rearranging the events specified earlier in a desired order in a display area called a program window. If a special effect is to be applied to a desired event, the position and the type of the special effect are designated in the program window. Incidentally, this program window is a virtual space used when creating a program, and a program is not created simply by arranging events in the program window.

【0032】このようにしてプログラムの概案が決まる
と、オペレータはGUIを介してプレビユウの指示を入
力する。これを受けた編集装置1は、編集処理装置3を
制御することによりプログラムウインドウで指示された
プログラムの順番に基づいて各イベントを再生すると共
に、編集処理装置3を制御することにより指示されたイ
ベントに特殊効果を施し、ビデオ信号S2を生成する。
このビデオ信号S2はコンピユータ2に供給され、かく
してモニタ2Bに表示される。これによりオペレータは
設定したプログラムの内容を確認することができる。
When the outline of the program is determined in this way, the operator inputs a preview instruction via the GUI. Upon receiving this, the editing device 1 controls the editing processing device 3 to reproduce each event based on the order of the program specified in the program window, and also controls the editing processing device 3 to specify the event specified by the editing processing device 3. To generate a video signal S2.
This video signal S2 is supplied to the computer 2 and is displayed on the monitor 2B. Thus, the operator can confirm the contents of the set program.

【0033】このようなプレビユウの結果、プログラム
内容に変更がなければ、オペレータはGUIを介して記
録の指示を入力する。これを受けた編集装置1は、先程
と同様に編集処理装置3を制御することにより指示され
たプログラムを示すビデオ及びオーデイオ信号S15を
生成し、これをローカルストレージ8に供給して記録す
る。かくしてこの処理により、プログラムウインドウに
よつて指示されたプログラムが完成し、ローカルストレ
ージ8に記憶される。なお、この編集により生成したプ
ログラムを放送する場合には、GUIを介して転送の指
示を入力すれば、ローカルストレージ8からそのビデオ
及びオーデイオ信号が読み出され、編集処理装置3を介
してオンエアバツフア9に転送される。
As a result of the preview, if there is no change in the program contents, the operator inputs a recording instruction via the GUI. The editing apparatus 1 receiving this generates the video and audio signal S15 indicating the designated program by controlling the editing processing apparatus 3 in the same manner as described above, and supplies this to the local storage 8 for recording. Thus, by this processing, the program specified by the program window is completed and stored in the local storage 8. In the case of broadcasting the program generated by this editing, if a transfer instruction is input via a GUI, the video and audio signals are read out from the local storage 8 and the on-airbatches via the editing processing device 3. Forwarded to fa9.

【0034】このようにしてこの編集装置1では、各素
材の映像やプログラムの映像をモニタ2Bで確認しなが
ら当該プログラムを作成し得るので、編集の使い勝手を
向上し得る。またこの編集装置1では、オペレータがス
イツチヤや特殊効果装置を直接操作しなくても編集が行
えるので、編集操作を容易に行うことができ、編集に掛
かる手間を削減し得る。
In this way, in the editing apparatus 1, the program can be created while checking the video of each material and the video of the program on the monitor 2B, so that the editing convenience can be improved. Further, in the editing apparatus 1, since the editing can be performed without the operator directly operating the switch or the special effect apparatus, the editing operation can be easily performed, and the labor required for the editing can be reduced.

【0035】(2)コンピユータの内部構成 この項ではコンピユータ2の内部構成について具体的に
説明する。図2に示すように、コンピユータ2は、コマ
ンドデータやビデオデータを伝送するためのシステムバ
ス20、コンピユータ全体の制御を行うCPU21、入
力されるビデオ信号S2に対して画像処理等を行うビデ
オプロセツサ22、モニタ2Bに表示されるビデオデー
タやGUIのためのグラフイツク表示を管理する表示コ
ントローラ23、ローカルハードデイスクドライブ(ロ
ーカルHDD)24Aを制御するためのHDDインター
フエイス24、フロツピーデイスクドライブ(FDD)
25Aを制御するためのFDDインターフエイス25、
マウス2D及びキーボード2C等のポインテイングデバ
イスからのコマンドに基づいて制御コマンドを生成する
ポインテイングデバイスインターフエイス26、編集処
理装置3に制御信号S1を送出するためのソフトウエア
ドライバを備えた外部インターフエイス27を有してい
る。
(2) Internal Configuration of Computer In this section, the internal configuration of the computer 2 will be specifically described. As shown in FIG. 2, the computer 2 includes a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire computer, and a video processor for performing image processing and the like on an input video signal S2. 22, a display controller 23 for managing graphic data for video data and GUI displayed on the monitor 2B, an HDD interface 24 for controlling a local hard disk drive (local HDD) 24A, and a floppy disk drive (FDD)
FDD interface 25 for controlling 25A,
Pointing device interface 26 that generates control commands based on commands from pointing devices such as mouse 2D and keyboard 2C, and an external interface that includes a software driver for sending control signal S1 to edit processing device 3. 27.

【0036】システムバス20は、コンピユータ2内部
でビデオデータやコマンドデータ、或いはアドレスデー
タ等の通信を行うためのバスであり、ビデオデータを伝
送するための画像データバス20Aと、コマンドデータ
やアドレスデータを伝送するためのコマンドデータバス
20Bとからなる。
The system bus 20 is a bus for communicating video data, command data, address data, and the like inside the computer 2, and includes an image data bus 20A for transmitting video data, a command data and address data. And a command data bus 20B for transmitting the command data.

【0037】画像データバス20AにはCPU21、ビ
デオプロセツサ22、表示コントローラ23、HDDイ
ンターフエイス24及びFDDインターフエイス25が
それぞれ接続されており、当該CPU21、ビデオプロ
セツサ22、表示コントローラ23、HDDインターフ
エイス24及びFDDインターフエイス25はこの画像
データバス20Aを介してビデオデータの伝送を行うよ
うになされている。
The CPU 21, the video processor 22, the display controller 23, the HDD interface 24, and the FDD interface 25 are connected to the image data bus 20A, and the CPU 21, the video processor 22, the display controller 23, the HDD interface The face 24 and the FDD interface 25 transmit video data via the image data bus 20A.

【0038】一方、コマンドデータバス20Bには、C
PU21、ビデオプロセツサ22、表示コントローラ2
3、HDDインターフエイス24、FDDインターフエ
イス25、ポインテイングデバイスインターフエイス2
6及び外部インターフエイス27がそれぞれ接続されて
おり(すなわちコンピユータ2内部の全てのブロツクが
接続されている)、当該コマンドデータバス20Bを介
してコマンドデータやアドレスデータの伝送を行うよう
になされている。
On the other hand, the command data bus 20B has C
PU21, video processor 22, display controller 2
3, HDD interface 24, FDD interface 25, pointing device interface 2
6 and the external interface 27 are connected to each other (that is, all blocks in the computer 2 are connected), and command data and address data are transmitted via the command data bus 20B. .

【0039】CPU21はコンピユータ2全体の制御を
行うブロツクであり、コンピユータ2のオペレーテイン
グシステムが格納されているROM21Aと、アツプロ
ードされたアプリケーシヨンプログラム等が格納される
RAM21Bとを有している。コンピユータ2を起動す
る場合には、CPU21はROM21Aに記憶されたオ
ペレーテイングシステムに基づいたソフトウエアプログ
ラムを実行する。またアプリケーシヨンプログラムをこ
の起動中のオペレーテイングシステムの基で実行する場
合には、CPU21はまずハードデイスクドライブ24
Aのハードデイスクに記録されているアプリケーシヨン
プログラムを読み出してRAM21Bにアツプロード
し、その後、当該アプリケーシヨンプログラムを実行す
る。
The CPU 21 is a block for controlling the entire computer 2 and has a ROM 21A in which the operating system of the computer 2 is stored, and a RAM 21B in which an uploaded application program and the like are stored. When activating the computer 2, the CPU 21 executes a software program based on the operating system stored in the ROM 21A. When the application program is to be executed under the operating system being started, the CPU 21 first operates the hard disk drive 24.
The application program recorded on the hard disk of A is read and uploaded to the RAM 21B, and thereafter, the application program is executed.

【0040】ビデオプロセツサ22は、コンピユータ2
に入力されるSDI規格のビデオ信号S2を受け取り、
当該ビデオ信号S2に対してデータ変換を施すと共に、
その変換されたビデオデータを一時的にバツフアリング
するためのブロツクである。具体的には、ビデオプロセ
ツサ22は、当該ビデオプロセツサ22の全体を制御す
るプロセツサコントローラ22Aと、受け取つたビデオ
信号S2のペイロード部からコンポジツトビデオ信号を
抽出し、かつ当該コンポジツトビデオ信号をデイジタル
のコンポーネントビデオ信号に変換するデータ変換部2
2Bと、データ変換部22Bから送出される数フレーム
分のビデオデータを一時的に記憶するフレームメモリ2
2Cとからなる。
The video processor 22 is connected to the computer 2
Receives the SDI standard video signal S2 input to the
While performing data conversion on the video signal S2,
This is a block for temporarily buffering the converted video data. Specifically, the video processor 22 extracts a composite video signal from a payload portion of the received video signal S2, and a processor controller 22A that controls the entire video processor 22, and outputs the composite video signal. Data conversion unit 2 that converts a video signal into a digital component video signal
2B and a frame memory 2 for temporarily storing video data of several frames transmitted from the data conversion unit 22B.
2C.

【0041】プロセツサコントローラ22Aは、データ
変換部22Bに対して制御信号を送出することにより当
該データ変換部22Bのデータ変換動作を制御すると共
に、当該データ変換部22Bにビデオ信号S2からタイ
ムコードを抽出させる。またプロセツサコントローラ2
2Aは、フレームメモリ22Cに対して制御信号を送出
することにより当該フレームメモリ22Cのリード/ラ
イトタイミング及びリード/ライトアドレスを制御す
る。因みに、リードタイミングに関しては、プロセツサ
コントローラ22Aは表示コントローラ23に送出する
タイムコードとビデオデータ(フレームデータ)とが対
応するようにフレームメモリ22Cのリードタイミング
を制御する。
The processor controller 22A controls the data conversion operation of the data conversion unit 22B by sending a control signal to the data conversion unit 22B, and also transmits the time code from the video signal S2 to the data conversion unit 22B. Let it be extracted. Processor controller 2
2A controls a read / write timing and a read / write address of the frame memory 22C by sending a control signal to the frame memory 22C. Incidentally, regarding the read timing, the processor controller 22A controls the read timing of the frame memory 22C so that the time code transmitted to the display controller 23 and the video data (frame data) correspond to each other.

【0042】データ変換部22Bは、プロセツサコント
ローラ22Aからの制御信号に基づいてコンポジツトビ
デオ信号をデイジタルのコンポーネントビデオ信号に変
換する。因みに、タイムコードはこの変換過程において
抽出される。この変換により得られたビデオデータは上
述したようにフレームメモリ22Cに送出され、また抽
出されたタイムコードはプロセツサコントローラ22A
に送出される。
The data converter 22B converts a composite video signal into a digital component video signal based on a control signal from the processor controller 22A. Incidentally, the time code is extracted in this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.
Sent to

【0043】フレームメモリ22Cはデータ変換部22
Bから供給されるビデオデータを一時的に記憶する。こ
のフレームメモリ22Cのリード/ライトタイミング
は、上述したようにプロセツサコントローラ22Aによ
つて制御される。このフレームメモリ22Cは2個のフ
レームメモリから構成され、2フレーム分のビデオデー
タを記憶し得るようになされている。
The frame memory 22C includes a data converter 22
The video data supplied from B is temporarily stored. The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above. The frame memory 22C is composed of two frame memories, and is capable of storing video data for two frames.

【0044】このフレームメモリ22Cに記憶されたビ
デオデータは、プロセツサコントローラ22Aの読み出
し制御に基づいて読み出される。その際、フレームメモ
リ22Cに記憶されたビデオデータを全画素読み出すの
ではなく、所定の間隔で間引いて読み出すことにより画
像サイズを原画像よりも小さくする。このようにして画
像サイズが小さく変換されたビデオデータは、モニタ2
Bのビユウアウインドウ(詳細は後述する)に表示され
るため、画像データバス20Aを介して表示コントロー
ラ23に送出される。
The video data stored in the frame memory 22C is read based on the read control of the processor controller 22A. At this time, the image size is made smaller than the original image by reading out the video data stored in the frame memory 22C, instead of reading out all pixels, at a predetermined interval. The video data whose image size has been reduced in this manner is transmitted to the monitor 2
Since it is displayed in the view window of B (details will be described later), it is transmitted to the display controller 23 via the image data bus 20A.

【0045】表示コントローラ23は、モニタ2Bに表
示されるデータを制御するための制御ブロツクである。
表示コントローラ23はメモリコントローラ23AとV
RAM(ビデオ・ランダム・アクセス・メモリ)23B
とを有している。メモリコントローラ23Aはコンピユ
ータ2の内部同期に従つてVRAM23Bのリード/ラ
イトタイミングを制御する。このVRAM23Bには、
ビデオプロセツサ22のフレームメモリ22Cから送出
されたビデオデータ及びCPU21によつて生成される
イメージデータが、メモリコントローラ23Aからのタ
イミング制御信号に基づいて記憶される。このVRAM
23Bに記憶されたビデオデータやイメージデータは、
コンピユータ2の内部同期に基づいたメモリコントロー
ラ23Aからのタイミング制御信号に基づいて読み出さ
れ、モニタ2Bに表示される。
The display controller 23 is a control block for controlling data displayed on the monitor 2B.
The display controller 23 is connected to the memory controllers 23A and V
RAM (Video Random Access Memory) 23B
And The memory controller 23A controls the read / write timing of the VRAM 23B according to the internal synchronization of the computer 2. In this VRAM 23B,
The video data transmitted from the frame memory 22C of the video processor 22 and the image data generated by the CPU 21 are stored based on a timing control signal from the memory controller 23A. This VRAM
The video data and image data stored in 23B are
The data is read out based on the timing control signal from the memory controller 23A based on the internal synchronization of the computer 2 and displayed on the monitor 2B.

【0046】この場合、イメージデータによるグラフイ
ツク表示がGUIのためのグラフイツク表示となる。因
みに、CPU21からVRAM23Bに送出されるイメ
ージデータは、例えばウインドウやカーソル、或いはス
クロールバーやデバイスを示すアイコン等のイメージデ
ータである。このコンピユータ2では、これらの複数種
類のイメージデータをモニタ2Bに表示することによつ
てGUIのためのグラフイツク表示を得ている。
In this case, the graphic display based on the image data becomes the graphic display for the GUI. Incidentally, the image data transmitted from the CPU 21 to the VRAM 23B is, for example, image data such as a window, a cursor, a scroll bar, or an icon indicating a device. The computer 2 obtains a graphic display for the GUI by displaying these plural types of image data on the monitor 2B.

【0047】HDDインターフエイス24は、コンピユ
ータ2内部に設けられたローカルハードデイスクドライ
ブ(HDD)24Aと通信するためのインターフエイス
ブロツクである。このHDDインターフエイス24とハ
ードデイスクドライブ24AとはSCSI(Small Comp
uter System Interface )の伝送フオーマツトに基づい
て通信が行われるようになされている。
The HDD interface 24 is an interface block for communicating with a local hard disk drive (HDD) 24A provided inside the computer 2. The HDD interface 24 and the hard disk drive 24A are connected to a SCSI (Small Comp
The communication is performed based on a transmission format of a uter system interface.

【0048】ハードデイスクドライブ24Aには、この
コンピユータ2で起動するアプリケーシヨンプログラム
がインストールされており、当該アプリケーシヨンプロ
グラムを実行する場合には、このハードデイスクドライ
ブ24Aから読み出されてCPU21のRAM21Bに
アツプロードされる。またこのアプリケーシヨンプログ
ラムを終了する際には、RAM21Bに記憶されている
編集オペレーシヨンによつて生成された各種情報(例え
ばフアイル情報等)は、このハードデイスクドライブ2
4Aを介してハードデイスクにダウンロードされる。
An application program to be started by the computer 2 is installed in the hard disk drive 24A. When the application program is executed, the application program is read from the hard disk drive 24A and uploaded to the RAM 21B of the CPU 21. You. When the application program is terminated, various information (for example, file information) generated by the editing operation stored in the RAM 21B is stored in the hard disk drive 2.
Downloaded to the hard disk via 4A.

【0049】FDDインターフエイス25は、コンピユ
ータ2内部に設けられたフロツピーデイスクドライブ
(FDD)25Aと通信するためのインターフエイスブ
ロツクである。このFDDインターフエイス25とフロ
ツピーデイスクドライブ25AとはSCSIの伝送フオ
ーマツトに基づいて通信が行われるようになされてい
る。
The FDD interface 25 is an interface block for communicating with a floppy disk drive (FDD) 25A provided inside the computer 2. The FDD interface 25 and the floppy disk drive 25A communicate with each other based on a SCSI transmission format.

【0050】ポインテイングデバイスインターフエイス
26は、コンピユータ2に接続されたマウス2D及びキ
ーボード2Cからの情報を受信するインターフエイスブ
ロツクである。ポインテイングデバイスインターフエイ
ス26は、マウス2Dに設けられた2次元ロータリーエ
ンコーダの検出情報と、マウス2Dに設けられた左右の
ボタンのクリツク情報とを当該マウス2Dから受け取
り、受け取つたそれらの情報をデコードしてCPU21
に送出する。同様に、ポインテイングデバイスインター
フエイス26はキーボード2Cに設けられたボタンから
の入力情報を受け取り、受け取つた入力情報をデコード
してCPU21に送出する。これによりCPU21は、
モニタ2Bに表示されるGUIのうちいずれのコマンド
ボタンが指示されたか認識し得ると共に、キーボード2
Cより入力された各種データを認識し得、それらに対応
する制御を行うことができる。
The pointing device interface 26 is an interface block for receiving information from the mouse 2D and the keyboard 2C connected to the computer 2. The pointing device interface 26 receives, from the mouse 2D, detection information of a two-dimensional rotary encoder provided on the mouse 2D and click information of left and right buttons provided on the mouse 2D, and decodes the received information. CPU 21
To send to. Similarly, the pointing device interface 26 receives input information from buttons provided on the keyboard 2 </ b> C, decodes the received input information, and sends it to the CPU 21. Thereby, the CPU 21
It is possible to recognize which command button of the GUI displayed on the monitor 2B has been designated, and to use the keyboard 2
Various data input from C can be recognized, and control corresponding thereto can be performed.

【0051】外部インターフエイス27は、コンピユー
タ2の外部に接続された編集処理装置3と通信するため
のブロツクである。外部インターフエイス27はCPU
21で生成された再生コマンドや記録コマンド等の各種
制御コマンドを所定の通信プロトコルのデータに変換す
るドライバを有しており、当該ドライバを介して制御コ
マンドを示す制御信号S1を編集処理装置3に送出す
る。
The external interface 27 is a block for communicating with the editing processing device 3 connected to the outside of the computer 2. The external interface 27 is a CPU
A driver for converting various control commands such as a reproduction command and a recording command generated in 21 into data of a predetermined communication protocol, and sends a control signal S1 indicating the control command to the editing processing device 3 via the driver. Send out.

【0052】(3)編集処理装置の構成 この項では編集処理装置3の構成について説明する。図
3に示すように、編集処理装置3は大きく分けてシステ
ムコントロール部3A、マトリクススイツチヤ部3B、
画像処理部3C及び音声処理部3Dからなつている。シ
ステムコントロール部3Aは、コンピユータ2から送ら
れてくる制御信号S1や専用コントローラ4、5から送
られてくる制御信号S3、S4を受け、当該制御信号S
1、S3又はS4を基に各ブロツクの動作を制御する。
具体的には、システムコントロール部3Aは、コントロ
ールバス3Eを介してマトリクススイツチヤ部3B、画
像処理部3C及び音声処理部3Dの動作を制御すると共
に、制御信号S5、S6、S9又はS12を送出してデ
イリーサーバ6、VTR7及びローカルストレージ8の
再生又は記録動作等を制御する。因みに、システムコン
トロール部3Aは外部より供給されるリフエレンスタイ
ムコード(REF-TC)も受け取り、タイムコードの管理も
行うようになされている。
(3) Configuration of Editing Processing Apparatus In this section, the configuration of the editing processing apparatus 3 will be described. As shown in FIG. 3, the editing processing device 3 is roughly divided into a system control unit 3A, a matrix switch unit 3B,
It comprises an image processing unit 3C and an audio processing unit 3D. The system control unit 3A receives the control signal S1 sent from the computer 2 and the control signals S3 and S4 sent from the dedicated controllers 4 and 5, and receives the control signal S1.
The operation of each block is controlled based on 1, S3 or S4.
Specifically, the system control unit 3A controls the operations of the matrix switch unit 3B, the image processing unit 3C, and the audio processing unit 3D via the control bus 3E, and sends out control signals S5, S6, S9, or S12. Then, it controls the reproduction or recording operation of the daily server 6, the VTR 7 and the local storage 8, and the like. Incidentally, the system control unit 3A also receives a reference time code (REF-TC) supplied from the outside, and manages the time code.

【0053】マトリスクススイツチヤ部3Bは複数の入
力端子と複数の出力端子とを有し、システムコントロー
ル部3Aからの制御に応じて所望の入力端子を所望の出
力端子に接続するようになされており、これにより各デ
バイス(デイリーサーバ6、VTR7又はローカルスト
レージ8)から読み出されたビデオ及びオーデイオ信号
のうち所望の信号を画像処理部3Cや音声処理部3Dに
送出し得ると共に、所望の信号をコンピユータ2や各デ
バイス(VTR7、ローカルストレージ8又はオンエア
バツフア9)に送出し得るようになされている。さらに
画像処理部3Cによつて処理されたビデオ信号をコンピ
ユータ2に送出したり、或いはそのビデオ信号に音声処
理部3Dによつて処理されたオーデイオ信号を重畳して
各デバイス(VTR7、ローカルストレージ8又はオン
エアバツフア9)に送出し得るようにもなされている。
The matrix switch unit 3B has a plurality of input terminals and a plurality of output terminals, and connects a desired input terminal to a desired output terminal under the control of the system control unit 3A. As a result, a desired signal among the video and audio signals read from each device (daily server 6, VTR 7, or local storage 8) can be transmitted to the image processing unit 3C and the audio processing unit 3D, and the desired signal can be transmitted. To the computer 2 or each device (VTR 7, local storage 8, or on-air buffer 9). Further, the video signal processed by the image processing unit 3C is sent to the computer 2, or the audio signal processed by the audio processing unit 3D is superimposed on the video signal, and each device (VTR 7, local storage 8) Alternatively, it can be sent to an on-air buffer 9).

【0054】画像処理部3Cは、トランジシヨンエフエ
クト(ワイプやページターン等、バツクグラウンドの映
像からフオアグラウンドの映像に切り換えるようなエフ
エクト)やアニメーシヨンエフエクト(モザイクやピク
チヤインピクチヤ等、特殊な画像処理や挿入処理を伴う
エフエクト)といつた特殊効果をビデオ信号に施すブロ
ツクであり、マトリクススイツチヤ部3Bによつて選択
されたビデオ及びオーデイオ信号からビデオ信号を抽出
し、当該ビデオ信号に特殊効果を施した後、そのビデオ
信号をマトリクススイツチヤ部3Bに出力する。
The image processing unit 3C includes transition effects (effects such as switching from background video to foreground video such as wipes and page turns) and animation effects (mosaic, picture-in-picture, etc.). This is a block for applying a special effect such as special image processing or insertion processing to a video signal. The video signal is extracted from the video and audio signals selected by the matrix switch unit 3B, and the video signal is extracted. After applying the special effect to the matrix switch section 3B, the video signal is output to the matrix switch section 3B.

【0055】音声処理部3Dは、オーデイオ信号のレベ
ル調整や合成を行うブロツクであり、マトリクススイツ
チヤ部3Dによつて選択されたビデオ及びオーデイオ信
号からオーデイオ信号を抽出した後、そのオーデイオ信
号にレベル調整を施したり、或いはオーデイオ信号同士
をそれぞれ合成したりし、その結果得られるオーデイオ
信号をマトリクススイツチヤ部3B又はスピーカ11、
12に出力する。
The audio processing unit 3D is a block for adjusting and synthesizing the level of the audio signal. After extracting the audio signal from the video and audio signals selected by the matrix switch unit 3D, the audio processing unit 3D applies the level to the audio signal. The audio signal is adjusted or the audio signals are combined with each other, and the resulting audio signal is combined with the matrix switch unit 3B or the speaker 11,
12 is output.

【0056】ここでこれら各ブロツクの構成を図を用い
て以下に具体的に説明する。図4に示すように、システ
ムコントロール部3Aは、メインCPU(M−CPU)
30、コミユニケーシヨンCPU(C−CPU)31及
びデバイス制御用CPU(D−CPU)32〜34の複
数のCPUから構成される。メインCPU30は、コン
トロールバス3Eを介して各ブロツク(すなわちマトリ
クススイツチヤ部3B、画像処理部3C及び音声処理部
3D)に制御コマンドを与えることにより当該各ブロツ
クの動作を制御するためのCPUである。またコミユニ
ケーシヨンCPU31は、外部のタイムコード発生器
(図示せず)によつて発生したリフアレンスタイムコー
ド(REF-TC)を受け取つたり、或いはコンピユータ2か
らの制御信号S1や専用コントローラ4、5からの制御
信号S3、S4を受け取つたりするための通信用CPU
である。またデバイス制御用CPU32〜34は、各デ
バイス(すなわちデイリーサーバ6、VTR7及びロー
カルストレージ8)に対して制御信号S5、S6、S9
又はS12を送出して当該各デバイスの動作を制御する
ためのCPUである。
Here, the configuration of each of these blocks will be specifically described with reference to the drawings. As shown in FIG. 4, the system control unit 3A includes a main CPU (M-CPU).
30, a communication / unification CPU (C-CPU) 31, and a plurality of device control CPUs (D-CPUs) 32-34. The main CPU 30 is a CPU for controlling the operation of each block by giving a control command to each block (ie, the matrix switch unit 3B, the image processing unit 3C, and the audio processing unit 3D) via the control bus 3E. . The communication unit CPU 31 receives a reference time code (REF-TC) generated by an external time code generator (not shown) or controls the control signal S1 from the computer 2 or the dedicated controller 4, Communication CPU for receiving control signals S3 and S4 from
It is. The device control CPUs 32 to 34 send control signals S5, S6, S9 to each device (that is, the daily server 6, the VTR 7, and the local storage 8).
Alternatively, it is a CPU for sending S12 to control the operation of each device.

【0057】このようなシステムコントロール部3A
は、コミユニケーシヨンCPU31によつて制御信号S
1、S3又はS4を受け取り、当該コミユニケーシヨン
CPU31によつてその制御信号S1、S3又はS4が
示す制御コマンドを再生する。この制御コマンドはシス
テムコントロール部3A内部のバス35を介してメイン
CPU30に転送される。メインCPU30はこの制御
コマンドを解析し、デバイス制御が必要であれば対応す
るデバイス制御用CPU32、33又は34に制御コマ
ンドを送出して当該デバイス制御用CPU32、33又
は34を介してデバイスの動作を制御し、マトリクスス
イツチヤ部3B、画像処理部3C又は音声処理部3Dの
制御が必要であれば対応するブロツクにコントロールバ
ス3Eを介して制御コマンドを送出して当該ブロツクの
動作を制御する。
Such a system control unit 3A
The control signal S is transmitted by the communication unit CPU 31.
1, S3 or S4 is received and the control command indicated by the control signal S1, S3 or S4 is reproduced by the communication unit CPU 31. This control command is transferred to the main CPU 30 via the bus 35 inside the system control unit 3A. The main CPU 30 analyzes this control command, and sends a control command to the corresponding device control CPU 32, 33 or 34 if device control is necessary, and controls the operation of the device via the device control CPU 32, 33 or 34. If control is required, control of the matrix switch unit 3B, image processing unit 3C or audio processing unit 3D is sent to the corresponding block via the control bus 3E to control the operation of the block.

【0058】因みに、コミユニケーシヨンCPU31
は、内部にコンピユータ2の外部インターフエイス27
に対応した通信用のドライバを有しており、当該ドライ
バによつてコンピユータ2から送られてくる制御信号S
1を受信するようになされている。またデバイス制御用
CPU32〜34は内部にRS−422規格のドライバ
を有しており、当該ドライバによつてRS−422規格
の制御信号S5、S6、S9又はS12を各デバイスに
送出するようになされている。
Incidentally, the communication unity CPU 31
Is the external interface 27 of the computer 2 inside.
And a control signal S sent from the computer 2 by the driver.
1 is received. Each of the device control CPUs 32 to 34 has an RS-422 standard driver therein, and the control signal S5, S6, S9, or S12 of the RS-422 standard is transmitted to each device by the driver. ing.

【0059】続いて図5を用いてマトリクススイツチヤ
部3Bについて説明する。この図5に示すように、マト
リクススイツチヤ部3Bは大きく分けて制御回路40、
マトリクススイツチヤブロツク41及びフオーマツト変
換ブロツク42からなつている。制御回路40はこのマ
トリクススイツチヤ部3Bの全体を制御する回路であ
り、コントロールバス3Eを介して受けた制御コマンド
に基づいて制御信号S20、S21を生成し、当該制御
信号S20、S21をそれぞれマトリクススイツチヤブ
ロツク41、フオーマツト変換ブロツク42に出力して
その動作を制御する。
Next, the matrix switch section 3B will be described with reference to FIG. As shown in FIG. 5, the matrix switch unit 3B is roughly divided into a control circuit 40,
It comprises a matrix switch block 41 and a format conversion block 42. The control circuit 40 is a circuit for controlling the entire matrix switch section 3B, generates control signals S20 and S21 based on a control command received via the control bus 3E, and converts the control signals S20 and S21 into a matrix, respectively. The output is output to a switch block 41 and a format conversion block 42 to control the operation.

【0060】マトリクススイツチヤブロツク41は、入
力端子IN1〜IN11にそれぞれ接続される複数の入
力ラインと、出力端子OUT1〜OUT13にそれぞれ
接続される複数の出力ラインとが格子状に配列されてお
り、入力ラインと出力ラインが交差するクロスポイント
(図中×印で示す)の所で当該入力ラインと出力ライン
を接続し得るようになされている。このためマトリクス
スイツチヤブロツク41は、制御回路40から供給され
る制御信号S20に基づいて所望のクロスポイントの所
で入力ラインと出力ラインを接続すれば、入力端子IN
1〜IN11に入力された所望の信号を所望の出力端子
OUT1〜OUT13に出力することができる。
In the matrix switch block 41, a plurality of input lines connected to the input terminals IN1 to IN11 and a plurality of output lines connected to the output terminals OUT1 to OUT13 are arranged in a grid. The input line and the output line can be connected at a cross point (indicated by a cross in the figure) where the input line and the output line intersect. For this reason, if the input line and the output line are connected at a desired cross point on the basis of the control signal S20 supplied from the control circuit 40, the matrix switch block 41 can be connected to the input terminal IN.
Desired signals input to 1 to IN11 can be output to desired output terminals OUT1 to OUT13.

【0061】因みに、このマトリクススイツチヤ部3B
においては、デイリーサーバ6、VTR7及びローカル
ストレージ8の各デバイスから読み出されたビデオ及び
オーデイオ信号がそれぞれ入力端子IN1〜IN8に入
力されるようになされている(但し、この図5の例で
は、入力端子IN1〜IN5にビデオ及びオーデイオ信
号S7、S8、S10、S13、S14が入力され、入
力端子IN5〜IN8は空き端子となつている)。また
入力端子IN9及びIN10には画像処理部3Cによつ
て画像処理が施されたビデオ信号S31、S32がそれ
ぞれ入力され、入力端子IN11には音声処理部3Dに
よつて信号処理が施されたオーデイオ信号S33が入力
されるようになされている。
Incidentally, the matrix switch section 3B
In FIG. 5, the video and audio signals read from the devices of the daily server 6, the VTR 7, and the local storage 8 are input to the input terminals IN1 to IN8, respectively (however, in the example of FIG. Video and audio signals S7, S8, S10, S13, and S14 are input to the input terminals IN1 to IN5, and the input terminals IN5 to IN8 are empty terminals. The input terminals IN9 and IN10 receive video signals S31 and S32, respectively, which have been subjected to image processing by the image processing unit 3C, and the input terminal IN11 has audio signals subjected to signal processing by the audio processing unit 3D. The signal S33 is input.

【0062】またこのマトリクススイツチヤ部3Bにお
いては、出力端子OUT1はローカルストレージ8にビ
デオ及びオーデイオ信号S15を出力するための端子と
して割り当てられ、出力端子OUT2はVTR7にビデ
オ及びオーデイオ信号S11を出力するための端子とし
て割り当てられ、出力端子OUT3はオンエアバツフア
9にビデオ及びオーデイオ信号S16を出力するための
端子として割り当てられており、出力端子OUT1〜O
UT3はそれぞれプログラム出力用の端子として割り当
てられている。また出力端子OUT4はプレビユウ専用
のモニタ13にビデオ信号S19を出力するためのプレ
ビユウ用の出力端子として割り当てられており、出力端
子OUT5はコンピユータ2にビデオ信号S2を出力す
るためのキヤプチヤ用の出力端子として割り当てられて
いる。さらに出力端子OUT6〜OUT10は画像処理
部3Cにビデオ及びオーデイオ信号S23〜S27を出
力するための端子として割り当てられ、出力端子OUT
11〜OUT13は音声処理部3Dにビデオ及びオーデ
イオ信号S28〜S30を出力するための端子として割
り当てられている。
In the matrix switch section 3B, the output terminal OUT1 is assigned to the local storage 8 as a terminal for outputting the video and audio signal S15, and the output terminal OUT2 outputs the video and audio signal S11 to the VTR 7. Output terminal OUT3 is allocated to the on-air buffer 9 as a terminal for outputting the video and audio signal S16, and the output terminals OUT1 to OUT0
UT3 is assigned as a terminal for program output. The output terminal OUT4 is assigned as a preview output terminal for outputting the video signal S19 to the monitor 13 dedicated to preview, and the output terminal OUT5 is used as a capture output terminal for outputting the video signal S2 to the computer 2. Assigned as. Further, the output terminals OUT6 to OUT10 are assigned as terminals for outputting video and audio signals S23 to S27 to the image processing unit 3C, and the output terminals OUT6 to OUT10 are output.
11 to OUT13 are assigned as terminals for outputting video and audio signals S28 to S30 to the audio processing unit 3D.

【0063】フオーマツト変換ブロツク42は、制御回
路40から供給される制御信号S21に基づいて、出力
端子OUT1〜OUT5に出力する信号をSDI規格の
信号に変換する回路ブロツクであり、出力端子OUT1
〜OUT3に出力する信号をフオーマツト変換するアウ
トプツトプロセツサ43及びオーデイオコンバイナ44
と、出力端子OUT4に出力する信号をフオーマツト変
換するアウトプツトプロセツサ45と、出力端子OUT
5に出力する信号をフオーマツト変換するアウトプツト
プロセツサ46とを有している。
The format conversion block 42 is a circuit block for converting the signals output to the output terminals OUT1 to OUT5 into SDI standard signals based on the control signal S21 supplied from the control circuit 40, and the output terminal OUT1.
To an output processor 43 and an audio combiner 44 for format-converting a signal to be output to OUT3.
An output processor 45 for format-converting a signal output to an output terminal OUT4, and an output terminal OUT
And an output processor 46 for format-converting the signal to be output to the output terminal 5.

【0064】アウトプツトプロセツサ43は、画像処理
部3Cによつて画像処理されたビデオ信号(すなわち入
力端子IN9又はIN10に入力されるビデオ信号S3
1又はS32)を出力するとき、当該ビデオ信号S31
又はS32をSDI規格のビデオ信号に変換する。オー
デイオコンバイナ44は、音声処理部3Dによつて処理
されたエンベデツトオーデイオ信号(すなわち入力端子
IN11に入力されるオーデイオ信号S33)を出力す
るとき、アウトプツトプロセツサ43から出力されるS
DI規格のビデオ信号に当該エンベデツトオーデイオ信
号S33を重畳する。これにより画像処理部3Cによつ
て処理されたビデオ信号S31、S32や音声処理部3
Dによつて処理されたオーデイオ信号S33をSDI規
格の信号でローカルストレージ8やVTR7或いはオン
エアバツフア9に送出し得る。因みに、入力端子IN1
〜IN8に入力されたビデオ及びオーデイオ信号を出力
端子OUT1〜OUT3に出力する場合には、当該ビデ
オ及びオーデイオ信号がSDI規格で各デバイスから出
力されているので、アウトプツトプロセツサ43及びオ
ーデイオコンバイナ44は何ら処理せず、入力されるビ
デオ及びオーデイオ信号をそのまま出力端子OUT1〜
OUT3に出力する。
The output processor 43 outputs a video signal (ie, a video signal S3 input to the input terminal IN9 or IN10) which has been subjected to image processing by the image processing section 3C.
1 or S32), the video signal S31
Alternatively, S32 is converted into an SDI standard video signal. The audio combiner 44 outputs the embedded audio signal processed by the audio processing unit 3D (that is, the audio signal S33 input to the input terminal IN11), the S output from the output processor 43.
The embedded audio signal S33 is superimposed on the video signal of the DI standard. Thus, the video signals S31 and S32 processed by the image processing unit 3C and the audio processing unit 3
The audio signal S33 processed by D can be sent to the local storage 8, the VTR 7 or the on-air buffer 9 as an SDI standard signal. Incidentally, the input terminal IN1
When the video and audio signals input to .about.IN8 are output to the output terminals OUT1 to OUT3, since the video and audio signals are output from the respective devices according to the SDI standard, the output processor 43 and the audio combiner 44 are output. Performs no processing and outputs the input video and audio signals as they are to the output terminals OUT1 to OUT1.
Output to OUT3.

【0065】アウトプツトプロセツサ45、46も、同
様に、それぞれ画像処理部3Cによつて画像処理された
ビデオ信号S31又はS32を出力端子OUT4又はO
UT5に出力するとき、当該ビデオ信号S31又はS3
2をSDI規格のビデオ信号に変換する。これにより画
像処理部3Cによつて処理されたビデオ信号S31又は
S32をSDI規格の信号でプレビユウ専用のモニタ1
3やコンピユータ2に送出し得る。因みに、このアウト
プツトプロセツサ45、46も、入力端子IN1〜IN
8に入力されたビデオ及びオーデイオ信号を出力端子O
UT4、OUT5に出力する場合には、当該ビデオ及び
オーデイオ信号に何ら処理せず、そのまま出力端子OU
T4、OUT5に出力する。
Similarly, the output processors 45 and 46 respectively output the video signal S31 or S32 image-processed by the image processing section 3C to the output terminal OUT4 or O4.
When outputting to the UT5, the video signal S31 or S3
2 is converted into an SDI standard video signal. As a result, the video signal S31 or S32 processed by the image processing unit 3C is converted into an SDI standard signal to a monitor 1 dedicated to preview.
3 or computer 2. Incidentally, the output processors 45 and 46 also have input terminals IN1 to IN1.
8 outputs the video and audio signals input to output terminal O
When outputting to the UT4 and OUT5, the video and audio signals are not processed at all and the output terminal OU is output as it is.
Output to T4 and OUT5.

【0066】続いて図6を用いて画像処理部3Cについ
て説明する。この図6に示すように、画像処理部3Cは
大きく分けて制御回路50と、デマルチプレクサブロツ
ク51と、スイツチヤブロツク52と、特殊効果ブロツ
ク53と、ミキサブロツク54とを有している。制御回
路50はこの画像処理部3Cの全体を制御する回路であ
り、コントロールバス3Eを介して受けた制御コマンド
に基づいて制御信号S40、S41、S42、S43を
生成し、当該制御信号S40、S41、S42、S43
をそれぞれデマルチプレクサブロツク51、スイツチヤ
ブロツク52、特殊効果ブロツク53、ミキサブロツク
54に出力してその動作を制御する。これによりこの画
像処理部3Cでは、マトリクススイツチヤ部3Bから供
給されたビデオ信号(S23〜S27)に対して画像処
理を施す。因みに、ここで言う画像処理とは、ソースビ
デオ信号に特殊効果を施したり、バツクグラウンドビデ
オ信号に特殊効果のかかつたビデオ信号を挿入したりす
るアニメーシヨンエフエクトや、バツクグラウンドビデ
オ信号からフオアグラウンドビデオ信号に映像を切り換
えるトランジシヨンエフエクトのことである。
Next, the image processing section 3C will be described with reference to FIG. As shown in FIG. 6, the image processing section 3C roughly includes a control circuit 50, a demultiplexer block 51, a switch block 52, a special effect block 53, and a mixer block 54. The control circuit 50 is a circuit that controls the entire image processing unit 3C, generates control signals S40, S41, S42, and S43 based on control commands received via the control bus 3E, and controls the control signals S40 and S41. , S42, S43
Are output to a demultiplexer block 51, a switch block 52, a special effect block 53, and a mixer block 54 to control the operation. As a result, the image processing unit 3C performs image processing on the video signal (S23 to S27) supplied from the matrix switch unit 3B. By the way, the image processing referred to here is an animation effect for applying a special effect to a source video signal or inserting a video signal having a special effect into a background video signal, or a foreground from a background video signal. This is a transition effect that switches video to a video signal.

【0067】デマルチプレクサブロツク51は、SDI
規格の信号形式で送られてくるビデオ及びオーデイオ信
号S23〜S27からビデオ信号又はキー信号を抽出す
るブロツクである。このデマルチプレクサブロツク51
は、入力されるビデオ及びオーデイオ信号S23〜S2
7からそれぞれ信号抽出を行う5つのデマルチプレクサ
回路51A〜51Eからなつている。デマルチプレクサ
回路51Aは、ビデオ及びオーデイオ信号S23を形成
する各パケツトのペイロード部からキー信号を抽出する
回路であり、当該キー信号の先頭に配置されている同期
信号及びヘツダ情報に基づいて抽出を行う。またデマル
チプレクサ回路51Bは、ビデオ及びオーデイオ信号S
24を形成する各パケツトのペイロード部からビデオ信
号を抽出する回路であり、当該ビデオ信号の先頭に配置
されている同期信号及びヘツダ情報に基づいて抽出を行
う。同様に、デマルチプレクサ回路51Cはビデオ及び
オーデイオ信号S25からキー信号を抽出し、デマルチ
プレクサ回路51Dはビデオ及びオーデイオ信号S26
からビデオ信号を抽出し、デマルチプレクサ回路51E
はビデオ及びオーデイオ信号S27からビデオ信号を抽
出する。
The demultiplexer block 51 is connected to the SDI
This block extracts a video signal or a key signal from video and audio signals S23 to S27 sent in a standard signal format. This demultiplexer block 51
Are input video and audio signals S23 to S2
7 includes five demultiplexer circuits 51A to 51E for extracting signals. The demultiplexer circuit 51A is a circuit for extracting a key signal from a payload portion of each packet forming the video and audio signal S23, and performs extraction based on a synchronization signal and header information arranged at the head of the key signal. . The demultiplexer circuit 51B also controls the video and audio signals S
24 is a circuit for extracting a video signal from the payload portion of each packet forming the H.24, and performs extraction based on a synchronization signal and header information arranged at the head of the video signal. Similarly, the demultiplexer circuit 51C extracts the key signal from the video and audio signal S25, and the demultiplexer circuit 51D extracts the video and audio signal S26.
Video signal is extracted from the
Extracts a video signal from the video and audio signal S27.

【0068】スイツチヤブロツク52は、抽出されたキ
ー信号及びビデオ信号に対してトランジシヨンエフエク
トのための処理を施すブロツクであり、ワイプ信号発生
器52A、52B、キー信号処理回路52C、52D、
及びビデオ信号処理回路52E、52Fからなつてい
る。ワイプ信号発生器52Aは、制御回路50からの制
御信号S41に基づいてオペレータが指定したトラジシ
ヨンエフエクトに対応するワイプ信号を生成し、当該ワ
イプ信号をキー信号処理回路52C及びビデオ信号処理
回路52Eに送出する。キー信号処理回路52Cは、供
給されるワイプ信号に基づいてデマルチプレクサ回路5
1Aから供給されるキー信号を当該ワイプ信号に対応す
るように変換し(又は供給されるワイプ信号に基づいて
当該ワイプ信号に対応する所望のキー信号を新たに生成
する)、その結果得られるキー信号を後述するミキサブ
ロツク54に送出する。またビデオ信号処理回路52E
は、供給されるワイプ信号に基づいてデマルチプレクサ
回路51Bから供給されるビデオ信号を当該ワイプ信号
に対応するように変換し、その結果得られるビデオ信号
を後述するミキサブロツク54に送出する。
The switch block 52 is a block for performing a process for a transition effect on the extracted key signal and video signal, and includes wipe signal generators 52A and 52B, key signal processing circuits 52C and 52D.
And video signal processing circuits 52E and 52F. The wipe signal generator 52A generates a wipe signal corresponding to the transition effect specified by the operator based on the control signal S41 from the control circuit 50, and applies the wipe signal to the key signal processing circuit 52C and the video signal processing circuit 52E. To send to. The key signal processing circuit 52C performs the demultiplexer circuit 5 based on the supplied wipe signal.
The key signal supplied from 1A is converted so as to correspond to the wipe signal (or a desired key signal corresponding to the wipe signal is newly generated based on the supplied wipe signal), and the resultant key is obtained. The signal is sent to a mixer block 54 described later. The video signal processing circuit 52E
Converts the video signal supplied from the demultiplexer circuit 51B based on the supplied wipe signal so as to correspond to the wipe signal, and sends the resulting video signal to a mixer block 54 described later.

【0069】同様に、ワイプ信号発生器52Bは、制御
回路50からの制御信号S41に基づいてオペレータが
指定したトラジシヨンエフエクトに対応するワイプ信号
を生成し、当該ワイプ信号をキー信号処理回路52D及
びビデオ信号処理回路52Fに送出する。キー信号処理
回路52Dは、供給されるワイプ信号に基づいてデマル
チプレクサ回路51Cから供給されるキー信号を当該ワ
イプ信号に対応するように変換し(又は供給されるワイ
プ信号に基づいて当該ワイプ信号に対応する所望のキー
信号を新たに生成する)、その結果得られるキー信号を
後述する特殊効果ブロツク53に送出する。またビデオ
信号処理回路52Fは、供給されるワイプ信号に基づい
てデマルチプレクサ回路51Dから供給されるビデオ信
号を当該ワイプ信号に対応するように変換し、その結果
得られるビデオ信号を後述する特殊効果ブロツク53に
送出する。
Similarly, the wipe signal generator 52B generates a wipe signal corresponding to the transition effect specified by the operator based on the control signal S41 from the control circuit 50, and converts the wipe signal into a key signal processing circuit 52D. And to the video signal processing circuit 52F. The key signal processing circuit 52D converts the key signal supplied from the demultiplexer circuit 51C based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal supplied to the wipe signal based on the supplied wipe signal). A corresponding desired key signal is newly generated), and the resulting key signal is sent to a special effect block 53 described later. The video signal processing circuit 52F converts the video signal supplied from the demultiplexer circuit 51D based on the supplied wipe signal so as to correspond to the wipe signal, and converts the resulting video signal into a special effect block described later. 53.

【0070】特殊効果ブロツク53は、制御回路50か
ら供給される制御信号S42に基づいて、キー信号処理
回路52Dから出力されるキー信号及びビデオ信号処理
回路52Fから出力されるビデオ信号を3次元的に画像
変換するためのブロツクであり、3次元アドレス発生回
路53A、フレームメモリ53B、53C及び補間回路
53D、53Eからなつている。3次元アドレス発生回
路53Aは、制御信号S42に基づいて、オペレータが
指定した3次元的な画像変換を行うための変換アドレス
を生成し、当該変換アドレスをフレームメモリ53B、
53C及び補間回路53D、53Eに出力する。
The special effect block 53 three-dimensionally converts the key signal output from the key signal processing circuit 52D and the video signal output from the video signal processing circuit 52F based on the control signal S42 supplied from the control circuit 50. This is a block for converting an image into a three-dimensional image, and comprises a three-dimensional address generation circuit 53A, frame memories 53B and 53C, and interpolation circuits 53D and 53E. The three-dimensional address generation circuit 53A generates a conversion address for performing three-dimensional image conversion specified by the operator based on the control signal S42, and stores the conversion address in the frame memory 53B,
53C and the interpolation circuits 53D and 53E.

【0071】フレームメモリ53Bは、キー信号処理回
路52Dから供給されるキー信号を順次内部のメモリ領
域に格納すると共に、その格納されたキー信号を変換ア
ドレスに基づいて読み出すことにより、当該キー信号に
対して3次元的な画像変換を施し、その結果得られるキ
ー信号を補間回路53Dに送出する。同様に、フレーム
メモリ53Bは、ビデオ信号処理回路52Fから供給さ
れるビデオ信号を順次内部のメモリ領域に格納すると共
に、その格納されたビデオ信号を変換アドレスに基づい
て読み出すことにより、当該ビデオ信号に対して3次元
的な画像変換を施し、その結果得られるビデオ信号を補
間回路53Eに送出する。
The frame memory 53B sequentially stores the key signal supplied from the key signal processing circuit 52D in an internal memory area, and reads out the stored key signal based on the conversion address, thereby obtaining the key signal. On the other hand, three-dimensional image conversion is performed, and the key signal obtained as a result is sent to the interpolation circuit 53D. Similarly, the frame memory 53B sequentially stores the video signals supplied from the video signal processing circuit 52F in an internal memory area, and reads out the stored video signals based on the conversion address, thereby converting the video signals into the video signals. The image signal is subjected to three-dimensional image conversion, and the resulting video signal is sent to the interpolation circuit 53E.

【0072】補間回路53Dは3次元的な変換処理が施
されたキー信号に補間処理を施す回路であり、変換アド
レスに基づいてキー信号の画素を空間的に補間し、その
結果得られるキー信号を後述するミキサブロツク54に
送出する。同様に、補間回路53Eは3次元的な変換処
理が施されたビデオ信号に補間処理を施す回路であり、
変換アドレスに基づいてビデオ信号の画素を空間的に補
間し、その結果得られるビデオ信号を後述するミキサブ
ロツク54に送出する。
The interpolation circuit 53D is a circuit for performing an interpolation process on the key signal that has been subjected to the three-dimensional conversion process. The interpolation circuit 53D spatially interpolates the pixels of the key signal based on the conversion address, and obtains the key signal obtained as a result. Is sent to a mixer block 54 described later. Similarly, the interpolation circuit 53E is a circuit that performs interpolation processing on a video signal that has been subjected to three-dimensional conversion processing.
The pixels of the video signal are spatially interpolated based on the conversion address, and the resulting video signal is sent to a mixer block 54 described later.

【0073】ミキサブロツク54は制御信号S43によ
る指示に従つてビデオ信号を合成するブロツクであり、
2つのミツクス回路54A、54Bからなつている。ミ
ツクス回路54Aは、特殊効果ブロツク53から出力さ
れるキー信号に基づいて、当該特殊効果ブロツク53に
よつて画像変換されたビデオ信号とデマルチプレクサ回
路51Eから出力されるバツクグラウンドビデオ信号と
してのビデオ信号とを合成することによりビデオ信号S
31を生成する。またミツクス回路54Bは、スイツチ
ヤブロツク52から出力されるキー信号に基づいて、当
該スイツチヤブロツク52から出力されるビデオ信号と
ミツクス回路54Aから出力されるビデオ信号S31と
を合成することによりビデオ信号S32を生成する。こ
のようにして生成されたビデオ信号S31、S32は、
上述したようにマトリクススイツチヤ部3Bに送出され
る。
The mixer block 54 is a block for synthesizing a video signal in accordance with an instruction from the control signal S43.
It comprises two mixing circuits 54A and 54B. Based on the key signal output from the special effect block 53, the mix circuit 54A converts the video signal image-converted by the special effect block 53 and the video signal as the background video signal output from the demultiplexer circuit 51E. And the video signal S
31 is generated. Further, the mixing circuit 54B combines the video signal output from the switching block 52 and the video signal S31 output from the mixing circuit 54A based on the key signal output from the switching block 52, thereby obtaining a video signal. S32 is generated. The video signals S31 and S32 thus generated are
As described above, the signal is sent to the matrix switch unit 3B.

【0074】因みに、単に2つの映像を切り換えるだけ
のトランジシヨンエフエクトを行う場合には、デマルチ
プレクサ回路51Eから出力されるビデオ信号をバツク
グラウンドビデオ信号としてミツクス回路54Aを介し
てミツクス回路54Bに入力すると共に、ビデオ信号処
理回路52Eから出力されるビデオ信号をフオアグラウ
ンドビデオ信号としてミツクス回路54Bに入力し、そ
の2つのビデオ信号をキー信号処理回路52Cから出力
されるキー信号に基づいて合成する。これによりバツク
グラウンドビデオ信号からフオアグラウンドビデオ信号
に切り換わるビデオ信号S32が生成される。
When performing a transition effect of simply switching between two images, the video signal output from the demultiplexer circuit 51E is input to the mix circuit 54B via the mix circuit 54A as a background video signal. At the same time, the video signal output from the video signal processing circuit 52E is input to the mixing circuit 54B as a foreground video signal, and the two video signals are synthesized based on the key signal output from the key signal processing circuit 52C. As a result, a video signal S32 that switches from the background video signal to the foreground video signal is generated.

【0075】またページターンのような画像変換を伴う
トランジシヨンエフエクトを行う場合には、デマルチプ
レクサ回路51Eから出力されるビデオ信号をバツクグ
ラウンドビデオ信号としてミツクス回路54Aに入力す
ると共に、ビデオ信号処理回路52Fから出力されるビ
デオ信号をフオアグラウンドビデオ信号として特殊効果
ブロツク53を介して画像変換した後にミツクス回路5
4Aに入力し、その2つのビデオ信号を特殊効果ブロツ
ク53を介して信号処理されたキー信号に基づいて合成
する。これによりページをめくるようにしてバツクグラ
ウンドビデオ信号からフオアグラウンドビデオ信号に切
り換わるビデオ信号S31が生成される。
When performing a transition effect involving image conversion such as a page turn, the video signal output from the demultiplexer circuit 51E is input to the mixer circuit 54A as a background video signal, and the video signal processing is performed. After the video signal output from the circuit 52F is converted as a foreground video signal through the special effect block 53, the mixing circuit 5
4A, and combines the two video signals via the special effect block 53 based on the key signal processed. As a result, a video signal S31 that switches from the background video signal to the foreground video signal is generated so as to turn the page.

【0076】またピクチヤインピクチヤのようなアニメ
ーシヨンエフエクトを行う場合には、デマルチプレクサ
回路51Eから出力されるビデオ信号をバツクグラウン
ドビデオ信号としてミツクス回路54Aに入力すると共
に、ビデオ信号処理回路52Fから出力されるビデオ信
号を挿入素材として特殊効果ブロツク53を介して画像
変換した後にミツクス回路54Aに入力し、その2つの
ビデオ信号を特殊効果ブロツク53を介して信号処理さ
れたキー信号に基づいて合成する。これによりバツクグ
ラウンドビデオ信号に挿入素材が挿入されたピクチヤイ
ンピクチヤのビデオ信号S31が生成される。
When performing an animation effect such as a picture-in-picture, the video signal output from the demultiplexer circuit 51E is input to the mixer circuit 54A as a background video signal, and the video signal processing circuit The video signal output from the video signal 52F is converted as an insertion material through the special effect block 53 into an image and then input to the mixing circuit 54A. The two video signals are processed based on the key signal processed through the special effect block 53. And combine them. As a result, a picture-in-picture video signal S31 in which the insertion material has been inserted into the background video signal is generated.

【0077】続いて図7を用いて音声処理部3Dについ
て説明する。この図7に示すように、音声処理部3Dは
大きく分けて制御回路55、入力信号処理ブロツク5
6、補助入力信号処理ブロック57、ミキサブロツク5
8及び出力信号処理ブロツク59からなつている。制御
回路55はこの音声処理部3Dの全体を制御する回路で
あり、コントロールバス3Eを介して受けた制御コマン
ドに基づいて制御信号S45、S46、S47、S48
を生成し、当該制御信号S45、S46、S47、S4
8をそれぞれ入力信号処理ブロツク56、補助入力信号
処理ブロツク57、ミキサブロツク58、出力信号処理
ブロツク59に出力してその動作を制御する。これによ
りこの音声処理部3Dでは、マトリクススイツチヤ部3
Bから供給されたオーデイオ信号(S28〜S30)に
対して音声処理が施される。因みに、ここで言う音声処
理とは、オーデイオ信号のレベル調整と合成のことであ
る。
Next, the audio processing unit 3D will be described with reference to FIG. As shown in FIG. 7, the audio processing unit 3D is roughly divided into a control circuit 55, an input signal processing block 5,
6. Auxiliary input signal processing block 57, mixer block 5.
8 and an output signal processing block 59. The control circuit 55 is a circuit that controls the entire audio processing unit 3D, and controls signals S45, S46, S47, and S48 based on a control command received via the control bus 3E.
And the control signals S45, S46, S47, S4
8 is output to an input signal processing block 56, an auxiliary input signal processing block 57, a mixer block 58, and an output signal processing block 59 to control the operation. As a result, in the audio processing unit 3D, the matrix switch unit 3
Audio processing is performed on the audio signal (S28 to S30) supplied from B. By the way, the audio processing here means the level adjustment and synthesis of the audio signal.

【0078】入力信号処理ブロツク56は、SDI規格
の信号形式がパラレル化され送られてくるビデオ及びオ
ーデイオ信号S28〜S30からオーデイオ信号を抽出
し、そのオーディオ信号を信号処理部(DSP部)で処
理するためにDSPフォーマットのオーディオ信号に変
換して送出するブロツクである。この入力信号処理ブロ
ツク56は、信号分離回路としてのセパレータ56A〜
56Cを有している。セパレータ56A〜56Cは、そ
れぞれパラレル化されたSDI規格のビデオ及びオーデ
イオ信号S28〜S30からDSPフォーマットのオー
デイオ信号を抽出する回路である。すなわち、セパレー
タ56A〜56Cは、入力されるビデオ及びオーデイオ
信号S28〜S30からエンベデツトオーデイオ信号を
抽出して、シリアル化した後オーディオ信号をそれぞれ
ミキサブロツク58に送出する。
The input signal processing block 56 extracts an audio signal from the video and audio signals S28 to S30 sent in parallel with the signal format of the SDI standard, and processes the audio signal in a signal processing unit (DSP unit). This is a block to convert the audio signal into a DSP format audio signal and send it out. The input signal processing block 56 includes separators 56A to 56A as signal separation circuits.
56C. The separators 56A to 56C are circuits for extracting DSP format audio signals from the parallelized SDI standard video and audio signals S28 to S30, respectively. That is, the separators 56A to 56C extract the embedded audio signal from the input video and audio signals S28 to S30, serialize and send the serialized audio signal to the mixer block 58, respectively.

【0079】補助入力信号処理ブロック57は、外部か
ら入力されるAES/EBU(Audio Engineering Soci
ety / European Broadcasting Union )フォーマットの
オーディオ信号をDSPフォーマットのオーディオ信号
に変換するブロックである。この補助入力信号処理ブロ
ック57は、レート変換のためのサンプリングレートコ
ンバータ57A〜57Dと、フォーマット変換回路とし
てのデコーダ57E〜57Hとを有している。サンプリ
ングレートコンバータ57A〜57Dでは、供給された
AES/EBUフォーマットのオーディオ信号の異なる
サンプリングレートが音声処理部3D内の所定のサンプ
リングレートに変換される。サンプリングレートが変換
されたオーディオ信号は、デコーダ57E〜57Hに送
出される。デコーダ57E〜57Hは、それぞれオーデ
イオ信号をフオーマツト変換する回路であり、入力され
るAES/EBUフォーマットのオーデイオ信号をそれ
ぞれDSPフォーマットのオーディオ信号に変換し、そ
の結果得られるオーデイオ信号をそれぞれミキサブロツ
ク58に送出する。
The auxiliary input signal processing block 57 is provided with an AES / EBU (Audio Engineering Soci
This block converts an audio signal of the format (ety / European Broadcasting Union) into an audio signal of the DSP format. The auxiliary input signal processing block 57 has sampling rate converters 57A to 57D for rate conversion and decoders 57E to 57H as format conversion circuits. In the sampling rate converters 57A to 57D, different sampling rates of the supplied AES / EBU format audio signal are converted into predetermined sampling rates in the audio processing unit 3D. The audio signals whose sampling rates have been converted are sent to decoders 57E to 57H. The decoders 57E to 57H are circuits for format-converting the audio signals, convert the input AES / EBU format audio signals into DSP format audio signals, and convert the resulting audio signals to the mixer block 58, respectively. Send out.

【0080】ミキサブロツク58は、オーデイオ信号の
レベル調整を行うと共に、信号合成を行うブロツクであ
り、可変抵抗回路58A〜58Nと、加算回路58O、
58Pと、可変抵抗回路58A〜58Nの信号レベルを
専用コントローラ5へ送信するメータデータ発生回路5
8Qとからなつている。入力信号処理ブロツク56から
供給されたオーデイオ信号及び補助入力信号処理ブロッ
ク57から供給されたオーディオ信号は、それぞれ右側
成分と左側成分に分離された後に可変抵抗回路58A〜
58Gと可変抵抗回路58H〜58Nに入力される。可
変抵抗回路58A〜58Gと58H〜58Nは、コンピ
ユータ2のモニタ2Bに表示されるGUIのオーデイオ
フエーダ又は専用コントローラ5に設けられたオーデイ
オフエーダの操作に連動して抵抗値が変化するようにな
されており、これにより入力されるオーデイオ信号をそ
れぞれオペレータが指定した信号レベルにレベル調整す
る。
The mixer block 58 adjusts the level of the audio signal and synthesizes the signal. The mixer block 58 includes variable resistance circuits 58A to 58N, an addition circuit 580,
58P and a meter data generating circuit 5 for transmitting the signal levels of the variable resistance circuits 58A to 58N to the dedicated controller 5.
8Q. The audio signal supplied from the input signal processing block 56 and the audio signal supplied from the auxiliary input signal processing block 57 are separated into right and left components, respectively, and then are separated into variable resistance circuits 58A to 58A.
58G and the variable resistance circuits 58H to 58N. The variable resistance circuits 58A to 58G and 58H to 58N change their resistance values in conjunction with the operation of an audio off-adapter of the GUI displayed on the monitor 2B of the computer 2 or an audio off-ader provided in the dedicated controller 5. The level of the input audio signal is adjusted to a signal level designated by the operator.

【0081】可変抵抗回路58A〜58Gによつてレベ
ル調整されたオーデイオ信号は、それぞれ加算回路58
Oに入力され、ここで加算された後に出力信号処理ブロ
ツク59に送出される。同様に、可変抵抗回路58H〜
58Nによつてレベル調整されたオーデイオ信号は、そ
れぞれ加算回路58Pに入力され、ここで加算された後
に出力信号処理ブロツク59に送出される。メータデー
タ発生回路58Qは、後述する専用コントローラ5のパ
ネルのディジタルメータを直接制御するように、この時
の信号レベルをデータへ変換する。変換されたデータ
は、専用コントローラ5へ送出される。
The audio signals whose levels have been adjusted by the variable resistor circuits 58A to 58G are added to the adder circuit 58, respectively.
The signal is input to O, added here, and sent to an output signal processing block 59. Similarly, the variable resistance circuits 58H to 58H
The audio signals whose levels have been adjusted by 58N are input to adders 58P, respectively, where they are added to each other and sent to an output signal processing block 59. The meter data generating circuit 58Q converts the signal level at this time into data so as to directly control a digital meter on a panel of the dedicated controller 5 described later. The converted data is sent to the dedicated controller 5.

【0082】出力信号処理ブロツク59は出力するDS
Pフォーマットのオーデイオ信号をSDI規格の信号形
式をパラレル化したエンベデッド・オーディオ信号に変
換するブロツクである。この出力信号処理ブロック59
は、信号合成回路としてのエンベデツト回路59Aと、
フオーマツト変換回路としてのエンコーダ59B、59
Cとを有している。エンベデツト回路59Aは、マトリ
クススイツチヤ部3Bのコンバイナ44によつてオーデ
イオ信号をSDI規格のビデオ信号に重畳し得るように
所定の信号形式に信号変換を行う回路であり、加算回路
58O及び58Pから供給されたシリアルのオーディオ
信号を合成した後に所定の信号形式、すなわちパラレル
のエンベデッド・オーディオ信号に信号変換を行う。こ
の処理により得られたエンベデッド・オーデイオ信号S
33は、上述したようにマトリクススイツチヤ部3Bの
コンバイナ44に送出される。
The output signal processing block 59 outputs the DS to be output.
This block converts a P format audio signal into an embedded audio signal obtained by parallelizing the signal format of the SDI standard. This output signal processing block 59
Is an embedded circuit 59A as a signal synthesis circuit,
Encoders 59B and 59 as format conversion circuits
C. The embedded circuit 59A is a circuit that performs signal conversion into a predetermined signal format so that the audio signal can be superimposed on the SDI standard video signal by the combiner 44 of the matrix switch unit 3B, and is supplied from the adders 580 and 58P. After the synthesized serial audio signal is synthesized, the signal is converted into a predetermined signal format, that is, a parallel embedded audio signal. The embedded audio signal S obtained by this processing
33 is sent to the combiner 44 of the matrix switch unit 3B as described above.

【0083】エンコーダ59BはDSPフオーマツトの
オーデイオ信号をAES/EBUフォーマットのオーデ
イオ信号にフオーマツト変換する回路であり、加算回路
58Oから出力されたオーデイオ信号をAES/EBU
フォーマットのオーデイオ信号S17にフオーマツト変
換し、音声確認用のスピーカ11(図1参照)に送出す
る。同様に、エンコーダ59CはDSPフオーマツトの
オーデイオ信号をAES/EBUフォーマットのオーデ
イオ信号にフオーマツト変換する回路であり、加算回路
58Pから出力されたオーデイオ信号をAES/EBU
フォーマットのオーデイオ信号S18にフオーマツト変
換し、音声確認用のスピーカ12(図1参照)に送出す
る。
The encoder 59B converts the audio signal of the DSP format into an AES / EBU format audio signal. The encoder 59B converts the audio signal output from the adder circuit 580 into an AES / EBU signal.
The audio signal S17 is format-converted into an audio signal S17 in a format, and transmitted to a speaker 11 for audio confirmation (see FIG. 1). Similarly, the encoder 59C is a circuit for format-converting the audio signal of the DSP format into an audio signal of the AES / EBU format, and converts the audio signal output from the adder circuit 58P into the AES / EBU.
The audio signal is format-converted into an audio signal S18 in a format and transmitted to a speaker 12 for audio confirmation (see FIG. 1).

【0084】(4)ローカルストレージの構成 次にこの項では編集処理装置3に接続されるデータ記憶
手段としてローカルストレージ8について説明する。図
8に示すように、このローカルストレージ8は、入出力
インターフエイスとしてのデータ入出力ブロツク60
と、このローカルストレージ8全体の動作を制御するシ
ステムコントロールブロツク61と、ビデオデータを記
憶するデイスクアレイブロツク62と、オーデイオデー
タを記憶するデイスクアレイブロツク63とを有してい
る。
(4) Configuration of Local Storage Next, in this section, the local storage 8 will be described as data storage means connected to the editing processing device 3. As shown in FIG. 8, the local storage 8 has a data input / output block 60 as an input / output interface.
And a system control block 61 for controlling the operation of the entire local storage 8, a disk array block 62 for storing video data, and a disk array block 63 for storing audio data.

【0085】データ入出力ブロツク60は入力1チヤン
ネル、出力2チヤンネルの構成を有しており、システム
コントロールブロツク61からの制御信号S60に基づ
いて、編集処理装置3から供給されたビデオ及びオーデ
イオ信号S15にデータ記憶に先立つて所定の信号処理
を施すと共に、デイスクアレイブロツク62、63から
読み出したデータに所定の信号処理を施してビデオ及び
オーデイオ信号S13、S14として出力する。
The data input / output block 60 has the structure of one input channel and two output channels. Based on the control signal S60 from the system control block 61, the video and audio signal S15 supplied from the editing processing device 3 are provided. The data read from the disk array blocks 62 and 63 are subjected to predetermined signal processing, and the data read from the disk array blocks 62 and 63 are subjected to predetermined signal processing and output as video and audio signals S13 and S14.

【0086】具体的に説明すると、まず編集処理装置3
から供給されたビデオ及びオーデイオ信号S15はエン
コーダ60Aに入力される。エンコーダ60AはSDI
規格のビデオ及びオーデイオ信号S15からビデオ信号
S61とオーデイオ信号S62を抽出し、当該ビデオ信
号S61をビデオ圧縮回路60Bに出力すると共に、オ
ーデイオ信号S62をオーデイオ圧縮回路60Jに出力
する。ビデオ圧縮回路60Bは、圧縮率1/10のMPEG
規格でビデオ信号S61を圧縮し、その圧縮したビデオ
データをバツフアメモリ60Cに格納する。同様に、オ
ーデイオ圧縮回路60Jは、所定の音声圧縮方式を用い
てオーデイオ信号S62を圧縮し、その圧縮したオーデ
イオデータをバツフアメモリ60Kに格納する。バツフ
アメモリ60C、60Kに格納されたビデオデータとオ
ーデイオデータは、システムコントロールブロツク61
の制御の基に順次読み出され、ビデオデータ用のデイス
クアレイブロツク62とオーデイオ用のデイスクアレイ
ブロツク63にそれぞれ記録される。
More specifically, first, the editing processor 3
The video and audio signal S15 supplied from is supplied to the encoder 60A. Encoder 60A is SDI
The video signal S61 and the audio signal S62 are extracted from the standard video and audio signal S15, the video signal S61 is output to the video compression circuit 60B, and the audio signal S62 is output to the audio compression circuit 60J. The video compression circuit 60B uses an MPEG compression rate of 1/10.
The video signal S61 is compressed according to the standard, and the compressed video data is stored in the buffer memory 60C. Similarly, the audio compression circuit 60J compresses the audio signal S62 using a predetermined audio compression method, and stores the compressed audio data in the buffer memory 60K. The video data and audio data stored in the buffer memories 60C and 60K are stored in the system control block 61.
Are sequentially read out under the control of, and are recorded in a disk array block 62 for video data and a disk array block 63 for audio, respectively.

【0087】一方、再生第1チヤンネルのビデオデータ
としてデイスクアレイブロツク62から読み出されたビ
デオデータは、システムコントロールブロツク61の制
御の基に、順次バツフアメモリ60Fに格納される。同
様に、再生第1チヤンネルのオーデイオデータとしてデ
イスクアレイブロツク63から読み出されたオーデイオ
データは、システムコントロールブロツク61の制御の
基に、順次バツフアメモリ60Mに格納される。第1の
ビデオ伸長回路60Eは、圧縮率1/10のMPEG規格で
圧縮されているビデオデータをバツフアメモリ60Fか
ら読み出し、当該ビデオデータを伸長処理した後、その
ビデオデータS63を第1のデコーダ60Dに出力す
る。同様に、第1のオーデイオ伸長回路60Lは、圧縮
されているオーデイオデータをバツフアメモリ60Mか
ら読み出し、当該オーデイオデータを伸長処理した後、
そのオーデイオデータS64を第1のデコーダ60Dに
出力する。第1のデコーダ60DはSDI規格のフオー
マツトに基づいてビデオデータS63にオーデイオデー
タS64を重畳する。これによりデイスクアレイブロツ
ク62から読み出した再生第1チヤンネルのビデオデー
タと、デイスクアレイブロツク63から読み出した再生
第1チヤンネルのオーデイオデータとをSDI規格のビ
デオ及びオーデイオ信号S13として送出し得る。
On the other hand, the video data read from the disk array block 62 as the video data of the reproduction first channel is sequentially stored in the buffer memory 60F under the control of the system control block 61. Similarly, the audio data read from the disk array block 63 as the audio data of the reproduction first channel is sequentially stored in the buffer memory 60M under the control of the system control block 61. The first video decompression circuit 60E reads video data compressed according to the MPEG standard having a compression ratio of 1/10 from the buffer memory 60F, decompresses the video data, and then transmits the video data S63 to the first decoder 60D. Output. Similarly, the first audio decompression circuit 60L reads out the compressed audio data from the buffer memory 60M, decompresses the audio data, and
The audio data S64 is output to the first decoder 60D. The first decoder 60D superimposes the audio data S64 on the video data S63 based on the format of the SDI standard. As a result, the video data of the reproduced first channel read from the disk array block 62 and the audio data of the reproduced first channel read from the disk array block 63 can be transmitted as the SDI standard video and audio signal S13.

【0088】同様に、再生第2チヤンネルのビデオデー
タとしてデイスクアレイブロツク62から読み出された
ビデオデータは、システムコントロールブロツク61の
制御の基に、順次バツフアメモリ60Iに格納される。
また再生第2チヤンネルのオーデイオデータとしてデイ
スクアレイブロツク63から読み出されたオーデイオデ
ータも、システムコントロールブロツク61の制御の基
に、順次バツフアメモリ60Pに格納される。第2のビ
デオ伸長回路60Hは、圧縮率1/10のMPEG規格で圧
縮されているビデオデータをバツフアメモリ60Iから
読み出し、当該ビデオデータを伸長処理した後、そのビ
デオデータS65を第2のデコーダ60Gに出力する。
同様に、第2のオーデイオ伸長回路60Nも、圧縮され
ているオーデイオデータをバツフアメモリ60Pから読
み出し、当該オーデイオデータを伸長処理した後、その
オーデイオデータS66を第2のデコーダ60Gに出力
する。第2のデコーダ60GはSDI規格のフオーマツ
トに基づいてビデオデータS65にオーデイオデータS
66を重畳する。これによりデイスクアレイブロツク6
2から読み出した再生第2チヤンネルのビデオデータ
と、デイスクアレイブロツク63から読み出した再生第
2チヤンネルのオーデイオデータとをSDI規格のビデ
オ及びオーデイオ信号S14として送出し得る。
Similarly, video data read from the disk array block 62 as video data of the second reproduction channel is sequentially stored in the buffer memory 60I under the control of the system control block 61.
Also, audio data read from the disk array block 63 as audio data of the reproduction second channel is sequentially stored in the buffer memory 60P under the control of the system control block 61. The second video decompression circuit 60H reads video data compressed according to the MPEG standard having a compression rate of 1/10 from the buffer memory 60I, decompresses the video data, and then transmits the video data S65 to the second decoder 60G. Output.
Similarly, the second audio decompression circuit 60N reads the compressed audio data from the buffer memory 60P, decompresses the audio data, and outputs the audio data S66 to the second decoder 60G. The second decoder 60G converts the audio data S65 into the video data S65 based on the format of the SDI standard.
66 are superimposed. Thus, disk array block 6
2 and the reproduced second channel audio data read from the disk array block 63 can be transmitted as SDI standard video and audio signals S14.

【0089】システムコントロールブロツク61は、こ
のローカルストレージ8の全体を制御するブロツクであ
り、CPU61Aと、DMAコントローラ(Direct Mem
oryAccess controller )61B、61Cと、SCSI
プロトコルコントローラ61D、61Eと、制御信号S
12の入力インターフエイス61Fとを有している。C
PU61Aはシステムコントロールブロツク61の中心
的存在である制御回路を構成しており、編集処理装置3
からRS−422の通信プロトコルで送られてくる制御
信号S12を入力インターフエイス61Fを介して受
け、その制御信号S12が示す制御コマンドに基づい
て、DMAコントローラ61B、61CとSCSIプロ
トコルコントローラ61D、61Eの動作を制御する。
The system control block 61 is a block for controlling the whole of the local storage 8, and includes a CPU 61A and a DMA controller (Direct Memory).
oryAccess controller) 61B, 61C and SCSI
Protocol controllers 61D and 61E and a control signal S
And 12 input interfaces 61F. C
The PU 61A constitutes a control circuit which is a central part of the system control block 61, and the editing processing device 3
From the DMA controller 61B, 61C and the SCSI protocol controllers 61D, 61E based on the control command indicated by the control signal S12. Control behavior.

【0090】このように、ビデオデータなどのような大
容量のデータを記録する場合には、一般的に複数のハー
ドディスクを並列に同時に動作させることが可能なディ
スクアレイ装置が用いられる。この実施の一形態で用い
られているディスクアレイ装置は、記録するデータの冗
長性を持たせてディスクアレイ内のいずれかのハードデ
ィスクが故障しても、故障したハードディスクに記録さ
れていたデータを復旧(再構築動作とも言う)すること
ができる機能を有している。一般的に、このような機能
を有している装置をRAID(Redandant Array of Ine
xpensive Disks)と呼んでいる。
As described above, when recording large-capacity data such as video data, a disk array device capable of operating a plurality of hard disks simultaneously in parallel is generally used. The disk array device used in this embodiment restores the data recorded on the failed hard disk even if one of the hard disks in the disk array fails due to the redundancy of the data to be recorded. (Also referred to as a reconstruction operation). Generally, a device having such a function is referred to as a RAID (Redandant Array of Ine
xpensive Disks).

【0091】そのディスクアレイの一例を図9に示す。
ディスクアレイブロック62は、バッファメモリ62A
と、ディスクアレイコントローラ62Bと、データマル
チプレクサ62Cと、パリティデータ演算回路62D
と、SCSIプロトコルコントローラ62E、62F、
62G、62H、62Iと、ハードディスク(以下、H
DDと称する)62J、62K、62L、62Mと、パ
リティデータ用のHDD62Nとから構成される。
FIG. 9 shows an example of the disk array.
The disk array block 62 includes a buffer memory 62A.
, A disk array controller 62B, a data multiplexer 62C, and a parity data operation circuit 62D.
And SCSI protocol controllers 62E, 62F,
62G, 62H, 62I and a hard disk (hereinafter referred to as H
DD) 62J, 62K, 62L, and 62M, and a parity data HDD 62N.

【0092】ディスクアレイコントローラ62Bは、こ
のブロックの各回路を制御する。バッファメモリ62A
は、SCSIプロトコルコントローラ61Dから供給さ
れたデータを一旦記憶する。データマルチプレクサ62
Cは、バッファメモリ62Aから供給されたデータを選
択して、各ハードディスクに振り分ける。SCSIプロ
トコルコントローラ62E、62F、62G、62H
は、SCSIプロトコルに変換する。
The disk array controller 62B controls each circuit of this block. Buffer memory 62A
Temporarily stores the data supplied from the SCSI protocol controller 61D. Data multiplexer 62
C selects the data supplied from the buffer memory 62A and distributes the data to each hard disk. SCSI protocol controllers 62E, 62F, 62G, 62H
Converts to the SCSI protocol.

【0093】HDD62J、62K、62L、62M
は、振り分けられた一般データを記憶する。パリティデ
ータ演算回路62Dは、データマルチプレクサ62Cに
よって各HDD62J、62K、62L、62Mに振り
分けられるデータを受け取って、これらのデータからパ
リティデータPDを演算する。パリティデータ用のHD
D62Nは、演算されたパリティデータPDを記憶す
る。
HDD 62J, 62K, 62L, 62M
Stores the sorted general data. The parity data calculation circuit 62D receives the data distributed to the HDDs 62J, 62K, 62L, and 62M by the data multiplexer 62C, and calculates parity data PD from these data. HD for parity data
D62N stores the calculated parity data PD.

【0094】このパリティデータ演算回路62Dでは、
HDD62J、62K、62M、62Nに記憶される各
データをD0、D1、D2、D3とすると、D0+D1
+D2+D3が奇数のときは、パリティデータPD=0
と演算され、D0+D1+D2+D3が偶数のときは、
パリティデータPD=1と演算される。
In the parity data operation circuit 62D,
Assuming that the data stored in the HDDs 62J, 62K, 62M, and 62N are D0, D1, D2, and D3, D0 + D1
When + D2 + D3 is an odd number, parity data PD = 0
When D0 + D1 + D2 + D3 is an even number,
The parity data PD = 1 is calculated.

【0095】例えば、ディスクアレイコントローラ62
Bは、故障によって3番目のHDD62LからデータD
2が再生できないことを検出したときには、HDD62
Jに記録されているデータD0と、HDD62Kに記録
されているデータD1と、HDD62Mに記録されてい
るデータD3と、さらにHDD62Nに記録さているパ
リティデータPDとを再生して、その再生データをデー
タマルチプレクサ62Cに供給するように制御する。デ
ータマルチプレクサ62Cでは、再構築演算を行って、
再構築データRD2が生成される。そして、再構築され
たデータRD2及び再生されたデータD0、D1、D3
によって元のデータが生成され、出力される。
For example, the disk array controller 62
B is the data D from the third HDD 62L due to the failure.
2 cannot be reproduced, the HDD 62
J, the data D1 recorded in the HDD 62K, the data D3 recorded in the HDD 62M, and the parity data PD recorded in the HDD 62N are reproduced. It is controlled so as to be supplied to the multiplexer 62C. The data multiplexer 62C performs a reconstruction operation,
Reconstructed data RD2 is generated. Then, the reconstructed data RD2 and the reproduced data D0, D1, D3
Generates and outputs the original data.

【0096】(5)編集装置の概略 次に図10の概略図を用いて編集装置を説明する。VT
R71A〜71nでは、エンベデッド・オーディオ/ビ
デオ信号が再生される。このVTR71A〜71nは、
例えばディジタルVTRからなるが、エンベデッド・オ
ーディオ/ビデオ信号が再生できる装置であればどのよ
うなものでも良い。再生されたエンベデッド・オーディ
オ/ビデオ信号は、ディジタルVTR71A〜71nか
ら編集処理装置72へ供給される。編集装置72は、上
述した編集装置3と対応し、同じ機能を有するものであ
り、マトリックススイッチャ部3Bに対応するすA/V
マトリックス回路72A、画像処理部3Cに対応するビ
デオプロセッサ回路72B、音声処理部3Dに対応する
オーディオセパレータ回路72C及びオーディオプロセ
ッサ回路72D、オーディオコンバイナ44に対応する
A/Vコンバイナ72Eから構成される。
(5) Outline of Editing Apparatus Next, the editing apparatus will be described with reference to the schematic diagram of FIG. VT
In R71A to 71n, an embedded audio / video signal is reproduced. These VTRs 71A to 71n are
For example, it is composed of a digital VTR, but may be any device capable of reproducing embedded audio / video signals. The reproduced embedded audio / video signals are supplied from the digital VTRs 71A to 71n to the editing processing device 72. The editing device 72 corresponds to the above-described editing device 3 and has the same function, and has an A / V corresponding to the matrix switcher unit 3B.
It comprises a matrix circuit 72A, a video processor circuit 72B corresponding to the image processing unit 3C, an audio separator circuit 72C and an audio processor circuit 72D corresponding to the audio processing unit 3D, and an A / V combiner 72E corresponding to the audio combiner 44.

【0097】A/Vマトリックス回路72Aでは、供給
されたエンベデッド・オーディオ/ビデオ信号がビデオ
プロセッサ回路72Bへ供給する信号か、オーディオセ
パレータ回路72Cへ供給する信号かが判断される。ビ
デオプロセッサ回路72Bへ供給する信号であると判断
された信号は、A/Vマトリックス回路72Aからビデ
オプロセッサ回路72Bへ供給され、オーディオセパレ
ータ回路72Cへ供給する信号であると判断された信号
は、オーディオセパレータ回路72Cへ供給される。
The A / V matrix circuit 72A determines whether the supplied embedded audio / video signal is a signal supplied to the video processor circuit 72B or a signal supplied to the audio separator circuit 72C. The signal determined to be a signal to be supplied to the video processor circuit 72B is supplied from the A / V matrix circuit 72A to the video processor circuit 72B, and the signal determined to be a signal supplied to the audio separator circuit 72C is an audio signal. It is supplied to the separator circuit 72C.

【0098】ビデオプロセッサ回路72Bでは、供給さ
れたエンベデッド・オーディオ/ビデオ信号からビデオ
信号が取り出される。これは、図11に示すようにオー
ディオ信号がビデオ信号のブランキング区間に重畳され
ているため、上述したデマルチプレクサブロック51内
に含まれる通常のブランキング回路を使用することによ
ってオーディオ信号が消去され、ビデオ信号のみを取り
出すことができる。取り出されたビデオ信号は、ビデオ
スイッチャ、ビデオエフェクタ等の処理が行われた後、
ビデオプロセッサ回路72BからA/Vコンバイナ72
Eに供給される。
The video processor circuit 72B extracts a video signal from the supplied embedded audio / video signal. Since the audio signal is superimposed on the blanking interval of the video signal as shown in FIG. 11, the audio signal is erased by using the ordinary blanking circuit included in the demultiplexer block 51 described above. , Only the video signal can be extracted. The extracted video signal is processed by a video switcher, video effector, etc.,
A / V combiner 72 from video processor circuit 72B
E.

【0099】オーディオセパレータ回路72Cでは、供
給されたエンベデッド・オーディオ/ビデオ信号からオ
ーディオ信号が抜き取られ、抜き取られたオーディオ信
号はオーディオプロセッサ回路72Dへ供給される。オ
ーディオプロセッサ回路72Dでは、供給されたオーデ
ィオ信号に対してオーディオミキサ、オーディオエフェ
クタ等の処理が行われた後、A/Vコンバイナ72Eへ
供給される。A/Vコンバイナ72Eでは、図11に示
すように、ビデオ信号にオーディオ信号を重畳させ、出
力させる。編集されたエンベデッド・オーディオ/ビデ
オ信号が編集装置72から出力される。
In the audio separator circuit 72C, an audio signal is extracted from the supplied embedded audio / video signal, and the extracted audio signal is supplied to an audio processor circuit 72D. In the audio processor circuit 72D, the supplied audio signal is processed by an audio mixer, an audio effector, and the like, and then supplied to the A / V combiner 72E. In the A / V combiner 72E, as shown in FIG. 11, an audio signal is superimposed on a video signal and output. The edited embedded audio / video signal is output from the editing device 72.

【0100】このように、エンベデッド・オーディオ/
ビデオ信号は、オーディオ信号がビデオ信号のブランキ
ング区間に重畳される形で伝送される。すなわち、ビデ
オ信号を基本にしていることを考慮し、これを利用して
ビデオ信号とオーディオ信号とを分離する前にクロスポ
イント回路(A/Vマトリックス回路72A)を利用し
て、それぞれの処理に使用するビデオ信号及びオーディ
オ信号の存在する信号を選択する。従来の編集装置で
は、映像用クロスポイントと音声用クロスポイントとは
別個に必要であり、それぞれの入力数はもともとの入力
数と同じ数だけ必要であったことを考えると、全体で見
たクロスポイント回路が大幅に減少する。
As described above, the embedded audio /
The video signal is transmitted such that the audio signal is superimposed on a blanking interval of the video signal. That is, in consideration of the fact that the video signal is used as a basis, the video signal and the audio signal are separated using the cross point circuit (A / V matrix circuit 72A) before being used for the respective processes. Select a signal having a video signal and an audio signal to be used. In the conventional editing device, the cross point for video and the cross point for audio are separately required, and the number of inputs is the same as the original number of inputs. Point circuits are greatly reduced.

【0101】さらに、映像処理部は、通常ブランキング
回路を有しており、オーディオ信号は映像処理部内で消
去され、専用の分離回路は必要としない。よって、分離
回路は、選択されたオーディオ信号分のみ必要であるこ
とが判る。オーディオセパレータ回路72Cがそれにあ
たる。通常もともとの入力数よりも、ある編集時点での
必要とする音声入力数の方が少ない。故に従来の編集装
置のように一旦ビデオ信号とオーディオ信号とを分離し
た後に編集する方法よりも、この発明が適用されたビデ
オ信号とオーディオ信号とをそれぞれの処理部に供給し
た後にビデオ信号とオーディオ信号とを分離する方法が
分離回路の数が少ないと考えられ、回路規模を小とする
ことができ、コストダウンが図れる。
Further, the video processing section usually has a blanking circuit, and the audio signal is erased in the video processing section, so that a dedicated separating circuit is not required. Therefore, it is understood that the separation circuit is necessary only for the selected audio signal. The audio separator circuit 72C corresponds to this. Usually, the number of voice inputs required at a certain editing time is smaller than the original number of inputs. Therefore, the video signal and the audio signal to which the present invention is applied are supplied to the respective processing units, and then the video signal and the audio signal are separated from the method of editing the video signal and the audio signal once, as in the conventional editing apparatus. It is considered that the method of separating signals from signals is that the number of separation circuits is small, so that the circuit scale can be reduced and cost can be reduced.

【0102】なお、この実施の一形態では、映像処理部
と音声処理部とを一体化としたが、一体化された構成で
なくても、音声信号ライン選択後に音声信号のみ取り出
すような構成とすることによってシステム全体のコスト
ダウンが図れることは容易に想像できる。
In this embodiment, the video processing unit and the audio processing unit are integrated. However, even if they are not integrated, the audio processing unit can take out only the audio signal after selecting the audio signal line. It can be easily imagined that the cost of the entire system can be reduced by doing so.

【0103】[0103]

【発明の効果】この発明に依れば、従来は結線及び接続
機器の多さが高価格の原因の一端となっていたが、エン
ベデッド・オーディオ/ビデオ信号をそのまま使用する
ことにより映像処理及び音声処理が一体化されたため、
結線数及び入出力回路が低減でき、機器間の接続が少な
くて済むため、ユーザにとってシステム構成が容易とな
り、システム全体でコストダウンを図ることができる。
According to the present invention, video processing and audio can be performed by using embedded audio / video signals as they are. Because the processing was integrated,
Since the number of connections and the number of input / output circuits can be reduced and the number of connections between devices can be reduced, the user can easily configure the system and reduce the cost of the entire system.

【0104】また、この発明に依れば、編集装置の回路
が簡潔となり、機器数が減少することによりシステムの
故障を抑えることができる。
Further, according to the present invention, the circuit of the editing apparatus can be simplified, and the number of devices can be reduced, so that the failure of the system can be suppressed.

【0105】さらに、この発明に依れば、エンベデッド
・オーディオ/ビデオ信号を使用したが、エンベデッド
・オーディオ/ビデオ信号を使用せず従来の信号を使用
した場合、オーディオセパレータ回路72Cが不要とな
るが、結線及び接続機器は、従来の編集装置に比べ非常
に少なくなるので、従来の信号を使用してもコストダウ
ンを図ることができる。
Further, according to the present invention, the embedded audio / video signal is used. However, when the conventional signal is used without using the embedded audio / video signal, the audio separator circuit 72C becomes unnecessary. Since the number of connection and connection devices is very small as compared with the conventional editing apparatus, the cost can be reduced even if the conventional signal is used.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明が適用される編集装置の一例の全体構
成である。
FIG. 1 is an overall configuration of an example of an editing device to which the present invention is applied.

【図2】この発明に係るコンピュータの一例の内部構成
の概略図である。
FIG. 2 is a schematic diagram of an internal configuration of an example of a computer according to the present invention.

【図3】この発明が適用される編集処理装置の一例の全
体構成である。
FIG. 3 is an overall configuration of an example of an editing processing device to which the present invention is applied.

【図4】この発明に係るシステムコントロール部の一例
の構成である。
FIG. 4 is a configuration example of a system control unit according to the present invention;

【図5】この発明に係るマトリクススイッチャ部の一例
の構成である。
FIG. 5 shows an example of a configuration of a matrix switcher section according to the present invention.

【図6】この発明に係る画像処理部の一例の構成であ
る。
FIG. 6 is a configuration example of an image processing unit according to the present invention;

【図7】この発明に係る音声処理部の一例の構成であ
る。
FIG. 7 shows an example of a configuration of an audio processing unit according to the present invention.

【図8】この発明に係るローカルストレージの一例であ
る。
FIG. 8 is an example of a local storage according to the present invention.

【図9】この発明に係るディスクアレイブロックの一例
の構成である。
FIG. 9 shows an example of the configuration of a disk array block according to the present invention.

【図10】この発明の編集装置の実施の一形態の概略図
である。
FIG. 10 is a schematic diagram of an embodiment of the editing device of the present invention.

【図11】エンベデッド・オーディオ/ビデオ信号の一
例である。
FIG. 11 is an example of an embedded audio / video signal.

【図12】従来の編集装置の概略図である。FIG. 12 is a schematic diagram of a conventional editing device.

【符号の説明】[Explanation of symbols]

71・・・VTR、72・・・編集処理装置、72A・
・・A/Vマトリックス、72B・・・ビデオプロセッ
サ回路、72C・・・オーディオセパレータ回路、72
D・・・オーディオプロセッサ回路、72E・・・A/
Vコンバイナ
71: VTR, 72: Edit processing device, 72A
..A / V matrix, 72B: video processor circuit, 72C: audio separator circuit, 72
D: audio processor circuit, 72E: A /
V combiner

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ビデオ信号のブランキング区間にオーデ
ィオ信号が重畳されている音声混入映像信号が供給さ
れ、供給された上記音声混入映像信号のビデオ信号とオ
ーディオ信号とを編集することができる編集装置におい
て、 複数の音声混入映像信号を入力し、上記複数の音声混入
映像信号を選択するクロスポイント手段と、 上記クロスポイント手段で選択された上記音声混入映像
信号からビデオ信号を抜き取り、上記ビデオ信号に対す
る処理を行う映像処理手段と、 上記クロスポイント手段で選択された上記音声混入映像
信号からオーディオ信号を抜き取り、上記オーディオ信
号に対する処理を行う音声処理手段と、 上記映像処理手段の出力と、上記音声処理手段の出力と
を合成して音声混入映像信号を生成するコンバイナ手段
とを有することを特徴とする編集装置。
An editing apparatus capable of supplying an audio mixed video signal in which an audio signal is superimposed in a blanking section of a video signal, and editing the video signal and the audio signal of the supplied audio mixed video signal. A cross-point means for inputting a plurality of audio-mixed video signals and selecting the plurality of audio-mixed video signals; extracting a video signal from the audio-mixed video signal selected by the cross-point means; Video processing means for performing processing; audio processing means for extracting an audio signal from the audio-mixed video signal selected by the cross-point means and performing processing on the audio signal; output from the video processing means; Combiner means for synthesizing the output of the means and generating an audio mixed video signal. Editing apparatus, characterized in that.
【請求項2】 請求項1に記載の編集装置において、 上記クロスポイント手段、上記映像処理手段、上記音声
処理手段、上記コンバイナ手段は、1つの筐体に含まれ
ることを特徴とする編集装置。
2. The editing apparatus according to claim 1, wherein said cross point means, said video processing means, said audio processing means, and said combiner means are included in one housing.
JP8703597A 1997-04-04 1997-04-04 Edit device Pending JPH10285457A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8703597A JPH10285457A (en) 1997-04-04 1997-04-04 Edit device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8703597A JPH10285457A (en) 1997-04-04 1997-04-04 Edit device

Publications (1)

Publication Number Publication Date
JPH10285457A true JPH10285457A (en) 1998-10-23

Family

ID=13903703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8703597A Pending JPH10285457A (en) 1997-04-04 1997-04-04 Edit device

Country Status (1)

Country Link
JP (1) JPH10285457A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527128A (en) * 2003-06-19 2007-09-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Mixing media streams
JP2010246058A (en) * 2009-04-10 2010-10-28 Sony Corp Image processing apparatus, and method of controlling image processing unit
JP2021530905A (en) * 2018-07-12 2021-11-11 北京微播視界科技有限公司Beijing Microlive Vision Technology Co., Ltd Video processing methods, devices, terminals and storage media

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527128A (en) * 2003-06-19 2007-09-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Mixing media streams
US7907638B2 (en) 2003-06-19 2011-03-15 Sony Ericsson Mobile Communications, Ab Media stream mixing
JP2010246058A (en) * 2009-04-10 2010-10-28 Sony Corp Image processing apparatus, and method of controlling image processing unit
JP2021530905A (en) * 2018-07-12 2021-11-11 北京微播視界科技有限公司Beijing Microlive Vision Technology Co., Ltd Video processing methods, devices, terminals and storage media

Similar Documents

Publication Publication Date Title
US5508940A (en) Random access audio/video processor with multiple outputs
JP4536164B2 (en) Editing apparatus and editing method
US6744968B1 (en) Method and system for processing clips
US5535137A (en) Random access audio/video processor with compressed video resampling to allow higher bandwidth throughput
KR100579387B1 (en) Efficient transmission and playback of digital information
JP2000197074A (en) Stereoscopic reproduction device, output device, and its control method and storage medium
JP4229127B2 (en) Video processing apparatus and time code adding method
US20030091329A1 (en) Editing system and editing method
US6801708B1 (en) Data recording and reproducing apparatus and data displaying method
JP4110528B2 (en) Editing apparatus and editing method
JPH03274974A (en) Edit device
JP4229199B2 (en) Editing apparatus and editing method
JPH10285457A (en) Edit device
JP3899586B2 (en) Editing apparatus and editing method
JP2000115737A (en) Multi-point video conference system
JP4588126B2 (en) Editing system and editing method
WO2001005144A1 (en) Video display control method, video display processing system, video display processing device, screen display device
JPH1116273A (en) Audio equipment
KR100603173B1 (en) Editing apparatus and editing method
JP3711685B2 (en) Multipoint video conference system and multipoint video conference device
JP3951196B2 (en) Editing device
KR100573435B1 (en) GUI management system for the Set Top device based on the server side handling
JP2007317352A (en) Editing device and editing method
JPH10283759A (en) Editing apparatus
KR20000016595A (en) Editing system and editing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20060313

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060627