JP3951196B2 - Editing device - Google Patents

Editing device Download PDF

Info

Publication number
JP3951196B2
JP3951196B2 JP11049297A JP11049297A JP3951196B2 JP 3951196 B2 JP3951196 B2 JP 3951196B2 JP 11049297 A JP11049297 A JP 11049297A JP 11049297 A JP11049297 A JP 11049297A JP 3951196 B2 JP3951196 B2 JP 3951196B2
Authority
JP
Japan
Prior art keywords
event
editing
line
time
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11049297A
Other languages
Japanese (ja)
Other versions
JPH10290418A (en
Inventor
奈緒実 江頭
昌文 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11049297A priority Critical patent/JP3951196B2/en
Publication of JPH10290418A publication Critical patent/JPH10290418A/en
Application granted granted Critical
Publication of JP3951196B2 publication Critical patent/JP3951196B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【目次】
以下の順序で本発明を説明する。
【0002】
発明の属する技術分野
従来の技術
発明が解決しようとする課題
課題を解決するための手段
発明の実施の形態
(1)装置構成(図1〜図11)
(1−1)編集装置の全体構成
(1−2)コンピユータの内部構成
(1−3)編集処理装置の構成
(1−4)ローカルストレージの構成
(2)プログラム編集(図12〜図40)
(2−1)プログラム編集用アプリケーシヨン・ソフトウエア
(2−2)ビユーアウインドウの構成
(2−3)ログウインドウへの編集素材の登録
(2−4)タイムラインによるイベント編集
(2−5)デバイスアイコンの表示
(2−6)ログウインドウへのクリツプの登録
(2−7)クリツプに対するヘツダの設定
(2−8)イン点及びアウト点の設定
(2−9)タイムライン上へのイベントの貼り付け
(2−10)ダイアログによるエフエクトの設定
(2−11)パターン・ビツトマツプの登録
(2−12)トランジシヨン・エフエクトの設定
(2−13)アニメーシヨン・エフエクトの設定
(2−14)エフエクトのマニユアル・トランジシヨン操作
(2−15)エフエクトの修正
(2−16)エフエクトの表現方法
(2−17)オーデイオの出力ルーテイング設定
(2−18)エフエクトの設定手順
(3)実施の形態の動作
(4)実施の形態の効果
(5)他の実施の形態
発明の効果
【0003】
【発明の属する技術分野】
本発明は編集装置に関し、例えばニユース素材等を編集対象とする編集装置に適用して好適なものである。
【0004】
【従来の技術】
従来、この種の編集装置としては、ニユース素材を記録する記録手段としてビデオテープレコーダ(以下、これを略してVTRと呼ぶ)を用いたものが提案されている。このような編集装置においては、素材としての映像及び音声をVTRに記録しておき、当該VTRから所望の映像及び音声を読み出してニユース素材として使用することによりニユース編集を行うようになされている。
【0005】
【発明が解決しようとする課題】
ところでニユース番組においては、各地で起こつた出来事をいち早く視聴者に提供すること、すなわち速報性が要求される。従つてニユース素材を編集する編集装置においても、迅速性に富んだ編集ができることが望まれる。
【0006】
ところでビデオテープ等を用いたリニア編集の場合、編集カツトを作成するときにテープにイン点及びアウト点を設定することによつて素材を挿入する際の目印としていた。ところがデイスク媒体に格納されたフアイルを読み出して、フアイルデータに対してノンリニア編集を行う場合、編集した素材のレコーデイングは最後に一括して実行するようになされているために、編集途中においてフアイルデータに対してイン点及びアウト点を設定することができない。このため素材に対する上書きや挿入等の編集作業をするときに、実際に編集している映像を編集途中において確認しながら行うことが困難であるという問題があつた。
【0007】
本発明は以上の点を考慮してなされたもので、迅速な編集ができる使い勝手の向上した編集装置を提案しようとするものである。
【0008】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、映像でなる編集素材を複数記憶する記憶手段と、時間の進行を表すタイムラインに沿って編集素材のうち設定された範囲をイベントとして1以上配置するための編集領域を表示手段における所定の表示画面上表示させる表示制御手段と、編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、ユーザインターフエイス手段により、編集領域に配置済のイベント同士の間に新たな編集素材が新たなイベントとして挿入される際、タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、編集時点設定手段によりライン開始時点、ライン終了時点、イベント開始時点及びイベント終了時点が全て設定され、且つライン開始時点及びライン終了時点の間隔とイベント開始時点及びイベント終了時点の間隔とが一致しない場合、イベント開始時点及びイベント終了時点の間隔をライン開始時点及びライン終了時点の間隔に合わせて設定し直し、編集時点設定手段によりライン開始時点、ライン終了時点及びイベント開始時点が設定された場合、ライン終了時点に合わせてイベント終了時点を設定して、編集領域に新たなイベントを配置する編集処理手段とを備える。
【0009】
これにより編集領域上に配置されたイベント同士の間に新たなイベントを挿入する際、ライン開始時点及びライン終了時点、イベント開始時点及びイベント終了時点が正確に設定されていない場合、ライン上の間隔に合わせてイベントの間隔を適切に設定し直すことができ、またライン終了時点に合わせてイベント終了時点を設定できるので、編集作業の作業効率を向上させることができる。
【0010】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0011】
(1)装置構成
(1−1)編集装置の全体構成
図1において、1は全体として本発明を適用した編集装置を示し、大きく分けてコンピユータ2と編集処理装置3からなる。
【0012】
制御手段としてコンピユータ2はCPU(中央処理ユニツト)や各種処理回路、或いはフロツピーデイスクドライブ、ハードデイスクドライブ等を備える本体2Aと、当該本体2Aに接続される表示手段としてのモニタ2Bと、入力手段としてのキーボード2C及びマウス2Dとを有している。このようなコンピユータ2は編集のためのアプリケーシヨン・ソフトウエアがハードデイスクドライブに予めインストールされており、オペレーテイングシステムの基で当該アプリケーシヨン・ソフトウエアを動作させることにより編集装置用のコンピユータとして起動するようになされている。
【0013】
因みに、このアプリケーシヨン・ソフトウエアを動作させたときには、モニタ2B上にGUI(グラフイカル・ユーザ・インターフエイス)のためのグラフイツク表示が表示されるようになされている。この編集装置1では、このグラフイツク表示と上述した入力手段とによつてユーザインターフエイスを構成し、例えばマウス2Dを使用して、モニタ2Bに表示される制御コマンドボタンを示すグラフイツク表示の中から所望のグラフイツク表示を選択することにより、編集処理の処理内容を指定するための制御コマンドを入力するようになされている。なお、コンピユータ2は、入力された制御コマンドが編集処理装置3における編集処理動作を制御するものであれば当該制御コマンドに応じた制御信号S1を生成し、これを編集処理装置3に送出して編集処理動作を指示するようになされている。
【0014】
またこのコンピユータ2には編集処理装置3を介してビデオ信号S2が入力されるようになされており、これにより各素材の映像をモニタ2Bに表示して素材内容を確認しながらイン点(イベントの開始点)やアウト点(イベントの終了点)を指示し得るようになされていると共に、イン点及びアウト点を指示することによつて切り取られたイベント素材や編集したプログラムの映像を表示してそれらを確認し得るようになされている(以下、この切り取られた素材や編集したプログラムを再生して表示することをプレビユと呼ぶ)。
【0015】
一方、編集処理装置3は内部にマトリクススイツチヤ部、画像処理部及び音声処理部を有しており、素材の切り取りや繋ぎ合わせ、或いはビデオ信号やオーデイオ信号に対するエフエクト処理等、実際の編集作業を実行する編集実行装置である。
【0016】
この編集処理装置3には上述したようなコンピユータ2が接続されているだけでなく、別の入力手段として専用コントローラ4、5も接続されており、当該専用コントローラ4、5を使用しても編集のための制御コマンドを入力し得るようになされている。
【0017】
因みに、専用コントローラ4は、素材のイン点やアウト点を指示するためのボタン操作子や、素材の再生を指示するためのボタン操作子、或いは編集したプログラムの記録を指示するためのボタン操作子等を有していると共に、変速再生(いわゆるシヤトル再生)やコマ送り再生(いわゆるジヨグ再生)の指示を入力するためのダイアル操作子等を有しており、それらのボタン操作子又はダイアル操作子を介して入力された指示情報に応じた制御信号S3を編集処理装置3に送出するようになされている。また専用コントローラ5は、オーデイオ信号の信号レベルを設定するための複数のスライド操作子(いわゆるオーデイオフエイダ)や2つの映像を切り換えるときの切換率を設定するためのスライド素子(いわゆるビデオフエイダ)等を有しており、それらのスライド操作子を介して入力された指示情報(この指示情報はスライド操作子による設定値を示す)に応じた制御信号S4を編集処理装置3に送出するようになされている。
【0018】
またこの編集処理装置3に対しては、デイリーサーバ6(一般に放送局において映像や音声等の編集素材を記憶している記憶手段)が接続されており、当該デイリーサーバ6に記憶されているビデオ及びオーデイオ信号を取り込めるようになされている。この場合、デイリーサーバ6は2チヤンネル分の出力ポートを有しており、編集処理装置3から供給されるチヤンネル毎の制御信号S5、S6に応じて所望のビデオ及びオーデイオ信号S7、S8を記憶媒体6Aから読み出して出力するようになされている。なお、記憶媒体6Aには圧縮率1/10のMPEG(Moving Picture coding Experts Group )規格で圧縮されたビデオ及びオーデイオ信号が記憶されており、読み出されたビデオ及びオーデイオ信号はそれぞれデコーダ6B、6Cを介して復号化が行われた後、シリアル・デイジタル・インターフエイス(以下、これをSDIと呼ぶ)規格のフオーマツトに変換され、そのSDI規格のビデオ及びオーデイオ信号S7、S8が編集処理装置3に供給されるようになされている。
【0019】
またこの編集処理装置3に対してはVTR7も接続されており、当該VTR7に記憶されているビデオ及びオーデイオ信号も取り込めるようになされている。この場合、VTR7はSDI規格の入出力インターフエイスを有しており、編集処理装置3から供給される制御信号S9に応じて所望のビデオ及びオーデイオ信号S10を読み出して出力するようになされている。またVTR7は、編集処理された後のビデオ及びオーデイオ信号やデイリーサーバ6から読み出されたビデオ及びオーデイオ信号S7、S8を記録対象のビデオ及びオーデイオ信号S11として編集処理装置3から受けるようになされており、制御信号S9に応じてそのビデオ及びオーデイオ信号S11をビデオテープに記録するようにもなされている。
【0020】
またこの編集処理装置3に対しては、記憶手段として、複数のハードデイスクからなるローカルストレージ8も接続されており、当該ローカルストレージ8に記憶されているビデオ及びオーデイオ信号も取り込めるようになされている。この場合、ローカルストレージ8はSDI規格の入出力インターフエイスを有していると共に、出力ポートとしては2チヤンネル分のポートを有しており、編集処理装置3から供給される制御信号S12に応じて所望のビデオ及びオーデイオ信号S13、S14を読み出して出力するようになされている。またローカルストレージ8は、編集処理された後のビデオ及びオーデイオ信号やデイリーサーバ6又はVTR7から読み出されたビデオ及びオーデイオ信号を記録対象のビデオ及びオーデイオ信号S15として編集処理装置3から受けるようになされており、制御信号S9に応じてそのビデオ及びオーデイオ信号S15を内部のハードデイスクに記録するようにもなされている。
【0021】
またこの編集処理装置3に対しては、オンエアバツフア(放送の際にプログラムを一時的に記憶するための記憶手段)9も接続されており、当該編集処理装置3によつて編集処理したプログラムのビデオ及びオーデイオ信号S16をオンエアバツフア9に記憶し得るようになされている。この場合、オンエアバツフア9はSDI規格の入力インターフエイスを有しているので、送出されるビデオ及びオーデイオ信号S16としてはSDI規格の信号フオーマツトになつている。またオンエアバツフア9においては、供給されたビデオ及びオーデイオ信号S16をエンコーダ9Aによつて圧縮率1/10のMPEG規格で圧縮した後、内部の記憶媒体9Bに記憶するようになされている。
【0022】
なお、このオンエアバツフア9と編集装置1のコンピユータ2は例えばイーサネツト等のローカルエリアネツトワーク(以下、これをLANと呼ぶ)10を介して接続されており、オンエアバツフア9に対する制御コマンドはコンピユータ2及びLAN10を介して当該オンエアバツフア9に送出される。また編集されたプログラムがどのような素材で構成されているかを示す編集リスト(一般にエデイツト・デイシジヨン・リストと呼ばれる)も、このLAN10を介してオンエアバツフア9に送出される。
【0023】
また編集装置1のコンピユータ2とデイリーサーバ6もこのLAN10を介して接続されており、当該LAN10を介してデイリーサーバ6に記憶されている各素材のフアイル名等をコンピユータ2から参照し得るようになされている。
【0024】
また編集処理装置3に対しては、オプシヨン接続としてスピーカ11及び12が接続されるようになされており、編集処理装置3によつて編集されたオーデイオ信号S17、S18を当該スピーカ11、12から送出してオーデイオに関する編集結果を確認し得るようになされている。
【0025】
さらに編集処理装置3に対しては、オプシヨン接続としてプレビユ専用のモニタ13も接続されるようになされており、編集処理装置3によつて編集されたビデオ信号S19を当該モニタ2Bに表示してビデオに関する編集結果をこのモニタ13によつても確認し得るようになされている。因みに、このモニタ13に表示されるプレビユ画面の方がコンピユータ2のモニタ2Bに表示されるプレビユ画面よりも大きいので、モニタ13を接続した方がより鮮明に編集結果を確認し得る。
【0026】
ここでこの編集装置1における編集方法を簡単に説明する。まずこの編集装置1では、アプリケーシヨン・ソフトウエアを起動させると、上述したようにモニタ2BにGUIのためのグラフイツク表示が表示される。因みに、このグラフイツク表示としては、後述するように、素材の映像を見ながらイン点やアウト点を指定することによつてイベント素材を生成するビユーアウインドウの画面や、ビユーアウインドウによつて生成したイベント素材のクリツプ画を表示するログウインドウの画面、或いはこの編集装置1で行う編集処理内容を指定すると共に、指定された編集処理内容をグラフイツク表示を使用して表示するプログラムウインドウの画面や、その他、制御コマンドを入力するための制御コマンドボタン等である。
【0027】
まずオペレータは、このモニタ2Bに表示される所定の制御コマンドボタンをマウス2Dを使用してクリツクすることにより、編集素材が記憶されているデバイス(すなわちデイリーサーバ6、VTR7又はローカルストレージ8)を指示すると共に、その素材の再生を指示する。これによりその指示された素材のビデオ信号S2が編集処理装置3を介してコンピユータ2に供給され、その素材の映像がモニタ2Bに表示される。オペレータはその素材の映像を見ながらイン点とアウト点を指示することにより、プログラム作成に必要なイベント素材を生成する。オペレータはこの処理を繰り返し、プログラム作成に必要なイベント素材を一通り用意し、これをログウインドウに登録する。
【0028】
続いてオペレータは、ログウインドウに示されている所望のクリツプ画をマウス2Dによつてクリツクすることにより所望のイベント素材を選択する。これにより選択したイベント素材を示す帯状グラフイツク表示が表示されるので、これをプログラムウインドウ内にあるタイムライン(詳細は後述する)上の所望位置に置く。これを順に繰り返してイベント素材を示す帯状グラフイツク表示を所望の順番に並べることによりプログラムの順番を指示する。また所望のイベント素材にビデオエフエクトを付加するのであれば、所定の制御コマンドボタンをクリツクすることによりビデオエフエクト設定のためのダイアログを表示させ、その中から付加したいビデオエフエクトを選択する。これにより選択したビデオエフエクトを示す帯状グラフイツク表示が表示されるので、これをタイムライン上のビデオエフエクトを付加したい位置に置く。
【0029】
このようにしてプログラムの概案が決まると、オペレータは所定の制御コマンドボタンをクリツクすることによりプレビユの指示を入力する。これを受けた編集装置1は、編集処理装置3を制御することによりプログラムウインドウで指示されたプログラムの順番に基づいて各イベント素材を再生すると共に、編集処理装置3を制御することにより指示されたイベント素材にビデオエフエクトを施し、ビデオ信号S2を生成する。このビデオ信号S2はコンピユータ2に供給され、かくしてモニタ2Bに表示される。これによりオペレータはプログラムウインドウを使用して指示したプログラム内容を確認することができる。
【0030】
このようなプレビユの結果、プログラム内容に変更がなければ、オペレータは所定の制御コマンドボタンをクリツクすることにより記録指示を入力する。これを受けた編集装置1は、先程と同様に編集処理装置3を制御することにより指示されたプログラムを示すビデオ及びオーデイオ信号S15を生成し、これをローカルストレージ8に供給して記録する。かくしてこの処理により、プログラムウインドウによつて指示されたプログラムが完成し、ローカルストレージに記憶される。なお、この編集により生成したプログラムを放送する場合には、GUIを介して転送の指示を入力すれば、ローカルストレージからそのビデオ及びオーデイオ信号が読み出され、編集処理装置3を介してオンエアバツフア9に転送される。
【0031】
このようにしてこの編集装置1では、各素材の映像やプログラムの映像をモニタ2Bで確認しながら当該プログラムを作成し得るので、編集の使い勝手を向上し得る。またこの編集装置1では、オペレータがスイツチヤや特殊効果装置を直接操作しなくても編集が行えるので、編集操作を容易に行うことができ、編集に掛かる手間を削減し得る。
【0032】
(1−2)コンピユータの内部構成
この項ではコンピユータ2の内部構成について具体的に説明する。図2に示すように、コンピユータ2は、コマンドデータやビデオデータを伝送するためのシステムバス20、コンピユータ全体の制御を行うCPU21、入力されるビデオ信号S2に対して画像処理等を行うビデオプロセツサ22、モニタ2Bに表示されるビデオデータやGUIのためのグラフイツク表示を管理する表示コントローラ23、ローカルハードデイスクドライブ(ローカルHDD)24Aを制御するためのHDDインターフエイス24、フロツピーデイスクドライブ(FDD)25Aを制御するためのFDDインターフエイス25、マウス2D及びキーボード2C等のポインテイングデバイスからのコマンドに基づいて制御コマンドを生成するポインテイングデバイスインターフエイス26、編集処理装置3に制御信号S1を送出するためのソフトウエアドライバを備えた外部インターフエイス27を有している。
【0033】
システムバス20は、コンピユータ2内部でビデオデータやコマンドデータ、或いはアドレスデータ等の通信を行うためのバスであり、ビデオデータを伝送するための画像データバス20Aと、コマンドデータやアドレスデータを伝送するためのコマンドデータバス20Bとからなる。
【0034】
画像データバス20AにはCPU21、ビデオプロセツサ22、表示コントローラ23、HDDインターフエイス24及びFDDインターフエイス25がそれぞれ接続されており、当該CPU21、ビデオプロセツサ22、表示コントローラ23、HDDインターフエイス24及びFDDインターフエイス25はこの画像データバス20Aを介してビデオデータの伝送を行うようになされている。
【0035】
一方、コマンドデータバス20Bには、CPU21、ビデオプロセツサ22、表示コントローラ23、HDDインターフエイス24、FDDインターフエイス25、ポインテイングデバイスインターフエイス26及び外部インターフエイス27がそれぞれ接続されており(すなわちコンピユータ2内部の全てのブロツクが接続されている)、当該コマンドデータバス20Bを介してコマンドデータやアドレスデータの伝送を行うようになされている。
【0036】
CPU21はコンピユータ2全体の制御を行うブロツクであり、コンピユータ2のオペレーテイングシステムが格納されているROM21Aと、アツプロードされたアプリケーシヨン・ソフトウエア等が格納されるRAM21Bとを有している。コンピユータ2を起動する場合には、CPU21はROM21Aに記憶されたオペレーテイングシステムに基づいたソフトウエアを実行する。またアプリケーシヨン・ソフトウエアをこの起動中のオペレーテイングシステムの下で実行する場合には、CPU21はまずハードデイスクドライブ24Aのハードデイスクに記録されているアプリケーシヨン・ソフトウエアを読み出してRAM21Bにアツプロードし、その後、当該アプリケーシヨン・ソフトウエアを実行する。
【0037】
ビデオプロセツサ22は、コンピユータ2に入力されるSDI規格のビデオ信号S2を受け取り、当該ビデオ信号S2に対してデータ変換を施すと共に、その変換されたビデオデータを一時的にバツフアリングするためのブロツクである。具体的には、ビデオプロセツサ22は、当該ビデオプロセツサ22の全体を制御するプロセツサコントローラ22Aと、受け取つたビデオ信号S2のペイロード部からコンポジツトビデオ信号を抽出し、かつ当該コンポジツトビデオ信号をデイジタルのコンポーネントビデオ信号に変換するデータ変換部22Bと、データ変換部22Bから送出される数フレーム分のビデオデータを一時的に記憶するフレームメモリ22Cとからなる。
【0038】
プロセツサコントローラ22Aは、データ変換部22Bに対して制御信号を送出することにより当該データ変換部22Bのデータ変換動作を制御すると共に、当該データ変換部22Bにビデオ信号S2からタイムコードを抽出させる。またプロセツサコントローラ22Aは、フレームメモリ22Cに対して制御信号を送出することにより当該フレームメモリ22Cのリード/ライトタイミング及びリード/ライトアドレスを制御する。因みに、リードタイミングに関しては、プロセツサコントローラ22Aは表示コントローラ23に送出するタイムコードとビデオデータ(フレームデータ)とが対応するようにフレームメモリ22Cのリードタイミングを制御する。
【0039】
データ変換部22Bは、プロセツサコントローラ22Aからの制御信号に基づいてコンポジツトビデオ信号をデイジタルのコンポーネントビデオ信号に変換する。因みに、タイムコードはこの変換過程において抽出される。この変換により得られたビデオデータは上述したようにフレームメモリ22Cに送出され、また抽出されたタイムコードはプロセツサコントローラ22Aに送出される。
【0040】
フレームメモリ22Cはデータ変換部22Bから供給されるビデオデータを一時的に記憶する。このフレームメモリ22Cのリード/ライトタイミングは、上述したようにプロセツサコントローラ22Aによつて制御される。このフレームメモリ22Cは2個のフレームメモリから構成され、2フレーム分のビデオデータを記憶し得るようになされている。
【0041】
このフレームメモリ22Cに記憶されたビデオデータは、プロセツサコントローラ22Aの読み出し制御に基づいて読み出される。その際、フレームメモリ22Cに記憶されたビデオデータを全画素読み出すのではなく、所定の間隔で間引いて読み出すことにより画像サイズを原画像よりも小さくする。このようにして画像サイズが小さく変換されたビデオデータは、モニタ2Bのビユーアウインドウ(詳細は後述する)に表示されるため、画像データバス20Aを介して表示コントローラ23に送出される。
【0042】
表示コントローラ23は、モニタ2Bに表示されるデータを制御するための制御ブロツクである。表示コントローラ23はメモリコントローラ23AとVRAM(ビデオ・ランダム・アクセス・メモリ)23Bとを有している。メモリコントローラ23Aはコンピユータ2の内部同期に従つてVRAM23Bのリード/ライトタイミングを制御する。このVRAM23Bには、ビデオプロセツサ22のフレームメモリ22Cから送出されたビデオデータ及びCPU21によつて生成されるイメージデータが、メモリコントローラ23Aからのタイミング制御信号に基づいて記憶される。このVRAM23Bに記憶されたビデオデータやイメージデータは、コンピユータ2の内部同期に基づいたメモリコントローラ23Aからのタイミング制御信号に基づいて読み出され、モニタ2Bに表示される。
【0043】
この場合、イメージデータによるグラフイツク表示がGUIのためのグラフイツク表示となる。因みに、CPU21からVRAM23Bに送出されるイメージデータは、例えばウインドウやカーソル、或いはスクロールバーやデバイスを示すアイコン等のイメージデータである。このコンピユータ2では、これらの複数種類のイメージデータをモニタ2Bに表示することによつてGUIのためのグラフイツク表示を得ている。
【0044】
HDDインターフエイス24は、コンピユータ2内部に設けられたローカルハードデイスクドライブ(HDD)24Aと通信するためのインターフエイスブロツクである。このHDDインターフエイス24とハードデイスクドライブ24AとはSCSI(Small Computer System Interface )の伝送フオーマツトに基づいて通信が行われるようになされている。
【0045】
ハードデイスクドライブ24Aには、このコンピユータ2で起動するアプリケーシヨン・ソフトウエアがインストールされており、当該アプリケーシヨン・ソフトウエアを実行する場合には、このハードデイスクドライブ24Aから読み出されてCPU21のRAM21Bにアツプロードされる。またこのアプリケーシヨン・ソフトウエアを終了する際には、RAM21Bに記憶されている編集オペレーシヨンによつて生成された各種情報(例えばフアイル情報等)は、このハードデイスクドライブ24Aを介してハードデイスクにダウンロードされる。
【0046】
FDDインターフエイス25は、コンピユータ2内部に設けられたフロツピーデイスクドライブ(FDD)25Aと通信するためのインターフエイスブロツクである。このFDDインターフエイス25とフロツピーデイスクドライブ25AとはSCSIの伝送フオーマツトに基づいて通信が行われるようになされている。
【0047】
ポインテイングデバイスインターフエイス26は、コンピユータ2に接続されたマウス2D及びキーボード2Cからの情報を受信するインターフエイスブロツクである。ポインテイングデバイスインターフエイス26は、マウス2Dに設けられた2次元ロータリーエンコーダの検出情報と、マウス2Dに設けられた左右のボタンのクリツク情報とを当該マウス2Dから受け取り、受け取つたそれらの情報をデコードしてCPU21に送出する。同様に、ポインテイングデバイスインターフエイス26はキーボード2Cに設けられたボタンからの入力情報を受け取り、受け取つた入力情報をデコードしてCPU21に送出する。これによりCPU21は、モニタ2Bに表示されるGUIのうちいずれのコマンドボタンが指示されたか認識し得ると共に、キーボード2Cより入力された各種データを認識し得、それらに対応する制御を行うことができる。
【0048】
外部インターフエイス27は、コンピユータ2の外部に接続された編集処理装置3と通信するためのブロツクである。外部インターフエイス27はCPU21で生成された再生コマンドや記録コマンド等の各種制御コマンドを所定の通信プロトコルのデータに変換するドライバを有しており、当該ドライバを介して制御コマンドを示す制御信号S1を編集処理装置3に送出する。
【0049】
(1−3)編集処理装置の構成
この項では編集処理装置3の構成について説明する。図3に示すように、編集処理装置3は大きく分けてシステムコントロール部3A、マトリクススイツチヤ部3B、画像処理部3C及び音声処理部3Dからなつている。システムコントロール部3Aは、コンピユータ2から送られてくる制御信号S1や専用コントローラ4、5から送られてくる制御信号S3、S4を受け、当該制御信号S1、S3又はS4を基に各ブロツクの動作を制御する。具体的には、システムコントロール部3Aは、コントロールバス3Eを介してマトリクススイツチヤ部3B、画像処理部3C及び音声処理部3Dの動作を制御すると共に、制御信号S5、S6、S9又はS12を送出してデイリーサーバ6、VTR7及びローカルストレージ8の再生又は記録動作等を制御する。因みに、システムコントロール部3Aは外部より供給されるリフエレンスタイムコード(REF-TC)も受け取り、タイムコードの管理も行うようになされている。
【0050】
マトリスクスイツチヤ部3Bは複数の入力端子と複数の出力端子とを有し、システムコントロール部3Aからの制御に応じて所望の入力端子を所望の出力端子に接続するようになされており、これにより各デバイス(デイリーサーバ6、VTR7又はローカルストレージ8)から読み出されたビデオ及びオーデイオ信号のうち所望の信号を画像処理部3Cや音声処理部3Dに送出し得ると共に、所望の信号をコンピユータ2や各デバイス(VTR7、ローカルストレージ8又はオンエアバツフア9)に送出し得るようになされている。さらに画像処理部3Cによつて処理されたビデオ信号をコンピユータ2に送出したり、或いはそのビデオ信号に音声処理部3Dによつて処理されたオーデイオ信号を重畳して各デバイス(VTR7、ローカルストレージ8又はオンエアバツフア9)に送出し得るようにもなされている。
【0051】
画像処理部3Cは、トランジシヨン・エフエクト(ワイプやページターン等、バツクグラウンドの映像からフオアグラウンドの映像に切り換えるようなエフエクト)やアニメーシヨン・エフエクト(モザイクやピクチヤ・イン・ピクチヤ等、特殊な画像処理や挿入処理を伴うエフエクト)といつたエフエクト処理をビデオ信号に施すブロツクであり、マトリクススイツチヤ部3Bによつて選択されたビデオ及びオーデイオ信号からビデオ信号を抽出し、当該ビデオ信号にエフエクト処理を施した後、そのビデオ信号をマトリクススイツチヤ部3Bに出力する。
【0052】
音声処理部3Dは、オーデイオ信号のレベル調整や合成を行うブロツクであり、マトリクススイツチヤ部3Dによつて選択されたビデオ及びオーデイオ信号からオーデイオ信号を抽出した後、そのオーデイオ信号にレベル調整を施したり、或いはオーデイオ信号同士をそれぞれ合成したりし、その結果得られるオーデイオ信号をマトリクススイツチヤ部3B又はスピーカ11、12に出力する。
【0053】
ここでこれら各ブロツクの構成を図を用いて以下に具体的に説明する。図4に示すように、システムコントロール部3Aは、メインCPU(M−CPU)30、コミユニケーシヨンCPU(C−CPU)31及びデバイス制御用CPU(D−CPU)32〜34の複数のCPUから構成される。メインCPU30は、コントロールバス3Eを介して各ブロツク(すなわちマトリクススイツチヤ部3B、画像処理部3C及び音声処理部3D)に制御コマンドを与えることにより当該各ブロツクの動作を制御するためのCPUである。またコミユニケーシヨンCPU31は、外部のタイムコード発生器(図示せず)によつて発生したリフアレンスタイムコード(REF-TC)を受け取つたり、或いはコンピユータ2からの制御信号S1や専用コントローラ4、5からの制御信号S3、S4を受け取つたりするための通信用CPUである。またデバイス制御用CPU32〜34は、各デバイス(すなわちデイリーサーバ6、VTR7及びローカルストレージ8)に対して制御信号S5、S6、S9又はS12を送出して当該各デバイスの動作を制御するためのCPUである。
【0054】
このようなシステムコントロール部3Aは、コミユニケーシヨンCPU31によつて制御信号S1、S3又はS4を受け取り、当該コミユニケーシヨンCPU31によつてその制御信号S1、S3又はS4が示す制御コマンドを再生する。この制御コマンドはシステムコントロール部3A内部のバス35を介してメインCPU30に転送される。メインCPU30はこの制御コマンドを解析し、デバイス制御が必要であれば対応するデバイス制御用CPU32、33又は34に制御コマンドを送出して当該デバイス制御用CPU32、33又は34を介してデバイスの動作を制御し、マトリクススイツチヤ部3B、画像処理部3C又は音声処理部3Dの制御が必要であれば対応するブロツクにコントロールバス3Eを介して制御コマンドを送出して当該ブロツクの動作を制御する。
【0055】
因みに、コミユニケーシヨンCPU31は、内部にコンピユータ2の外部インターフエイス27に対応した通信用のドライバを有しており、当該ドライバによつてコンピユータ2から送られてくる制御信号S1を受信するようになされている。またデバイス制御用CPU32〜34は内部にRS−422規格のドライバを有しており、当該ドライバによつてRS−422規格の制御信号S5、S6、S9又はS12を各デバイスに送出するようになされている。
【0056】
続いて図5を用いてマトリクススイツチヤ部3Bについて説明する。この図5に示すように、マトリクススイツチヤ部3Bは大きく分けて制御回路40、マトリクススイツチヤブロツク41及びフオーマツト変換ブロツク42からなつている。制御回路40はこのマトリクススイツチヤ部3Bの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S20、S21を生成し、当該制御信号S20、S21をそれぞれマトリクススイツチヤブロツク41、フオーマツト変換ブロツク42に出力してその動作を制御する。
【0057】
マトリクススイツチヤブロツク41は、入力端子IN1〜IN11にそれぞれ接続される複数の入力ラインと、出力端子OUT1〜OUT13にそれぞれ接続される複数の出力ラインとが格子状に配列されており、入力ラインと出力ラインが交差するクロスポイント(図中×印で示す)の所で当該入力ラインと出力ラインを接続し得るようになされている。このためマトリクススイツチヤブロツク41は、制御回路40から供給される制御信号S20に基づいて所望のクロスポイントの所で入力ラインと出力ラインを接続すれば、入力端子IN1〜IN11に入力された所望の信号を所望の出力端子OUT1〜OUT13に出力することができる。
【0058】
因みに、このマトリクススイツチヤ部3Bにおいては、デイリーサーバ6、VTR7及びローカルストレージ8の各デバイスから読み出されたビデオ及びオーデイオ信号がそれぞれ入力端子IN1〜IN8に入力されるようになされている(但し、この図5の例では、入力端子IN1〜IN5にビデオ及びオーデイオ信号S7、S8、S10、S13、S14が入力され、入力端子IN5〜IN8は空き端子となつている)。また入力端子IN9及びIN10には画像処理部3Cによつて画像処理が施されたビデオ信号S31、S32がそれぞれ入力され、入力端子IN11には音声処理部3Dによつて信号処理が施されたオーデイオ信号S33が入力されるようになされている。
【0059】
またこのマトリクススイツチヤ部3Bにおいては、出力端子OUT1はローカルストレージ8にビデオ及びオーデイオ信号S15を出力するための端子として割り当てられ、出力端子OUT2はVTR7にビデオ及びオーデイオ信号S11を出力するための端子として割り当てられ、出力端子OUT3はオンエアバツフア9にビデオ及びオーデイオ信号S16を出力するための端子として割り当てられており、出力端子OUT1〜OUT3はそれぞれプログラム出力用の端子として割り当てられている。また出力端子OUT4はプレビユ専用のモニタ13にビデオ信号S19を出力するためのプレビユ用の出力端子として割り当てられており、出力端子OUT5はコンピユータ2にビデオ信号S2を出力するためのキヤプチヤ用の出力端子として割り当てられている。さらに出力端子OUT6〜OUT10は画像処理部3Cにビデオ及びオーデイオ信号S23〜S27を出力するための端子として割り当てられ、出力端子OUT11〜OUT13は音声処理部3Dにビデオ及びオーデイオ信号S28〜S30を出力するための端子として割り当てられている。
【0060】
フオーマツト変換ブロツク42は、制御回路40から供給される制御信号S21に基づいて、出力端子OUT1〜OUT5に出力する信号をSDI規格の信号に変換する回路ブロツクであり、出力端子OUT1〜OUT3に出力する信号をフオーマツト変換するアウトプツトプロセツサ43及びオーデイオコンバイナ44と、出力端子OUT4に出力する信号をフオーマツト変換するアウトプツトプロセツサ45と、出力端子OUT5に出力する信号をフオーマツト変換するアウトプツトプロセツサ46とを有している。
【0061】
アウトプツトプロセツサ43は、画像処理部3Cによつて画像処理されたビデオ信号(すなわち入力端子IN9又はIN10に入力されるビデオ信号S31又はS32)を出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。オーデイオコンバイナ44は、音声処理部3Dによつて処理されたエンベデツトオーデイオ信号(すなわち入力端子IN11に入力されるオーデイオ信号S33)を出力するとき、アウトプツトプロセツサ43から出力されるSDI規格のビデオ信号に当該エンベデツトオーデイオ信号S33を重畳する。これにより画像処理部3Cによつて処理されたビデオ信号S31、S32や音声処理部3Dによつて処理されたオーデイオ信号S33をSDI規格の信号でローカルストレージ8やVTR7或いはオンエアバツフア9に送出し得る。因みに、入力端子IN1〜IN8に入力されたビデオ及びオーデイオ信号を出力端子OUT1〜OUT3に出力する場合には、当該ビデオ及びオーデイオ信号がSDI規格で各デバイスから出力されているので、アウトプツトプロセツサ43及びオーデイオコンバイナ44は何ら処理せず、入力されるビデオ及びオーデイオ信号をそのまま出力端子OUT1〜OUT3に出力する。
【0062】
アウトプツトプロセツサ45、46も、同様に、それぞれ画像処理部3Cによつて画像処理されたビデオ信号S31又はS32を出力端子OUT4又はOUT5に出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。これにより画像処理部3Cによつて処理されたビデオ信号S31又はS32をSDI規格の信号でプレビユ専用のモニタ13やコンピユータ2に送出し得る。因みに、このアウトプツトプロセツサ45、46も、入力端子IN1〜IN8に入力されたビデオ及びオーデイオ信号を出力端子OUT4、OUT5に出力する場合には、当該ビデオ及びオーデイオ信号に何ら処理せず、そのまま出力端子OUT4、OUT5に出力する。
【0063】
続いて図6を用いて画像処理部3Cについて説明する。この図6に示すように、画像処理部3Cは大きく分けて制御回路50と、デマルチプレクサブロツク51と、スイツチヤブロツク52と、特殊効果ブロツク53と、ミキサブロツク54とを有している。制御回路50はこの画像処理部3Cの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S40、S41、S42、S43を生成し、当該制御信号S40、S41、S42、S43をそれぞれデマルチプレクサブロツク51、スイツチヤブロツク52、特殊効果ブロツク53、ミキサブロツク54に出力してその動作を制御する。これによりこの画像処理部3Cでは、マトリクススイツチヤ部3Bから供給されたビデオ信号(S23〜S27)に対して画像処理を施す。因みに、ここで言う画像処理とは、ソースビデオ信号に特殊効果を施したり、バツクグラウンドビデオ信号に特殊効果のかかつたビデオ信号を挿入したりするアニメーシヨン・エフエクトや、バツクグラウンドビデオ信号からフオアグラウンドビデオ信号に映像を切り換えるトランジシヨン・エフエクトのことである。
【0064】
デマルチプレクサブロツク51は、SDI規格の信号形式で送られてくるビデオ及びオーデイオ信号S23〜S27からビデオ信号又はキー信号を抽出するブロツクである。このデマルチプレクサブロツク51は、入力されるビデオ及びオーデイオ信号S23〜S27からそれぞれ信号抽出を行う5つのデマルチプレクサ回路51A〜51Eからなつている。デマルチプレクサ回路51Aは、ビデオ及びオーデイオ信号S23を形成する各パケツトのペイロード部からキー信号を抽出する回路であり、当該キー信号の先頭に配置されている同期信号及びヘツダ情報に基づいて抽出を行う。またデマルチプレクサ回路51Bは、ビデオ及びオーデイオ信号S24を形成する各パケツトのペイロード部からビデオ信号を抽出する回路であり、当該ビデオ信号の先頭に配置されている同期信号及びヘツダ情報に基づいて抽出を行う。同様に、デマルチプレクサ回路51Cはビデオ及びオーデイオ信号S25からキー信号を抽出し、デマルチプレクサ回路51Dはビデオ及びオーデイオ信号S26からビデオ信号を抽出し、デマルチプレクサ回路51Eはビデオ及びオーデイオ信号S27からビデオ信号を抽出する。
【0065】
スイツチヤブロツク52は、抽出されたキー信号及びビデオ信号に対してトランジシヨン・エフエクトのための処理を施すブロツクであり、ワイプ信号発生器52A、52B、キー信号処理回路52C、52D、及びビデオ信号処理回路52E、52Fからなつている。ワイプ信号発生器52Aは、制御回路50からの制御信号S41に基づいてオペレータが指定したトラジシヨン・エフエクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52C及びビデオ信号処理回路52Eに送出する。キー信号処理回路52Cは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Aから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述するミキサブロツク54に送出する。またビデオ信号処理回路52Eは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Bから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述するミキサブロツク54に送出する。
【0066】
同様に、ワイプ信号発生器52Bは、制御回路50からの制御信号S41に基づいてオペレータが指定したトラジシヨン・エフエクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52D及びビデオ信号処理回路52Fに送出する。キー信号処理回路52Dは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Cから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述する特殊効果ブロツク53に送出する。またビデオ信号処理回路52Fは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Dから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述する特殊効果ブロツク53に送出する。
【0067】
特殊効果ブロツク53は、制御回路50から供給される制御信号S42に基づいて、キー信号処理回路52Dから出力されるキー信号及びビデオ信号処理回路52Fから出力されるビデオ信号を3次元的に画像変換するためのブロツクであり、3次元アドレス発生回路53A、フレームメモリ53B、53C及び補間回路53D、53Eからなつている。3次元アドレス発生回路53Aは、制御信号S42に基づいて、オペレータが指定した3次元的な画像変換を行うための変換アドレスを生成し、当該変換アドレスをフレームメモリ53B、53C及び補間回路53D、53Eに出力する。
【0068】
フレームメモリ53Bは、キー信号処理回路52Dから供給されるキー信号を順次内部のメモリ領域に格納すると共に、その格納されたキー信号を変換アドレスに基づいて読み出すことにより、当該キー信号に対して3次元的な画像変換を施し、その結果得られるキー信号を補間回路53Dに送出する。同様に、フレームメモリ53Bは、ビデオ信号処理回路52Fから供給されるビデオ信号を順次内部のメモリ領域に格納すると共に、その格納されたビデオ信号を変換アドレスに基づいて読み出すことにより、当該ビデオ信号に対して3次元的な画像変換を施し、その結果得られるビデオ信号を補間回路53Eに送出する。
【0069】
補間回路53Dは3次元的な変換処理が施されたキー信号に補間処理を施す回路であり、変換アドレスに基づいてキー信号の画素を空間的に補間し、その結果得られるキー信号を後述するミキサブロツク54に送出する。同様に、補間回路53Eは3次元的な変換処理が施されたビデオ信号に補間処理を施す回路であり、変換アドレスに基づいてビデオ信号の画素を空間的に補間し、その結果得られるビデオ信号を後述するミキサブロツク54に送出する。
【0070】
ミキサブロツク54は制御信号S43による指示に従つてビデオ信号を合成するブロツクであり、2つのミツクス回路54A、54Bからなつている。ミツクス回路54Aは、特殊効果ブロツク53から出力されるキー信号に基づいて、当該特殊効果ブロツク53によつて画像変換されたビデオ信号とデマルチプレクサ回路51Eから出力されるバツクグラウンドビデオ信号としてのビデオ信号とを合成することによりビデオ信号S31を生成する。またミツクス回路54Bは、スイツチヤブロツク52から出力されるキー信号に基づいて、当該スイツチヤブロツク52から出力されるビデオ信号とミツクス回路54Aから出力されるビデオ信号S31とを合成することによりビデオ信号S32を生成する。このようにして生成されたビデオ信号S31、S32は、上述したようにマトリクススイツチヤ部3Bに送出される。
【0071】
因みに、単に2つの映像を切り換えるだけのトランジシヨン・エフエクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aを介してミツクス回路54Bに入力すると共に、ビデオ信号処理回路52Eから出力されるビデオ信号をフオアグラウンドビデオ信号としてミツクス回路54Bに入力し、その2つのビデオ信号をキー信号処理回路52Cから出力されるキー信号に基づいて合成する。これによりバツクグラウンドビデオ信号からフオアグラウンドビデオ信号に切り換わるビデオ信号S32が生成される。
【0072】
またページターンのような画像変換を伴うトランジシヨン・エフエクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号をフオアグラウンドビデオ信号として特殊効果ブロツク53を介して画像変換した後にミツクス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロツク53を介して信号処理されたキー信号に基づいて合成する。これによりページをめくるようにしてバツクグラウンドビデオ信号からフオアグラウンドビデオ信号に切り換わるビデオ信号S31が生成される。
【0073】
またピクチヤ・イン・ピクチヤのようなアニメーシヨン・エフエクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号を挿入素材として特殊効果ブロツク53を介して画像変換した後にミツクス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロツク53を介して信号処理されたキー信号に基づいて合成する。これによりバツクグラウンドビデオ信号に挿入素材が挿入されたピクチヤ・イン・ピクチヤのビデオ信号S31が生成される。
【0074】
続いて図7を用いて音声処理部3Dについて説明する。この図7に示すように、音声処理部3Dは大きく分けて制御回路55、入力信号処理ブロツク56、ミキサブロツク57及び出力信号処理ブロツク58からなつている。制御回路55はこの音声処理部3Dの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S45、S46、S47を生成し、当該制御信号S45、S46、S47をそれぞれ入力信号処理ブロツク56、ミキサブロツク57、出力信号処理ブロツク58に出力してその動作を制御する。これによりこの音声処理部3Dでは、マトリクススイツチヤ部3Bから供給されたオーデイオ信号(S28〜S30)に対して音声処理を施す。因みに、ここで言う音声処理とは、オーデイオ信号のレベル調整と合成のことである。
【0075】
入力信号処理ブロツク56は、SDI規格の信号形式で送られてくるビデオ及びオーデイオ信号S28〜S30からオーデイオ信号を抽出するブロツクである。この入力信号処理ブロツク56は、信号分離回路としてのセパレータ56A〜56Cと、フオーマツト変換回路としてのデコーダ56D〜56Fとを有している。セパレータ56A〜56Cは、それぞれSDI規格のビデオ及びオーデイオ信号S28〜S30からエンベデツトオーデイオ信号を抽出する回路であり、入力されるビデオ及びオーデイオ信号S28〜S30からエンベデツトオーデイオ信号を抽出してデコーダ56D〜56Fに送出する。デコーダ56D〜56Fはそれぞれエンベデツトオーデイオ信号をフオーマツト変換する回路であり、入力されるエンベデツトオーデイオ信号をそれぞれAES/EBU(Audio Engineering Society / European Broadcasting Union )フオーマツトに変換し、その結果得られるオーデイオ信号S48〜S50をそれぞれミキサブロツク57に送出する。
【0076】
ミキサブロツク57は、オーデイオ信号S48〜S50のレベル調整を行うと共に、信号合成を行うブロツクであり、可変抵抗回路57A〜57F及び加算回路57G、57Hからなつている。入力信号処理ブロツク56から供給されたオーデイオ信号S48〜S50はそれぞれ右側成分と左側成分に分離された後に可変抵抗回路57A〜57Cと可変抵抗回路57D〜57Fに入力される。可変抵抗回路57A〜57Cと57D〜57Fはコンピユータ2のモニタ2Bに表示されるGUIのオーデイオフエイダ又は専用コントローラ5に設けられたオーデイオフエイダの操作に連動して抵抗値が変化するようになされており、これにより入力されるオーデイオ信号をそれぞれオペレータが指定した信号レベルにレベル調整する。
【0077】
可変抵抗回路57A〜57Cによつてレベル調整されたオーデイオ信号は、それぞれ加算回路57Gに入力され、ここで加算された後に出力信号処理ブロツク58に送出される。同様に、可変抵抗回路57D〜57Fによつてレベル調整されたオーデイオ信号は、それぞれ加算回路57Hに入力され、ここで加算された後に出力信号処理ブロツク58に送出される。
【0078】
出力信号処理ブロツク58は出力するオーデイオ信号をSDI規格の信号形式に変換するブロツクであり、フオーマツト変換回路としてのエンコーダ58A、58Bと信号合成回路としてのエンベデツト回路58Cとを有している。エンコーダ58AはAES/EBUフオーマツトのオーデイオ信号をエンベデツトオーデイオ信号にフオーマツト変換する回路であり、加算回路57Gから出力されたオーデイオ信号をエンベデツトオーデイオ信号S17にフオーマツト変換し、そのエンベデツトオーデイオ信号S17をエンベデツト回路58Cに送出すると共に、音声確認用のスピーカ11(図1参照)に送出する。同様に、エンコーダ58BはAES/EBUフオーマツトのオーデイオ信号をエンベデツトオーデイオ信号にフオーマツト変換する回路であり、加算回路57Hから出力されたオーデイオ信号をエンベデツトオーデイオ信号S18にフオーマツト変換し、そのエンベデツトオーデイオ信号S18をエンベデツト回路58Cに送出すると共に、音声確認用のスピーカ12(図1参照)に送出する。
【0079】
エンベデツト回路58Cは、マトリクススイツチヤ部3Bのコンバイナ44によつてオーデイオ信号をSDI規格のビデオ信号に重畳し得るように所定の信号形式に信号変換を行う回路であり、入力されるエンベデツトオーデイオ信号S17、S18を合成した後に所定の信号形式に信号変換を行う。この処理により得られたオーデイオ信号S33は、上述したようにマトリクススイツチヤ部3Bのコンバイナ44に送出される。
【0080】
(1−4)ローカルストレージの構成
次にこの項では編集処理装置3に接続されるデータ記憶手段としてローカルストレージ8について説明する。図8に示すように、このローカルストレージ8は、入出力インターフエイスとしてのデータ入出力ブロツク60と、このローカルストレージ8全体の動作を制御するシステムコントロールブロツク61と、ビデオデータを記憶するデイスクアレイブロツク62と、オーデイオデータを記憶するデイスクアレイブロツク63とを有している。
【0081】
データ入出力ブロツク60は入力1チヤンネル、出力2チヤンネルの構成を有しており、システムコントロールブロツク61からの制御信号S60に基づいて、編集処理装置3から供給されたビデオ及びオーデイオ信号S15にデータ記憶に先立つて所定の信号処理を施すと共に、デイスクアレイブロツク62、63から読み出したデータに所定の信号処理を施してビデオ及びオーデイオ信号S13、S14として出力する。
【0082】
具体的に説明すると、まず編集処理装置3から供給されたビデオ及びオーデイオ信号S15はエンコーダ60Aに入力される。エンコーダ60AはSDI規格のビデオ及びオーデイオ信号S15からビデオ信号S61とオーデイオ信号S62を抽出し、当該ビデオ信号S61をビデオ圧縮回路60Bに出力すると共に、オーデイオ信号S62をオーデイオ圧縮回路60Jに出力する。ビデオ圧縮回路60Bは、圧縮率1/10のMPEG規格でビデオ信号S61を圧縮し、その圧縮したビデオデータをバツフアメモリ60Cに格納する。同様に、オーデイオ圧縮回路60Jは、所定の音声圧縮方式を用いてオーデイオ信号S62を圧縮し、その圧縮したオーデイオデータをバツフアメモリ60Kに格納する。バツフアメモリ60C、60Kに格納されたビデオデータとオーデイオデータは、システムコントロールブロツク61の制御の基に順次読み出され、ビデオデータ用のデイスクアレイブロツク62とオーデイオ用のデイスクアレイブロツク63にそれぞれ記録される。
【0083】
一方、再生第1チヤンネルのビデオデータとしてデイスクアレイブロツク62から読み出されたビデオデータは、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Fに格納される。同様に、再生第1チヤンネルのオーデイオデータとしてデイスクアレイブロツク63から読み出されたオーデイオデータは、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Mに格納される。第1のビデオ伸長回路60Fは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバツフアメモリ60Fから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS63を第1のデコーダ60Dに出力する。同様に、第1のオーデイオ伸長回路60Lは、圧縮されているオーデイオデータをバツフアメモリ60Mから読み出し、当該オーデイオデータを伸長処理した後、そのオーデイオデータS64を第1のデコーダ60Dに出力する。第1のデコーダ60DはSDI規格のフオーマツトに基づいてビデオデータS63にオーデイオデータS64を重畳する。これによりデイスクアレイブロツク62から読み出した再生第1チヤンネルのビデオデータとデイスクアレイブロツク63から読み出した再生第1チヤンネルのオーデイオデータをSDI規格のビデオ及びオーデイオ信号S13として送出し得る。
【0084】
同様に、再生第2チヤンネルのビデオデータとしてデイスクアレイブロツク62から読み出されたビデオデータは、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Iに格納される。また再生第2チヤンネルのオーデイオデータとしてデイスクアレイブロツク63から読み出されたオーデイオデータも、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Pに格納される。第2のビデオ伸長回路60Hは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバツフアメモリ60Iから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS65を第2のデコーダ60Gに出力する。同様に、第2のオーデイオ伸長回路60Nも、圧縮されているオーデイオデータをバツフアメモリ60Pから読み出し、当該オーデイオデータを伸長処理した後、そのオーデイオデータS66を第2のデコーダ60Gに出力する。第2のデコーダ60GはSDI規格のフオーマツトに基づいてビデオデータS65にオーデイオデータS66を重畳する。これによりデイスクアレイブロツク62から読み出した再生第2チヤンネルのビデオデータとデイスクアレイブロツク63から読み出した再生第2チヤンネルのオーデイオデータをSDI規格のビデオ及びオーデイオ信号S14として送出し得る。
【0085】
システムコントロールブロツク61は、このローカルストレージ8の全体を制御するブロツクであり、CPU61Aと、DMAコントローラ(Direct Memory Access controller )61B、61Cと、SCSIプロトコルコントローラ61D、61Eと、制御信号S12の入力インターフエイス61Fとを有している。CPU61Aはシステムコントロールブロツク61の中心的存在である制御回路を構成しており、編集処理装置3からRS−422の通信プロトコルで送られてくる制御信号S12を入力インターフエイス61Fを介して受け、その制御信号S12が示す制御コマンドに基づいて、DMAコントローラ61B、61CとSCSIプロトコルコントローラ61D、61Eの動作を制御する。またCPU61Aは上述したように制御信号S60を生成してデータ入出力ブロツク60に出力することにより当該データ入出力ブロツク60の動作を制御する。
【0086】
さらにCPU61Aは、デイスクアレイブロツク62及び63の記録アドレスを、記録されるデータのタイムコードと共に管理しており、これによりタイムコードを基準にしてそのタイムコードが示すデータの記録アドレスを容易に検索し得るようになされている。具体的には、CPU61Aは、デイスクアレイブロツク62にフレーム単位で記録されるビデオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。同様に、CPU61Aは、デイスクアレイブロツク63にフレーム単位で記録されるオーデイオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。従つて外部からタイムコードを指定しさえすれば、対応表を参照して記録アドレスを容易に探し出すことができ、ビデオデータ及びオーデイオデータを速やかに再生することができる。
【0087】
ビデオ系のDMAコントローラ61Bは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロツク60のバツフアメモリ60Cからビデオデータを読み出し、データ再生時にはデータ入出力ブロツク60のバツフアメモリ60F、60Iにビデオデータを書き込む。またビデオ系のSCSIプロトコルコントローラ61Dは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Bから受け取つたフレーム単位のビデオデータと、そのビデオデータのフレームに付与されているタイムコードとをSCSIフオーマツトのデータS67に変換してビデオデータ用のデイスクアレイブロツク62に送出し、ビデオデータの記録を当該デイスクアレイブロツク62に指示する。またSCSIプロトコルコントローラ61Dは、データ再生時、デイスクアレイブロツク62から再生されたSCSIフオーマツトのビデオデータS67を受け取り、これを元のデータ形式に変換してDMAコントローラ61Bに送出する。
【0088】
同様に、オーデイオ系のDMAコントローラ61Cは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロツク60のバツフアメモリ60Kからオーデイオデータを読み出し、データ再生時にはデータ入出力ブロツク60のバツフアメモリ60M、60Pにオーデイオデータを書き込む。またオーデイオ系のSCSIプロトコルコントローラ61Eは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Cから受け取つたフレーム単位のオーデイオデータと、そのオーデイオデータのフレームに付与されているタイムコードとをSCSIフオーマツトのデータS68に変換してオーデイオデータ用のデイスクアレイブロツク63に送出し、オーデイオデータの記録を当該デイスクアレイブロツク63に指示する。またSCSIプロトコルコントローラ61Eは、データ再生時、デイスクアレイブロツク63から再生されたSCSIフオーマツトのオーデイオデータS68を受け取り、これを元のデータ形式に変換してDMAコントローラ61Cに送出する。
【0089】
ビデオデータ用のデイスクアレイブロツク62及びオーデイオデータ用のデイスクアレイブロツク63は、それぞれ内部に複数のハードデイスクを有したデイスクアレイ装置からなり、その複数のバードデイスクを並列的に同時運転してビデオデータやオーデイオデータを記録するようになされている。またデイスクアレイブロツク62及び63は、データを記録するときに冗長性を持たせて記録するようになされており、これによりデイスクアレイ装置内のいずれかのハードデイスクが故障した場合でも、故障したハードデイスクに記録されていたデータを復旧(再構築動作ともいう)し得るようになされている。なお、このようなデータの再構築機能を有するデイスクアレイ装置は、一般に、RAID(Redundant Array of Inexpensive Disks)と呼ばれている。
【0090】
ここでこのようなデイスクアレイブロツク62、63について、以下に図を用いて具体的に説明する。但し、デイスクアレイブロツク62、63は基本的に同一の構成を有しているので、ここではデイスクアレイブロツク62についてのみ説明する。図9に示すように、デイスクアレイブロツク62は、大きく分けてバツフアメモリ62Aと、デイスクアレイコントローラ62Bと、データマルチプレクサ62Cと、パリテイ演算回路62Dと、複数のSCSIプロトコルコントローラ62E〜62Iと、複数のハードデイスク62J〜62Nとからなつている。
【0091】
バツフアメモリ62Aはデータの一時記憶用のメモリであり、図8に示したシステムコントロールブロツク61から送出されるSCSIフオーマツトのデータS67を順次受け取つて記憶すると共に、データ再生時には後述するデータマルチプレクサ62Cから送られてくるデータをデータ送出に伴つて一時的に記憶する。
【0092】
デイスクアレイコントローラ62Bは、このデイスクアレイブロツク62における記録動作や再生動作等、ブロツク全体の動作を制御する回路である。このデイスクアレイコントローラ62Bは、バツフアメモリ62Aに記憶されているデータのうちシステムコントロールブロツク61からの制御コマンドに関するデータをコマンドデータバス62Pを介して受け取り、その制御コマンドに対応したコマンドデータをコマンドデータバス62Pを介してデータマルチプレクサ62C、SCSIプロトコルコントローラ62E〜62I及びハードデイスク62J〜62Nに送出することにより各部の動作を制御する。
【0093】
データマルチプレクサ62Cは、データ記録時、ビデオデータ等の記録対象のデータをバツフアメモリ62Aから読み出して当該データをSCSIプロトコルコントローラ62E〜62Hを介して各ハードデイスク62J〜62Mに振り分けると共に、振り分けたデータ内容をパリテイ演算回路62Dに通知する。またデータマルチプレクサ62Cは、データ再生時、各ハードデイスク62J〜62Mから再生されたデータを1つにまとめてバツフアメモリ62Aに送出すると共に、ハードデイスク62J〜62Mの損傷等により再生できなかつたデータがあるのであればパリテイ演算回路62Dから供給されるパリテイデータを基にそのデータを再構築演算によつて再生する。
【0094】
パリテイ演算回路62Dは、データ記録時、データマルチプレクサ62Cが振り分けたデータ内容に基づいてそれらのデータのパリテイデータを演算し、当該パリテイデータをSCSIプロトコルコントローラ62Iを介してハードデイスク62Nに供給する。またパリテイ演算回路62Dは、データ再生時、ハードデイスク62J〜62Mから再生できないデータがあるのであれば、ハードデイスク62Nから再生したパリテイデータをデータマルチプレクサ62Cに送出する。
【0095】
SCSIプロトコルコントローラ62E〜62Iは、データ記録時、データマルチプレクサ62Cから供給された記録対象のデータ又はパリテイ演算回路62Dから供給されたパリテイデータをハードデイスク62J〜62Nの記録フオーマツトに合つたデータ形式に変換し、当該変換されたデータをハードデイスク62J〜62Nに送出する。またSCSIプロトコルコントローラ62E〜62Iは、データ再生時、各ハードデイスク62J〜62Nから再生されたデータをSCSIフオーマツトのデータ形式に変換し、これをデータマルチプレクサ62C又はパリテイ演算回路62Dに送出する。
【0096】
因みに、SCSIプロトコルコントローラ62E〜62Iは、ハードデイスク62J〜62Nをアクセスした際に当該ハードデイスク62J〜62Nの故障等によりデータ再生ができないことが検出された場合には、その検出結果をデイスクアレイコントローラ62Bに送出するようになされており、これによりデイスクアレイコントローラ62Bからデータマルチプレクサ62Cにデータ再構築を指示し得るようになされている。
【0097】
ハードデイスク62J〜62Nは、ビデオデータ等の記録対象のデータを分散して並列的に記録するためのデータ記憶手段である。この例では、4つのハードデイスク62J〜62Mを設けてデータを分散するようになつているが、この数は特に限定されるものではない。このハードデイスク62J〜62Mは、データ記録時、SCSIプロトコルコントローラ62E〜62Hから供給されるデータを順次所望の記録エリアに記録すると共に、データ再生時にはデータを順次読み出してSCSIプロトコルコントローラ62E〜62Hに送出する。このように複数のハードデイスク62J〜62Mを設けてデータを分散して記録するようにしたことにより、このデイスクアレイブロツク62ではビデオデータ等のような大容量のデータであつても確実に記録することができる。
【0098】
またハードデイスク62Nは、記録対象のデータを基に算出したパリテイデータを記録するためのデータ記憶手段である。このハードデイスク62Nは、データ記録時、SCSIプロトコルコントローラ62Iから供給されるパリテイデータを順次所望の記録エリアに記録すると共に、データ再生時にはパリテイデータを順次読み出してSCSIプロトコルコントローラ62Iに送出する。このように記録対象のデータを基に算出したパリテイデータを、当該記録対象のデータを記録するハードデイスク62J〜62Mとは別のハードデイスク62Nに記録するようにしたことにより、故障等によつてハードデイスク62J〜62Mからデータを再生できない場合でも、当該パリテイデータを基にデータを再構築することができる。
【0099】
ここでこのデータ再構築の原理について説明する。まずデータマルチプレクサ62Cによつて割り振られたデータのうちハードデイスク62Jに割り振られたデータをD0、ハードデイスク62Kに割り振られたデータをD1、ハードデイスク62Lに割り振られたデータをD2、ハードデイスク62Mに割り振られたデータをD3とし、パリテイ演算回路62Dによつて算出されたパリテイデータをPDとする。
【0100】
パリテイ演算回路62P内部には、図10(A)に示すような論理演算手段70が設けられており、当該論理演算手段70によつてパリテイデータを算出するようになされている。この論理演算手段70は、ハードデイスク62Jに割り振られたデータD0と、ハードデイスク62Kに割り振られたデータD1と、ハードデイスク62Lに割り振られたデータD2と、ハードデイスク62Mに割り振られたデータD3とを加算し、その加算結果が偶数であれば値「1」のパリテイデータPDを出力し、加算結果が奇数であれば値「0」のパリテイデータを出力する。因みに、加算結果が「0」である場合には、偶数と見なして値「1」のパリテイデータPDを出力する。
【0101】
具体的には、図10(B)に示すように、例えばデータD0〜D3が全て値「0」の場合には、論理演算手段70は加算結果が「0」となるので値「1」なるパリテイデータPDを出力し、データD0〜D2が値「0」でデータD3が値「1」の場合には、加算結果が「1」となるので値「0」なるパリテイデータPDを出力する。以下、同様の原理でその他のデータの組み合わせについても、図10(B)の図表のようなパリテイデータPDを出力する。このように算出されたパリテイデータPDは、上述したようにSCSIプロトコルコントローラ62Iを介してハードデイスク62Nに記録される。
【0102】
ここで再生時にハードデイスク62Lの故障で当該ハードデイスク62Lに記録されているデータD2が再生できなかつたとすると、デイスクアレイコントローラ62Bは、SCSIプロトコルコントローラ62Gからの再生不可の検出結果を受けて、データマルチプレクサ62Cにパリテイデータによるデータ再構築を指示する。これを受けたデータマルチプレクサ62Cは、図11(A)に示すように、内部に設けられた論理演算手段71に対してハードデイスク62Jから再生されたデータD0、ハードデイスク62Kから再生されたデータD1、ハードデイスク62Mから再生されたデータD3及びハードデイスク62Nから再生されたパリテイデータPDを入力し、当該論理演算手段71によつてデータD2の再構築のための演算を実行する。この論理演算手段71は、パリテイデータPDを算出する論理演算手段70と同様に、入力されるデータD0、D1、D3及びパリテイデータPDを加算し、その加算結果が偶数であれば値「1」の再構築データ(D2)を出力し、加算結果が奇数であれば値「0」の再構築データ(D2)を出力する。
【0103】
具体的には、図11(A)に示すように、例えばデータD0、D1、D3が値「0」でパリテイデータPDが値「1」の場合には、論理演算手段71は加算結果が「1」となるので値「0」なる再構築データ(D2)を出力し、データD0、D1、PDが値「0」でデータD3が値「1」の場合には、加算結果が同じく「1」となるので値「0」なる再構築データ(D2)を出力する。以下、同様の原理でその他のデータの組み合わせについても、図11(B)の図表のような再構築データ(D2)を出力する。この図11(B)と先の図10(B)を対比させれば分かるように、ハードデイスク62Lの故障により再生できなかつたデータD2が正確に復元できている。
【0104】
このようにしてこのデイスクアレイブロツク62では、データ記録時、記録対象のデータD0〜D3を基にパリテイデータPDを算出してハードデイスク62Nに当該パリテイデータPDを記録するようにしたことにより、データ再生時にハードデイスク62J、62K、62L又は62Mの故障によりデータD0、D1、D2又はD3が再生できなかつた場合でも、当該パリテイデータPDを基に再生できなかつたデータD0、D1、D2又はD3を確実に復元し得る。
【0105】
(2)プログラム編集
(2−1)プログラム編集用アプリケーシヨン・ソフトウエア
プログラム編集を実行する場合、編集装置1においては、まずコンピユータ2によりプログラム編集用のアプリケーシヨン・ソフトウエアをHDD24Aより読み出して起動し、この結果モニタ2Bに表示される所定の入力画面にてプログラム名を入力することによつてモニタ2B上に図12に示すようなプログラムの編集用画面90を表示させる。
【0106】
プログラム編集する場合の編集用画面90は、ビユーアウインドウ92、ログウインドウ93及びプログラムウインドウ94の3つのウインドウを表示するようになされ、これら3つのウインドウでの入力操作によりプログラムを編集する。
実際、プログラムの編集作業は、ビユーアウインドウ92において選択されたソースデバイスより読み出される編集素材に対してイン点及びアウト点を設定して所望の長さに切り取り、その切り取つた編集素材(以下、これをイベントと呼ぶ)に関する情報をフアイルに格納する。そしてログウインドウ93にその切り取つたイベントのスタンプ画をクリツプとして貼り付ける。このような作業を繰り返すことによつてログウインドウ93上に複数の切り取りイベントを集めることができる。もちろんこの場合、ログウインドウ93には1つのイベントだけを登録するようにしても良い。
【0107】
ビユーアウインドウ92より切り取つた編集素材に対する編集作業としては、ログウインドウ93に集められたイベントの中から所望のイベントを選択してプログラムウインドウ94の上に設けられたタイムライン95に並べて継ぎ合わせ編集する他、タイムライン95上に並べられたイベントに対してアニメーシヨン・エフエクト又はトランジシヨン・エフエクト等ビデオエフエクトを設定する等の編集作業を実行し得るようになされている。
【0108】
タイムライン95は、デイリーサーバ6やローカルストレージ8等のソースデバイスから読み出した複数のイベント各々をタイムコードに対応付けてラインとして表示するようにしたプログラムデータ編集領域である。
【0109】
このビユーアウインドウ92は、ソースデバイスから読み出した編集素材又はプログラムウインドウ94のタイムライン95に並べられたイベントを再生するデバイスコントロール部96を設けており、当該デバイスコントロール部96を介した制御によつて編集素材を再生しながら編集作業を実行することができる。またタイムライン95上に並べられたイベントに対しては、イン点及びアウト点を設定することによつてイベント長を所望の長さに設定しなおすこともできる。
【0110】
因みに編集用画面90においては、画面上に読み出されたウインドウが現在、実行対象の場合、すなわちウインドウがアクテイブのときウインドウのタイトルバー98を非アクテイブのときの表示色である灰色から青色に変化させる。このようにタイトルバー92の表示をアクテイブ又は非アクテイブに応じて色別表示するようにしたことによりウインドウがアクテイブであるか否かを視覚により容易に識別し得るようになされている。
【0111】
(2−2)ビユーアウインドウの構成
図13に示すようにビユーアウインドウ92は、ソースデバイスとして選択された編集素材を画像表示するための窓としてビユーア106を表示すると共に、ビユーアウインドウ92に読み出した編集素材に対して設定したイン点のスタンプ画像を表示するイン点画像表示部110及び編集素材に対して設定したアウト点のスタンプ画像を表示するアウト点画像表示部112を表示するようになされている。
【0112】
因みにイン点画像表示部110の下部には当該イン点画像表示部110に表示されているスタンプ画像のタイムコードを表示するイン点タイムコード表示欄111が表示される。またアウト点画像表示部112の下部にも当該アウト点画像表示部112に表示されているスタンプ画像のタイムコードを表示するアウト点タイムコード表示欄113が表示される。さらにビユーアウインドウ92は、選択素材の長さ、すなわち編集開始点から編集終了点までの長さ(Duration)を表示するDUR表示欄114等の表示部を表示するようになされている。
【0113】
ビユーアウインドウ92においては、表示されるデイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTの各ソースデバイスにアサインされたソース選択ボタン102(102A〜102E)の内いずれかを選択してクリツクすることにより、デイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTのいずれかをソースデバイスとして選択し得るようになされている。
【0114】
因に後述するように、補助入力部AUXは複数のソースを有するもので、現在、補助入力部AUXとして設定されている補助入力部(AUX1〜AUXn)内のいずれかの入力部名がソース選択ボタン102Dに表示される。
【0115】
ソース選択ボタン102の選択によつてソースデバイスが選択されると、当該ソースデバイスよりコンピユータ2に素材のフアイルが読み出される。ここで選択したソース選択ボタン102を再度クリツクすることにより、図14(A)に示すようなフアイルリスト103A又は図14(B)に示すようなソースリスト103Bを画面表示させることができる。この場合、フアイルリスト103Aは、デイリーサーバ6又はローカルストレージ8内に収納されているフアイルのフアイルリストが表示され、またソースリスト103Bには、補助入力部AUX素材の入力部のリストが表示される。ここでマウスによつて各フアイルリスト103A又はソースリスト103B内の所望のフアイル名又はソースにカーソルを合わせてクリツクすることによりフアイル又はソースをそれぞれ選択した後、「OK」ボタン103Cをクリツクすることにより選択したフアイル又はソースをソースデバイスよりコンピユータ2に読み出すようになされている。
【0116】
ここでフアイルリスト103A又はソースリスト103Bにおいては、「Cancel」ボタン103Dをクリツクすることにより、選択したフアイルリスト103A又はソースリスト103Bを取り消すことができる。
【0117】
また選択したソースデバイスが内部入力INTの場合、ソース選択ボタン102Eを再びクリツクすると、ビデオ編集用画面90上に図15に示すようなマツトダイアログ104が表示される。マツトダイアログ104は、色信号をパネル形式のボタンに階調表示した基礎カラー(Basic Color) 104A又はフエイバレツトカラー104B(Favorite Color)において、所望の色信号をクリツクすることにより選択し、当該色信号による色をビユーア104Cに表示するようにしている。また例えばタイル模様等の模様をパターン入力部105Aにパターン番号を入力することにより読み出すことができる。
【0118】
また選択した色信号は、色信号変更部104Dにおいて「Hue」(Hue) 色相を360 段階、「Sat」(Saturation)彩度、及び「Lum」(Luminance) 輝度をそれぞれテンキー入力によつて101 段階で設定することができ、さらに赤、緑、青の3原色を256 段階でテンキー入力によつて設定又は修正し得るようになされている。
【0119】
ビユーアウインドウ92においては、ソースデバイスより読み出した編集素材の画像を画像表示用窓であるビユーア106に表示すると共に、素材名欄107には選択した編集素材名、タイムコード表示欄108にはビユーア106に表示されている素材のタイムコードを、さらにステイタス欄109にはビユーアウインドウ92の状況(ステイタス)をそれぞれ表示するようになされている。ここでウインドウ100のステイタス表示が「OPEN」となると、デバイスコントロール部96によるデバイスコントロールによつて選択された素材に対するデバイスコントロールが実行可能な状態に設定されていることを示している。
【0120】
実際、タイムコード表示欄108をクリツクすることにより、当該タイムコード表示欄108を入力モードに設定することができ、ここでタイムコード表示欄108に素材の所望の位置のタイムコードを入力してエンターキーを入力することにより、素材の所望の位置をタイムコードに応じて探し出す(サーチ)ことができる。
【0121】
ここで、ステイタス欄109にテンキー入力により再生速度を入力すると、当該再生速度でデバイスを再生モードに設定することができる。このとき再生中の素材の所望位置において、マークインボタン115をクリツク入力することにより、その位置にイン点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれイン点画像表示部110とイン点タイムコード表示欄111とに表示される。
【0122】
同様にして、再生中の素材の所望位置において、マークアウトボタン116をクリツク入力することにより、その位置にアウト点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれアウト点画像表示部112とアウト点タイムコード表示欄113とに表示される。
【0123】
ここでイン点タイムコード表示欄111をクリツクすることによつてイン点タイムコード表示欄111をタイムコードの入力モードにかえることができ、このときイン点タイムコード表示欄111に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をイン点画像として読み出し、イン点画像表示部110に表示させることもできる。
【0124】
同様にしてアウト点タイムコード表示欄113をクリツクすることによつてアウト点タイムコード表示欄113をタイムコードの入力モードにかえることができ、このときアウト点タイムコード表示欄113に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をアウト点画像として読み出し、アウト点画像表示部112に表示させることもできる。
【0125】
このようにして編集素材に対してイン点及びアウト点を設定して切り取つたビユーアウインドウ92上の素材を、タイムライン95上に並べる前にプレビユボタン117をクリツクすることによりタイムライン上に並べられた場合と同じ様にプレビユさせることができる。これによりビユーアウインドウ92で切り取つた素材の内容をタイムライン95上に貼り付ける前にプレビユによつて確認し得る。
【0126】
ビユーアウインドウ92においては、デバイスコントロール部96の制御対象がビユーアウインドウ92にあるときには、選択したソースデバイスから読み出した編集素材をビユーア106にてモニタしながら、再生ボタン119Aをクリツクすることにより再生し得る。またデバイスコントロール部96においては編集素材をスチルボタン119Bによつてスチル再生することもできるようになされている。
【0127】
デバイスコントロール部96は、スライダ(Slider)部120及びジヨグシヤトル部121の2つの制御部を有し、スライダ部120においては、イベントの長さを示すデユレーシヨン表示部120Aの範囲内においてスライダ120Bの表示される位置によつて、現在、再生中のフアイルの現在位置を表すと共に、当該スライダ120Bをマウス2Dによつてデユレーシヨン表示部120Aの任意の位置にドラツグ・アンド・ドロツプすることによつてフアイルの所望の位置をサーチするようになされている。
【0128】
またスライダ部120においては、矢印ボタン120C又は120Dをクリツクすることにより、フアイルの位置をそれぞれ±1フレームずつ前後に移動させることができるようになされている。因みにスライダ部120は、デイリーサーバ6又はローカルストレージ8等のデイスク記憶媒体からのフアイル読み出しの場合の他は表示されない。
【0129】
またジヨグシヤトル部121においては、シヤトルボタン121Aをクリツクすることによつていわゆるシヤトルモードを設定し、当該シヤトルモードにおいてシヤトルボタン121B又は121Cを押すことによつて、シヤトルボタン121B又は121Cをクリツクする毎にデバイスのサーチ速度を−50倍速から+50倍速範囲で可変に設定してフアイル内のデータをサーチするようになされている。
【0130】
(2−3)ログウインドウへの編集素材の登録
ビユーアウインドウ92において、所定の選択デバイスより読み出された後、イン点及びアウト点を設定することにより切り取つた編集素材は、プログラムウインドウ94に直接イベントとして貼り付けるか又は図16に示すようにログウインドウ93にスタンプ画(図中、クリツプCLとして示す)として貼り付けて登録する。この場合、ビユーアウインドウ92の登録部122において予めPGMボタン122B及び又はLOGボタン122Cを選択することによつて編集素材のエントリモード(Entry Mode)(登録モード)をプログラムモード又はログモードに設定しておく。そしてその設定状態でビユーアウインドウ92においてイン点及びアウト点を設定して素材を切り取つた後、ADDボタン122Aをクリツクすることによつて切り取つた素材をプログラムウインドウ94及び又はログウインドウ93に登録する。
【0131】
(2−4)タイムラインによるイベント編集
ここでビユーアウインドウ92にて切り取つた素材又はログウインドウ93に登録されているイベントを編集する場合、ビユーアウインドウ92上に設けられたTLボタン126をクリツク入力することによつて、デバイスコントロール部96による制御対象をプログラムウインドウ94上のタイムライン95に移す。
【0132】
ここで登録部122の登録モードがプログラムモードに設定されている場合、ADDボタン122Aがクリツクされることによつて、イン点及びアウト点を指定して切り取つた素材がプログラムウインドウ94上のタイムライン95に貼り付けられる。
【0133】
このようにプログラムウインドウ94に設けられたタイムライン95に切り取られた編集素材がタイムコードに対応付けられて並べられると、編集素材は最小単位であるイベントに変換され、デバイスコントロール部96を介した制御によつて再生され編集用画面90において編集し得るように設定される。
【0134】
ここで例えば編集素材がVTR7に記録されている場合は、VTR7より素材を一旦ビユーアウインドウ92上に読み出して、その素材に対してイン点及びアウト点を設定した後、ダウンロード・ボタン123Aをクリツク入力することにより編集素材をローカルストレージ8内にダウンロードする。これによりデバイスコントロール部96のスライダ部120を介した制御によつてVTR7に記録されていた素材に対してフアイルサーチし得る。
【0135】
図17及び図18に示すようにタイムライン95は、タイムコードに対応付けられた複数の編集ラインにより構成されている。このタイムライン95は、まずベースライン132として基本となる映像を貼るベースビデオ・ライン(Base Video Line) 132A、基本となる音声を貼るベースオーデイオ・ライン132B、次に基本音声に重ねる音声を貼るサブライン134、ビデオエフエクトを設定するエフエクトライン135を表示するようになされている。さらにタイムライン95は、ベースライン132にいわゆるオーバレイ(Overlay) させることによつて映像を貼り込むためのオーバレイライン136をそれぞれ帯状にグラフイツク表示するようになされている。
【0136】
さらにベースビデオとオーバレイ・ビデオの映像にテロツパから送出される文字や補助入力部AUXから送出される衛星画像等をオーバレイするためのダウンストリームキー(DSK:Down Stream Key) を設定してタイトル素材を貼るためのDSKライン137及びアナウンサ等の音声(Voice) を貼るボイスオーバ・ライン138をそれぞれ帯状にグラフイツク表示するようになされている。
【0137】
因みにタイムライン95に表示される編集素材及び設定されたエフエクトは全てイベントとして各ライン毎に異なつた色により、例えばビデオイベントは青、オーデイオイベントは黄色、エフエクトイベントはピンク色、DSKイベントは緑色によつて表示される。
【0138】
またタイムライン95上においては、TLボタン126のオン時又はプレビユウボタン123B(図12)をクリツクすることによりタイムライン95上のイベントをプレビユするときに、ビユーアウインドウ92に画面表示されている素材の画像のタイムコードに対応する位置にナウライン139を表示させるようになされている。
【0139】
因みにナウライン139はタイムライン95が表示されているときは、当該タイムライン95上に常時表示されるようになされており、通常は灰色表示され、プレビユウ又は再生実行中には赤色に色別表示される。このようにナウライン139をプレビユウ又は再生実行中とで色別表示するようにしたことにより、現在、ナウライン139によつて示されるタイムコード位置に対応する映像クリツプがビユーアウインドウ92に画面表示されているものであるか否かを視覚により容易に識別し得る。
【0140】
図17に示すようにナウライン139は、タイムライン95の上部に表示される入力ツール140によつて簡易にタイムライン95上の所望の位置へ移動させることができるようになされている。因みにプログラムウインドウ94には、入力ツール140としてナウライン139をタイムライン95の先頭に移動させるヘツドボタン141、ナウライン139をタイムライン95上の最後尾のイベントに直後に移動させるテールボタン142、ナウライン139を現在位置するイベントの一つ前のイベントに移動させる前ボタン143及びナウライン139を現在位置するイベントの一つ後のイベントに移動させる次ボタン144を設け、それらをタイムライン95上に表示するようになされている。
【0141】
またタイムライン95においては、スライダ部145のスライドつまみ146をマウスでクリツクしてドラツグ・アンド・ドロツプすることにより、ナウライン139をタイムライン95上の所定の位置に移動し得るようになされている。
【0142】
さらにタイムライン95上にはタイムコードに対応した目盛りを表すスケールライン147(Scale Line)を表示するようにし、当該スケールライン147の所望の位置をマウス2Dでクリツクすることにより、そのクリツク位置にナウライン139を移動させるような機能をもたせている。
【0143】
図18に示すようにプログラムウインドウ94には、GUIツールとしてタイムライン95に設定される時間又は、スケールライン147の一目盛りが示す時間を調整するためのズームアウトボタン150及びズームインボタン151が設けられている。ズームアウトボタン150は、プログラムウインドウ94の1画面で表示できるタイムラインの時間を長く設定するものである。またズームインボタン151はプログラムウインドウ94の1画面で表示できるタイムラインの時間を短く設定するものである。
【0144】
またプログラムウインドウ94では、カウントタイム表示欄152によつてナウライン139のタイムライン上の現在位置を表示するようにし、さらにトータルタイム表示欄153(図12)によつてタイムラインの先頭から最後尾のイベントまでの長さ、又は設定位置から最後尾のイベントまでの長さを表示するようになされている。
【0145】
またプログラムウインドウ94においては、入力ツールとして、リツプルボタン154、マニユアル・ロケーシヨンボタン155、トリムボタン156、マツチカツトボタン157、デリートボタン158及びビデオエフエクトボタン159を表示するようになされている。
【0146】
因みにリツプルボタン154は、既にベースラインに並んでいるイベントの途中にイベントを貼り付ける場合、貼り付けるイベントを挿入イベントとしてベースラインに挿入し、以降のイベントをその挿入イベントの次に続くように順次、繰下げて並べ替える処理を設定すると共に、ベースライン上のイベントが削除又は移動された場合にはベースラインに穴が開いた部分に後に続くイベントを繰り上げて並べるという処理を設定する。
【0147】
またマニユアル・ロケーシヨンボタン155は、エフエクトの位置(ロケーシヨン)を設定し得るようなアニメーシヨン・エフエクトを設定するときに、当該アニメーシヨン・エフエクトをかけるイベントのプレビユ又はレコーデイング実行中にマウス2Dによる操作によつてエフエクトのロケーシヨンを制御し得るように設定する。
【0148】
またトリムボタン156は、タイムライン95上においてイベントにトリムを設定しモニタ上にてイベントのフオアグランド及びバツクグランドをその境界部分と共に表示し、マツチカツトボタン157は、イベントをナウライン139の位置にて二つに切り離す設定をするためのボタンとして設けられている。
【0149】
またデリートボタン158は、イベントに対して削除を設定するものである。またビデオエフエクトボタン159は、映像の変わり目や映像自体にエフエクト(ビデオエフエクト)をかけるためのダイアログを表示させるものである。
【0150】
さらにプログラムウインドウ94は、サブオーデイオ・ライン134、ボイスオーバ・ライン138に貼り付けられたオーデイオ・イベントのフエイドイン又はフエイドアウトの効果を付けるためのオーデイオフエイドボタン160、DSKの各種設定を行うためのダイアログを開くためのDSKボタン161及び最終的なオーデイオの4チヤネル出力に対してタイムライン上のオーデイオをどのようにルーテイングするかを決定するためのダイアログを表示させるミツクスダウンボタン162を表示するようになされている。
【0151】
(2−5)デバイスアイコンの表示
ところで図13に示すビユーアウインドウ92においては、表示されるシーン名欄107の隣欄にビユーア106に読み出されている素材の記憶先デバイスを示すデバイスアイコン165が表示される。
【0152】
ビユーアウインドウ92に表示される各デバイスアイコン165は図19(A)〜(E)に示すように、ビユーアウインドウ92に読み出された素材のソースデバイスに応じて、ソースデバイスがデイリーサーバ6の場合はサーバアイコン165A(図19(A))、ソースデバイスがローカルストレージ8の場合はローカルストレージアイコン165B(図19(B))、VTR7の場合はVTRアイコン165C(図19(C))、補助入力部AUXからの入力の場合はAUXアイコン165D(図19(D))、さらにビユーア106に表示されている画像の素材が編集装置1内部の内部入力INTより発生されている信号素材の場合はINTアイコン165E(図19(E))がそれぞれ表示される。
【0153】
このようにビユーア106に表示される画像の記憶先デバイスを示すデバイスアイコン165をイベント画像と同時にビユーアウインドウ92上に表示するようにしたことにより、ビユーアウインドウ92に読み出されている素材の記憶先デバイスをデバイスアイコン165をみることで視覚により容易に識別し得る。
【0154】
また図17に示すように、デバイスアイコン165は、タイムライン95上の各ラインにおいても、当該タイムライン95上に並べられたイベントの記憶先デバイスに応じてサーバアイコン165A、ローカルストレージアイコン165B、VTRアイコン165C、AUXアイコン165D又はINTアイコン165Eの各デバイスアイコン165が各イベント毎に表示される。
【0155】
この結果、タイムライン95に読み出されているイベントの記憶先デバイスを各ライン上に表示されるデバイスアイコン165をみることで視覚により容易に識別し得る。これにより、例えばデバイスコントロール部96を介してイベントに対してエフエクトを設定するとき、ベースライン132の記憶先デバイスがデイリーサーバ6又はローカルストレージ8であるか否かを容易に判別し得、これにより例えば記憶先デバイスがVTR7の場合、編集素材をVTR7からローカルストレージ8へダウンロードすべきか否かを容易に判断し得る等、素材に対する編集操作をより確実にし得る。デバイスアイコン165は、さらにログウインドウに登録される各クリツプCLにも記憶先のソースデバイスに応じてそれぞれ表示されるようになされている。
【0156】
(2−6)ログウインドウへのクリツプの登録
次にビユーアウインドウ92においてイン点及びアウト点の設定により切り取られた素材をログウインドウ93に登録する場合について説明する。
【0157】
すなわちビユーアウインドウ92において、所定のソースデバイスより編集素材を読み出し、当該編集素材に対してイン点及びアウト点を設定した後、LOGボタン122Bが選択された状態でADDボタン122Aをクリツクすると、編集素材の登録モードはログウインドウ93への登録モードとなり、この結果、編集素材に関する標題情報が図16に示すように、カード形式のクリツプCLとしてログウインドウ93に登録される。
【0158】
因みにログウインドウ93に登録するイベント素材に対してビデオレベルを設定することができる。この場合、まずビユーアウインドウ92に表示されるビデオ・アジヤスト・キー167Aをクリツクすることにより、図20に示すようなビデオレベル設定用のダイアログ170が表示される。
【0159】
ダイアログ170は、スライド部170Aにおいてビデオレベル(「Lum Gain」)の各レベルを調整し得るようになされている。この場合、スライド部170Aに表示されているスライドつまみ170Bをマウス2Dにより移動させて、各レベルをスライド調整し得るようになされている。
【0160】
さらにログウインドウ93に登録するイベント素材に対してオーデイオレベルを設定することができる。この場合、オーデイオ・アジヤスト・キー167Bをクリツクすることにより、図21に示すようなオーデイオレベル設定用のダイアログ172を編集用画面90上に表示させ、マウス2Dを用いてトリム173のスライドつまみ173Aを移動させることによりオーデイオ入力信号レベルをスライド調整し得る。さらにフエイダ部174にてマウス2Dを用いてスライドつまみ174Aを移動させることにより各素材のオーデイオ出力レベルをスライド調整し得る。
【0161】
またこのダイアログ172においては、フイルタボタン175及びイコライザボタン176を選択することによつてオーデイオ出力レベルに対してフイルタ及び又はイコライザを設定し得る。
【0162】
さらにこのダイアログ172に表示されるルーテイング・パネル177によつてオーデイオトラツクT1〜T4の出力を4つの各出力チヤネルCh1〜Ch4に対して入力の段階で必要に応じて設定し得るようになされている。
【0163】
(2−7)クリツプに対するヘツダの設定
次にログウインドウ93内に並べて表示される各クリツプCLに対してヘツダを付加する場合について説明する。この場合、まずログウインドウ93において、シーンチエンジ・ボタン178Aをクリツク入力することによつて図22(A)に示すようなダイアログ180を表示させ、当該ダイアログ180のシーン名入力欄181にキー入力によりクリツプCLのヘツダとなるシーン名を入力するようにしている。
【0164】
実際、クリツプCLに対するシーン名の設定は、編集装置1において、図23に示すようなビデオ編集アプリケーシヨン・ソフトウエアのクリツプシーン名の設定手順に従つたCPU21の制御により実行される。
【0165】
すなわちクリツプシーン名の設定手順は、まずステツプSP1において、シーンチエンジ・ボタン178Aがクリツク入力され選択されると、次のステツプSP2において、シーン名入力用のダイアログ180(図22(A))が画面表示される。ここで次のステツプSP3において、ダイアログ180内に設けられたシーン名のリストを表示させるための矢印ボタン182が選択された場合、ステツプSP4においてCPU21の制御によつて、図22(B)に示すように登録されている既存のシーン名のリスト183を読み出して画面表示する。
【0166】
次にステツプSP5においてリスト183中に表示されている登録シーン名が選択された場合、ステツプSP6において、CPU21の制御によつてシーン名を設定するクリツプCLに対して選択シーン名と同じシーン名を付けると共に、当該シーン名の末尾に付された番号(以下、シーン番号と呼ぶ)が既に登録されているクリツプCLのシーン名のシーン番号と連番になるようにシーン番号を設定して、ダイアログ180内のシーン名欄181に、そのシーン名を表示する。次にステツプSP7においてステツプSP6において設定したシーン名及びシーン番号をクリツプCLのシーン名及びシーン番号としてリスト183に登録する。
【0167】
このようにしてシーン名が登録されると、次のステツプSP8においてダイアログ180が閉じられる。そしてこのシーン名の登録以降、ビユーアウインドウ92のADDボタン122Aが入力されると、CPU21の制御によりログウインドウ93に登録されるクリツプCLに対して登録されたシーン名及び連番のシーン番号が自動で付される。
【0168】
これによりログウインドウ93に連結して登録されるクリツプCLに対して同じシーン名を自動で付すことができ、各クリツプCLの関連性をシーン名によつて容易に識別し得る。さらにクリツプCLのシーン名に連番のシーン番号を自動で付加するようにしたことによつて各クリツプCLの繋がり又は違いをシーン番号によつて容易に識別することができると共に、各クリツプCLの各シーンをシーン名及びシーン番号によつて容易にサーチ又はソートすることができる。
【0169】
またステツプSP3において、矢印ボタン182をクリツク入力しなかつた場合、CPU21の制御はステツプSP29に移り、ここでシーン名入力欄181にキーボード2Cより新たにシーン名をキー入力すると、そのシーン名をリスト183に登録し、これ以降、ログウインドウ93に登録されるクリツプCLに対しては新たに登録されたシーン名がCPU21の制御により自動で付される。
【0170】
またステツプSP5において、リスト183に表示された既存のシーン名を選択することなくキーボード2Cよりリターンキーを入力した場合、CPU21の制御はステツプSP10に移つて登録されているシーン名を取り消し、処理ステツプをステツプSP7に移して、以降の処理ステツプを順次実行する。
【0171】
以上によつてクリツプシーン名の設定手順を終了する。
【0172】
因みにログウインドウ93に登録されたクリツプCLは、図24(A)〜図24(C)に示すように、シーン名、イン点画像及びイベント時間を表示するカードCL1(図24(A))、シーン名、イベント時間、イン点及びアウト点の現在のタイムコード並びにイン点画像及びアウト点画像を表示するカードCL2(図24(B))、シーン名、イベント時間、イン点画像及びクリツプCLに関する情報を記載するテキスト表示欄を表示するカードCL3(図24(C))等によつて表示することができる。
【0173】
ここでログウインドウ93に表示されたクリツプCLをクリツクすることによつて図25に示すように、クリツプCLのシーン名、フアイル名、イベント時間、イン点及びアウト点の現在のタイムコード並びにオーデイオ・トラツクの使用状態等の情報を表示するダイアログ186が開かれる。
【0174】
因みにログウインドウ93に登録される各カードCL1〜CL3の各クリツプ画像の下部に記憶先デバイスに応じてサーバアイコン165A(図19(A))、ローカルストレージアイコン165B(図19(B))、VTRアイコン165C(図19(C))、AUXアイコン165D(図19(D))又はINTアイコン165E(図19(E))のデバイスアイコン165が表示されるようになされている。これによりログウインドウ93に読み出されている各素材の記憶先デバイスをデバイスアイコン165をみることで視覚により容易に識別し得る。
【0175】
またログウインドウ93に登録されたクリツプCLに対しては、リコールボタン178C、ソートボタン178D及びデリートボタン178Eによつてクリツプ編集がなし得る。すなわちリコールボタン178Cはクリツク入力することによりクリツプ名等をもとにクリツプCLを検索するボタン、ソートボタン178Dはクリツク入力することによりクリツプCLを降順又は昇順に並べ替えするボタン、さらにデリートボタン178Eはクリツク入力することによつてログウインドウ93上に登録したクリツプCLの削除を設定するボタンである。さらにダウンロードボタン178Bはクリツク入力することによつて選択されたクリツプCLをローカルストレージ8にダウンロードすることができるボタンである。
【0176】
(2−8)イン点及びアウト点の設定
次にプログラムウインドウ94のタイムライン95上に並べられたイベントに対するイン点及びアウト点の設定について説明する。タイムライン95上のイベントに対するイン点及びアウト点の設定は、図26及び図27に示すビデオ編集アプリケーシヨン・ソフトウエアによるイン点及びアウト点の設定手順に従つたCPU21の制御により実行される。
【0177】
すなわちイン点及びアウト点の設定手順は、まずステツプSP21において、モニタ2B上に表示されたビユーアウインド100のソース選択ボタン102A〜102Eのいずれかを選択してクリツクすることにより、ステツプSP22において、CPU21の制御により所定のソースデバイスを選択する。ここで次のステツプSP23において、CPU21の制御により選択したソースデバイスがデイリーサーバ6又はローカルストレージ8であるか否かを判断し、ソースデバイスがデイリーサーバ6又はローカルストレージ8であればステツプSP24に移る。
【0178】
ステツプSP24において、選択したデイリーサーバ6又はローカルストレージ8に対応するソース選択ボタン102を再びクリツクすると、CPU21の制御により、編集用画面90上に、デイリーサーバ6又はローカルストレージ8に格納されている素材のフアイルリスト103Aが表示される。ここで続くステツプSP25において、フアイルリスト103Aに表示されるフアイル名の一つをクリツクすることによつて編集素材を選択する。この結果、編集素材が設定される。
【0179】
次にステツプSP26において、ビユーアウインドウ92上に表示されるTLボタン126をクリツク入力すると、ステツプSP27においてCPU21の制御によるデバイス制御の対象をタイムライン95に移し、以降、デバイスコントロール部96を介したタイムライン95上での入力操作によつて編集素材に対するイン点及びアウト点の設定が開始される。
【0180】
このときタイムライン95には、CPU21の制御によりナウライン139が表示され、当該ナウライン139の表示位置のタイムコードに対応するイベントのクリツプ画像がビユーア106に画面表示される。
【0181】
ここでステツプSP23において、選択したソースデバイスがデイリーサーバ6又はローカルストレージ8の他のソースデバイスであるとCPU21により判断された場合、ステツプSP28に移つて、さらに選択したソースデバイスがVTR7であるか否かをCPU21によつて判断する。ここで選択ソースデバイスがVTR7であると判断された場合、処理ステツプはステツプSP26に移り、ステツプSP26及びSP27の処理を実行する。
【0182】
続いてステツプSP29においては、デバイスコントロール部96のスライダ部120を介してナウライン139をタイムライン95上において所望の位置に移動させることによつてフアイルの所望位置をサーチする。このときタイムライン95上のナウライン139は赤色表示され、またナウライン139の移動できる範囲も色別表示される。これによりナウライン139の移動範囲及び位置を容易に確認し得る。
【0183】
ここでデバイスコントロール部96を介した制御によつてタイムライン95上のプログラムをシヤトルモード等によつて再生することにより、ビユーア106上において、ナウライン139位置の画像を表示させると同時に、タイムコード表示欄106にタイムコードを表示させることができる。
【0184】
ここでクリツプ画像及びタイムコードを参照しながら所望の位置にてマークインボタン115をクリツク入力すると、CPU21の制御はステツプSP30に移り、タイムライン95上に設定されたイベントに対してナウライン139の表示位置に対応するタイムコード位置にイン点を設定するようになされている。このときCPU21の制御によりビユーアウインドウ92上のイン点画像表示欄110にはイベントのイン点のスタンプ画像(例えば、旗の絵など)が表示され、同時にイベントのイン点タイムコード表示欄111にはイン点のタイムコードが表示される。
【0185】
さらにステツプSP31において、デバイスコントロール部96を介した制御によつてタイムライン95上のプログラムを再生し、その際ビユーア106上に表示される画像及びタイムコード表示欄108に表示されるタイムコードをモニタしながら、目的のタイムコードにてマークアウトボタン116をクリツク入力する。この結果、CPU21の制御はステツプSP32に移り、タイムライン95上に設定されたイベントに対してナウライン139の表示位置に対応するタイムコード位置にアウト点が設定される。このときCPU21の制御によりビユーアウインドウ92上のアウト点表示欄112にはイベントのアウト点のスタンプ画像(例えば、旗の絵など)が表示され、同時にアウト点タイムコード表示欄113にはアウト点のタイムコードが表示される。
【0186】
次にステツプSP33において、CPU21の制御によりタイムライン95上のイベントに設定されたイン点及びアウト点それぞれのタイムコードからイン点及びアウト点間のイベント時間が計算され、当該イベント時間をビユーアウインドウ92上のDUR表示欄114に表示する。
【0187】
次にステツプSP34において、例えばタイムライン95上のイベントのイン点及びアウト点間に挿入すべきイベントのクリツプCLをログウインドウ93より選択してドラツグし、タイムライン95のイン点又はアウト点付近にドロツプする。この結果、ステツプSP35においてCPU21の制御によりタイムラインのイン点及びアウト点間に挿入すべきクリツプCLに対応するイベントが貼り付けられる。
【0188】
ここでステツプSP28において、選択したソースデバイスがVTR7の他のソースデバイスであると判断された場合は、選択したソースデバイスが補助入力部AUX又は内部入力INTであると判断して処理ステツプをステツプSP28よりステツプSP35に移し、タイムライン95のイン点及びアウト点間に補助入力部AUX又は内部入力INTより入力される挿入すべき画像情報をタイムライン95上の所定の位置に貼り付ける。
【0189】
このようにしビユーアウインドウ92上にてソースデバイスから読み出し、イン点及びアウト点を設定することによつて切り取つた編集素材のタイムライン95上への貼り付けが完了すると、イン点及びアウト点の設定手順を終了する。
【0190】
因みにステツプSP35においては、図28に示すような次の4つのケースにおいてタイムライン95上にて設定されたイベントのイン点(図中、マークインとして示す)及びアウト点(図中、マークアウトとして示す)間にクリツプCLの素材(以下、単にクリツプ素材と呼ぶ)を貼ることができる。
【0191】
すなわち第1のケースとして、タイムライン95上にイン点及びマークアウトが設定され、かつクリツプに対してマークインのみが設定されている場合がある。この場合、設定されていないクリツプ素材のマークアウトは、タイムライン及びクリツプ素材のイン点及びアウト点それぞれのタイムコードをもとにCPU21の演算処理によりタイムライン95に設定されたマークアウトに合わせて設定される。
【0192】
ここでクリツプ素材のマークアウトがタイムライン95のマークアウトに足りない場合、ビユーアウインドウ92に読み出したクリツプ素材の長さに余裕があるときは、CPU21の制御によりクリツプ素材のマークアウトとタイムライン95のマークアウト間の足りない分が足され、またクリツプ素材のマークアウトがタイムライン95のマークアウトを越えるときは、クリツプ素材のマークアウトがタイムライン95のマークアウトに合わせて短縮されて設定される。
【0193】
また第2のケースとして、タイムライン95上にはマークインのみが設定され、かつクリツプCLに対してマークイン及びマークアウトが設定されている場合がある。この場合、タイムライン95のマークアウトは、タイムライン及びクリツプのイン点及びアウト点それぞれのタイムコードをもとに挿入クリツプ素材のマークアウトに合わせた値がCPU21により設定される。
【0194】
また第3のケースとして、クリツプ素材に対してマークイン及びマークアウトが設定され、かつタイムライン95上にはマークアウトのみが設定されている場合がある。この場合、タイムライン95のマークインは、クリツプのマークインのタイムコードをもとに挿入クリツプのマークインに合わせた値がCPU21によつて設定される。
【0195】
さらに第4のケースとして、タイムライン95上にマークイン及びマークアウトが設定され、かつクリツプ素材に対してマークイン及びマークアウトが設定されている場合がある。この場合、タイムライン95上のイベントのマークイン及びマークアウト間の長さと、クリツプ素材のマークイン及びマークアウト間の長さとがそれぞれ一致しているとCPU21が判断したときは、クリツプ素材は丁度、タイムライン上のイン点及びアウト点間に合わせてそのまま貼り付けられる。
【0196】
これに対してタイムライン95上のイベントのマークイン及びマークアウト間の長さと、クリツプ素材のマークイン及びマークアウト間の長さとが一致していないとCPU21が判断したときは、一致していないクリツプ素材の長さをCPU21によつてタイムライン95に設定されたマークイン又はマークアウトに合わせて設定し直される。
【0197】
これによりビユーア106に表示されるイベント画像をモニタしながら、デバイスコントロール部96を介しての簡易な入力操作によつてタイムライン95上に読み出されたイベントに対してイン点及びアウト点を設定することができる。
【0198】
さらにマウスを用いた簡易な入力操作によつてタイムライン95上に設定されたイベントのイン点及びアウト点間に挿入すべきクリツプ素材を貼り付けることができる。またこの際、タイムライン95上のイベントに貼り付けるクリツプ素材のイン点及びアウト点のタイムコードをCPU21の演算処理によりタイムライン95上のイベントに設定されたイン点及びアウト点のタイムコードに合わせて設定して自動で貼り付けることができる。
【0199】
(2−9)タイムライン上へのイベントの貼り付け
ここでログウインドウ93に登録されたクリツプCLをタイムライン95上のイベントに貼り付けて、当該イベントに対してエフエクトを付加して編集する場合について説明する。
【0200】
ビデオエフエクト編集は、まずログウインドウ93において、クイツクエントリ・ボタン180(図16)をクリツクすることにより、ログウインドウ93上に表示されているクリツプCLに対応するクリツプ素材に対して登録モードを設定することができる。このようにして登録モードが設定されたログウインドウ93において、編集するクリツプ素材のクリツプCLを並べたい順にマウス2Dでクリツクして選択することにより、CPU21の制御により選択されたクリツプCLのクリツプ素材がタイムライン95上のベースビデオ・ライン132A及びベースオーデイオ・ライン132Bのナウライン139の位置に順次並べられる。
【0201】
この場合、1つのイベントがタイムライン131のナウライン139の位置におかれると、ナウライン139はそのイベントのアウト点の位置に移動する。そして次にマウス2Dによつて並べたいクリツプCLをクリツクすると、そのクリツプCLに対応するクリツプ素材が移動したナウライン139の位置に並べられる。以下、順次クリツクされたクリツプCLのクリツプ素材がクリツプ素材の後方に移動したナウライン139位置に並べられる。
【0202】
またこのようにしてタイムライン95上にイベントが並べられると、フアンクシヨンキーのプレビユボタン123Bによつてナウライン139の位置からタイムライン95の全てのラインをプレビユすることができる。このプレビユ動作は、オールストツプボタン123Cをクリツクすることによつて中止される。またこれらタイムライン95上のイベントは、編集用画90のRECボタン123Dをクリツクすることによつてローカルストレージ8に記録することができる。
【0203】
このようにログウインドウ93に表示されるクリツプCLを並べる順にマウス2Dによつてクリツクするという簡易な操作によつてタイムライン95上に並べるようにしたことにより、クリツプ素材を大まかにタイムライン95上に並べる際の編集操作を大幅に簡略化し、編集の効率を向上し得る。
【0204】
(2−10)ダイアログによるエフエクトの設定
編集装置1においては、タイムライン95上のベースビデオ・ライン132Aに並べられたイベントの映像自体にエフエクトをかけるようなアニメーシヨン・エフエクト又は2つのイベントの変わり目をエフエクトをかけて切り替えるトランジシヨン・エフエクトをかけるようになされている。ここでタイムライン95上に貼り付けられたイベントに対してエフエクトをかける場合、まずプログラムウインドウ94においてビデオ・エフエクト・ボタン159をクリツク入力することにより、図29に示すようなエフエクト設定用のダイアログ190を編集用画面90上に画面表示させる。
【0205】
タイムライン131上で並べられたイベントに対してエフエクトをかける場合は、このダイアログ190において、所望のエフエクト・パターンを選択してタイムライン95上のエフエクトライン135に貼り付ける。この場合、エフエクト・パターンの選択方法としては、まず第1にパターン番号設定部191に所望のエフエクト・パターンのパターン番号をキーボード2Cよりテンキー入力した後、エンターキーを押すことによつて選択する方法がある。また第2に使用頻度の高いエフエクトのパターン(以下、これをフエイバレツト・パターン(Favorite Pattern)と呼ぶ)のイメージが図的に表現された10種類程のビツトマツプをフエイバレツト・パターン表示部192において表示して、当該フエイバレツト・パターン表示部192の中から所望のエフエクト・パターンをクリツクして選択する方法がある。因にフエイバレツト・パターンとしては、画面を切り換えるときにバツクグランドの画面をページをめくるようにしてフオアグランドの画面に切り換えるページターン192A、モザイク模様によつて画面をぼかすモザイク192B等が設定される。
【0206】
ここで上述した第1又は第2のいずれかの方法により、タイムライン95上のイベントに対して設定すべきエフエクト・パターンを選択した後、ダイアログ190上のトランジシヨン設定部193Aにおいて、エフエクトの遷移時間(トランジシヨン時間)をテンキー入力してエンターキーを押すか又はいくつかの典型的なトランジシヨン時間が複数設定されたトランジシヨンボタン193Bから所望のトランジシヨン時間をクリツクすることによりトランジシヨン時間を選択して設定する。
【0207】
このようにしてダイアログ190にてイベントに対して設定すべきエフエクトの種類及びトランジシヨン時間が決定した後、例えば上述した第2の方法によりダイアログ190のフエイバレツト・パターン表示部192内の所望のトランジシヨン・エフエクトのパターン・ビツトマツプ192Xを図30(A)に示すようにマウス2Dによつてドラツグし、タイムライン95上の効果をかけて切り替えるべきイベントの上のエフエクトライン135に移動させてドロツプする。これにより例えば図30(B)に示すように、トランジシヨン・エフエクト、Mix192X′をベースライン132のイベントに対して設定することができる。
【0208】
またタイムライン95上のイベントに対してアニメーシヨン・エフエクトを付加する場合、まずビユーアウインドウ92にてTLボタン126をクリツク入力することにより、デバイスコントロール部96の制御対象をタイムライン95に移す。これと同時にナウライン139位置のベースライン132上のイベント(ベースイベント)がビユーウインドウ92に読み出され、デバイスコントロールの対象とすることができる。ここで再生、ジヨグ等のデバイスコントロールを行うとナウライン139がタイムライン95上を移動し、これと連動してビユーウインドウ92上のベースイベントがビユーア106に表示される。
【0209】
ここでタイムライン95の所定の位置においてマークインボタン115及びマークアウトボタン116をクリツク入力することによりイベントに対してイン点及びアウト点を設定する。これにより図31(A)に示すように、タイムライン95のスケールライン147上の位置にイン点及びアウト点に対応するビツトマツプ166A及び166Bを表示させると共に、タイムライン95上にマークライン166C及び166Dを表示させる。これによりタイムライン95のベースライン132においてエフエクト・イベントの挿入範囲を設定することができる。
【0210】
次にログウインドウ93のクリツプCLの中から所望のクリツプCLを選択してマウス2Dによつてドラツグし、タイムライン95に設定したイン点位置のマークライン166Cに近づけてドロツプする。ここで予めダイアログ190において例えばフエイバレツト・パターン表示部192より、アニメーシヨン・エフエクトをマウス2Dによつてクリツクして選択しておく。これにより図31(B)に示すように、オーバレイビデオ・ライン136のイン点の位置にフエイバレツト・パターン表示部192より選択したアニメーシヨン・エフエクト(この場合、ピクチヤインピクチヤ(PinP))のイベントEF0を貼り付けることができる。
【0211】
(2−11)パターン・ビツトマツプの登録
ここでフエイバレツト・パターン表示部192にフエイバレツト・パターンを登録する場合、まず、パターンリスト・ボタン194をクリツクすることにより、複数のエフエクト・パターンのビツトマツプがグラフイツク表示されたリスト(図示せず)を表示させて、当該リストの中からフエイバレツト・パターンとしてフエイバレツト・パターン表示部192に登録すべき所望のエフエクトを読み出す。またはパターン番号設定部191に所望のエフエクト・パターンのパターン番号をテンキー入力することによつてエフエクト・パターンのビツトマツプをビツトマツプ表示欄195に読み出し、このようにして読み出されたビツトマツプをマウス2Dによつてドラツグしてフエイバレツト・パターン表示部192の所望の位置でドロツプすることにより、フエイバレツト・パターン表示部192に登録する。
【0212】
これによりオペレータは、タイムライン95と同一画面上に表示されるフエイバレツト・パターン表示部192に複数登録されたエフエクト・パターンの中から、所望のエフエクト・パターンをマウス2Dによりドラツグしてタイムライン95上のイベントの所望の位置にドロツプするという簡易な操作によつてイベントに対して迅速にエフエクトを設定することができる。
【0213】
(2−12)トランジシヨン・エフエクトの設定
次にタイムライン95上に設定されたイベントに対して実際にトランジシヨン・エフエクト及びアニメーシヨン・エフエクトを設定する場合について説明する。
【0214】
例えば図32(A)に示すように、タイムライン95上において並べられた2つのイベントE0及びE1の切り替わり位置にナウライン139があるとCPU21が判断した場合、CPU21は各イベントE0及びE1のもつイベントデータをもとに、まずタイムライン95上においてイベントE1の左側に位置するイベントE0をバツクグランドに設定した後、イベントE0のアウト点をサーチする。
【0215】
次にイベントE0の右側に位置するイベントE1をフオアグランドに設定してイベントE1のイン点をサーチする。これによりタイムライン95上のナウライン139の位置にトランジシヨン・エフエクトをかけるとき、各イベントに対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、イベントE0及びE1の切り替え位置を読み出すことによつて、切り替え位置のトランジシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0216】
また図32(B)に示すように、タイムライン95上のイベントE1の間にナウライン139があり、かつオーバレイライン136に対象となるイベントがないとCPU21が判断した場合、CPU21の制御によりイベントE1をバツクグランドに設定してイベントE1のナウライン139の位置をサーチした後、イベントE1のナウライン139をフオアグランドに設定する。これによりタイムライン95上のナウライン139の位置にトランジシヨン・エフエクトをかけるとき、イベントE1に対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、イベントE1の切り替え位置を読み出すことによつて、切り替え位置のトランジシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0217】
(2−13)アニメーシヨン・エフエクトの設定
また図32(C)に示すように、タイムライン95上のアニメーシヨン・エフエクトCutの開始位置にナウライン139があり、かつオーバレイライン136にエフエクトの対象となるイベントE2があるとCPU21が判断した場合、CPU21の制御によつてイベントE1をバツクグランドに設定すると共に、イベントE1のアウト点をサーチする。さらにCPU21の制御により、オーバレイライン136上のイベントE2をフオアグランドに設定すると共に、イベントE2のイン点をサーチする。これによりタイムライン95上のナウライン139の位置にアニメーシヨン・エフエクトをかけるとき、各イベントに対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、イベントE1のイン点及びイベントE2のイン点を読み出すことによつて、エフエクトをかける位置におけるアニメーシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0218】
また図32(D)に示すように、アニメーシヨン・エフエクトCut内の所定位置にナウライン139があり、かつオーバレイライン136にエフエクトの対象となるイベントがあるとCPU21が判断した場合、CPU21の制御によつてイベントE1をバツクグランドに設定すると共に、イベントE1のナウライン139の位置をサーチする。次にイベントE2をフオアグランドに設定してイベントE2のナウライン139の位置をサーチする。これにより上述のようにタイムライン95上にて並べられたイベントE1に対してイベントE2を用いたアニメーシヨン・エフエクトをかけるとき、各イベントに対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、ナウライン139の位置を読み出すことによつて、ナウライン139位置のアニメーシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0219】
さらに図32(E)に示すように、単独のイベントにエフエクトをかけることができる、例えばAロールエフエクト部(図中、「Mirror」として示す)の途中にナウライン139があるとCPU21が判断した場合、CPU21の制御によつてイベントE1をバツクグランドに設定すると共に、イベントE1のナウライン139の位置をサーチし、さらにイベントE1のナウライン139の位置をフオアグランドに設定する。これによりタイムライン95上のイベントE1に対してAロールエフエクトによるアニメーシヨン・エフエクトをかけるとき、イベントE1に対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、ナウライン139の位置を読み出すことによつて、ナウライン139位置のアニメーシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0220】
(2−14)エフエクトのマニユアル・トランジシヨン操作
ここで、例えば図32(A)及び図32(B)に示すように、トランジシヨン・エフエクトをかける対象となるイベントE0及び又はイベントE1に対してフオアグランド及びバツクグランドが設定されたトランジシヨン・エフエクトのパターンは、ダイアログ190(図29)のフエイダレバー196を操作することにより、ビユーア106の画面上でテスト再生することができる。
【0221】
この場合、フエイダレバー196が最も上に位置している状態ではビユーア106にはバツクグランドが表示される。またフエイダレバー196をマウスによりドラツグして上から下の方向に向かつて移動させるに従つて、ビユーア106に表示されるトランジシヨン・エフエクトのパターンは、トランジシヨン・エフエクトのパターンに従つてフオアグランドに移行していく。そしてフエイダレバー196が最も下に位置している状態ではビユーア106にはフオアグランドが表示される。
【0222】
これによりフエイダレバー196のマニユアル操作による任意の速度でトランジシヨン・エフエクトのかかつたイベントを再生し得る。
【0223】
またトランジシヨン・エフエクトの設定状態において、ATボタン(Autoボタン)197をクリツク入力した場合は、まず初めにフエイダレバー196が最も上の位置に移動して、その後、徐々に下の位置に移動し、設定されたトランジシヨン時間でトランジシヨンする。かくして自動でビユーア106上にてトランジシヨン・エフエクトを再生し得る。
【0224】
同様にして図32(C)〜図32(E)に示すように、イベントE1、E2に対してフオアグランド及びバツクグランドを設定した後、エフエクトパターン番号を選択することにより設定したアニメーシヨン・エフエクトのパターンは、ダイアログ190のフエイダレバー196を操作することにより、ビユーア106の画面上でテスト再生することができる。
【0225】
この場合、フエイダレバー196が最も上に位置している状態ではビユーア106にはアニメーシヨン・エフエクトのかかつていない状態であるバツクグランドが表示される。またフエイダレバー196をマウスによりドラツグして上から下の方向に向かつて移動させるに従つて、ビユーア106の表示画像はアニメーシヨン・エフエクトのかかつた状態に移行していく。そしてフエイダレバー196が最も下に位置している状態ではビユーア106にはフオアグランド及びバツクグランドが設定されたアニメーシヨン・エフエクトのかかつたイベントが表示される。
【0226】
これによりフエイダレバー196のマニユアル操作による任意の速度でアニメーシヨン・エフエクトのかかつたイベントを再生し得る。
【0227】
またアニメーシヨン・エフエクトの設定状態において、ATボタン197をクリツク入力すると、まずフエイダレバー196は最も上の位置に移動して、その後、徐々に下の位置に移動し、設定されたトランジシヨン時間でトランジシヨンする。かくしてATボタン197により通常の再生条件により、自動でアニメーシヨン・エフエクトを再現し得る。
【0228】
ここでダイアログ190に設けられたパラメータ設定部198においては、切り替え位置のエツジ(Edge)に関するパラメータ、ライトを当てるような効果であるライテイング(Lighting)に関するパラメータ、影や帯を引くような効果であるトライアル(Trial)/ シヤドウ(Shadow)に関するパラメータ、エフエクトを設定する位置であるロケーシヨン(Location)に関するパラメータ等、エフエクトに付加することのできる各種パラメータを各パラメータに対応するボタンをクリツク入力することにより設定し得るようになされている。
【0229】
さらにダイアログ190上においては、キーボタン199をクリツク入力することによつてクロマ(Chroma)キー及び又は外部(External)キーを設定し得るようになされている。
【0230】
(2−15)エフエクトの修正
エフエクトを設定されたイベントを修正する場合、修正するエフエクトイベントをマウスによつてダブルクリツクすることにより、ダイアログ190がオープンされ、当該ダイアログ190内に既に設定されているエフエクトパラメータが表示される。ここで例えば既に設定されているエフエクトが図33(A)に示す「Wipe」のようにトランジシヨン・エフエクトであつた場合、エフエクト・イベントをダブルクリツクすると、イベントE0がバツクグランドに設定され、イベントE0のアウト点がサーチされると共に、イベントE1がフオアグランドに設定されてイベントE1のイン点がサーチされる。これによりタイムライン95上のナウライン139の位置をトランジシヨン・エフエクトを設定したイベントE0のアウト点及びイベントE1のイン点に直ちに設定して、ビユーア106上で確認することができる。
【0231】
また例えば既に設定されているエフエクトが図33(B)に示す「Mosaic」(モザイク)のようにアニメーシヨン・エフエクトであつた場合は、エフエクト・イベントをダブルクリツクするとイベントE1がバツクグランドに設定され、イベントE1のイン点がサーチされると共に、イベントE2がフオアグランドに設定されてイベントE1のアウト点がサーチされる。
【0232】
これによりタイムライン95上のナウライン139の位置をアニメーシヨン・エフエクトを設定したイベントE1又はE2のイン点に直ちに設定することができる。
【0233】
かくしてダイアログ190を開いたとき、ベース・ライン132上のビデオエフエクトをかける対象のイベントに対してフオアグランド及びバツクグランドが自動で設定されると共に、イベントのフオアグランドの終了点及びバツクグランドの開始点が自動でサーチされる。
【0234】
(2−16)エフエクトの表現方法
ここでタイムライン95上において、イベントに対して設定するエフエクトの表現方法について説明する。
【0235】
タイムライン95上において設定するエフエクトには、大きく分けて2つのイベントを切り換える際にかけられるトランジシヨン・エフエクトとアニメーシヨン・エフエクトとに分けられ、トランジシヨン・エフエクトは、さらにトランジシヨン系及びフリツプ/タンブル系に分けられる。
【0236】
すなわち図34(A)に示すように、トランジシヨン・エフエクトの内、トランジシヨン系の場合、タイムライン95のベースビデオ・ライン132Aに基準となるイベントE1及びE2を表示すると共に、ベースビデオ・ライン132Aの一行上に設けられたエフエクト・ライン135にエフエクトをかける時間長に応じたエフエクトEF1をエフエクトの種類名と共に表示する。さらにイベントE1とイベントE2との境界を斜線によつて表わす。これによりイベントE1からイベントE2へカツトが切り換えられていることが視覚により容易に識別することができる。因みにトランジシヨン系のエフエクトとしては、ワイプ、ページターン等がある。
【0237】
また図34(B)に示すように、トランジシヨン・エフエクトの内フリツプ/タンブル系の場合、トランジシヨン系の場合と同様にタイムライン95のベースビデオ・ライン132A上に基準となるイベントE1及びE2を表示すると共に、ベースビデオ・ライン132Aの一行上に設けられたエフエクト・ライン135にエフエクトをかける時間長に応じたエフエクトEF2を当該エフエクトEF2のエフエクトの種類名と共に表示する。さらにイベントE1とイベントE2との境界を斜線によつて表わす。これによりイベントE1からイベントE2へカツト切り換えがフリツプ/タンブルによつてなされることを視覚により容易に識別することができる。さらにフリツプ/タンブル系の場合は、画像の中心線を基準にしてイベント画像を3次元的に回転させるエフエクトなので、画像が丁度90°回転したときのインターナル・ビデオ(Internal Video)が見えないということをオーバレイライン122においてエフエクトIVによつて表示するようになされている。
【0238】
次にアニメーシヨン・エフエクトにはイベントに対してかけられるビデオエフエクトが1つのイベントにエフエクトをかける、又は所定のイベントにエフエクトのかかつたイベントを挿入するものがあり、このアニメーシヨン・エフエクトは、さらにスタンダードアニメーシヨン系及びモデイフアイ系(=エフエクトタイプ)に分けられる。
【0239】
すなわち図34(C)に示すように、基準イベントに対してエフエクトのかかつたイベントを挿入するピクチユア・イン・ピクチユア等によるスタンダードアニメーシヨン系の場合、基準となるイベントE1をベースビデオ・ライン132Aに表示し、挿入するエフエクトのかかつたイベントE2をオーバレイライン136に表示するようになされている。この場合、ベースビデオ・ライン132A上のビデオエフエクトがかけられている位置には、縦線を表示することによつてイベントに対してアニメーシヨン・エフエクトがかけられている状態を表示するようになされている。このように基準イベントと挿入イベントとを別々のラインに表示すると共に、アニメーシヨン・エフエクトがかけられている位置には、縦線を表示するようにしたことにより、基準イベントに対してアニメーシヨン・エフエクトの挿入イベントを挿入しているということを視覚によつて容易に識別し得る。またこの場合、挿入イベントに用いられるエフエクトの種類をエフエクトライン135にエフエクトEF3として表示するようにしたことにより、イベントに対するエフエクトの種類を視覚によつて容易に識別し得る。
【0240】
図34(D)に示すように、1つのイベントに対してモザイク処理等を施すモデイフアイ系の場合、基準となるイベントE1及びE2をベースビデオ・ライン132Aに表示し、挿入するエフエクトをエフエクトEF3としてエフエクトライン136に表示するようになされている。この場合、ベースビデオ・ライン132A上のビデオエフエクトがかけられている位置には、縦線を表示することによつてイベントE1及びE2に対してアニメーシヨン・エフエクトがかけられている状態を表示するようになされている。このように基準イベントと挿入イベントとを別々のラインに表示すると共に、アニメーシヨン・エフエクトがかけられている位置に縦線を表示することによつてイベントに対してエフエクトがかけられているということを視覚によつて容易に識別し得る。またこの場合、挿入イベントに用いられるエフエクトの種類をエフエクトライン135にエフエクトEF4として表示するようにしたことにより、イベントに対するエフエクトの種類を視覚によつて容易に識別し得る。
【0241】
(2−17)オーデイオの出力ルーテイング設定
図35に示すように、プログラムウインドウ94(図18)のツールバーからオーデイオミツクスダウン用のダイアログ選択ボタン162をクリツク入力することにより編集用画面90上にダイアログ200を画面表示させ、当該ダイアログ200を用いてタイムライン95上に複数並べられたイベントの各オーデイオトラツクを出力チヤネルに対応付けて出力経路を設定して各イベント毎にオーデイオレベルを設定するようになされている。
【0242】
ダイアログ200は、ベースオーデイオ、サブオーデイオ及びボイスオーバそれぞれがもつ4つのトラツクT1〜T4と4つの出力チヤネルCh1〜Ch4とをマトリクス形式で対応させたパネル201を設けており、当該パネル201において、各トラツクT1〜T4に対して所望の出力チヤネルCh1〜Ch4位置に対応するボタンを選択してクリツクすることにより、各トラツクを各出力チヤネルにルーテイング設定する。
【0243】
この場合、例えば図35に示すパネル201おいては、第1列の1行目のトラツクT1に属するボタン201Aをクリツクすることにより、トラツクT1を出力チヤネルCh1にルーテイング設定している。以下同様にして、パネル201上にてトラツクT2を出力チヤネルCh2、トラツクT3を出力チヤネルCh3に、またトラツクT4を出力チヤネルCh4にルーテイング設定していることを示している。
【0244】
またサブオーデイオ・ライン134及びボイスオーバ・ライン138についても同様にして例えば、サブオーデイオのもつトラツクT1〜T4をそれぞれ出力チヤネルCh1〜Ch4に、またボイスオーバのもつトラツクT1及びT2をそれぞれ出力チヤネルCh1及びCh2にルーテイング設定していることを示す。
【0245】
ここでダイアログ200に設けられた、マニユアルフエイダボタン(「Manual Fader」)202をクリツク入力すると、編集用画面90には図36に示すようなフエイダアサイン用のダイアログ205が画面表示される。
【0246】
ダイアログ205は、ベースオーデイオ、サブオーデイオ及びボイスオーバそれぞれのもつ4つのトラツクT1〜T4とフエイダF1〜F4とをマトリクスで対応させるようにしたパネル206を設けており、当該パネル206において、各列に設定された各トラツクT1〜T4に対して各行に設定された所望のフエイダF1〜F4位置に対応するボタンを選択してクリツクすることにより、各トラツクをそれぞれフエイダF1〜F4にルーテイング設定する。
【0247】
この場合、例えば図36に示すパネル206においては、ベースオーデイオの第1列及び第2列のトラツクT1及びT2に属するボタン206A及び206Bをクリツク入力することにより、ベースオーデイオのトラツクT1及びT2をフエイダF1にルーテイング設定していることを示す。以下同様にして、サブオーデイオの第1列及び第2列のトラツクT1及びT2に属するボタン206C及び206Dをクリツク入力することによりトラツクT1及びT2をフエイダF2にルーテイング設定していることを示し、さらにボタン206E及び206Fをクリツク選択することによりボイスオーバのトラツクT1及びT2をフエイダF3にルーテイング設定していることを示す。
【0248】
また、このパネル206における各トラツクT1〜T4に対する各フエイダF1〜F4の設定状態は、表示部207にて各トラツクT1〜T4の各列の対応位置に表示される。
【0249】
ここで、上述したようにダイアログ200及び205上において、オーデイオ出力を各チヤネルにルーテイング設定したイベントをビユーアウインドウ92上のプレビユボタン117をクリツク入力することによつてプレビユする場合について説明する。
【0250】
例えば図37に示すようにタイムライン95上に並べられたイベントが、ダイアログ200上のパネル201及びダイアログ205上のパネル206での設定に従つてルーライング設定されている場合、図38(A)及び(B)に示すように実際、編集装置1の変容コントローラ5の各フエイダF1〜F4に対してベースオーデイオ・ライン132BのイベントE1〜E3がフエイダF1に、サブオーデイオ・ライン134のイベントE4がフエイダF2に、またボイスオーバ138のイベントE5〜E7がフエイダF3にルーテイング設定されることを示している。
【0251】
このようにしてタイムライン95上のベースオーデイオ・ライン132B、サブオーデイオ・ライン134及びボイスオーバ・ライン138の各トラツクT1及びT2に対してフエイダF1、F2及びF3が対応付けられた後、マニユアルフエイダのオン/オフボタン202A(図36)の「ON」をクリツク入力することにより、イベントをプレビユ又はレコーデイングするときにベースオーデイオ・ライン132B、サブオーデイオ・ライン134及びボイスオーバ138の各オーデイオレベルをフエイダF1、F2、及びF3に対応付けされた各フエイダレバー208を操作することによつて各々調整することができる。
【0252】
(2−18)エフエクトの設定手順
タイムライン95上に並べられたイベントに対するエフエクトの設定は、図39及び図40に示すようなビデオ編集アプリケーシヨン・ソフトウエアによるエフエクトの設定手順に従つてCPU21の制御により実行される。
【0253】
すなわちエフエクトの設定手順は、まずステツプSP40においてエフエクトを付加する対象となるイベントをタイムライン95(図17及び図18)上のベースビデオ・ライン132Aに並べる。ここでステツプSP41においてプログラムウインドウ94上のエフエクトボタン159をクリツク入力することによりエフエクトの各種設定を行うためのダイアログ190(図29)を画面表示させる。
【0254】
次にステツプSP42において、ダイアログ190上のフエイバレツトパターン・表示部192に表示されるエフエクトのパターン・ビツトマツプの中から所望のパターンをクリツクして選択する。この結果、CPU21の制御によりパターン番号設定部191のパターン番号欄191Aに選択されたパターンの番号が出力表示される。
【0255】
因みにエフエクトのパターンは、所望のパターン番号が既に判つている場合は直接、パターン番号設定部191のパターン番号欄191Aに所望のパターン番号をキーボード2Cよりテンキー入力した後、エンターキーをクリツクすることによつても選択することができる。
【0256】
ここでCPU21は、イベントに対して設定するエフエクトがアニメーシヨン・エフエクトであるかトランジシヨン・エフエクトであるかを判断し、次のステツプSP43において、ビデオエフエクトがアニメーシヨン・エフエクトである場合には続くステツプSP44に進む。ステツプSP44において、まずタイムライン95上の所望の位置でビユーア106上のマークインボタン115及びアウトボタン116を押すことによつてイベントに対してイン点及びアウト点を設定してタイムライン95上のエフエクトをかける範囲を指定する(図31(A))。
【0257】
次にステツプSP45において、ステツプSP42にて選択されたクリツプCLをドラツグ・アンド・ドロツプによりタイムライン95上に貼り付ける。この結果、図31(B)に示すように新しいイベント「New Event 」がタイムライン95のオーバレイ・ビデオ・ライン136に貼り付けられる。このようにオーバレイビデオ・ライン136にオーバレイイベントが貼り付けられると、タイムライン95のエフエクトライン135にも選択したエフエクト例えばピクチヤ・イン・ピクチヤ「PinP」が貼り付けられる。これによりベースビデオ・ライン132Aのイベントに対してアニメーシヨン・エフエクトを設定することができる。(図31(B))。
【0258】
かくしてマウス2Dを用いたドラツグ・アンド・ドロツプによる簡易な操作によつて、タイムライン95上に貼り付けられたイベントのイン点及びアウト点間にアニメーシヨン・エフエクトを設定し得る。
【0259】
このようにしてイベントに対してアニメーシヨン・エフエクトが設定されると、ステツプSP46においてダイアログ190を閉じるようにして、次の処理ステツプSP47に移る。
【0260】
ここでステツプSP43において、CPU21によつてイベントに対して設定するエフエクトがトランジシヨン・エフエクトであると判断された場合、CPU21の制御によりステツプSP48に移り、ダイアログ190を用いてトランジシヨン時間を設定した後、次のステツプSP49において、選択されたエフエクトをドラツグ・アンド・ドロツプによりタイムライン95上に貼り付ける(図30(A))。この結果、タイムライン95のエフエクトライン135に選択したエフエクトが貼り付けられ、これによりベースビデオ・ライン132Aのイベントに対してトランジシヨン・エフエクトを設定することができる(図30)。かくしてマウス2Dを用いたドラツグ・アンド・ドロツプによる簡易な操作によつてタイムライン95上に貼り付けられたイベントに対してトランジシヨン・エフエクトを設定し得る。この後、処理ステツプはステツプSP46に移る。
【0261】
ここでステツプSP46においてダイアログ190が閉じられると、次にステツプSP47において、イベントに対して設定したエフエクトを修正するか否かを判断する。ここでイベントに対して設定したエフエクトを修正する場合は、ステツプSP50に移つて一旦設定したエフエクト・イベントを削除した後、ステツプSP41に戻り、ビデオエフエクトの設定手順をステツプSP42から再度、実行し直す。
【0262】
またステツプSP47において、イベントに対して設定したエフエクトを修正しないとした場合は、イベントに対するエフエクトの設定を完了してエフエクトの設定手順を終了する。これによりタイムライン95上に読み出されたイベントに対して、アニメーシヨン・エフエクト又はトランジシヨン・エフエクトを容易に設定し得る。
【0263】
(3)実施の形態の動作
以上の構成において、まず、コンピユータ2のモニタ2B上に表示されるビユーアウインドウ92上のソース選択ボタン102A〜102Eのいずれかを選択してクリツクすることにより、所定のソースデバイスを選択して、当該ソースデバイスより所望の編集素材、すなわちプログラムを読み出すことができる。
【0264】
次にソースデバイスより読み出したプログラムをイン点及びアウト点を指定して所望の長さに切り取つた後、登録部122のADDボタン122Aをクリツク入力することによりログウインドウ93上又はプログラムウインドウ94のタイムライン95上に登録することができる。
【0265】
ここで切り取つたプログラムをタイムライン95上に登録した場合、ビユーアウインドウ92上のTLボタン126をクリツク入力することにより、デバイスコントロール部96の制御をタイムライン95上に移すことができる。
【0266】
この場合、タイムライン95上の所定のラインには登録されたプログラムが当該プログラムの長さに応じた長さで帯状にグラフイツク表示される。このタイムライン95上には、ナウライン139が表示され、当該ナウライン139の表示位置の画像がビユーア106に表示される。またタイムコード表示欄108にはナウライン139位置のタイムコードが表示される。これによりナウライン139位置の画像及びタイムコードを確認し得る。
【0267】
ここでデバイスコントロール部96のスライダ部120によりタイムライン95上の所望の位置にナウライン139を移動させることによつてフアイルの所望位置を容易にサーチすることができる。このときタイムライン95上に登録されたプログラムをデバイスコントロール部96の制御を介して再生し、ビユーア106によつて再生画像をモニタしながらプログラムをサーチして、所望の位置にてマークインボタン115及びマークアウトボタン116をクリツク入力することによりプログラムに対してイン点又はアウト点を設定することができる。
【0268】
このようにタイムライン95上のプログラムに対してイン点及びアウト点が設定されると、CPU21の制御によりプログラムに設定されたイン点及びアウト点それぞれのタイムコードからイン点及びアウト点間の長さを計算してその長さDURをビユーアウインドウ92上のDUR表示欄114に表示することができる。
【0269】
ここでログウインドウ93上の所定のクリツプ素材をドラツグしてタイムライン95のプログラムに設定されたイン点付近にドロツプするという簡易な操作により、タイムライン95上のプログラムのイン点及びアウト点間に所望のイベントを貼り付けることができる。
【0270】
この場合、図23に示すように例えば、第1のケースとしてタイムライン95上にイン点及びアウト点が設定され、かつクリツプ素材にイン点のみが設定されている場合、タイムライン及びクリツプ素材のイン点及びアウト点それぞれのタイムコードをもとにCPU21の演算処理によりタイムライン95に設定されたアウト点に合わせてクリツプ素材のアウト点が設定される。
【0271】
また第2のケースとしてタイムライン95上にはイン点のみが設定され、かつクリツプ素材にイン点及びアウト点が設定されている場合、タイムライン95及びクリツプのイン点及びアウト点それぞれのタイムコードをもとにCPU21の演算処理によつて挿入クリツプ素材のアウト点が設定される。
【0272】
また第3のケースとしてクリツプに対してイン点及びアウト点が設定され、かつタイムライン95上にはアウト点のみが設定されている場合、クリツプのイン点のタイムコードをもとにCPU21の演算処理によつて挿入クリツプのイン点に合わせた値がタイムライン95のイン点として設定される。
【0273】
さらに第4のケースとしてタイムライン95上にイン点及びアウト点が設定され、かつクリツプに対してイン点及びアウト点が設定されている場合、タイムライン95上のイベントのイン点及びアウト点間の長さと、クリツプ素材の長さとがそれぞれ一致しているとCPU21が判断したときは、クリツプCLはそのままタイムライン上のイン点及びアウト点間に貼り付けられ。
【0274】
これに対してタイムライン95上のイベントのイン点及びアウト点の長さと、クリツプ素材の長さが一致していないとCPU21が判断したときは、CPU21の演算処理によつてクリツプ素材の長さをタイムライン95上のイン点又はアウト点に合わせて設定し直しされる。
【0275】
これにより挿入するクリツプ素材のイン点及び又はアウト点のタイムコード情報と、タイムライン95上のイベントのイン点及び又はアウト点のタイムコード情報とをもとにしたCPU21の演算処理により、クリツプ素材の長さ又はタイムライン95上のイベントのイン点及び又はアウト点を設定してタイムライン95上に所望のクリツプ素材を容易に貼り付けることができる。
【0276】
(4)実施の形態の効果
以上の構成によれば、ソースデバイスから入力される編集素材を読み出し、当該編集素材の長さに応じてタイムライン95上においてイベントとして帯状にグラフイツク表示することによつて、視覚により大まかなプログラムの長さ及び位置を確認することができる。
【0277】
さらにタイムライン95上のプログラムをデバイスコントロール部96を介して再生することができると共に、再生中にタイムライン95上に表示されるナウライン139の位置のプログラムの画像及びタイムコードをそれぞれビユーア106及びタイムコード表示欄108によつて確認することができる。
【0278】
これによりタイムライン95上においてプログラムの画像及びタイムコードを確認しながらプログラムに対してマークインボタン115及び又はマークアウトボタン116をクリツク入力という簡易な方法によつてイン点及び又はアウト点を設定することができる。
【0279】
さらにログウインドウ93よりクリツプ素材を読み出してタイムライン95に貼り付けるときに、クリツプ素材のもつタイムコード情報及びタイムライン95上に設定されたイン点及び又はアウト点のタイムコード情報をもとにCPU21の演算処理によつてクリツプ素材の長さを設定し直すか、タイムライン95上のイン点及び又はアウト点のタイムコードを設定し直すようにしたことにより、挿入イベントをタイムライン95上の所定位置に確実に貼り付けることができる。
【0280】
(5)他の実施の形態
なお上述の実施例においては、ログウインドウ93より編集カツトのプログラム情報であるクリツプ素材をフアイルとして読み出してタイムライン95に貼り付けるときに、編集領域であるタイムライン95上にイン点及び又はアウト点を設定した場合について述べたが、本発明はこれに限らず、例えばエフエクトのプログラム情報を編集する場合に用いても良く、これにより上述の実施の形態と同様の効果を得ることができる。
【0281】
【発明の効果】
上述のように本発明によれば、編集領域上に配置されたイベント同士の間に新たなイベントを挿入する際、ライン開始時点及びライン終了時点、イベント開始時点及びイベント終了時点が正確に設定されていない場合、ライン上の間隔に合わせてイベントの間隔を適切に設定し直すことができ、またライン終了時点に合わせてイベント終了時点を設定できるので、編集作業の作業効率を向上させることができ、かくしてイベントの挿入による迅速な編集が容易になし得る編集装置を実現し得る。
【図面の簡単な説明】
【図1】本発明を適用した編集装置を示すブロツク図である。
【図2】編集装置を構成するコンピユータの内部構成を示すブロツク図である。
【図3】編集装置を構成する編集処理装置の内部構成を示すブロツク図である。
【図4】編集処理装置のシステムコントロール部の構成を示すブロツク図である。
【図5】編集処理装置のマトリクススイツチヤ部の構成を示すブロツク図である。
【図6】編集処理装置の画像処理部の構成を示すブロツク図である。
【図7】編集処理装置の音声処理部の構成を示すブロツク図である。
【図8】編集装置に接続されるローカルストレージの構成を示すブロツク図である。
【図9】ローカルストレージのデイスクアレイブロツクの構成を示すブロツク図である。
【図10】デイスクアレイブロツクにおける動作の説明に供する図表である。
【図11】デイスクアレイブロツクにおける動作の説明に供する図表である。
【図12】編集用画面の説明に供する略線図である。
【図13】ビユーアウインドウの説明に供する略線図である。
【図14】フアイルリスト(図14(A)及びソースリスト(図14(B)の説明に供する略線図である。
【図15】補助入力素材設定用のダイアログの説明に供する略線図である。
【図16】ログウインドウの説明に供する略線図である。
【図17】プログラムウインドウの説明に供する略線図である。
【図18】プログラムウインドウの説明に供する略線図である。
【図19】デバイスアイコンの説明に供する略線図である。
【図20】ビデオレベル設定用のダイアログの説明に供する略線図である。
【図21】オーデイオレベル設定用のダイアログの説明に供する略線図である。
【図22】シーンチエンジのダイアログの説明に供する略線図である。
【図23】クリツプのシーン名設定手順を示すフローチヤートである。
【図24】ログウインドウ上に表示されるクリツプの説明に供する略線図である。
【図25】ログウインドウ上に表示されるクリツプの説明に供する略線図である。
【図26】イン点及びアウト点の設定手順を示すフローチヤートである。
【図27】イン点及びアウト点の設定手順を示すフローチヤートである。
【図28】タイムライン上へのクリツプの貼り付けの説明に供する略線図である。
【図29】エフエクト設定用のダイアログの説明に供する略線図である。
【図30】タイムライン上におけるエフエクトの設定の説明に供する略線図である。
【図31】タイムライン上におけるエフエクトの設定の説明に供する略線図である。
【図32】タイムライン上におけるエフエクト設定位置の説明に供する略線図である。
【図33】タイムライン上におけるエフエクトの修正の説明に供する略線図である。
【図34】タイムライン上におけるエフエクトの表現の説明に供する略線図である。
【図35】出力チヤネル・アサイン用のダイアログの説明に供する略線図である。
【図36】フエイダ・アサイン用のダイアログの説明に供する略線図である。
【図37】タイムライン上に貼り付けられたイベントの説明に供する略線図である。
【図38】オーデイオフエイダのルーテイング設定の説明に供する略線図である。
【図39】エフエクトの設定手順を示すフローチヤートである。
【図40】エフエクトの設定手順を示すフローチヤートである。
【符号の説明】
1……編集装置、2……コンピユータ、2A……本体、2B……モニタ2B、2C……キーボード、2D……マウス、3……編集処理装置、4、5……専用コントローラ、6……デイリーサーバ、7……VTR、8……ローカルストレージ、9……オンエアバツフア、10……ローカルエリアネツトワーク、90……編集用画面、92……ビユーアウインドウ、93……ログウインドウ、94……プログラムウインドウ、95……タイムライン、96……デバイスコントロール部、102、102A、102A、102C、102AD、102E……ソース選択ボタン、103A……フアイルリスト、103B……ソースリスト、106……ビユーア、108……タイムコード表示欄、110……イン点画像表示部、111……イン点タイムコード表示欄、112……アウト点画像表示部、113……アウト点タイムコード表示欄、120……スライダ部、126……TLボタン、132……ベースライン、132A……ベースビデオ・ライン、132B……ベースオーデイオ・ライン、134……サブライン、135……エフエクトライン、137……DSKライン、138……ボイスオーバ・ライン、139……ナウライン、147……スケールライン、165……デバイスアイコン、165A……サーバアイコン、165B……ローカルストレージアイコン、165C……VTRアイコン、165D……AUXアイコン、CL……クリツプ、170、172、190、200……ダイアログ、174……フエイダ部、180……クリツクエントリ・ボタン、192……フアイバレツト・パターン表示部。
[0001]
【table of contents】
The present invention will be described in the following order.
[0002]
TECHNICAL FIELD OF THE INVENTION
Conventional technology
Problems to be solved by the invention
Means for solving the problem
BEST MODE FOR CARRYING OUT THE INVENTION
(1) Device configuration (FIGS. 1 to 11)
(1-1) Overall configuration of editing apparatus
(1-2) Internal configuration of the computer
(1-3) Configuration of editing processing apparatus
(1-4) Configuration of local storage
(2) Program editing (FIGS. 12 to 40)
(2-1) Program editing application software
(2-2) Structure of the viewer window
(2-3) Registration of editing material in the log window
(2-4) Event editing by timeline
(2-5) Device icon display
(2-6) Registering clips in the log window
(2-7) Setting header for clip
(2-8) Setting in and out points
(2-9) Pasting events on the timeline
(2-10) Effect setting by dialog
(2-11) Registration of pattern / bitmap
(2-12) Setting transition effects
(2-13) Setting animation effect
(2-14) Effect manual transition operation
(2-15) Modification of effects
(2-16) Effect expression method
(2-17) Audio output routing setting
(2-18) Effect setting procedure
(3) Operation of the embodiment
(4) Effects of the embodiment
(5) Other embodiments
The invention's effect
[0003]
BACKGROUND OF THE INVENTION
The present invention relates to an editing apparatus, and is suitable for application to an editing apparatus that edits, for example, a news material.
[0004]
[Prior art]
Conventionally, as this kind of editing apparatus, an apparatus using a video tape recorder (hereinafter abbreviated as VTR) as a recording means for recording a news material has been proposed. In such an editing apparatus, video and audio as materials are recorded in a VTR, and desired editing is performed by reading out desired video and audio from the VTR and using them as news materials.
[0005]
[Problems to be solved by the invention]
By the way, news programs are required to provide viewers with the events that have occurred in various places as soon as possible. Therefore, it is desirable that an editing apparatus for editing a news material can be edited with high speed.
[0006]
By the way, in the case of linear editing using a video tape or the like, it was used as a mark when inserting a material by setting an in point and an out point on the tape when creating an editing cut. However, when a file stored on a disk medium is read and nonlinear editing is performed on the file data, the edited material is recorded collectively at the end. On the other hand, the In point and Out point cannot be set. For this reason, when editing work such as overwriting or insertion of the material, it is difficult to check while actually editing the video being edited.
[0007]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose an editing apparatus with improved usability capable of quick editing.
[0008]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, in order to arrange at least one set range of editing materials as an event along a timeline indicating the progress of time, storage means for storing a plurality of editing materials composed of video. Display control means for displaying the editing area on the predetermined display screen in the display means, user interface means for mediating editing operations from the outside to the editing area, and events arranged in the editing area by the user interface means When a new editing material is inserted as a new event in between, the line start time and line end time indicating the insertion range of the new event on the timeline, and the new event of the new editing material Editing point setting means for setting an event start point and an event end point indicating the range When the line start time, line end time, event start time and event end time are all set by the edit time setting means, and the interval between the line start time and the line end time does not match the interval between the event start time and the event end time If the event start time and event end time intervals are reset to match the line start time and line end time intervals, and the line start time, line end time, and event start time are set by the editing time setting means, the line Set the event end time according to the end time, Editing processing means for arranging a new event in the editing area.
[0009]
As a result, when a new event is inserted between events arranged in the editing area, the line start time, line end time, event start time, and event end time are accurately set. If not, the event interval should match the interval on the line Properly It can be set again, and the event end time can be set to match the line end time, improving the work efficiency of editing work be able to.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0011]
(1) Device configuration
(1-1) Overall configuration of editing apparatus
In FIG. 1, reference numeral 1 denotes an editing apparatus to which the present invention is applied as a whole. The editing apparatus is roughly composed of a computer 2 and an editing processing apparatus 3.
[0012]
As a control means, the computer 2 includes a main body 2A having a CPU (central processing unit), various processing circuits, a floppy disk drive, a hard disk drive, etc., a monitor 2B as a display means connected to the main body 2A, and an input means. Keyboard 2C and mouse 2D. In such a computer 2, application software for editing is preinstalled in the hard disk drive, and the computer 2 is started up as a computer for an editing apparatus by operating the application software based on the operating system. It is made like that.
[0013]
Incidentally, when this application software is operated, a graphic display for GUI (Graphical User Interface) is displayed on the monitor 2B. In the editing apparatus 1, a user interface is constituted by the graphic display and the input means described above, and a desired graphic is displayed from among the graphic displays indicating control command buttons displayed on the monitor 2B using, for example, the mouse 2D. By selecting the graphic display, a control command for designating the processing contents of the editing process is input. If the input control command controls the editing processing operation in the editing processing device 3, the computer 2 generates a control signal S1 corresponding to the control command and sends it to the editing processing device 3. An edit processing operation is instructed.
[0014]
In addition, the video signal S2 is input to the computer 2 via the editing processing device 3, whereby the video of each material is displayed on the monitor 2B and the content of the material is confirmed while checking the material content. Start point) and Out point (event end point) can be indicated, and the event material clipped by specifying the In point and Out point and the video of the edited program are displayed. These can be confirmed (hereinafter, the reproduction and display of the cut material or the edited program is called “preview”).
[0015]
On the other hand, the editing processing device 3 has a matrix switch unit, an image processing unit, and an audio processing unit inside, and performs actual editing operations such as cutting and joining of materials or effect processing for video signals and audio signals. An editing execution device to be executed.
[0016]
Not only the computer 2 as described above is connected to the editing processing apparatus 3, but also dedicated controllers 4 and 5 are connected as another input means, and editing is possible even if the dedicated controllers 4 and 5 are used. It is designed to allow you to enter control commands for.
[0017]
Incidentally, the dedicated controller 4 has a button operator for instructing the in and out points of the material, a button operator for instructing the reproduction of the material, or a button operator for instructing recording of the edited program. Etc., and a dial operator for inputting instructions for variable speed playback (so-called shuttle playback) and frame-by-frame playback (so-called jog playback). A control signal S3 corresponding to the instruction information input via the is sent to the editing processing device 3. The dedicated controller 5 also includes a plurality of slide operators (so-called audio off-adapter) for setting the signal level of the audio signal, a slide element (so-called video fader) for setting a switching rate when switching two images. And a control signal S4 corresponding to the instruction information input via those slide operators (the instruction information indicates a set value by the slide operator) is sent to the editing processing device 3. Yes.
[0018]
The editing processing apparatus 3 is connected to a daily server 6 (generally storing means for storing editing materials such as video and audio at a broadcasting station), and the video stored in the daily server 6 is stored. And an audio signal. In this case, the daily server 6 has an output port for two channels, and the desired video and audio signals S7 and S8 are stored in the storage medium according to the control signals S5 and S6 for each channel supplied from the editing processing device 3. 6A is read and output. The storage medium 6A stores video and audio signals compressed in accordance with the MPEG (Moving Picture coding Experts Group) standard with a compression ratio of 1/10. The read video and audio signals are decoders 6B and 6C, respectively. Is then converted into a serial digital interface (hereinafter referred to as SDI) standard format, and the SDI standard video and audio signals S7 and S8 are transferred to the editing processor 3. It is made to be supplied.
[0019]
Further, a VTR 7 is also connected to the editing processing device 3 so that video and audio signals stored in the VTR 7 can also be taken in. In this case, the VTR 7 has an SDI standard input / output interface, and reads out and outputs a desired video and audio signal S10 in accordance with a control signal S9 supplied from the editing processing device 3. The VTR 7 receives the video and audio signals after the editing processing and the video and audio signals S7 and S8 read from the daily server 6 from the editing processing device 3 as the recording target video and audio signals S11. In response to the control signal S9, the video and the audio signal S11 are recorded on the video tape.
[0020]
In addition, a local storage 8 comprising a plurality of hard disks is also connected to the editing processing device 3 as storage means, and the video and audio signals stored in the local storage 8 can also be captured. In this case, the local storage 8 has an input / output interface of the SDI standard, and also has a port for two channels as an output port, and corresponds to the control signal S12 supplied from the editing processing device 3. The desired video and audio signals S13 and S14 are read out and output. The local storage 8 receives the edited video and audio signal and the video and audio signal read from the daily server 6 or VTR 7 from the editing processing device 3 as the recording target video and audio signal S15. In response to the control signal S9, the video and audio signal S15 are recorded on the internal hard disk.
[0021]
An on-air buffer (storage means for temporarily storing a program during broadcasting) 9 is also connected to the editing processing device 3, and a program edited by the editing processing device 3 is connected to the editing processing device 3. The video and audio signals S16 can be stored in the on-air buffer 9. In this case, since the on-air buffer 9 has an SDI standard input interface, the transmitted video and audio signal S16 is an SDI standard signal format. In the on-air buffer 9, the supplied video and audio signal S16 are compressed by the MPEG standard with a compression ratio of 1/10 by the encoder 9A and then stored in the internal storage medium 9B.
[0022]
The on-air buffer 9 and the computer 2 of the editing apparatus 1 are connected via a local area network (hereinafter referred to as a LAN) 10 such as an Ethernet, for example, and control commands for the on-air buffer 9 are sent to the computer. 2 and the LAN 10 to be sent to the on-air buffer 9. An edit list (generally referred to as edit decision list) indicating what kind of material the edited program is composed of is also sent to the on-air buffer 9 via the LAN 10.
[0023]
The computer 2 of the editing apparatus 1 and the daily server 6 are also connected via the LAN 10 so that the file name of each material stored in the daily server 6 can be referred to from the computer 2 via the LAN 10. Has been made.
[0024]
Speakers 11 and 12 are connected to the editing processing device 3 as optional connections, and audio signals S17 and S18 edited by the editing processing device 3 are sent from the speakers 11 and 12. In this way, you can check the result of editing the audio.
[0025]
Furthermore, a preview-only monitor 13 is connected to the editing processing device 3 as an option connection, and the video signal S19 edited by the editing processing device 3 is displayed on the monitor 2B to display the video. The editing result can be confirmed by the monitor 13 as well. Incidentally, since the preview screen displayed on the monitor 13 is larger than the preview screen displayed on the monitor 2B of the computer 2, the result of editing can be confirmed more clearly when the monitor 13 is connected.
[0026]
Here, an editing method in the editing apparatus 1 will be briefly described. First, in the editing apparatus 1, when the application software is activated, a graphic display for GUI is displayed on the monitor 2B as described above. By the way, this graphic display is generated by the viewer window screen that generates event material by specifying the In point and Out point while viewing the video of the material, as will be described later, or by the viewer window A log window screen for displaying a clip image of the event material selected, or a program window screen for specifying the editing processing content to be performed by the editing apparatus 1 and displaying the specified editing processing content using a graphic display, In addition, there are control command buttons for inputting control commands.
[0027]
First, the operator clicks a predetermined control command button displayed on the monitor 2B by using the mouse 2D to indicate the device (ie, the daily server 6, the VTR 7 or the local storage 8) in which the editing material is stored. At the same time, it instructs the playback of the material. As a result, the video signal S2 of the instructed material is supplied to the computer 2 via the editing processing device 3, and the image of the material is displayed on the monitor 2B. The operator generates the event material necessary for creating the program by instructing the IN point and OUT point while viewing the video of the material. The operator repeats this process, prepares a set of event materials necessary for program creation, and registers them in the log window.
[0028]
Subsequently, the operator selects a desired event material by clicking the desired clip image shown in the log window with the mouse 2D. As a result, a band graphic display showing the selected event material is displayed, and this is placed at a desired position on the timeline (details will be described later) in the program window. This is repeated in order to indicate the program order by arranging the strip graphic display indicating the event material in the desired order. If a video effect is to be added to a desired event material, a dialog for video effect setting is displayed by clicking a predetermined control command button, and a video effect to be added is selected from the dialog. As a result, a band-like graphic display showing the selected video effect is displayed, and this is placed at the position where the video effect is to be added on the timeline.
[0029]
When the outline of the program is determined in this way, the operator inputs a preview instruction by clicking a predetermined control command button. Receiving this, the editing apparatus 1 controls the editing processing apparatus 3 to reproduce each event material based on the order of the program specified in the program window, and is also instructed by controlling the editing processing apparatus 3. A video effect is applied to the event material to generate a video signal S2. This video signal S2 is supplied to the computer 2 and thus displayed on the monitor 2B. Thus, the operator can confirm the contents of the designated program using the program window.
[0030]
If there is no change in the program contents as a result of such a preview, the operator inputs a recording instruction by clicking a predetermined control command button. Receiving this, the editing apparatus 1 generates a video and audio signal S15 indicating the instructed program by controlling the editing processing apparatus 3 in the same manner as before, and supplies this to the local storage 8 for recording. Thus, by this processing, the program designated by the program window is completed and stored in the local storage. When broadcasting a program generated by this editing, if a transfer instruction is input via the GUI, the video and audio signals are read from the local storage, and the on-air buffer is transmitted via the editing processing device 3. 9 is transferred.
[0031]
In this way, the editing apparatus 1 can create the program while confirming the video of each material and the video of the program on the monitor 2B, so that the usability of editing can be improved. Further, in the editing apparatus 1, since editing can be performed without the operator directly operating the switcher or the special effect apparatus, the editing operation can be easily performed, and the labor for editing can be reduced.
[0032]
(1-2) Internal configuration of the computer
In this section, the internal configuration of the computer 2 will be specifically described. As shown in FIG. 2, the computer 2 includes a system bus 20 for transmitting command data and video data, a CPU 21 for controlling the entire computer, and a video processor for performing image processing on an input video signal S2. 22, a display controller 23 for managing graphic display for video data and GUI displayed on the monitor 2B, an HDD interface 24 for controlling a local hard disk drive (local HDD) 24A, and a floppy disk drive (FDD) 25A. A control signal S1 is sent to the pointing device interface 26 for generating a control command based on commands from the pointing device such as the FDD interface 25, the mouse 2D and the keyboard 2C, and the editing processing device 3. It has an external Interferon chair 27 having a software driver for.
[0033]
The system bus 20 is a bus for communicating video data, command data, address data, and the like inside the computer 2, and transmits command data and address data to an image data bus 20A for transmitting video data. And a command data bus 20B.
[0034]
A CPU 21, a video processor 22, a display controller 23, an HDD interface 24, and an FDD interface 25 are connected to the image data bus 20A. The CPU 21, the video processor 22, the display controller 23, the HDD interface 24, and the like. The FDD interface 25 transmits video data via the image data bus 20A.
[0035]
On the other hand, a CPU 21, a video processor 22, a display controller 23, an HDD interface 24, an FDD interface 25, a pointing device interface 26, and an external interface 27 are connected to the command data bus 20B (that is, a computer). 2 is connected), command data and address data are transmitted via the command data bus 20B.
[0036]
The CPU 21 is a block that controls the entire computer 2, and includes a ROM 21A in which the operating system of the computer 2 is stored, and a RAM 21B in which the uploaded application software and the like are stored. When starting up the computer 2, the CPU 21 executes software based on the operating system stored in the ROM 21A. When the application software is executed under this operating system, the CPU 21 first reads out the application software recorded on the hard disk of the hard disk drive 24A and uploads it to the RAM 21B. , Execute the application software.
[0037]
The video processor 22 is a block for receiving the SDI standard video signal S2 input to the computer 2, performing data conversion on the video signal S2, and temporarily buffering the converted video data. is there. Specifically, the video processor 22 extracts the composite video signal from the processor controller 22A that controls the entire video processor 22, the payload portion of the received video signal S2, and the composite video signal. Is converted to a digital component video signal, and a frame memory 22C temporarily stores video data for several frames transmitted from the data converter 22B.
[0038]
The processor controller 22A controls the data conversion operation of the data conversion unit 22B by sending a control signal to the data conversion unit 22B, and causes the data conversion unit 22B to extract a time code from the video signal S2. The processor controller 22A controls the read / write timing and read / write address of the frame memory 22C by sending a control signal to the frame memory 22C. Incidentally, regarding the read timing, the processor controller 22A controls the read timing of the frame memory 22C so that the time code sent to the display controller 23 corresponds to the video data (frame data).
[0039]
The data converter 22B converts the composite video signal into a digital component video signal based on a control signal from the processor controller 22A. Incidentally, the time code is extracted in this conversion process. The video data obtained by this conversion is sent to the frame memory 22C as described above, and the extracted time code is sent to the processor controller 22A.
[0040]
The frame memory 22C temporarily stores the video data supplied from the data converter 22B. The read / write timing of the frame memory 22C is controlled by the processor controller 22A as described above. The frame memory 22C is composed of two frame memories, and can store video data for two frames.
[0041]
The video data stored in the frame memory 22C is read based on the reading control of the processor controller 22A. At this time, the video data stored in the frame memory 22C is not read out for all pixels, but is read out by thinning out at a predetermined interval to make the image size smaller than the original image. The video data whose image size has been reduced in this way is displayed in a viewer window (details will be described later) of the monitor 2B, and is therefore sent to the display controller 23 via the image data bus 20A.
[0042]
The display controller 23 is a control block for controlling data displayed on the monitor 2B. The display controller 23 includes a memory controller 23A and a VRAM (video random access memory) 23B. The memory controller 23A controls the read / write timing of the VRAM 23B in accordance with the internal synchronization of the computer 2. In the VRAM 23B, video data sent from the frame memory 22C of the video processor 22 and image data generated by the CPU 21 are stored based on a timing control signal from the memory controller 23A. The video data and image data stored in the VRAM 23B are read based on the timing control signal from the memory controller 23A based on the internal synchronization of the computer 2 and displayed on the monitor 2B.
[0043]
In this case, the graphic display based on the image data becomes the graphic display for the GUI. Incidentally, CPU 21 The image data sent to the VRAM 23B is image data such as a window, a cursor, a scroll bar or an icon indicating a device. The computer 2 obtains a graphic display for the GUI by displaying these plural types of image data on the monitor 2B.
[0044]
The HDD interface 24 is an interface block for communicating with a local hard disk drive (HDD) 24A provided in the computer 2. The HDD interface 24 and the hard disk drive 24A communicate with each other based on a SCSI (Small Computer System Interface) transmission format.
[0045]
The hard disk drive 24A is installed with application software that is started up by the computer 2. When the application software is executed, the hard disk drive 24A is read from the hard disk drive 24A and uploaded to the RAM 21B of the CPU 21. Is done. When the application software is terminated, various information (for example, file information) generated by the editing operation stored in the RAM 21B is downloaded to the hard disk via the hard disk drive 24A. The
[0046]
The FDD interface 25 is an interface block for communicating with a floppy disk drive (FDD) 25A provided inside the computer 2. The FDD interface 25 and the floppy disk drive 25A communicate with each other based on the SCSI transmission format.
[0047]
The pointing device interface 26 is an interface block that receives information from the mouse 2D and keyboard 2C connected to the computer 2. The pointing device interface 26 receives the detection information of the two-dimensional rotary encoder provided on the mouse 2D and the click information of the left and right buttons provided on the mouse 2D from the mouse 2D, and decodes the received information. And sent to the CPU 21. Similarly, the pointing device interface 26 receives input information from a button provided on the keyboard 2C, decodes the received input information, and sends it to the CPU 21. As a result, the CPU 21 can recognize which command button of the GUI displayed on the monitor 2B has been instructed, can recognize various data input from the keyboard 2C, and can perform control corresponding thereto. .
[0048]
The external interface 27 is a block for communicating with the editing processing device 3 connected to the outside of the computer 2. The external interface 27 has a driver that converts various control commands such as a reproduction command and a recording command generated by the CPU 21 into data of a predetermined communication protocol, and a control signal S1 indicating the control command is transmitted via the driver. It is sent to the edit processing device 3.
[0049]
(1-3) Configuration of editing processing apparatus
In this section, the configuration of the editing processing apparatus 3 will be described. As shown in FIG. 3, the editing processing apparatus 3 is roughly divided into a system control unit 3A, a matrix switcher unit 3B, an image processing unit 3C, and an audio processing unit 3D. The system control unit 3A receives the control signal S1 sent from the computer 2 and the control signals S3 and S4 sent from the dedicated controllers 4 and 5, and the operation of each block based on the control signal S1, S3 or S4. To control. Specifically, the system control unit 3A controls the operations of the matrix switcher unit 3B, the image processing unit 3C, and the audio processing unit 3D via the control bus 3E, and sends a control signal S5, S6, S9, or S12. Then, the reproduction or recording operation of the daily server 6, the VTR 7 and the local storage 8 is controlled. Incidentally, the system control unit 3A also receives a reference time code (REF-TC) supplied from the outside and manages the time code.
[0050]
The matrix switch unit 3B has a plurality of input terminals and a plurality of output terminals, and is configured to connect a desired input terminal to a desired output terminal in accordance with control from the system control unit 3A. Of the video and audio signals read from each device (daily server 6, VTR 7 or local storage 8), a desired signal can be sent to the image processing unit 3C and the audio processing unit 3D, and the desired signal can be sent to the computer 2 or It can be sent to each device (VTR 7, local storage 8 or on-air buffer 9). Further, the video signal processed by the image processing unit 3C is sent to the computer 2, or the audio signal processed by the audio processing unit 3D is superimposed on the video signal to superimpose each device (VTR 7, local storage 8). Alternatively, it can be sent to the on-air buffer 9).
[0051]
The image processing unit 3C is a special image such as a transition effect (wipe, page turn, etc. that switches from background video to foreground video) or animation effect (mosaic, picture-in-picture, etc.). Is a block for performing an effect processing on the video signal and when the effect processing is performed on the video signal. The video signal is extracted from the video signal and the audio signal selected by the matrix switcher 3B, and the effect processing is performed on the video signal. Then, the video signal is output to the matrix switcher 3B.
[0052]
The audio processing unit 3D is a block for adjusting and synthesizing the level of the audio signal. After extracting the audio signal from the video and audio signal selected by the matrix switcher unit 3D, the audio processing unit 3D performs level adjustment on the audio signal. Or the audio signals are synthesized, and the resulting audio signal is output to the matrix switcher 3B or the speakers 11 and 12.
[0053]
Here, the configuration of each of these blocks will be specifically described below with reference to the drawings. As shown in FIG. 4, the system control unit 3 </ b> A includes a plurality of CPUs including a main CPU (M-CPU) 30, a communication CPU (C-CPU) 31, and device control CPUs (D-CPUs) 32 to 34. Composed. The main CPU 30 is a CPU for controlling the operation of each block by giving a control command to each block (that is, the matrix switch unit 3B, the image processing unit 3C, and the sound processing unit 3D) via the control bus 3E. . The communication CPU 31 receives a reference time code (REF-TC) generated by an external time code generator (not shown), or receives a control signal S1 from the computer 2, a dedicated controller 4, 5 is a communication CPU for receiving control signals S3 and S4 from 5. The device control CPUs 32 to 34 are CPUs for sending control signals S5, S6, S9 or S12 to each device (that is, the daily server 6, the VTR 7 and the local storage 8) to control the operation of each device. It is.
[0054]
Such a system control unit 3A receives the control signal S1, S3 or S4 by the communication CPU 31, and reproduces the control command indicated by the control signal S1, S3 or S4 by the communication CPU 31. This control command is transferred to the main CPU 30 via the bus 35 in the system control unit 3A. The main CPU 30 analyzes this control command, and if device control is necessary, sends the control command to the corresponding device control CPU 32, 33 or 34, and operates the device via the device control CPU 32, 33 or 34. If the control of the matrix switch unit 3B, the image processing unit 3C or the audio processing unit 3D is necessary, a control command is sent to the corresponding block via the control bus 3E to control the operation of the block.
[0055]
Incidentally, the communication CPU 31 has a communication driver corresponding to the external interface 27 of the computer 2 inside, and receives the control signal S1 sent from the computer 2 by the driver. Has been made. The device control CPUs 32 to 34 have an RS-422 standard driver therein, and the driver sends out an RS-422 standard control signal S5, S6, S9 or S12 to each device. ing.
[0056]
Next, the matrix switcher 3B will be described with reference to FIG. As shown in FIG. 5, the matrix switch unit 3B is roughly divided into a control circuit 40, a matrix switch block 41, and a format conversion block 42. The control circuit 40 is a circuit that controls the entire matrix switcher 3B. The control circuit 40 generates control signals S20 and S21 based on a control command received via the control bus 3E, and each of the control signals S20 and S21 is a matrix. It outputs to the switch block 41 and the format conversion block 42 to control its operation.
[0057]
The matrix switch block 41 includes a plurality of input lines connected to the input terminals IN1 to IN11 and a plurality of output lines connected to the output terminals OUT1 to OUT13, respectively, arranged in a grid pattern. The input line and the output line can be connected at a cross point (indicated by x in the figure) where the output line intersects. For this reason, if the matrix switch block 41 connects the input line and the output line at a desired cross point based on the control signal S20 supplied from the control circuit 40, the desired value input to the input terminals IN1 to IN11. Signals can be output to desired output terminals OUT1 to OUT13.
[0058]
Incidentally, in this matrix switch unit 3B, the video and audio signals read from the devices of the daily server 6, VTR 7 and local storage 8 are respectively input to the input terminals IN1 to IN8 (however, In the example of FIG. 5, video and audio signals S7, S8, S10, S13, and S14 are input to the input terminals IN1 to IN5, and the input terminals IN5 to IN8 are empty terminals). Video signals S31 and S32 that have been subjected to image processing by the image processing unit 3C are input to the input terminals IN9 and IN10, respectively, and audio signals that have been subjected to signal processing by the audio processing unit 3D are input to the input terminal IN11. The signal S33 is input.
[0059]
In this matrix switch section 3B, the output terminal OUT1 is assigned as a terminal for outputting the video and audio signal S15 to the local storage 8, and the output terminal OUT2 is a terminal for outputting the video and audio signal S11 to the VTR 7. The output terminal OUT3 is assigned as a terminal for outputting the video and audio signals S16 to the on-air buffer 9, and the output terminals OUT1 to OUT3 are assigned as program output terminals, respectively. The output terminal OUT4 is assigned as a preview output terminal for outputting the video signal S19 to the monitor 13 dedicated to the preview, and the output terminal OUT5 is a capture output terminal for outputting the video signal S2 to the computer 2. Assigned as. Further, the output terminals OUT6 to OUT10 are assigned as terminals for outputting video and audio signals S23 to S27 to the image processing unit 3C, and the output terminals OUT11 to OUT13 output video and audio signals S28 to S30 to the audio processing unit 3D. Assigned as a terminal.
[0060]
The format conversion block 42 is a circuit block that converts signals output to the output terminals OUT1 to OUT5 into SDI standard signals based on the control signal S21 supplied from the control circuit 40, and outputs the signals to the output terminals OUT1 to OUT3. An output processor 43 and an audio combiner 44 for format conversion of the signal, an output processor 45 for format conversion of the signal output to the output terminal OUT4, and an output processor 46 for format conversion of the signal output to the output terminal OUT5. And have.
[0061]
When the output processor 43 outputs the video signal image-processed by the image processing unit 3C (that is, the video signal S31 or S32 input to the input terminal IN9 or IN10), the output processor 43 outputs the video signal S31 or S32 to the SDI. Convert to standard video signal. When the audio combiner 44 outputs an embedded audio signal processed by the audio processing unit 3D (that is, the audio signal S33 input to the input terminal IN11), the audio standard 44 is output from the output processor 43. The embedded audio signal S33 is superimposed on the signal. As a result, the video signals S31 and S32 processed by the image processing unit 3C and the audio signal S33 processed by the audio processing unit 3D are sent to the local storage 8, VTR 7 or on-air buffer 9 as SDI standard signals. obtain. Incidentally, when the video and audio signals input to the input terminals IN1 to IN8 are output to the output terminals OUT1 to OUT3, since the video and audio signals are output from each device according to the SDI standard, the output processor. 43 and the audio combiner 44 do not perform any processing and output the input video and audio signals as they are to the output terminals OUT1 to OUT3.
[0062]
Similarly, when the output processors 45 and 46 output the video signal S31 or S32 image-processed by the image processing unit 3C to the output terminal OUT4 or OUT5, respectively, the video signal S31 or S32 conforms to the SDI standard. Convert to video signal. As a result, the video signal S31 or S32 processed by the image processing unit 3C can be sent to the pre-dedicated monitor 13 or the computer 2 as an SDI standard signal. Incidentally, when the output processors 45 and 46 output the video and audio signals input to the input terminals IN1 to IN8 to the output terminals OUT4 and OUT5, the output processors 45 and 46 do not process the video and audio signals at all. Output to the output terminals OUT4 and OUT5.
[0063]
Next, the image processing unit 3C will be described with reference to FIG. As shown in FIG. 6, the image processing unit 3C is roughly divided into a control circuit 50, a demultiplexer block 51, a switcher block 52, a special effect block 53, and a mixer block 54. The control circuit 50 is a circuit that controls the entire image processing unit 3C, generates control signals S40, S41, S42, and S43 based on a control command received via the control bus 3E, and controls the control signals S40 and S41. , S42, and S43 are output to the demultiplexer block 51, the switch block 52, the special effect block 53, and the mixer block 54, respectively, to control their operations. As a result, the image processing unit 3C performs image processing on the video signals (S23 to S27) supplied from the matrix switcher unit 3B. By the way, image processing here refers to animation effects that apply a special effect to the source video signal or insert a video signal with a special effect into the background video signal, or foreground from the background video signal. This is a transition effect that switches video to a video signal.
[0064]
The demultiplexer block 51 is a block for extracting a video signal or a key signal from the video and audio signals S23 to S27 sent in the signal format of the SDI standard. The demultiplexer block 51 is composed of five demultiplexer circuits 51A to 51E for extracting signals from the input video and audio signals S23 to S27, respectively. The demultiplexer circuit 51A is a circuit that extracts a key signal from the payload portion of each packet forming the video and audio signal S23, and performs extraction based on the synchronization signal and header information arranged at the head of the key signal. . The demultiplexer circuit 51B is a circuit that extracts a video signal from the payload portion of each packet forming the video and audio signal S24, and performs extraction based on the synchronization signal and header information arranged at the head of the video signal. Do. Similarly, the demultiplexer circuit 51C extracts the key signal from the video and audio signal S25, the demultiplexer circuit 51D extracts the video signal from the video and audio signal S26, and the demultiplexer circuit 51E receives the video signal from the video and audio signal S27. To extract.
[0065]
The switch block 52 is a block that performs processing for the transition effect on the extracted key signal and video signal, and includes a wipe signal generator 52A, 52B, key signal processing circuits 52C, 52D, and a video signal. It consists of processing circuits 52E and 52F. The wipe signal generator 52A generates a wipe signal corresponding to the transition effect designated by the operator based on the control signal S41 from the control circuit 50, and sends the wipe signal to the key signal processing circuit 52C and the video signal processing circuit 52E. Send it out. The key signal processing circuit 52C converts the key signal supplied from the demultiplexer circuit 51A based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal to the wipe signal based on the supplied wipe signal. A corresponding desired key signal is newly generated), and the resulting key signal is sent to a mixer block 54 described later. Further, the video signal processing circuit 52E converts the video signal supplied from the demultiplexer circuit 51B based on the supplied wipe signal so as to correspond to the wipe signal, and the resulting video signal is a mixer block 54 described later. To send.
[0066]
Similarly, the wipe signal generator 52B generates a wipe signal corresponding to the transition effect designated by the operator based on the control signal S41 from the control circuit 50, and the wipe signal is generated by the key signal processing circuit 52D and the video signal processing. The data is sent to the circuit 52F. The key signal processing circuit 52D converts the key signal supplied from the demultiplexer circuit 51C based on the supplied wipe signal so as to correspond to the wipe signal (or converts the key signal to the wipe signal based on the supplied wipe signal. A corresponding desired key signal is newly generated), and the resulting key signal is sent to a special effect block 53 described later. The video signal processing circuit 52F converts the video signal supplied from the demultiplexer circuit 51D based on the supplied wipe signal so as to correspond to the wipe signal, and converts the resulting video signal into a special effect block described later. 53.
[0067]
The special effect block 53 three-dimensionally converts the key signal output from the key signal processing circuit 52D and the video signal output from the video signal processing circuit 52F based on the control signal S42 supplied from the control circuit 50. The block includes a three-dimensional address generation circuit 53A, frame memories 53B and 53C, and interpolation circuits 53D and 53E. Based on the control signal S42, the three-dimensional address generation circuit 53A generates a conversion address for performing three-dimensional image conversion specified by the operator, and the conversion address is used as the frame memories 53B and 53C and interpolation circuits 53D and 53E. Output to.
[0068]
The frame memory 53B sequentially stores the key signals supplied from the key signal processing circuit 52D in the internal memory area, and reads out the stored key signals based on the conversion address, thereby 3 A two-dimensional image conversion is performed, and a key signal obtained as a result is sent to the interpolation circuit 53D. Similarly, the frame memory 53B sequentially stores the video signal supplied from the video signal processing circuit 52F in the internal memory area, and reads out the stored video signal based on the conversion address, thereby converting the video signal into the video signal. On the other hand, three-dimensional image conversion is performed, and a video signal obtained as a result is sent to the interpolation circuit 53E.
[0069]
The interpolation circuit 53D is a circuit that performs an interpolation process on the key signal that has been subjected to the three-dimensional conversion process, and spatially interpolates the pixels of the key signal based on the conversion address, and the key signal obtained as a result will be described later. Send to mixer block 54. Similarly, the interpolation circuit 53E is a circuit that performs interpolation processing on a video signal that has been subjected to three-dimensional conversion processing, and spatially interpolates the pixels of the video signal based on the conversion address, and the resulting video signal Is sent to a mixer block 54 to be described later.
[0070]
The mixer block 54 is a block for synthesizing a video signal in accordance with an instruction by the control signal S43, and is composed of two mixing circuits 54A and 54B. The mixer circuit 54A, based on the key signal output from the special effect block 53, the video signal converted by the special effect block 53 and the video signal as the background video signal output from the demultiplexer circuit 51E. Are combined to generate a video signal S31. Also, the mixer circuit 54B combines the video signal output from the switch block 52 and the video signal S31 output from the mixer circuit 54A based on the key signal output from the switch block 52 to generate a video signal. S32 is generated. The video signals S31 and S32 generated in this way are sent to the matrix switcher 3B as described above.
[0071]
Incidentally, when performing a transition effect that simply switches between two images, the video signal output from the demultiplexer circuit 51E is input as a background video signal to the mixing circuit 54B via the mixing circuit 54A. The video signal output from the video signal processing circuit 52E is input to the mixing circuit 54B as a foreground video signal, and the two video signals are combined based on the key signal output from the key signal processing circuit 52C. As a result, a video signal S32 for switching from the background video signal to the foreground video signal is generated.
[0072]
In addition, when performing a transition effect with image conversion such as a page turn, the video signal output from the demultiplexer circuit 51E is input to the mixing circuit 54A as a background video signal, and from the video signal processing circuit 52F. The output video signal is converted into a foreground video signal through the special effect block 53 and then input to the mixing circuit 54A. The two video signals are based on the key signals processed through the special effect block 53. To synthesize. As a result, a video signal S31 for switching from the background video signal to the foreground video signal so as to turn the page is generated.
[0073]
When performing an animation effect such as a picture-in-picture, the video signal output from the demultiplexer circuit 51E is input to the mixing circuit 54A as a background video signal and output from the video signal processing circuit 52F. The converted video signal is converted into an insert material through the special effect block 53 and then input to the mixing circuit 54A, and the two video signals are synthesized based on the key signal processed through the special effect block 53. . Thus, a picture-in-picture video signal S31 in which an insertion material is inserted into the background video signal is generated.
[0074]
Next, the voice processing unit 3D will be described with reference to FIG. As shown in FIG. 7, the audio processing unit 3D is roughly divided into a control circuit 55, an input signal processing block 56, a mixer block 57, and an output signal processing block 58. The control circuit 55 is a circuit that controls the entire sound processing unit 3D, generates control signals S45, S46, and S47 based on a control command received via the control bus 3E, and controls the control signals S45, S46, and S47. Are output to an input signal processing block 56, a mixer block 57, and an output signal processing block 58, respectively, to control their operations. As a result, the audio processor 3D performs audio processing on the audio signals (S28 to S30) supplied from the matrix switcher 3B. Incidentally, the audio processing referred to here is level adjustment and synthesis of the audio signal.
[0075]
The input signal processing block 56 is a block for extracting an audio signal from the video and audio signals S28 to S30 sent in the signal format of the SDI standard. The input signal processing block 56 has separators 56A to 56C as signal separation circuits and decoders 56D to 56F as format conversion circuits. The separators 56A to 56C are circuits for extracting an embedded audio signal from the SDI standard video and audio signals S28 to S30, respectively, and extract the embedded audio signal from the input video and audio signals S28 to S30 to obtain a decoder 56D. Send to ~ 56F. Each of the decoders 56D to 56F is a circuit that performs format conversion of the embedded audio signal, converts each of the input embedded audio signals into an AES / EBU (Audio Engineering Society / European Broadcasting Union) format, and the resulting audio signal. S48 to S50 are sent to the mixer block 57, respectively.
[0076]
The mixer block 57 is a block that adjusts the levels of the audio signals S48 to S50 and synthesizes the signals, and includes variable resistance circuits 57A to 57F and addition circuits 57G and 57H. The audio signals S48 to S50 supplied from the input signal processing block 56 are separated into a right component and a left component, respectively, and then input to the variable resistor circuits 57A to 57C and the variable resistor circuits 57D to 57F. The variable resistance circuits 57A to 57C and 57D to 57F change their resistance values in conjunction with the operation of the GUI's audio-off fader displayed on the monitor 2B of the computer 2 or the audio-off fader provided in the dedicated controller 5. Thus, the level of the input audio signal is adjusted to the signal level designated by the operator.
[0077]
The audio signals whose levels have been adjusted by the variable resistance circuits 57A to 57C are respectively input to the adding circuit 57G, added here, and then sent to the output signal processing block 58. Similarly, the audio signals whose levels are adjusted by the variable resistor circuits 57D to 57F are respectively input to the adder circuit 57H, added here, and then sent to the output signal processing block 58.
[0078]
The output signal processing block 58 is a block for converting an output audio signal into a signal format of the SDI standard, and has encoders 58A and 58B as format conversion circuits and an embedded circuit 58C as a signal synthesis circuit. The encoder 58A is a circuit for converting the audio signal of the AES / EBU format into an embedded audio signal. The encoder 58A converts the audio signal output from the adder circuit 57G into the embedded audio signal S17, and converts the embedded audio signal S17 into the embedded audio signal S17. The data is sent to the embedded circuit 58C and also sent to the speaker 11 for voice confirmation (see FIG. 1). Similarly, the encoder 58B is a circuit for converting the audio signal of the AES / EBU format into an embedded audio signal. The encoder 58B converts the audio signal output from the adder circuit 57H into the embedded audio signal S18 and converts the audio signal into the embedded audio signal S18. The signal S18 is sent to the embedded circuit 58C and also sent to the speaker 12 for voice confirmation (see FIG. 1).
[0079]
The embedded circuit 58C is a circuit that converts the audio signal into a predetermined signal format so that the audio signal can be superimposed on the SDI standard video signal by the combiner 44 of the matrix switch section 3B. After combining S17 and S18, signal conversion is performed into a predetermined signal format. The audio signal S33 obtained by this processing is sent to the combiner 44 of the matrix switcher 3B as described above.
[0080]
(1-4) Configuration of local storage
Next, in this section, the local storage 8 will be described as data storage means connected to the editing processing device 3. As shown in FIG. 8, the local storage 8 includes a data input / output block 60 as an input / output interface, a system control block 61 for controlling the operation of the entire local storage 8, and a disk array block for storing video data. 62 and a disk array block 63 for storing audio data.
[0081]
The data input / output block 60 has a configuration of one input channel and two output channels. Based on the control signal S60 from the system control block 61, the data input / output block 60 stores data in the video and audio signal S15 supplied from the editing processing device 3. Prior to this, predetermined signal processing is performed, and data read from the disk array blocks 62 and 63 are subjected to predetermined signal processing and output as video and audio signals S13 and S14.
[0082]
More specifically, first, the video and audio signal S15 supplied from the editing processing device 3 are input to the encoder 60A. The encoder 60A extracts the video signal S61 and the audio signal S62 from the SDI standard video and audio signal S15, outputs the video signal S61 to the video compression circuit 60B, and outputs the audio signal S62 to the audio compression circuit 60J. The video compression circuit 60B compresses the video signal S61 according to the MPEG standard with a compression ratio of 1/10, and stores the compressed video data in the buffer memory 60C. Similarly, the audio compression circuit 60J compresses the audio signal S62 using a predetermined audio compression method, and stores the compressed audio data in the buffer memory 60K. The video data and audio data stored in the buffer memories 60C and 60K are sequentially read under the control of the system control block 61, and are recorded in the video data disk array block 62 and the audio disk array block 63, respectively. .
[0083]
On the other hand, the video data read from the disk array block 62 as the video data of the first reproduction channel is sequentially stored in the buffer memory 60F under the control of the system control block 61. Similarly, the audio data read from the disk array block 63 as the audio data of the first reproduction channel is sequentially stored in the buffer memory 60M under the control of the system control block 61. The first video decompression circuit 60F reads from the buffer memory 60F video data compressed by the MPEG standard with a compression ratio of 1/10, decompresses the video data, and then sends the video data S63 to the first decoder 60D. Output. Similarly, the first audio decompression circuit 60L reads the compressed audio data from the buffer memory 60M, decompresses the audio data, and then outputs the audio data S64 to the first decoder 60D. The first decoder 60D superimposes the audio data S64 on the video data S63 based on the SDI standard format. As a result, the reproduced first channel video data read from the disk array block 62 and the reproduced first channel audio data read from the disk array block 63 can be transmitted as SDI standard video and audio signals S13.
[0084]
Similarly, the video data read from the disk array block 62 as the playback second channel video data is sequentially stored in the buffer memory 60I under the control of the system control block 61. Also, the audio data read from the disk array block 63 as the audio data of the second playback channel is sequentially stored in the buffer memory 60P under the control of the system control block 61. The second video decompression circuit 60H reads from the buffer memory 60I video data compressed by the MPEG standard with a compression ratio of 1/10, decompresses the video data, and then sends the video data S65 to the second decoder 60G. Output. Similarly, the second audio decompression circuit 60N also reads the compressed audio data from the buffer memory 60P, decompresses the audio data, and then outputs the audio data S66 to the second decoder 60G. The second decoder 60G superimposes the audio data S66 on the video data S65 based on the SDI standard format. As a result, the playback second channel video data read from the disk array block 62 and the playback second channel audio data read from the disk array block 63 can be transmitted as SDI standard video and audio signals S14.
[0085]
The system control block 61 is a block for controlling the entire local storage 8. The system control block 61 is a CPU 61A, DMA controllers (Direct Memory Access controllers) 61B and 61C, SCSI protocol controllers 61D and 61E, and an input interface for the control signal S12. 61F. The CPU 61A constitutes a control circuit which is the central existence of the system control block 61, and receives the control signal S12 sent from the editing processing apparatus 3 by the RS-422 communication protocol via the input interface 61F. Based on the control command indicated by the control signal S12, the operations of the DMA controllers 61B and 61C and the SCSI protocol controllers 61D and 61E are controlled. Further, the CPU 61A controls the operation of the data input / output block 60 by generating the control signal S60 and outputting it to the data input / output block 60 as described above.
[0086]
Further, the CPU 61A manages the recording addresses of the disk array blocks 62 and 63 together with the time code of the data to be recorded, thereby easily searching for the recording address of the data indicated by the time code based on the time code. Has been made to get. Specifically, the CPU 61A stores, in the built-in memory, a correspondence table in which all recording addresses of video data recorded on the disk array block 62 in units of frames are associated with all time codes of recorded frames. . Similarly, the CPU 61A stores in the built-in memory a correspondence table in which all recording addresses of audio data recorded on the disk array block 63 in units of frames are associated with all time codes of recorded frames. Therefore, if the time code is designated from the outside, the recording address can be easily found with reference to the correspondence table, and the video data and the audio data can be reproduced quickly.
[0087]
In response to a command from the CPU 61A, the video DMA controller 61B reads video data from the buffer memory 60C of the data input / output block 60 during data recording, and stores the video data in the buffer memories 60F and 60I of the data input / output block 60 during data reproduction. Write. Also, the video SCSI protocol controller 61D, when recording data, displays the command from the CPU 61A, the video data in units of frames received from the DMA controller 61B, and the time code assigned to the frame of the video data in the SCSI format. The data is converted into data S67 and sent to the disk array block 62 for video data, and the recording of the video data is instructed to the disk array block 62. Further, the SCSI protocol controller 61D receives the SCSI format video data S67 reproduced from the disk array block 62 at the time of data reproduction, converts it into the original data format, and sends it to the DMA controller 61B.
[0088]
Similarly, the audio DMA controller 61C reads audio data from the buffer memory 60K of the data input / output block 60 at the time of data recording and reads it into the buffer memories 60M and 60P of the data input / output block 60 at the time of data reproduction according to the command from the CPU 61A. Write audio data. Also, the audio-system SCSI protocol controller 61E, when recording data, transmits a command from the CPU 61A, audio data in units of frames received from the DMA controller 61C, and a time code assigned to the frame of the audio data in the SCSI format. The data is converted into data S68 and sent to the disk array block 63 for audio data, and the recording of the audio data is instructed to the disk array block 63. Further, the SCSI protocol controller 61E receives the SCSI format audio data S68 reproduced from the disk array block 63 at the time of data reproduction, converts it into the original data format, and sends it to the DMA controller 61C.
[0089]
The disk array block 62 for video data and the disk array block 63 for audio data are each composed of a disk array device having a plurality of hard disks therein, and the video data and It is designed to record audio data. The disk array blocks 62 and 63 are designed to record data with redundancy, so that even if one of the hard disks in the disk array device fails, the disk array blocks 62 and 63 are recorded. The recorded data can be recovered (also referred to as a reconstruction operation). Note that a disk array device having such a data reconstruction function generally has a RAID ( Redundant Array of Inexpensive Disks).
[0090]
The disk array blocks 62 and 63 will be specifically described below with reference to the drawings. However, since the disk array blocks 62 and 63 basically have the same configuration, only the disk array block 62 will be described here. As shown in FIG. 9, the disk array block 62 is roughly divided into a buffer memory 62A, a disk array controller 62B, a data multiplexer 62C, a parity operation circuit 62D, a plurality of SCSI protocol controllers 62E to 62I, and a plurality of hard disk drives. 62J-62N.
[0091]
The buffer memory 62A is a memory for temporarily storing data, and sequentially receives and stores the SCSI format data S67 sent from the system control block 61 shown in FIG. 8, and is sent from a data multiplexer 62C described later at the time of data reproduction. The incoming data is temporarily stored with the data transmission.
[0092]
The disk array controller 62B is a circuit that controls operations of the entire block such as recording operation and reproduction operation in the disk array block 62. The disk array controller 62B receives data related to the control command from the system control block 61 among the data stored in the buffer memory 62A via the command data bus 62P, and receives command data corresponding to the control command from the command data bus 62P. Are sent to the data multiplexer 62C, the SCSI protocol controllers 62E to 62I, and the hard disks 62J to 62N, thereby controlling the operation of each unit.
[0093]
At the time of data recording, the data multiplexer 62C reads data to be recorded such as video data from the buffer memory 62A and distributes the data to the hard disks 62J to 62M via the SCSI protocol controllers 62E to 62H. Notify the arithmetic circuit 62D. The data multiplexer 62C collects the data reproduced from the hard disks 62J to 62M and sends it to the buffer memory 62A at the time of data reproduction, and there is data that could not be reproduced due to damage of the hard disks 62J to 62M. For example, based on the parity data supplied from the parity calculation circuit 62D, the data is reproduced by a reconstruction calculation.
[0094]
Parity calculation circuit 62D At the time of data recording, the parity data of the data is calculated based on the data contents distributed by the data multiplexer 62C, and the parity data is supplied to the hard disk 62N via the SCSI protocol controller 62I. Parity calculation circuit 62D When there is data that cannot be reproduced from the hard disks 62J to 62M during data reproduction, the parity data reproduced from the hard disk 62N is sent to the data multiplexer 62C.
[0095]
The SCSI protocol controllers 62E to 62I are data to be recorded supplied from the data multiplexer 62C or a parity calculation circuit during data recording. 62D Is converted to a data format that matches the recording format of the hard disks 62J to 62N, and the converted data is sent to the hard disks 62J to 62N. Further, the SCSI protocol controllers 62E to 62I convert the data reproduced from the respective hard disks 62J to 62N into the data format of the SCSI format at the time of data reproduction, and this is converted into the data multiplexer 62C or the parity calculation circuit. 62D To send.
[0096]
Incidentally, when the SCSI protocol controllers 62E to 62I access the hard disks 62J to 62N and detect that data cannot be reproduced due to a failure of the hard disks 62J to 62N, the detected results are sent to the disk array controller 62B. Thus, the disk array controller 62B can instruct the data multiplexer 62C to reconstruct data.
[0097]
The hard disks 62J to 62N are data storage means for distributing and recording data to be recorded such as video data in parallel. In this example, four hard disks 62J to 62M are provided to distribute data, but this number is not particularly limited. The hard disks 62J to 62M sequentially record data supplied from the SCSI protocol controllers 62E to 62H in a desired recording area at the time of data recording, and sequentially read out the data and transmit it to the SCSI protocol controllers 62E to 62H at the time of data reproduction. . As described above, by providing a plurality of hard disks 62J to 62M and recording the data in a distributed manner, the disk array block 62 can reliably record even large-capacity data such as video data. Can do.
[0098]
The hard disk 62N is data storage means for recording parity data calculated based on data to be recorded. The hard disk 62N sequentially records the parity data supplied from the SCSI protocol controller 62I in a desired recording area at the time of data recording, and sequentially reads out the parity data and transmits it to the SCSI protocol controller 62I at the time of data reproduction. Thus, the parity data calculated based on the data to be recorded is recorded on the hard disk 62N different from the hard disks 62J to 62M for recording the data to be recorded, so that the hard disk due to a failure or the like is recorded. Even when data cannot be reproduced from 62J to 62M, the data can be reconstructed based on the parity data.
[0099]
Here, the principle of data reconstruction will be described. First, of the data allocated by the data multiplexer 62C, the data allocated to the hard disk 62J is D0, the data allocated to the hard disk 62K is D1, the data allocated to the hard disk 62L is D2, and the data allocated to the hard disk 62M. Is D3, parity operation circuit 62D The parity data calculated by the above is defined as PD.
[0100]
A logical operation means 70 as shown in FIG. 10A is provided inside the parity operation circuit 62P, and the parity operation data is calculated by the logical operation means 70. The logical operation means 70 adds the data D0 allocated to the hard disk 62J, the data D1 allocated to the hard disk 62K, the data D2 allocated to the hard disk 62L, and the data D3 allocated to the hard disk 62M. If the addition result is an even number, parity data PD having a value “1” is output, and if the addition result is an odd number, parity data having a value “0” is output. Incidentally, when the addition result is “0”, it is regarded as an even number, and the parity data PD having the value “1” is output.
[0101]
Specifically, as shown in FIG. 10B, for example, when the data D0 to D3 are all values “0”, the logical operation means 70 has the value “1” because the addition result is “0”. Parity data PD is output. When the data D0 to D2 is “0” and the data D3 is “1”, the addition result is “1”, so that the parity data PD having the value “0” is output. To do. Thereafter, parity data PD as shown in the chart of FIG. 10B is output for other data combinations based on the same principle. The parity data PD calculated in this way is recorded in the hard disk 62N via the SCSI protocol controller 62I as described above.
[0102]
If the data D2 recorded on the hard disk 62L cannot be reproduced due to a failure of the hard disk 62L at the time of reproduction, the disk array controller 62B receives the non-reproducible detection result from the SCSI protocol controller 62G and receives the data multiplexer 62C. To instruct the data reconstruction by parity data. In response to this, the data multiplexer 62C receives data D0 reproduced from the hard disk 62J, data D1 reproduced from the hard disk 62K, and hard disk as shown in FIG. 11A. The data D3 reproduced from 62M and the parity data PD reproduced from the hard disk 62N are input, and the logical operation means 71 performs an operation for reconstructing the data D2. This logical operation means 71 adds the input data D0, D1, D3 and the parity data PD in the same manner as the logical operation means 70 for calculating the parity data PD, and if the addition result is an even number, the value “ The reconstructed data (D2) of “1” is output. If the addition result is an odd number, the reconstructed data (D2) of the value “0” is output.
[0103]
Specifically, as shown in FIG. 11A, for example, when the data D0, D1, and D3 are the value “0” and the parity data PD is the value “1”, the logical operation means 71 outputs the addition result. Since it is “1”, the reconstructed data (D2) having the value “0” is output. When the data D0, D1, and PD are the value “0” and the data D3 is the value “1”, the addition result is “ Since it is “1”, the reconstructed data (D2) having the value “0” is output. Hereinafter, reconstructed data (D2) as shown in the chart of FIG. 11B is output for other data combinations based on the same principle. As can be seen from a comparison between FIG. 11B and FIG. 10B, the data D2 that could not be reproduced due to the failure of the hard disk 62L can be accurately restored.
[0104]
In this manner, the disk array block 62 calculates the parity data PD based on the data to be recorded D0 to D3 and records the parity data PD on the hard disk 62N during data recording. Even if the data D0, D1, D2, or D3 cannot be reproduced due to a failure of the hard disk 62J, 62K, 62L, or 62M during data reproduction, the data D0, D1, D2, or D3 that cannot be reproduced based on the parity data PD Can be reliably restored.
[0105]
(2) Program editing
(2-1) Program editing application software
When executing program editing, the editing apparatus 1 first uses the computer 2 to install application software for program editing on the HDD. 24A When the program name is input on the predetermined input screen displayed on the monitor 2B, the program editing screen 90 shown in FIG. 12 is displayed on the monitor 2B.
[0106]
When editing a program, the editing screen 90 displays three windows, a viewer window 92, a log window 93, and a program window 94, and the program is edited by an input operation in these three windows.
Actually, the editing operation of the program is performed by setting an in point and an out point with respect to an editing material read from the source device selected in the viewer window 92 and cutting it to a desired length. This information is called an event) and stored in the file. Then, the stamp image of the cut event is pasted on the log window 93 as a clip. A plurality of cut events can be collected on the log window 93 by repeating such operations. Of course, in this case, only one event may be registered in the log window 93.
[0107]
As an editing operation for the editing material cut out from the viewer window 92, a desired event is selected from the events collected in the log window 93 and arranged in a timeline 95 provided on the program window 94 to perform joint editing. In addition, an editing operation such as setting a video effect such as an animation effect or a transition effect for an event arranged on the timeline 95 can be executed.
[0108]
The timeline 95 is a program data editing area in which each of a plurality of events read from a source device such as the daily server 6 or the local storage 8 is displayed as a line in association with a time code.
[0109]
The viewer window 92 is provided with a device control unit 96 that reproduces the editing material read from the source device or the events arranged on the timeline 95 of the program window 94, and is controlled by the device control unit 96. Thus, the editing work can be executed while the editing material is played back. For events arranged on the timeline 95, the event length can be reset to a desired length by setting the IN point and OUT point.
[0110]
Incidentally, in the editing screen 90, when the window read on the screen is currently an execution target, that is, when the window is active, the window title bar 98 changes from gray, which is the display color when inactive, to blue. Let In this way, the display of the title bar 92 is displayed by color according to whether it is active or inactive, so that it can be easily identified visually whether the window is active.
[0111]
(2-2) Structure of the viewer window
As shown in FIG. 13, the viewer window 92 displays the viewer 106 as a window for displaying an image of the editing material selected as the source device, and the input window set for the editing material read in the viewer window 92. An in-point image display unit 110 that displays a point stamp image and an out-point image display unit 112 that displays an out-point stamp image set for the editing material are displayed.
[0112]
Incidentally, an in-point time code display field 111 for displaying the time code of the stamp image displayed in the in-point image display unit 110 is displayed below the in-point image display unit 110. In addition, an out-point time code display field 113 for displaying the time code of the stamp image displayed on the out-point image display unit 112 is also displayed below the out-point image display unit 112. Further, the viewer window 92 displays a display section such as a DUR display column 114 for displaying the length of the selected material, that is, the length (Duration) from the edit start point to the edit end point.
[0113]
In the viewer window 92, one of the source selection buttons 102 (102A to 102E) assigned to each source device of the displayed daily server 6, VTR 7, local storage 8, auxiliary input unit AUX, and internal input INT is displayed. By selecting and clicking, one of the daily server 6, VTR 7, local storage 8, auxiliary input unit AUX, and internal input INT can be selected as a source device.
[0114]
As will be described later, the auxiliary input unit AUX has a plurality of sources, and any input unit name in the auxiliary input units (AUX1 to AUXn) currently set as the auxiliary input unit AUX is the source selection. Displayed on the button 102D.
[0115]
When a source device is selected by selecting the source selection button 102, a material file is read from the source device to the computer 2. By clicking again the source selection button 102 selected here, the file list 103A as shown in FIG. 14A or the source list 103B as shown in FIG. 14B can be displayed on the screen. In this case, the file list 103A displays a file list of files stored in the daily server 6 or the local storage 8, and the source list 103B displays a list of input sections of the auxiliary input section AUX material. . By selecting a file or source by moving the cursor to the desired file name or source in each file list 103A or source list 103B and clicking with the mouse, and then clicking the “OK” button 103C. The selected file or source is read from the source device to the computer 2.
[0116]
Here, in the file list 103A or the source list 103B, the selected file list 103A or source list 103B can be canceled by clicking the “Cancel” button 103D.
[0117]
When the selected source device is the internal input INT, clicking the source selection button 102E again displays a mat dialog 104 as shown in FIG. The mat dialog 104 selects a color signal by clicking a desired color signal in a basic color 104A or a faint color 104B (Favorite Color) in which a color signal is displayed in gradation on a panel format button. The color according to the signal is displayed on the viewer 104C. Further, for example, a pattern such as a tile pattern can be read by inputting a pattern number into the pattern input unit 105A.
[0118]
The selected color signal is changed to “Hue” (Hue) hue in 360 steps, “Sat” (Saturation) saturation, and “Lum” (Luminance) luminance in the color signal changing unit 104D by 101 key input, respectively. In addition, the three primary colors of red, green, and blue can be set or corrected by inputting the numeric keypad in 256 steps.
[0119]
In the viewer window 92, the image of the editing material read from the source device is displayed on the viewer 106, which is an image display window. The name of the editing material selected in the material name column 107 and the viewer in the time code display column 108 are displayed. The time code of the material displayed in 106 and the status (status) of the viewer window 92 are displayed in the status column 109, respectively. Here, when the status display of the window 100 is “OPEN”, it indicates that the device control for the material selected by the device control by the device control unit 96 is set to be executable.
[0120]
In fact, by clicking on the time code display field 108, the time code display field 108 can be set to the input mode. Here, the time code at the desired position of the material is input to the time code display field 108 to enter. By inputting the key, a desired position of the material can be searched (searched) according to the time code.
[0121]
Here, when the playback speed is input to the status field 109 by the numeric keypad, the device can be set to the playback mode at the playback speed. At this time, by clicking the mark-in button 115 at the desired position of the material being played back, an in-point is set at that position, and a stamp image and a time code are taken in. It is displayed in the in-point time code display field 111.
[0122]
Similarly, by clicking the mark-out button 116 at the desired position of the material being played, an out-point is set at that position, and a stamp image and a time code are taken in. 112 and the out-point time code display field 113.
[0123]
By clicking the In-point time code display column 111, the In-point time code display column 111 can be changed to the time code input mode. At this time, the target time code value is displayed in the In-point time code display column 111. The input of the numeric keypad allows the material data image corresponding to the input time code to be read out as an in-point image and displayed on the in-point image display unit 110.
[0124]
Similarly, by clicking the out point time code display column 113, the out point time code display column 113 can be changed to the time code input mode. At this time, the target time code is displayed in the out point time code display column 113. By inputting a value using the numeric keypad, an image of material data corresponding to the input time code can be read as an out-point image and displayed on the out-point image display unit 112.
[0125]
The materials on the viewer window 92 that have been cut by setting the IN point and OUT point in this way for the edited material are arranged on the timeline by clicking the preview button 117 before arranging them on the timeline 95. Can be pre-viewed in the same way. As a result, the contents of the material cut out in the viewer window 92 can be confirmed by the preview before being pasted on the timeline 95.
[0126]
In the viewer window 92, when the object to be controlled by the device control unit 96 is in the viewer window 92, playback is performed by clicking the playback button 119A while monitoring the editing material read from the selected source device with the viewer 106. Can do. In the device control unit 96, the edited material can be still reproduced by the still button 119B.
[0127]
The device control unit 96 has two control units, a slider unit 120 and a jog shuttle unit 121. The slider unit 120 displays the slider 120B within the range of the delay display unit 120A indicating the length of the event. The position of the file currently being played is indicated by the position of the file, and the desired position of the file can be determined by dragging and dropping the slider 120B to an arbitrary position of the delay display portion 120A with the mouse 2D. It is designed to search for the position of.
[0128]
In the slider portion 120, the position of the file can be moved forward and backward by ± 1 frame by clicking the arrow button 120C or 120D. Incidentally, the slider unit 120 is not displayed except when the file is read from the disk storage medium such as the daily server 6 or the local storage 8.
[0129]
Further, in the jog shuttle 121, the so-called shuttle mode is set by clicking the shuttle button 121A, and every time the shuttle button 121B or 121C is clicked by pressing the shuttle button 121B or 121C in the shuttle mode. The search speed of the device is variably set in the range of -50 times speed to +50 times speed to search the data in the file.
[0130]
(2-3) Registration of editing material in the log window
In the viewer window 92, after being read from a predetermined selection device, the editing material cut out by setting the IN point and OUT point is pasted directly as an event in the program window 94 or as shown in FIG. The log window 93 is pasted and registered as a stamp image (shown as a clip CL in the figure). In this case, the entry mode (registration mode) of the editing material is set to the program mode or the log mode by selecting the PGM button 122B and / or the LOG button 122C in advance in the registration unit 122 of the viewer window 92. Keep it. Then, in the setting state, the in and out points are set in the viewer window 92 to cut out the material, and then the material cut out is registered in the program window 94 and / or the log window 93 by clicking the ADD button 122A. .
[0131]
(2-4) Event editing by timeline
Here, when editing the material clipped in the viewer window 92 or the event registered in the log window 93, the device control unit can be obtained by clicking the TL button 126 provided on the viewer window 92. The control object 96 is moved to the timeline 95 on the program window 94.
[0132]
Here, when the registration mode of the registration unit 122 is set to the program mode, when the ADD button 122A is clicked, the material cut out by designating the IN point and the OUT point is displayed on the timeline on the program window 94. 95 is pasted.
[0133]
When the editing material cut out in the timeline 95 provided in the program window 94 is arranged in association with the time code in this way, the editing material is converted into an event which is a minimum unit, and is sent via the device control unit 96. It is set so that it can be reproduced by the control and edited on the editing screen 90.
[0134]
Here, for example, when the editing material is recorded in the VTR 7, the material is once read out from the VTR 7 on the viewer window 92, the in and out points are set for the material, and then the download button 123A is clicked. By inputting, the editing material is downloaded into the local storage 8. As a result, a file search can be performed on the material recorded in the VTR 7 by the control via the slider unit 120 of the device control unit 96.
[0135]
As shown in FIGS. 17 and 18, the timeline 95 includes a plurality of editing lines associated with the time code. The timeline 95 includes a base video line 132A for pasting a basic video as a base line 132, a base audio line 132B for pasting a basic voice, and a subline for pasting a voice to be superimposed on the basic voice. 134, an effect line 135 for setting a video effect is displayed. Further, the time line 95 is configured to graphically display an overlay line 136 for pasting an image by applying a so-called overlay to the base line 132 in a band shape.
[0136]
Furthermore, the title material is set by setting the downstream key (DSK: Down Stream Key) for overlaying characters sent from terrorist and satellite images sent from the auxiliary input unit AUX to the video of the base video and overlay video. A DSK line 137 for pasting and a voice over line 138 for pasting voice such as an announcer are respectively displayed in a graphic form in a strip shape.
[0137]
By the way, the editing material displayed on the timeline 95 and the set effects are all events as different colors for each line. For example, video events are blue, audio events are yellow, effects events are pink, and DSK events are green. Is displayed.
[0138]
On the timeline 95, when the TL button 126 is turned on or when an event on the timeline 95 is previewed by clicking the preview button 123B (FIG. 12), it is displayed on the viewer window 92. A now line 139 is displayed at a position corresponding to the time code of the material image.
[0139]
Incidentally, when the timeline 95 is displayed, the nowline 139 is always displayed on the timeline 95, and is normally displayed in gray, and is displayed in color in red during preview or playback. The As described above, the now line 139 is displayed by color depending on whether it is previewed or being played, so that a video clip corresponding to the time code position currently indicated by the now line 139 is displayed on the viewer window 92. It can be easily identified visually whether or not it is.
[0140]
As shown in FIG. 17, the now line 139 can be easily moved to a desired position on the time line 95 by the input tool 140 displayed on the upper part of the time line 95. Incidentally, in the program window 94, a head button 141 for moving the now line 139 to the head of the time line 95 as the input tool 140, a tail button 142 for moving the now line 139 immediately to the last event on the time line 95, and a now line 139 are currently displayed. A previous button 143 for moving to the event immediately before the event that is located and a next button 144 for moving the now line 139 to the event that is immediately after the event that is currently located are provided, and these are displayed on the timeline 95. ing.
[0141]
In the timeline 95, the nowline 139 can be moved to a predetermined position on the timeline 95 by clicking and dragging the slide knob 146 of the slider portion 145 with the mouse.
[0142]
Further, a scale line 147 (Scale Line) representing a scale corresponding to the time code is displayed on the time line 95, and a desired position of the scale line 147 is clicked with the mouse 2D, so that the now line is displayed at the click position. 139 has a function of moving.
[0143]
As shown in FIG. 18, the program window 94 is provided with a zoom-out button 150 and a zoom-in button 151 for adjusting the time set on the time line 95 as a GUI tool or the time indicated by one scale of the scale line 147. ing. The zoom-out button 150 is used to set a longer time on the timeline that can be displayed on one screen of the program window 94. The zoom-in button 151 is used to set a short time on the timeline that can be displayed on one screen of the program window 94.
[0144]
In the program window 94, the current position on the timeline of the now line 139 is displayed by the count time display field 152, and further, the total time display field 153 (FIG. 12) is used to display the current position from the beginning to the end of the timeline. The length to the event or the length from the set position to the last event is displayed.
[0145]
In the program window 94, a ripple button 154, a manual location button 155, a trim button 156, a match cut button 157, a delete button 158, and a video effect button 159 are displayed as input tools.
[0146]
By the way, the Ripple button 154 inserts the event to be pasted into the baseline as an insertion event when the event is pasted in the middle of the event already arranged in the baseline, and the subsequent events follow the insertion event sequentially. In addition to setting a process of rearranging and rearranging, when an event on the baseline is deleted or moved, a process of setting up a subsequent event to a part where a hole is opened in the baseline is set.
[0147]
The manual location button 155 can be operated by the mouse 2D during the pre-view or recording of the event to which the animation effect is applied when setting the animation effect that can set the position of the effect (location). To set the effect location to be controllable.
[0148]
The trim button 156 is used to set a trim to an event on the timeline 95 and to set the event foreground and background on the monitor at the boundary portion. With The display and the match cut button 157 are provided as buttons for setting the event to be separated into two at the position of the now line 139.
[0149]
The delete button 158 sets deletion for an event. The video effect button 159 displays a dialog for applying an effect (video effect) to the transition of the image or the image itself.
[0150]
Further, the program window 94 is a dialog for making various settings for the audio off aid button 160 for applying the fade-in or fade-out effect of the audio event pasted to the sub-audio line 134 and the voice-over line 138, and DSK. To display a DSK button 161 for opening and a mixdown button 162 for displaying a dialog for deciding how to route the audio on the timeline to the final audio 4-channel output. Has been made.
[0151]
(2-5) Device icon display
By the way, in the viewer window 92 shown in FIG. 13, a device icon 165 indicating the storage destination device of the material read to the viewer 106 is displayed next to the displayed scene name column 107.
[0152]
As shown in FIGS. 19A to 19E, each device icon 165 displayed in the viewer window 92 is displayed on the daily server 6 according to the source device of the material read in the viewer window 92. , The server icon 165A (FIG. 19A), the local storage icon 165B (FIG. 19B) when the source device is the local storage 8, the VTR icon 165C (FIG. 19C) when the source device is VTR7, In the case of input from the auxiliary input unit AUX, the AUX icon 165D (FIG. 19D), and the material of the image displayed on the viewer 106 is a signal material generated from the internal input INT in the editing apparatus 1 Is the INT icon 165E (FIG. 19E) is displayed.
[0153]
As described above, the device icon 165 indicating the storage destination device of the image displayed on the viewer 106 is displayed on the viewer window 92 at the same time as the event image, so that the material read to the viewer window 92 is displayed. The storage destination device can be easily identified visually by looking at the device icon 165.
[0154]
As shown in FIG. 17, the device icon 165 also has a server icon 165A, a local storage icon 165B, and a VTR in each line on the timeline 95 according to the event storage destination devices arranged on the timeline 95. Each device icon 165 of icon 165C, AUX icon 165D or INT icon 165E is displayed for each event.
[0155]
As a result, the storage destination device of the event read out on the timeline 95 can be easily identified visually by looking at the device icon 165 displayed on each line. Thereby, for example, when an effect is set for an event via the device control unit 96, it is possible to easily determine whether the storage destination device of the baseline 132 is the daily server 6 or the local storage 8, thereby For example, when the storage destination device is the VTR 7, it is possible to easily determine whether or not the editing material should be downloaded from the VTR 7 to the local storage 8. The device icon 165 is also displayed on each clip CL registered in the log window according to the storage source device.
[0156]
(2-6) Registering clips in the log window
Next, when the material cut out by setting the in and out points in the viewer window 92 is registered in the log window 93 about explain.
[0157]
In other words, in the viewer window 92, after editing material is read from a predetermined source device, the in and out points are set for the editing material, and the ADD button 122A is clicked with the LOG button 122B selected, the editing is performed. The material registration mode is a registration mode for the log window 93. As a result, the title information relating to the editing material is registered in the log window 93 as a card-type clip CL as shown in FIG.
[0158]
Incidentally, the video level can be set for the event material registered in the log window 93. In this case, by first clicking the video adjust key 167A displayed on the viewer window 92, a dialog 170 for setting a video level as shown in FIG. 20 is displayed.
[0159]
The dialog 170 can adjust each level of the video level (“Lum Gain”) in the slide portion 170A. In this case, the slide knob 170B displayed on the slide part 170A can be moved by the mouse 2D so that each level can be slide-adjusted.
[0160]
Furthermore, an audio level can be set for the event material registered in the log window 93. In this case, by clicking the audio adjust key 167B, an audio level setting dialog 172 as shown in FIG. 21 is displayed on the editing screen 90, and the slide knob 173A of the trim 173 is moved using the mouse 2D. The audio input signal level can be slid and adjusted by moving it. Furthermore, the audio output level of each material can be slid and adjusted by moving the slide knob 174A using the mouse 2D in the fader unit 174.
[0161]
In this dialog 172, the filter and / or the equalizer can be set for the audio output level by selecting the filter button 175 and the equalizer button 176.
[0162]
Further, the output of the audio tracks T1 to T4 can be set to the four output channels Ch1 to Ch4 as needed at the input stage by the routing panel 177 displayed in the dialog 172. .
[0163]
(2-7) Setting header for clip
Next, a case where a header is added to each clip CL displayed side by side in the log window 93 will be described. In this case, first, by clicking the scene change button 178A in the log window 93, a dialog 180 as shown in FIG. 22A is displayed, and the scene name input field 181 of the dialog 180 is input by key input. The scene name that becomes the header of the clip CL is input.
[0164]
Actually, the setting of the scene name for the clip CL is executed in the editing apparatus 1 by the control of the CPU 21 according to the procedure for setting the clip scene name of the video editing application software as shown in FIG.
[0165]
That is, the clip scene name setting procedure is as follows. When the scene change button 178A is clicked and selected at step SP1, the dialog 180 for inputting the scene name (FIG. 22A) is displayed on the screen at the next step SP2. Is displayed. Here, in the next step SP3, when the arrow button 182 for displaying the list of scene names provided in the dialog 180 is selected, the CPU 21 controls the step SP4 as shown in FIG. A list 183 of registered existing scene names is read out and displayed on the screen.
[0166]
Next, when the registered scene name displayed in the list 183 is selected in step SP5, in step SP6, the same scene name as the selected scene name is set for the clip CL for setting the scene name under the control of the CPU 21. In addition, the scene number is set so that the number attached to the end of the scene name (hereinafter referred to as the scene number) is the same as the scene number of the clip CL scene name already registered. The scene name is displayed in a scene name column 181 in 180. Next, in step SP7, the scene name and scene number set in step SP6 are registered in the list 183 as the scene name and scene number of the clip CL.
[0167]
When the scene name is registered in this way, the dialog 180 is closed in the next step SP8. After the registration of the scene name, when the ADD button 122A of the viewer window 92 is input, the scene name and serial number of the scene number registered for the clip CL registered in the log window 93 under the control of the CPU 21 are displayed. Automatically attached.
[0168]
As a result, the same scene name can be automatically assigned to the clip CL registered in connection with the log window 93, and the relevance of each clip CL can be easily identified by the scene name. Further, by automatically adding a sequential scene number to the scene name of the clip CL, the connection or difference of each clip CL can be easily identified by the scene number, and each clip CL Each scene can be easily searched or sorted by scene name and scene number.
[0169]
If the arrow button 182 is not clicked at step SP3, the control of the CPU 21 moves to step SP29. When a new scene name is keyed into the scene name input field 181 from the keyboard 2C, the scene name is listed. After that, the newly registered scene name is automatically assigned to the clip CL registered in the log window 93 under the control of the CPU 21.
[0170]
In step SP5, if the return key is input from the keyboard 2C without selecting the existing scene name displayed in the list 183, the control of the CPU 21 moves to step SP10 to cancel the registered scene name and process step. Is transferred to step SP7, and the subsequent processing steps are sequentially executed.
[0171]
Thus, the clip scene name setting procedure is completed.
[0172]
Incidentally, as shown in FIGS. 24A to 24C, the clip CL registered in the log window 93 is a card CL1 (FIG. 24A) that displays a scene name, an in-point image, and an event time. The scene name, event time, current time code of In point and Out point, card CL2 (FIG. 24B) for displaying In point image and Out point image, scene name, event time, In point image, and clip CL It can be displayed by a card CL3 (FIG. 24C) or the like that displays a text display field in which information is described.
[0173]
When the clip CL displayed in the log window 93 is clicked, as shown in FIG. 25, the scene name, file name, event time, current time code of the IN point and OUT point of the clip CL, and audio A dialog 186 that displays information such as the usage status of the track is opened.
[0174]
Incidentally, a server icon 165A (FIG. 19 (A)), a local storage icon 165B (FIG. 19 (B)), a VTR below the clip images of the cards CL1 to CL3 registered in the log window 93 according to the storage destination device. The device icon 165 of the icon 165C (FIG. 19C), the AUX icon 165D (FIG. 19D), or the INT icon 165E (FIG. 19E) is displayed. Accordingly, the storage destination device of each material read in the log window 93 can be easily identified visually by looking at the device icon 165.
[0175]
The clip CL registered in the log window 93 can be edited with the recall button 178C, sort button 178D, and delete button 178E. That is, the recall button 178C is a button for searching for the clip CL based on the clip name by inputting the clip, the sort button 178D is a button for inputting the clip and rearranging the clip CL in the descending or ascending order, and the delete button 178E is This is a button for setting the deletion of the clip CL registered on the log window 93 by inputting a click. Further, the download button 178B is a button that can download the clip CL selected by inputting a clip to the local storage 8.
[0176]
(2-8) Setting in and out points
Next, setting of in and out points for events arranged on the timeline 95 of the program window 94 will be described. The setting of the in point and the out point for the event on the timeline 95 is executed by the control of the CPU 21 in accordance with the setting procedure of the in point and the out point by the video editing application software shown in FIGS.
[0177]
That is, the procedure for setting the IN point and OUT point is as follows. First, in step SP21, by selecting and clicking one of the source selection buttons 102A to 102E of the view window 100 displayed on the monitor 2B, in step SP22. A predetermined source device is selected under the control of the CPU 21. Here, in the next step SP23, it is determined whether or not the source device selected by the control of the CPU 21 is the daily server 6 or the local storage 8, and if the source device is the daily server 6 or the local storage 8, the process proceeds to step SP24. .
[0178]
When the source selection button 102 corresponding to the selected daily server 6 or local storage 8 is clicked again at step SP24, the material stored in the daily server 6 or local storage 8 on the editing screen 90 is controlled by the CPU 21. The file list 103A is displayed. In the subsequent step SP25, the editing material is selected by clicking one of the file names displayed in the file list 103A. As a result, the editing material is set.
[0179]
Next, in step SP26, when the TL button 126 displayed on the viewer window 92 is click-inputted, step SP 27 , The target of device control under the control of the CPU 21 is moved to the timeline 95, and thereafter setting of the in and out points for the editing material is started by an input operation on the timeline 95 via the device controller 96. .
[0180]
At this time, the current line 139 is displayed on the timeline 95 under the control of the CPU 21, and the clip image of the event corresponding to the time code at the display position of the nowline 139 is displayed on the viewer 106.
[0181]
Here, in step SP23, when the CPU 21 determines that the selected source device is another source device of the daily server 6 or the local storage 8, the process proceeds to step SP28, and whether or not the selected source device is VTR7. This is determined by the CPU 21. If it is determined that the selected source device is VTR7, the processing step is step SP. 26 Then, the processing of steps SP26 and SP27 is executed.
[0182]
Subsequently, at step SP29, the desired position of the file is searched by moving the now line 139 to the desired position on the timeline 95 via the slider section 120 of the device control section 96. At this time, the now line 139 on the timeline 95 is displayed in red, and the range in which the now line 139 can be moved is also displayed by color. Thereby, the movement range and position of the now line 139 can be easily confirmed.
[0183]
Here, the program on the timeline 95 is reproduced in the shuttle mode or the like by control via the device control unit 96, so that the image at the nowline 139 position is displayed on the viewer 106, and at the same time, the time code is displayed. A time code can be displayed in the column 106.
[0184]
When the mark-in button 115 is clicked at a desired position while referring to the clip image and time code, the control of the CPU 21 moves to step SP30, and the now line 139 is displayed for the event set on the time line 95. An IN point is set at the time code position corresponding to the position. At this time, under the control of the CPU 21, an in-point stamp image (for example, a flag picture) of the event is displayed in the in-point image display column 110 on the viewer window 92, and at the same time in the in-point time code display column 111 of the event. Displays the time code of the In point.
[0185]
Further, in step SP31, the program on the timeline 95 is reproduced by the control via the device control unit 96, and the image displayed on the viewer 106 and the time code displayed on the time code display column 108 at that time are monitored. Meanwhile, the markout button 116 is click-inputted with the target time code. As a result, the control of the CPU 21 moves to step SP32, and an out point is set at the time code position corresponding to the display position of the now line 139 for the event set on the time line 95. At this time, a stamp image (for example, a flag picture) of the event is displayed in the out point display column 112 on the viewer window 92 under the control of the CPU 21, and at the same time, the out point time code display column 113 displays the out point. Is displayed.
[0186]
Next, at step SP33, the event time between the IN point and OUT point is calculated from the time codes of the IN point and OUT point set for the event on the timeline 95 by the control of the CPU 21, and the event time is displayed in the viewer window. 92 is displayed in the DUR display column 114 on the screen.
[0187]
Next, at step SP34, for example, a clip CL of an event to be inserted between the in and out points of the event on the timeline 95 is selected from the log window 93 and dragged, and is placed near the in or out point of the timeline 95. Drop it. As a result, at step SP35, an event corresponding to the clip CL to be inserted between the in point and the out point of the timeline is pasted by the control of the CPU 21.
[0188]
If it is determined in step SP28 that the selected source device is another source device of the VTR 7, it is determined that the selected source device is the auxiliary input unit AUX or the internal input INT, and the processing step is performed in step SP28. In step SP35, the image information to be inserted, which is input from the auxiliary input unit AUX or the internal input INT between the in and out points of the timeline 95, is pasted at a predetermined position on the timeline 95.
[0189]
When the editing material clipped by reading out from the source device on the viewer window 92 and setting the in and out points in this way is pasted on the timeline 95, the in and out points are set. End the setting procedure.
[0190]
Incidentally, in step SP35, the event's In point (shown as mark-in in the figure) and Out point (shown as mark-out in the figure) set on the timeline 95 in the following four cases as shown in FIG. The material of the clip CL (hereinafter simply referred to as the clip material) can be pasted.
[0191]
That is, as a first case, there are cases where an in point and a mark out are set on the timeline 95 and only a mark in is set for the clip. In this case, the mark-out of the clip material that has not been set is matched with the mark-out set in the time line 95 by the arithmetic processing of the CPU 21 based on the time code of the time line and the in-point and out-point of the clip material. Is set.
[0192]
Here, if the clip material markout is not sufficient for the markout of the timeline 95, and the clip material read in the viewer window 92 has a sufficient length, the clip material markout and the timeline are controlled by the CPU 21. When the missing part between the 95 markouts is added, and the clip material markout exceeds the markout on the timeline 95, the clip material markout is shortened to match the timeline 95 markout. Is done.
[0193]
As a second case, only mark-in may be set on the timeline 95, and mark-in and mark-out may be set for the clip CL. In this case, the markout of the timeline 95 is set by the CPU 21 in accordance with the markout of the inserted clip material based on the timecodes of the timeline and clip in and out points, respectively.
[0194]
As a third case, mark-in and mark-out may be set for the clip material, and only the mark-out may be set on the timeline 95. In this case, the CPU 21 sets the mark-in of the timeline 95 according to the mark-in of the inserted clip based on the mark-in time code of the clip.
[0195]
As a fourth case, mark-in and mark-out may be set on the timeline 95, and mark-in and mark-out may be set for the clip material. In this case, when the CPU 21 determines that the length between the mark-in and mark-out of the event on the timeline 95 and the length between the mark-in and mark-out of the clip material are the same, the clip material is exactly , It is pasted as it is between the in and out points on the timeline.
[0196]
On the other hand, on the timeline 95 of the event When the CPU 21 determines that the length between the mark-in and the mark-out does not match the length between the mark-in and the mark-out of the clip material, the CPU 21 determines the length of the clip material that does not match. It is reset according to the mark-in or mark-out set in the line 95.
[0197]
Thus, while monitoring the event image displayed on the viewer 106, the in and out points are set for the event read on the timeline 95 by a simple input operation via the device control unit 96. can do.
[0198]
Furthermore, a clip material to be inserted between the In point and Out point of the event set on the timeline 95 can be pasted by a simple input operation using a mouse. Further, at this time, the time code of the clip material in point and out point to be pasted to the event on the time line 95 is matched with the time code of the in point and out point set for the event on the time line 95 by the arithmetic processing of the CPU 21. Can be set and pasted automatically.
[0199]
(2-9) Pasting events on the timeline
Here, a case will be described in which the clip CL registered in the log window 93 is pasted to an event on the timeline 95 and an effect is added to the event for editing.
[0200]
In the video effect editing, first, in the log window 93, by clicking the quick entry button 180 (FIG. 16), the registration mode is set for the clip material corresponding to the clip CL displayed on the log window 93. Can be set. In the log window 93 in which the registration mode is set in this manner, the clip material of the clip CL selected by the control of the CPU 21 is selected by clicking with the mouse 2D in the order in which the clip material clips CL to be edited are arranged. The base video line 132A and the base audio line 132B on the timeline 95 are sequentially arranged at the position of the now line 139.
[0201]
In this case, when one event is placed at the position of the now line 139 of the timeline 131, the now line 139 moves to the position of the out point of the event. Then, when the clip CL to be arranged is clicked by the mouse 2D, the clip material corresponding to the clip CL is arranged at the position of the now line 139 moved. Thereafter, the clip material of the clip CL sequentially clicked is arranged at the position of the now line 139 moved to the rear of the clip material.
[0202]
When events are arranged on the timeline 95 in this way, all the lines of the timeline 95 can be previewed from the position of the nowline 139 by the function key preview button 123B. This preview operation is stopped by clicking the all stop button 123C. These events on the timeline 95 are displayed on the editing screen. surface It can be recorded in the local storage 8 by clicking 90 REC buttons 123D.
[0203]
By arranging the clips CL displayed in the log window 93 on the timeline 95 by a simple operation of clicking with the mouse 2D in the order of arrangement, the clip material is roughly arranged on the timeline 95. This greatly simplifies the editing operation when arranging them in order to improve the editing efficiency.
[0204]
(2-10) Effect setting by dialog
In the editing apparatus 1, an animation effect that applies an effect to the video image of the event arranged on the base video line 132A on the timeline 95, or a transition effect that switches between two event changes. It is made to apply. Here, when an effect is applied to an event pasted on the timeline 95, a video effect button 159 is first clicked in the program window 94, whereby an effect setting dialog 190 as shown in FIG. Is displayed on the editing screen 90.
[0205]
When applying effects to events arranged on the timeline 131, a desired effect pattern is selected and pasted on the effectline 135 on the timeline 95 in this dialog 190. In this case, as an effect pattern selection method, first, a desired effect pattern pattern number is input to the pattern number setting unit 191 from the keyboard 2C using the numeric keypad, and is then selected by pressing the enter key. There is. Secondly, about 10 types of bit maps in which images of frequently used effect patterns (hereinafter referred to as “favorite patterns”) are graphically represented are displayed on the facet pattern display unit 192. Then, there is a method of clicking and selecting a desired effect pattern from the face pattern display section 192. For example, the page pattern 192A for switching the background screen to the foreground screen by turning the page when switching the screen, the mosaic 192B for blurring the screen by the mosaic pattern, and the like are set as the facet pattern.
[0206]
Here, after selecting the effect pattern to be set for the event on the timeline 95 by the first or second method described above, the transition of the effect is made in the transition setting unit 193A on the dialog 190. Enter the time (transition time) using the numeric keypad and press the enter key, or click the desired transition time from the transition button 193B in which several typical transition times are set. Select and set.
[0207]
After the effect type and transition time to be set for the event are determined in the dialog 190 in this way, the desired transition in the facet pattern display section 192 of the dialog 190 is determined by the second method described above, for example. Effect pattern Bit map 192X is dragged by mouse 2D as shown in FIG. 30A, moved to effect line 135 above the event to be switched by applying an effect on timeline 95, and dropped. . Thus, for example, as shown in FIG. 30B, the transition effect, Mix 192X ′, can be set for the event of the baseline 132.
[0208]
In addition, when adding an animation effect to an event on the timeline 95, first, by clicking the TL button 126 in the viewer window 92, the control target of the device control unit 96 is moved to the timeline 95. At the same time, an event (base event) on the base line 132 at the position of the now line 139 is read out to the view window 92 and can be subject to device control. Here, when device control such as playback or jog is performed, the nowline 139 moves on the timeline 95 and the base event on the view window 92 is displayed on the viewer 106 in conjunction therewith.
[0209]
Here, by clicking the mark-in button 115 and the mark-out button 116 at predetermined positions on the timeline 95, an in point and an out point are set for the event. As a result, as shown in FIG. 31A, the bit maps 166A and 166B corresponding to the IN and OUT points are displayed at positions on the scale line 147 of the time line 95, and the mark lines 166C and 166D are displayed on the time line 95. Is displayed. As a result, the effect event insertion range can be set in the baseline 132 of the timeline 95.
[0210]
Next, a desired clip CL is selected from the clips CL in the log window 93 and dragged by the mouse 2D, and dropped close to the mark line 166C at the in-point position set in the timeline 95. Here, in the dialog 190, for example, an animation effect is clicked with the mouse 2D from the face pattern display section 192 and selected. As a result, as shown in FIG. 31 (B), the animation effect (in this case, the picture effect picture (PinP)) selected by the face pattern display section 192 at the position of the in point of the overlay video line 136 is displayed. Event EF0 can be pasted.
[0211]
(2-11) Registration of pattern / bitmap
Here, when registering a facet pattern in the facet pattern display unit 192, by first clicking the pattern list button 194, a list (not shown) in which bit maps of a plurality of effect patterns are graphically displayed is displayed. Then, a desired effect to be registered in the facet pattern display unit 192 is read out from the list as a facet pattern. Alternatively, the effect map bit map is read into the bit map display field 195 by inputting the pattern number of the desired effect pattern into the pattern number setting unit 191 with the numeric keypad, and the bit map read in this way is read by the mouse 2D. Then, by dragging and dropping at a desired position in the facet pattern display unit 192, it is registered in the facet pattern display unit 192.
[0212]
As a result, the operator drags the desired effect pattern from the plurality of effect patterns displayed in the face pattern display section 192 displayed on the same screen as the time line 95 with the mouse 2D. The effect can be quickly set for the event by a simple operation of dropping to the desired position of the event.
[0213]
(2-12) Setting transition effects
Next, a description will be given of a case where a transition effect and an animation effect are actually set for an event set on the timeline 95. FIG.
[0214]
For example, as shown in FIG. 32 (A), when the CPU 21 determines that there is a now line 139 at the switching position of two events E0 and E1 arranged on the timeline 95, the CPU 21 determines the events of the events E0 and E1. Based on the data, first, the event E0 located on the left side of the event E1 on the timeline 95 is set as the background, and then the out point of the event E0 is searched.
[0215]
Next, the event E1 located on the right side of the event E0 is set to the foreground, and the in point of the event E1 is searched. As a result, when the transition effect is applied to the position of the now line 139 on the timeline 95, the back ground and the fore ground can be automatically set for each event, and the switching positions of the events E0 and E1 can be read. Therefore, the state of the transition effect at the switching position can be immediately confirmed on the viewer 106.
[0216]
As shown in FIG. 32B, when the CPU 21 determines that there is a now line 139 between the events E1 on the timeline 95 and there is no event of interest in the overlay line 136, the event E1 is controlled by the CPU 21. Is set as the back ground and the position of the now line 139 of the event E1 is searched, and then the now line 139 of the event E1 is set to the foreground. As a result, when a transition effect is applied to the position of the nowline 139 on the timeline 95, the back ground and fore ground can be automatically set for the event E1, and the switching position of the event E1 is read out. The state of the transition effect at the switching position can be immediately confirmed on the viewer 106.
[0217]
(2-13) Setting animation effect
Further, as shown in FIG. 32 (C), when the CPU 21 determines that there is a now line 139 at the start position of the animation effect Cut on the timeline 95 and that there is an event E2 to be effected on the overlay line 136. Under the control of the CPU 21, the event E1 is set to the background, and the out point of the event E1 is searched. Further, under the control of the CPU 21, the event E2 on the overlay line 136 is set to the foreground and the in point of the event E2 is searched. As a result, when an animation effect is applied to the position of the nowline 139 on the timeline 95, the back ground and fore ground can be automatically set for each event, and the in point of the event E1 and the in point of the event E2 can be set. As a result, the state of the animation effect at the position where the effect is applied can be immediately confirmed on the viewer 106.
[0218]
Further, as shown in FIG. 32D, when the CPU 21 determines that there is a now line 139 at a predetermined position in the animation effect Cut and there is an event to be effected on the overlay line 136, the control of the CPU 21 is performed. Therefore, the event E1 is set to the background, and the position of the now line 139 of the event E1 is searched. Next, the event E2 is set to the foreground, and the position of the now line 139 of the event E2 is searched. As a result, when an animation effect using the event E2 is applied to the event E1 arranged on the timeline 95 as described above, the background and foreground can be automatically set for each event. At the same time, by reading the position of the now line 139, the state of the animation effect at the position of the now line 139 can be immediately confirmed on the viewer 106.
[0219]
Further, as shown in FIG. 32E, the CPU 21 determines that there is a now line 139 in the middle of the A roll effect section (shown as “Mirror” in the figure), which can apply an effect to a single event. In this case, the control of the CPU 21 sets the event E1 to the background, searches for the position of the now line 139 of the event E1, and further sets the position of the now line 139 of the event E1 to the foreground. As a result, when the animation effect by the A roll effect is applied to the event E1 on the timeline 95, the back ground and the fore ground can be automatically set for the event E1, and the position of the now line 139 is read out. As a result, the state of the animation effect at the position of the now line 139 can be immediately confirmed on the viewer 106.
[0220]
(2-14) Effect manual transition operation
Here, for example, as shown in FIGS. 32 (A) and 32 (B), a transition ground in which a foreground and a back ground are set for the event E0 and / or the event E1 to be subjected to the transition effect. The effect pattern can be test-reproduced on the screen of the viewer 106 by operating the fader lever 196 of the dialog 190 (FIG. 29).
[0221]
In this case, the background is displayed on the viewer 106 in a state where the fader lever 196 is located at the uppermost position. As the fader lever 196 is dragged with the mouse and moved from top to bottom, the transition effect pattern displayed on the viewer 106 shifts to the foreground according to the transition effect pattern. I will do it. In the state where the fader lever 196 is at the lowest position, the viewer 106 displays the foreground.
[0222]
As a result, it is possible to reproduce a transition effect event at an arbitrary speed by manual operation of the fader lever 196.
[0223]
When the AT button (Auto button) 197 is clicked in the transition effect setting state, the fader lever 196 first moves to the uppermost position, and then gradually moves to the lower position. Transitions with the set transition time. Thus, the transition effect can be automatically reproduced on the viewer 106.
[0224]
Similarly, as shown in FIGS. 32 (C) to 32 (E), after setting the foreground and background for the events E1 and E2, the animation pattern set by selecting the effect pattern number is set. The effect pattern can be test-reproduced on the screen of the viewer 106 by operating the fader lever 196 of the dialog 190.
[0225]
In this case, in the state where the fader lever 196 is positioned at the top, the viewer 106 displays a background which has never been an animation effect. Also, as the fader lever 196 is dragged with the mouse and moved from the top to the bottom, the display image of the viewer 106 shifts to the state of animation effect. When the fader lever 196 is at the lowest position, the viewer 106 displays an event that is an animation effect in which a foreground and a background are set.
[0226]
As a result, an animation effect event can be reproduced at an arbitrary speed by manual operation of the fader lever 196.
[0227]
In addition, when the AT button 197 is clicked in the animation effect setting state, the fader lever 196 first moves to the uppermost position, and then gradually moves to the lower position, and the transition is performed at the set transition time. Chillon. Thus, the animation effect can be automatically reproduced by the AT button 197 under normal reproduction conditions.
[0228]
Here, in the parameter setting unit 198 provided in the dialog 190, there are parameters relating to the edge of the switching position (Edge), parameters relating to lighting (Lighting), which is an effect of applying light, and effects such as drawing shadows and bands. trial( Trial ) / Various parameters that can be added to the effect, such as parameters related to the shadow and parameters related to the location where the effect is set, can be set by clicking the buttons corresponding to the parameters. Has been made.
[0229]
Further, on the dialog 190, a chroma key and / or an external key can be set by clicking the key button 199.
[0230]
(2-15) Modification of effects
When modifying an event for which an effect has been set, a dialog 190 is opened by double-clicking the effect event to be modified with the mouse, and the effect parameters already set in the dialog 190 are displayed. . Here, for example, if the already set effect is a transition effect such as “Wipe” shown in FIG. 33A, double clicking on the effect event sets the event E0 to the background, and the event The E0 out point is searched, the event E1 is set to the foreground, and the event E1 in point is searched. As a result, the position of the now line 139 on the timeline 95 can be immediately set to the out point of the event E0 and the in point of the event E1 in which the transition effect is set, and can be confirmed on the viewer 106.
[0231]
For example, if the already set effect is an animation effect such as “Mosaic” (mosaic) shown in FIG. 33B, double-clicking the effect event sets the event E1 to the background. The In point of the event E1 is searched, the event E2 is set to the foreground, and the out point of the event E1 is searched.
[0232]
As a result, the position of the nowline 139 on the timeline 95 can be immediately set to the In point of the event E1 or E2 in which the animation effect is set.
[0233]
Thus, when the dialog 190 is opened, the foreground and background are automatically set for the event to which the video effect on the baseline 132 is applied, and the foreground end point of the event and the start of the background are started. Points are automatically searched.
[0234]
(2-16) Effect expression method
Here, an effect expression method set for an event on the timeline 95 will be described.
[0235]
The effects set on the timeline 95 can be broadly divided into transition effects and animation effects that can be applied when switching between two events. Transition effects can be further divided into transition systems and flip / tumble. Divided into systems.
[0236]
That is, as shown in FIG. 34A, in the case of a transition system among transition effects, events E1 and E2 serving as a reference are displayed on the base video line 132A of the timeline 95, and the base video line is displayed. The effect EF1 corresponding to the time length for which the effect is applied to the effect line 135 provided on one line of 132A is displayed together with the effect type name. Further, the boundary between the event E1 and the event E2 is indicated by hatching. Thereby, it can be easily identified visually that the cut is switched from the event E1 to the event E2. Incidentally, transition-type effects include wipes and page turns.
[0237]
Further, as shown in FIG. 34B, in the case of the transition effect flip / tumble system, as in the case of the transition system, the events E1 and E2 serving as references on the base video line 132A of the timeline 95 are used. And the effect EF2 corresponding to the length of time that the effect is applied to the effect line 135 provided on one line of the base video line 132A is displayed together with the effect type name of the effect EF2. Further, the boundary between the event E1 and the event E2 is indicated by hatching. As a result, it is possible to easily visually identify that the cut is switched from the event E1 to the event E2 by the flip / tumble. Furthermore, in the case of the flip / tumble system, the effect is that the event image is rotated three-dimensionally with respect to the center line of the image, so that the internal video (Internal Video) when the image is rotated by 90 ° is not visible. This is indicated by the effect IV on the overlay line 122.
[0238]
Next, in animation effects, there is a video effect that can be applied to an event, where an effect is applied to one event, or an event that has an effect is inserted into a given event. Furthermore, it can be divided into standard animation type and modification type (= effect type).
[0239]
That is, as shown in FIG. 34C, in the case of a standard animation system such as a picture-in-picture that inserts an effect event with respect to a reference event, the reference event E1 is input to the base video line 132A. The event E2 that is the effect to be displayed and inserted is displayed on the overlay line 136. In this case, at the position where the video effect is applied on the base video line 132A, the state where the animation effect is applied to the event is displayed by displaying a vertical line. Has been made. In this way, the reference event and the insertion event are displayed on separate lines, and a vertical line is displayed at the position where the animation effect is applied. It can be easily identified visually that an effect insertion event is being inserted. Also, in this case, the effect type used for the insertion event is displayed as the effect EF3 on the effect line 135, so that the effect type for the event can be easily identified visually.
[0240]
As shown in FIG. 34D, in the case of a modifier system that applies mosaic processing or the like to one event, reference events E1 and E2 are displayed on the base video line 132A, and the effect to be inserted is designated as effect EF3. Displayed on the effect line 136. In this case, at the position where the video effect is applied on the base video line 132A, the state where the animation effect is applied to the events E1 and E2 is displayed by displaying a vertical line. It is made to do. In this way, the reference event and the insertion event are displayed on separate lines, and the effect is applied to the event by displaying the vertical line at the position where the animation effect is applied. Can be easily identified visually. Also, in this case, the effect type used for the insertion event is displayed as the effect EF4 on the effect line 135, so that the effect type for the event can be easily identified visually.
[0241]
(2-17) Audio output routing setting
As shown in FIG. 35, the dialog 200 is displayed on the editing screen 90 by clicking the dialog selection button 162 for audio omics down from the toolbar of the program window 94 (FIG. 18), and the dialog 200 is displayed. The audio tracks of a plurality of events arranged on the time line 95 are used in association with output channels to set an output path and set an audio level for each event.
[0242]
The dialog 200 includes a panel 201 in which the four tracks T1 to T4 and the four output channels Ch1 to Ch4 of each of the base audio, the sub audio, and the voice over are associated in a matrix format. By selecting and clicking the button corresponding to the position of the desired output channel Ch1 to Ch4 with respect to the track T1 to T4, routing of each track is set to each output channel.
[0243]
In this case, for example, in the panel 201 shown in FIG. 35, the track 201 is routed to the output channel Ch1 by clicking the button 201A belonging to the track T1 in the first row of the first column. Similarly, on the panel 201, the track T2 is set to the output channel Ch2, the track T3 is set to the output channel Ch3, and the track T4 is set to the output channel Ch4.
[0244]
Similarly, for the sub audio line 134 and the voice over line 138, for example, the sub audio tracks T1 to T4 are output to the output channels Ch1 to Ch4, respectively, and the voice over tracks T1 and T2 are output to the output channel Ch1. And Ch2 indicates that routing is set.
[0245]
Here, when a manual fader button (“Manual Fader”) 202 provided in the dialog 200 is click-inputted, a fader assignment dialog 205 as shown in FIG. 36 is displayed on the editing screen 90.
[0246]
The dialog 205 includes a panel 206 in which the four tracks T1 to T4 and the faders F1 to F4 of the base audio, the sub audio, and the voice over are associated with each other in a matrix. By selecting and clicking the button corresponding to the desired fader F1 to F4 position set in each row for each set track T1 to T4, each track is routed to the faders F1 to F4.
[0247]
In this case, for example, in the panel 206 shown in FIG. 36, the buttons 206A and 206B belonging to the tracks T1 and T2 in the first and second columns of the base audio are click-inputted, whereby the tracks T1 and T2 of the base audio are faded. F1 indicates that routing is set. Similarly, it is shown that the tracks T1 and T2 are routed to the fader F2 by clicking the buttons 206C and 206D belonging to the tracks T1 and T2 in the first and second columns of the sub-audio, and further, By clicking the buttons 206E and 206F, the voice over tracks T1 and T2 are routed to the fader F3.
[0248]
Further, the setting states of the respective faders F1 to F4 for the respective tracks T1 to T4 on the panel 206 are displayed on the display unit 207 at the corresponding positions of the respective columns of the respective tracks T1 to T4.
[0249]
Here, a description will be given of a case where an event in which the audio output is set to be routed to each channel is previewed by clicking the preview button 117 on the viewer window 92 on the dialogs 200 and 205 as described above.
[0250]
For example, as shown in FIG. 37, when the events arranged on the timeline 95 are set to the ruling according to the settings on the panel 201 on the dialog 200 and the panel 206 on the dialog 205, FIG. As shown in (B), the events E1 to E3 of the base audio line 132B are actually fader F1 and the event E4 of the sub audio line 134 is fader to each of the faders F1 to F4 of the transformation controller 5 of the editing apparatus 1. F2 and voice over 138 events E5 to E7 are set to be routed to fader F3.
[0251]
After the faders F1, F2, and F3 are associated with the tracks T1 and T2 of the base audio line 132B, the sub audio line 134, and the voice over line 138 on the timeline 95 in this way, By clicking “ON” on the Ada on / off button 202A (FIG. 36), the audio levels of the base audio line 132B, the sub audio line 134, and the voice over 138 are set when the event is pre-viewed or recorded. Each adjustment can be made by operating each fader lever 208 associated with the faders F1, F2, and F3.
[0252]
(2-18) Effect setting procedure
The effect setting for the events arranged on the timeline 95 is executed under the control of the CPU 21 according to the effect setting procedure by the video editing application software as shown in FIGS.
[0253]
That is, in the effect setting procedure, first, in step SP40, events to which effects are added are arranged on the base video line 132A on the timeline 95 (FIGS. 17 and 18). At step SP41, by clicking the effect button 159 on the program window 94, a dialog 190 (FIG. 29) for performing various effect settings is displayed on the screen.
[0254]
Next, in step SP42, a desired pattern is clicked and selected from the effect pattern / bit map displayed on the face pattern / display unit 192 on the dialog 190. As a result, the number of the selected pattern is output and displayed in the pattern number field 191A of the pattern number setting unit 191 under the control of the CPU 21.
[0255]
For the effect pattern, if the desired pattern number is already known, the desired pattern number is directly input to the pattern number field 191A of the pattern number setting unit 191 from the keyboard 2C and then the enter key is clicked. You can also choose.
[0256]
Here, the CPU 21 determines whether the effect set for the event is an animation effect or a transition effect, and if the video effect is an animation effect in the next step SP43. Proceed to the following step SP44. In step SP44, by first pressing the mark-in button 115 and the out-button 116 on the viewer 106 at a desired position on the timeline 95, an in point and an out point are set for the event, and the time line 95 is displayed. A range to be effected is designated (FIG. 31A).
[0257]
Next, in step SP45, the clip CL selected in step SP42 is pasted on the timeline 95 by drag and drop. As a result, a new event “New Event” is pasted to the overlay video line 136 of the timeline 95 as shown in FIG. When the overlay event is pasted to the overlay video line 136 in this way, the selected effect, for example, the picture-in-picture “PinP” is also pasted to the effect line 135 of the timeline 95. As a result, an animation effect can be set for the event of the base video line 132A. (FIG. 31 (B)).
[0258]
Thus, an animation effect can be set between the In point and Out point of the event pasted on the timeline 95 by a simple operation by drag and drop using the mouse 2D.
[0259]
When the animation effect is set for the event in this way, the dialog 190 is closed in step SP46, and the process proceeds to the next processing step SP47.
[0260]
If it is determined in step SP43 that the effect set for the event by the CPU 21 is a transition effect, the process proceeds to step SP48 under the control of the CPU 21, and the transition time is set using the dialog 190. Thereafter, in the next step SP49, the selected effect is pasted on the timeline 95 by drag and drop (FIG. 30A). As a result, the selected effect is pasted to the effect line 135 of the timeline 95, and as a result, a transition effect can be set for the event of the base video line 132A (FIG. 30). Thus, a transition effect can be set for an event pasted on the timeline 95 by a simple operation by drag and drop using the mouse 2D. Thereafter, the processing step moves to step SP46.
[0261]
If the dialog 190 is closed in step SP46, it is next determined in step SP47 whether or not to correct the effect set for the event. If the effect set for the event is to be corrected, the process proceeds to step SP50 to delete the effect event once set, and then returns to step SP41 to execute the video effect setting procedure again from step SP42. cure.
[0262]
If the effect set for the event is not corrected in step SP47, the effect setting for the event is completed and the effect setting procedure is terminated. As a result, an animation effect or a transition effect can be easily set for an event read on the timeline 95.
[0263]
(3) Operation of the embodiment
In the above configuration, first, by selecting and clicking one of the source selection buttons 102A to 102E on the viewer window 92 displayed on the monitor 2B of the computer 2, a predetermined source device is selected, A desired editing material, that is, a program can be read from the source device.
[0264]
Next, after the program read from the source device is cut to a desired length by specifying the IN point and the OUT point, the time of the program window 94 or the time of the program window 94 is input by clicking the ADD button 122A of the registration unit 122. You can register on line 95.
[0265]
When the cut program is registered on the timeline 95, the control of the device control unit 96 can be transferred onto the timeline 95 by clicking the TL button 126 on the viewer window 92.
[0266]
In this case, the registered program is displayed on the predetermined line on the time line 95 in a strip shape with a length corresponding to the length of the program. On the time line 95, a now line 139 is displayed, and an image of the display position of the now line 139 is displayed on the viewer 106. In the time code display column 108, the time code at the position of the now line 139 is displayed. As a result, the image and time code at the position of the now line 139 can be confirmed.
[0267]
Here, the desired position of the file can be easily searched by moving the now line 139 to a desired position on the time line 95 by the slider part 120 of the device control part 96. At this time, the program registered on the timeline 95 is reproduced under the control of the device control unit 96, the program is searched while the reproduced image is monitored by the viewer 106, and the mark-in button 115 is searched at a desired position. And by clicking the markout button 116, an in point or an out point can be set for the program.
[0268]
When the in point and the out point are set for the program on the timeline 95 in this way, the length between the in point and the out point is determined from the time code of each of the in point and the out point set in the program by the control of the CPU 21. The length DUR can be calculated and displayed in the DUR display column 114 on the viewer window 92.
[0269]
Here, by dragging a predetermined clip material on the log window 93 and dropping it in the vicinity of the in point set in the program of the timeline 95, a simple operation between the in and out points of the program on the timeline 95 is performed. A desired event can be pasted.
[0270]
In this case, as shown in FIG. 23, for example, when the In point and the Out point are set on the timeline 95 as the first case and only the In point is set in the clip material, the timeline and clip material The out point of the clip material is set in accordance with the out point set in the timeline 95 by the arithmetic processing of the CPU 21 based on the time code of each of the in point and the out point.
[0271]
As a second case, when only the In point is set on the timeline 95 and the clip material has the In and Out points, the time code of the timeline 95 and the Clip In and Out points respectively. The out point of the inserted clip material is set by arithmetic processing of the CPU 21 based on the above.
[0272]
As a third case, when the In point and Out point are set for the clip and only the Out point is set on the timeline 95, the CPU 21 calculates based on the time code of the Clip In point. By processing, a value that matches the In point of the insertion clip is set as the In point of the timeline 95.
[0273]
Further, as a fourth case, when the in and out points are set on the timeline 95 and the in and out points are set for the clip, the interval between the in and out points of the event on the timeline 95 is set. When the CPU 21 determines that the length of the clip and the length of the clip material coincide with each other, the clip CL is pasted between the in point and the out point on the timeline as it is.
[0274]
On the other hand, when the CPU 21 determines that the length of the in and out points of the event on the timeline 95 and the length of the clip material do not match, the length of the clip material is calculated by the CPU 21 arithmetic processing. Is reset according to the IN point or OUT point on the timeline 95.
[0275]
As a result, the clip material is calculated by the CPU 21 based on the time code information of the in and / or out points of the clip material to be inserted and the time code information of the in and / or out points of the event on the timeline 95. The desired clip material can be easily pasted on the time line 95 by setting the length of the event or the in point and / or the out point of the event on the time line 95.
[0276]
(4) Effects of the embodiment
According to the above configuration, the editing material input from the source device is read out, and displayed graphically in a strip shape as an event on the timeline 95 according to the length of the editing material, so that a rough program can be visually confirmed. The length and position can be confirmed.
[0277]
Further, a program on the timeline 95 can be reproduced via the device control unit 96, and an image and a time code of the program at the position of the nowline 139 displayed on the timeline 95 during reproduction are respectively displayed on the viewer 106 and time. It can be confirmed by the code display column 108.
[0278]
As a result, while confirming the image and time code of the program on the timeline 95, the in and out points are set by a simple method of clicking the mark-in button 115 and / or the mark-out button 116 for the program. be able to.
[0279]
Further, when the clip material is read from the log window 93 and pasted on the time line 95, the CPU 21 is based on the time code information of the clip material and the time code information of the IN point and / or OUT point set on the time line 95. In this case, the clip material length is reset or the time code of the in point and / or the out point on the time line 95 is reset. Can be securely attached to the position.
[0280]
(5) Other embodiments
In the above-described embodiment, when the clip material, which is the program information of the editing cut, is read from the log window 93 as a file and pasted on the timeline 95, the in and / or out points are displayed on the timeline 95 that is the editing area. Although the present invention is not limited to this, the present invention may be used, for example, when editing the effect program information, thereby obtaining the same effects as those of the above-described embodiment.
[0281]
【The invention's effect】
As described above, according to the present invention, when a new event is inserted between events arranged on the editing area, the line start time, the line end time, the event start time, and the event end time are accurately set. The If not, the event interval should match the interval on the line Properly It can be set again, and the event end time can be set to match the line end time, improving the work efficiency of editing work Thus, it is possible to realize an editing apparatus that can easily perform quick editing by inserting events.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an editing apparatus to which the present invention is applied.
FIG. 2 is a block diagram showing an internal configuration of a computer constituting the editing apparatus.
FIG. 3 is a block diagram showing an internal configuration of an editing processing apparatus that constitutes the editing apparatus.
FIG. 4 is a block diagram showing a configuration of a system control unit of the editing processing apparatus.
FIG. 5 is a block diagram showing a configuration of a matrix switch section of the editing processing apparatus.
FIG. 6 is a block diagram showing a configuration of an image processing unit of the editing processing apparatus.
FIG. 7 is a block diagram showing a configuration of an audio processing unit of the editing processing apparatus.
FIG. 8 is a block diagram showing a configuration of a local storage connected to the editing apparatus.
FIG. 9 is a block diagram showing the configuration of a disk array block of local storage.
FIG. 10 is a chart for explaining operations in the disk array block.
FIG. 11 is a chart for explaining operations in the disk array block.
FIG. 12 is a schematic diagram for explaining an editing screen.
FIG. 13 is a schematic diagram for explaining a viewer window;
FIG. 14 is a schematic diagram for explaining a file list (FIG. 14A) and a source list (FIG. 14B);
FIG. 15 is a schematic diagram for explaining an auxiliary input material setting dialog;
FIG. 16 is a schematic diagram for explaining a log window;
FIG. 17 is a schematic diagram for explaining a program window;
FIG. 18 is a schematic diagram for explaining a program window.
FIG. 19 is a schematic diagram for explaining device icons;
FIG. 20 is a schematic diagram for explaining a dialog for video level setting;
FIG. 21 is a schematic diagram for explaining an audio level setting dialog;
FIG. 22 is a schematic diagram for explaining a scene change dialog;
FIG. 23 is a flowchart showing a clip scene name setting procedure.
FIG. 24 is a schematic diagram for explaining clips displayed on a log window;
FIG. 25 is a schematic diagram for explaining clips displayed on a log window;
FIG. 26 is a flowchart showing a procedure for setting an IN point and an OUT point.
FIG. 27 is a flowchart showing a procedure for setting an IN point and an OUT point.
FIG. 28 is a schematic diagram for explaining the attachment of a clip on a time line.
FIG. 29 is a schematic diagram for explaining an effect setting dialog;
FIG. 30 is a schematic diagram for explaining the effect setting on the time line;
FIG. 31 is a schematic diagram for explaining the effect setting on the time line;
FIG. 32 is a schematic diagram for explaining an effect setting position on a time line;
FIG. 33 is a schematic diagram for explaining the effect correction on the timeline;
FIG. 34 is a schematic diagram for explaining the expression of an effect on the timeline.
FIG. 35 is a schematic diagram for explaining a dialog for output channel assignment.
FIG. 36 is a schematic diagram for explaining a dialog for fader assignment.
FIG. 37 is a schematic diagram for explaining an event pasted on a timeline.
FIG. 38 is a schematic diagram for explaining the routing setting of the audio off-adapter.
FIG. 39 is a flowchart showing an effect setting procedure;
FIG. 40 is a flowchart showing an effect setting procedure.
[Explanation of symbols]
1 ... Editing device, 2 ... Computer, 2A ... Main unit, 2B ... Monitor 2B, 2C ... Keyboard, 2D ... Mouse, 3 ... Editing processing device, 4, 5 ... Dedicated controller, 6 ... Daily server, 7 ... VTR, 8 ... Local storage, 9 ... On-air buffer, 10 ... Local area network, 90 ... Edit screen, 92 ... Viewer window, 93 ... Log window, 94 ... Program window, 95 ... Timeline, 96 ... Device control unit, 102, 102A, 102A, 102C, 102AD, 102E ... Source selection button, 103A ... File list, 103B ... Source list, 106 ... Viewer, 108 …… Time code display field, 110 …… In-point image display section, 111 …… In-point time 112. Out point image display section, 113. Out point time code display section, 120. Slider section, 126. TL button, 132. Base line, 132A. Base video line, 132B …… Base Audio Line, 134 …… Sub Line, 135 …… Effect Line, 137 …… DSK Line, 138 …… Voice Over Line, 139 …… Now Line, 147 …… Scale Line, 165 …… Device Icon 165A ... Server icon, 165B ... Local storage icon, 165C ... VTR icon, 165D ... AUX icon, CL ... Clip, 170, 172, 190, 200 ... Dialog, 174 ... Fader part, 180 ... ... click entry button, 192 ... Retsuto pattern display unit.

Claims (7)

映像でなる編集素材を複数記憶する記憶手段と、
時間の進行を表すタイムラインに沿って上記編集素材のうち設定された範囲をイベントとして1以上配置するための編集領域を表示手段における所定の表示画面上に表示させる表示制御手段と、
上記編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、 上記ユーザインターフエイス手段により、上記編集領域に配置済の上記イベント同士の間に新たな上記編集素材が新たな上記イベントとして挿入される際、上記タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、
上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が全て設定され、且つ上記ライン開始時点及び上記ライン終了時点の間隔と上記イベント開始時点及び上記イベント終了時点の間隔とが一致しない場合、上記イベント開始時点及び上記イベント終了時点の間隔を上記ライン開始時点及び上記ライン終了時点の間隔に合わせて設定し直し、上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点及び上記イベント開始時点が設定された場合、上記ライン終了時点に合わせて上記イベント終了時点を設定して、上記編集領域に上記新たなイベントを配置する編集処理手段と
を具えることを特徴とする編集装置。
Storage means for storing a plurality of editing materials composed of images;
Display control means for displaying on the predetermined display screen in the display means an editing area for arranging one or more set ranges of the editing material as events along a timeline representing the progress of time;
The user interface means that mediates an editing operation from the outside to the editing area, and the new editing material is inserted as a new event between the events already arranged in the editing area by the user interface means. When starting, a line start time and line end time indicating the insertion range of the new event on the timeline, and an event start time and event end time indicating the range of the new editing material as the new event Editing point setting means for setting
The line start time, the line end time, the event start time, and the event end time are all set by the edit time setting means, and the interval between the line start time and the line end time, the event start time, and the event If the interval at the end point does not match, the interval between the event start point and the event end point is reset according to the interval between the line start point and the line end point, and the line start point is set by the editing point setting means. Editing processing means for setting the event end time in accordance with the line end time and placing the new event in the editing area when the line end time and the event start time are set. An editing device characterized by that.
上記編集時点設定手段は、The editing time setting means is
上記映像に対するエフエクトを上記イベントとして上記イベント開始時点及び上記イベント終了時点を設定させ、The effect for the video is set as the event, and the event start time and the event end time are set.
上記編集処理手段は、The editing processing means
上記エフエクトを上記編集領域に配置するPlace the effect in the editing area
ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
上記表示制御手段は、The display control means includes
上記編集領域内の上記タイムライン上で現在着目している時間を示すナウラインを表示させると共に、当該ナウラインが示す時間に対応して配置されている上記イベントの映像を表示する映像表示領域を上記表示画面上に表示させ、A display of a video display area for displaying a video of the event arranged corresponding to the time indicated by the now line while displaying a current line indicating the currently focused time on the timeline in the editing area. On the screen,
上記編集処理手段は、The editing processing means
上記新たなイベントが配置された場合、当該新たなイベントの配置が反映された映像を上記映像表示領域に表示させるWhen the new event is arranged, a video reflecting the arrangement of the new event is displayed in the video display area.
ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
上記表示制御手段は、The display control means includes
上記編集領域に上記イベントを上記タイムラインに沿って帯状にグラフイツク表示させるThe event is displayed graphically in a band along the timeline in the editing area.
ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
上記表示制御手段は、The display control means includes
上記編集領域内の上記タイムライン上で現在着目している時間を示すナウラインを表示させると共に、当該ナウラインが示す時間を上記表示画面内の時間表示領域に表示させるThe now line indicating the currently focused time is displayed on the time line in the editing area, and the time indicated by the now line is displayed in the time display area in the display screen. ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
映像でなる編集素材を複数記憶する記憶手段と、Storage means for storing a plurality of editing materials composed of images;
時間の進行を表すタイムラインに沿って上記編集素材のうち設定された範囲をイベントEvent the set range of the above editing material along the timeline showing the progress of time として1以上配置するための編集領域を表示手段における所定の表示画面上に表示させる表示制御手段と、Display control means for displaying an editing area for arranging one or more on a predetermined display screen in the display means,
上記編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、User interface means for mediating editing operations from the outside to the editing area; 上記ユーザインターフエイス手段により、上記編集領域に配置済の上記イベント同士の間に新たな上記編集素材が新たな上記イベントとして挿入される際、上記タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、When the new editing material is inserted as a new event between the events already arranged in the editing area by the user interface means, the insertion range of the new event on the timeline is indicated. Editing point setting means for setting a line starting point and a line ending point, and an event starting point and an event ending point indicating the range of the new editing material as the new event;
上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が全て設定され、且つ上記ライン開始時点及び上記ライン終了時点の間隔と上記イベント開始時点及び上記イベント終了時点の間隔とが一致しない場合、上記イベント開始時点及び上記イベント終了時点の間隔を上記ライン開始時点及び上記ライン終了時点の間隔に合わせて設定し直し、上記編集時点設定手段により上記ライン開始時点、上記イベント開始時点及び上記イベント終了時点が設定された場合、上記イベント終了時点に合わせて上記ライン終了時点を設定して、上記編集領域に上記新たなイベントを配置する編集処理手段とThe line start time, the line end time, the event start time, and the event end time are all set by the edit time setting means, and the interval between the line start time and the line end time, the event start time, and the event If the interval at the end point does not match, the interval between the event start point and the event end point is reset according to the interval between the line start point and the line end point, and the line start point is set by the editing point setting means. Editing processing means for setting the line end time in accordance with the event end time and placing the new event in the edit area when the event start time and the event end time are set.
を具えることを特徴とする編集装置。An editing device characterized by comprising:
映像でなる編集素材を複数記憶する記憶手段と、Storage means for storing a plurality of editing materials composed of images;
時間の進行を表すタイムラインに沿って上記編集素材のうち設定された範囲をイベントとして1以上配置するための編集領域を表示手段における所定の表示画面上に表示させる表示制御手段と、  Display control means for displaying on the predetermined display screen in the display means an editing area for arranging one or more set ranges of the editing material as events along a timeline representing the progress of time;
上記編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、 上記ユーザインターフエイス手段により、上記編集領域に配置済の上記イベント同士の間に新たな上記編集素材が新たな上記イベントとして挿入される際、上記タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、  The user interface means that mediates an editing operation from the outside to the editing area, and the new editing material is inserted as a new event between the events already arranged in the editing area by the user interface means. When starting, a line start time and line end time indicating the insertion range of the new event on the timeline, and an event start time and event end time indicating the range of the new editing material as the new event Editing point setting means for setting
上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が全て設定され、且つ上記ライン開始時点及び上記ライン終了時点の間隔と上記イベント開始時点及び上記イベント終了時点の間隔とが一致しない場合、上記イベント開始時点及び上記イベント終了時点の間隔を上記ライン開始時点及び上記ライン終了時点の間隔に合わせて設定し直し、上記編集時点設定手段により上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が設定された場合、上記イベント開始時点に合わせて上記ライン開始時点を設定して、上記編集領域に上記新たなイベントを配置する編集処理手段とThe line start time, the line end time, the event start time, and the event end time are all set by the edit time setting means, and the interval between the line start time and the line end time, the event start time, and the event If the interval at the end point does not match, the interval between the event start point and the event end point is reset according to the interval between the line start point and the line end point, and the line end point is set by the editing point setting means. Editing processing means for setting the line start time in accordance with the event start time and placing the new event in the edit area when the event start time and the event end time are set.
を具えることを特徴とする編集装置。An editing device characterized by comprising:
JP11049297A 1997-04-12 1997-04-12 Editing device Expired - Fee Related JP3951196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11049297A JP3951196B2 (en) 1997-04-12 1997-04-12 Editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11049297A JP3951196B2 (en) 1997-04-12 1997-04-12 Editing device

Publications (2)

Publication Number Publication Date
JPH10290418A JPH10290418A (en) 1998-10-27
JP3951196B2 true JP3951196B2 (en) 2007-08-01

Family

ID=14537129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11049297A Expired - Fee Related JP3951196B2 (en) 1997-04-12 1997-04-12 Editing device

Country Status (1)

Country Link
JP (1) JP3951196B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6744969B1 (en) 1998-11-10 2004-06-01 Sony Corporation Data recording and reproducing apparatus and data editing method
WO2000028543A1 (en) * 1998-11-10 2000-05-18 Sony Corporation Edit data creating device and edit data creating method
JP5037425B2 (en) * 2008-05-14 2012-09-26 東芝Itコントロールシステム株式会社 High speed photography device
WO2016035728A1 (en) * 2014-09-04 2016-03-10 ソニー株式会社 Video data processing apparatus and video data processing method

Also Published As

Publication number Publication date
JPH10290418A (en) 1998-10-27

Similar Documents

Publication Publication Date Title
JP4536164B2 (en) Editing apparatus and editing method
US20030091329A1 (en) Editing system and editing method
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
JP3837746B2 (en) Editing system
JP4462642B2 (en) Editing apparatus and editing method
JP4168334B2 (en) Editing apparatus and editing method
JP4229199B2 (en) Editing apparatus and editing method
JP3951196B2 (en) Editing device
JP4588126B2 (en) Editing system and editing method
JP4174718B2 (en) Editing apparatus and editing method
KR100603173B1 (en) Editing apparatus and editing method
JPH10290419A (en) Editor
KR100603161B1 (en) Editing system and editing method
JP4172525B2 (en) Editing apparatus and editing method
JPH10283759A (en) Editing apparatus
JP2007317352A (en) Editing device and editing method
JPH10290393A (en) Editing device
JPH10290417A (en) Editor
JPH10290394A (en) Editing device
JPH10290416A (en) Editor
JP4051648B2 (en) Editing apparatus and editing method
JP3899586B2 (en) Editing apparatus and editing method
JP3906922B2 (en) Editing system
JPH1198412A (en) Edit system, display device and computer
JP4200462B2 (en) Editing apparatus and editing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 19970513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070412

LAPS Cancellation because of no payment of annual fees