JP3951196B2 - Editing device - Google Patents
Editing device Download PDFInfo
- Publication number
- JP3951196B2 JP3951196B2 JP11049297A JP11049297A JP3951196B2 JP 3951196 B2 JP3951196 B2 JP 3951196B2 JP 11049297 A JP11049297 A JP 11049297A JP 11049297 A JP11049297 A JP 11049297A JP 3951196 B2 JP3951196 B2 JP 3951196B2
- Authority
- JP
- Japan
- Prior art keywords
- event
- editing
- line
- time
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【目次】
以下の順序で本発明を説明する。
【0002】
発明の属する技術分野
従来の技術
発明が解決しようとする課題
課題を解決するための手段
発明の実施の形態
(1)装置構成(図1〜図11)
(1−1)編集装置の全体構成
(1−2)コンピユータの内部構成
(1−3)編集処理装置の構成
(1−4)ローカルストレージの構成
(2)プログラム編集(図12〜図40)
(2−1)プログラム編集用アプリケーシヨン・ソフトウエア
(2−2)ビユーアウインドウの構成
(2−3)ログウインドウへの編集素材の登録
(2−4)タイムラインによるイベント編集
(2−5)デバイスアイコンの表示
(2−6)ログウインドウへのクリツプの登録
(2−7)クリツプに対するヘツダの設定
(2−8)イン点及びアウト点の設定
(2−9)タイムライン上へのイベントの貼り付け
(2−10)ダイアログによるエフエクトの設定
(2−11)パターン・ビツトマツプの登録
(2−12)トランジシヨン・エフエクトの設定
(2−13)アニメーシヨン・エフエクトの設定
(2−14)エフエクトのマニユアル・トランジシヨン操作
(2−15)エフエクトの修正
(2−16)エフエクトの表現方法
(2−17)オーデイオの出力ルーテイング設定
(2−18)エフエクトの設定手順
(3)実施の形態の動作
(4)実施の形態の効果
(5)他の実施の形態
発明の効果
【0003】
【発明の属する技術分野】
本発明は編集装置に関し、例えばニユース素材等を編集対象とする編集装置に適用して好適なものである。
【0004】
【従来の技術】
従来、この種の編集装置としては、ニユース素材を記録する記録手段としてビデオテープレコーダ(以下、これを略してVTRと呼ぶ)を用いたものが提案されている。このような編集装置においては、素材としての映像及び音声をVTRに記録しておき、当該VTRから所望の映像及び音声を読み出してニユース素材として使用することによりニユース編集を行うようになされている。
【0005】
【発明が解決しようとする課題】
ところでニユース番組においては、各地で起こつた出来事をいち早く視聴者に提供すること、すなわち速報性が要求される。従つてニユース素材を編集する編集装置においても、迅速性に富んだ編集ができることが望まれる。
【0006】
ところでビデオテープ等を用いたリニア編集の場合、編集カツトを作成するときにテープにイン点及びアウト点を設定することによつて素材を挿入する際の目印としていた。ところがデイスク媒体に格納されたフアイルを読み出して、フアイルデータに対してノンリニア編集を行う場合、編集した素材のレコーデイングは最後に一括して実行するようになされているために、編集途中においてフアイルデータに対してイン点及びアウト点を設定することができない。このため素材に対する上書きや挿入等の編集作業をするときに、実際に編集している映像を編集途中において確認しながら行うことが困難であるという問題があつた。
【0007】
本発明は以上の点を考慮してなされたもので、迅速な編集ができる使い勝手の向上した編集装置を提案しようとするものである。
【0008】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、映像でなる編集素材を複数記憶する記憶手段と、時間の進行を表すタイムラインに沿って編集素材のうち設定された範囲をイベントとして1以上配置するための編集領域を表示手段における所定の表示画面上表示させる表示制御手段と、編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、ユーザインターフエイス手段により、編集領域に配置済のイベント同士の間に新たな編集素材が新たなイベントとして挿入される際、タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、編集時点設定手段によりライン開始時点、ライン終了時点、イベント開始時点及びイベント終了時点が全て設定され、且つライン開始時点及びライン終了時点の間隔とイベント開始時点及びイベント終了時点の間隔とが一致しない場合、イベント開始時点及びイベント終了時点の間隔をライン開始時点及びライン終了時点の間隔に合わせて設定し直し、編集時点設定手段によりライン開始時点、ライン終了時点及びイベント開始時点が設定された場合、ライン終了時点に合わせてイベント終了時点を設定して、編集領域に新たなイベントを配置する編集処理手段とを備える。
【0009】
これにより編集領域上に配置されたイベント同士の間に新たなイベントを挿入する際、ライン開始時点及びライン終了時点、イベント開始時点及びイベント終了時点が正確に設定されていない場合、ライン上の間隔に合わせてイベントの間隔を適切に設定し直すことができ、またライン終了時点に合わせてイベント終了時点を設定できるので、編集作業の作業効率を向上させることができる。
【0010】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0011】
(1)装置構成
(1−1)編集装置の全体構成
図1において、1は全体として本発明を適用した編集装置を示し、大きく分けてコンピユータ2と編集処理装置3からなる。
【0012】
制御手段としてコンピユータ2はCPU(中央処理ユニツト)や各種処理回路、或いはフロツピーデイスクドライブ、ハードデイスクドライブ等を備える本体2Aと、当該本体2Aに接続される表示手段としてのモニタ2Bと、入力手段としてのキーボード2C及びマウス2Dとを有している。このようなコンピユータ2は編集のためのアプリケーシヨン・ソフトウエアがハードデイスクドライブに予めインストールされており、オペレーテイングシステムの基で当該アプリケーシヨン・ソフトウエアを動作させることにより編集装置用のコンピユータとして起動するようになされている。
【0013】
因みに、このアプリケーシヨン・ソフトウエアを動作させたときには、モニタ2B上にGUI(グラフイカル・ユーザ・インターフエイス)のためのグラフイツク表示が表示されるようになされている。この編集装置1では、このグラフイツク表示と上述した入力手段とによつてユーザインターフエイスを構成し、例えばマウス2Dを使用して、モニタ2Bに表示される制御コマンドボタンを示すグラフイツク表示の中から所望のグラフイツク表示を選択することにより、編集処理の処理内容を指定するための制御コマンドを入力するようになされている。なお、コンピユータ2は、入力された制御コマンドが編集処理装置3における編集処理動作を制御するものであれば当該制御コマンドに応じた制御信号S1を生成し、これを編集処理装置3に送出して編集処理動作を指示するようになされている。
【0014】
またこのコンピユータ2には編集処理装置3を介してビデオ信号S2が入力されるようになされており、これにより各素材の映像をモニタ2Bに表示して素材内容を確認しながらイン点(イベントの開始点)やアウト点(イベントの終了点)を指示し得るようになされていると共に、イン点及びアウト点を指示することによつて切り取られたイベント素材や編集したプログラムの映像を表示してそれらを確認し得るようになされている(以下、この切り取られた素材や編集したプログラムを再生して表示することをプレビユと呼ぶ)。
【0015】
一方、編集処理装置3は内部にマトリクススイツチヤ部、画像処理部及び音声処理部を有しており、素材の切り取りや繋ぎ合わせ、或いはビデオ信号やオーデイオ信号に対するエフエクト処理等、実際の編集作業を実行する編集実行装置である。
【0016】
この編集処理装置3には上述したようなコンピユータ2が接続されているだけでなく、別の入力手段として専用コントローラ4、5も接続されており、当該専用コントローラ4、5を使用しても編集のための制御コマンドを入力し得るようになされている。
【0017】
因みに、専用コントローラ4は、素材のイン点やアウト点を指示するためのボタン操作子や、素材の再生を指示するためのボタン操作子、或いは編集したプログラムの記録を指示するためのボタン操作子等を有していると共に、変速再生(いわゆるシヤトル再生)やコマ送り再生(いわゆるジヨグ再生)の指示を入力するためのダイアル操作子等を有しており、それらのボタン操作子又はダイアル操作子を介して入力された指示情報に応じた制御信号S3を編集処理装置3に送出するようになされている。また専用コントローラ5は、オーデイオ信号の信号レベルを設定するための複数のスライド操作子(いわゆるオーデイオフエイダ)や2つの映像を切り換えるときの切換率を設定するためのスライド素子(いわゆるビデオフエイダ)等を有しており、それらのスライド操作子を介して入力された指示情報(この指示情報はスライド操作子による設定値を示す)に応じた制御信号S4を編集処理装置3に送出するようになされている。
【0018】
またこの編集処理装置3に対しては、デイリーサーバ6(一般に放送局において映像や音声等の編集素材を記憶している記憶手段)が接続されており、当該デイリーサーバ6に記憶されているビデオ及びオーデイオ信号を取り込めるようになされている。この場合、デイリーサーバ6は2チヤンネル分の出力ポートを有しており、編集処理装置3から供給されるチヤンネル毎の制御信号S5、S6に応じて所望のビデオ及びオーデイオ信号S7、S8を記憶媒体6Aから読み出して出力するようになされている。なお、記憶媒体6Aには圧縮率1/10のMPEG(Moving Picture coding Experts Group )規格で圧縮されたビデオ及びオーデイオ信号が記憶されており、読み出されたビデオ及びオーデイオ信号はそれぞれデコーダ6B、6Cを介して復号化が行われた後、シリアル・デイジタル・インターフエイス(以下、これをSDIと呼ぶ)規格のフオーマツトに変換され、そのSDI規格のビデオ及びオーデイオ信号S7、S8が編集処理装置3に供給されるようになされている。
【0019】
またこの編集処理装置3に対してはVTR7も接続されており、当該VTR7に記憶されているビデオ及びオーデイオ信号も取り込めるようになされている。この場合、VTR7はSDI規格の入出力インターフエイスを有しており、編集処理装置3から供給される制御信号S9に応じて所望のビデオ及びオーデイオ信号S10を読み出して出力するようになされている。またVTR7は、編集処理された後のビデオ及びオーデイオ信号やデイリーサーバ6から読み出されたビデオ及びオーデイオ信号S7、S8を記録対象のビデオ及びオーデイオ信号S11として編集処理装置3から受けるようになされており、制御信号S9に応じてそのビデオ及びオーデイオ信号S11をビデオテープに記録するようにもなされている。
【0020】
またこの編集処理装置3に対しては、記憶手段として、複数のハードデイスクからなるローカルストレージ8も接続されており、当該ローカルストレージ8に記憶されているビデオ及びオーデイオ信号も取り込めるようになされている。この場合、ローカルストレージ8はSDI規格の入出力インターフエイスを有していると共に、出力ポートとしては2チヤンネル分のポートを有しており、編集処理装置3から供給される制御信号S12に応じて所望のビデオ及びオーデイオ信号S13、S14を読み出して出力するようになされている。またローカルストレージ8は、編集処理された後のビデオ及びオーデイオ信号やデイリーサーバ6又はVTR7から読み出されたビデオ及びオーデイオ信号を記録対象のビデオ及びオーデイオ信号S15として編集処理装置3から受けるようになされており、制御信号S9に応じてそのビデオ及びオーデイオ信号S15を内部のハードデイスクに記録するようにもなされている。
【0021】
またこの編集処理装置3に対しては、オンエアバツフア(放送の際にプログラムを一時的に記憶するための記憶手段)9も接続されており、当該編集処理装置3によつて編集処理したプログラムのビデオ及びオーデイオ信号S16をオンエアバツフア9に記憶し得るようになされている。この場合、オンエアバツフア9はSDI規格の入力インターフエイスを有しているので、送出されるビデオ及びオーデイオ信号S16としてはSDI規格の信号フオーマツトになつている。またオンエアバツフア9においては、供給されたビデオ及びオーデイオ信号S16をエンコーダ9Aによつて圧縮率1/10のMPEG規格で圧縮した後、内部の記憶媒体9Bに記憶するようになされている。
【0022】
なお、このオンエアバツフア9と編集装置1のコンピユータ2は例えばイーサネツト等のローカルエリアネツトワーク(以下、これをLANと呼ぶ)10を介して接続されており、オンエアバツフア9に対する制御コマンドはコンピユータ2及びLAN10を介して当該オンエアバツフア9に送出される。また編集されたプログラムがどのような素材で構成されているかを示す編集リスト(一般にエデイツト・デイシジヨン・リストと呼ばれる)も、このLAN10を介してオンエアバツフア9に送出される。
【0023】
また編集装置1のコンピユータ2とデイリーサーバ6もこのLAN10を介して接続されており、当該LAN10を介してデイリーサーバ6に記憶されている各素材のフアイル名等をコンピユータ2から参照し得るようになされている。
【0024】
また編集処理装置3に対しては、オプシヨン接続としてスピーカ11及び12が接続されるようになされており、編集処理装置3によつて編集されたオーデイオ信号S17、S18を当該スピーカ11、12から送出してオーデイオに関する編集結果を確認し得るようになされている。
【0025】
さらに編集処理装置3に対しては、オプシヨン接続としてプレビユ専用のモニタ13も接続されるようになされており、編集処理装置3によつて編集されたビデオ信号S19を当該モニタ2Bに表示してビデオに関する編集結果をこのモニタ13によつても確認し得るようになされている。因みに、このモニタ13に表示されるプレビユ画面の方がコンピユータ2のモニタ2Bに表示されるプレビユ画面よりも大きいので、モニタ13を接続した方がより鮮明に編集結果を確認し得る。
【0026】
ここでこの編集装置1における編集方法を簡単に説明する。まずこの編集装置1では、アプリケーシヨン・ソフトウエアを起動させると、上述したようにモニタ2BにGUIのためのグラフイツク表示が表示される。因みに、このグラフイツク表示としては、後述するように、素材の映像を見ながらイン点やアウト点を指定することによつてイベント素材を生成するビユーアウインドウの画面や、ビユーアウインドウによつて生成したイベント素材のクリツプ画を表示するログウインドウの画面、或いはこの編集装置1で行う編集処理内容を指定すると共に、指定された編集処理内容をグラフイツク表示を使用して表示するプログラムウインドウの画面や、その他、制御コマンドを入力するための制御コマンドボタン等である。
【0027】
まずオペレータは、このモニタ2Bに表示される所定の制御コマンドボタンをマウス2Dを使用してクリツクすることにより、編集素材が記憶されているデバイス(すなわちデイリーサーバ6、VTR7又はローカルストレージ8)を指示すると共に、その素材の再生を指示する。これによりその指示された素材のビデオ信号S2が編集処理装置3を介してコンピユータ2に供給され、その素材の映像がモニタ2Bに表示される。オペレータはその素材の映像を見ながらイン点とアウト点を指示することにより、プログラム作成に必要なイベント素材を生成する。オペレータはこの処理を繰り返し、プログラム作成に必要なイベント素材を一通り用意し、これをログウインドウに登録する。
【0028】
続いてオペレータは、ログウインドウに示されている所望のクリツプ画をマウス2Dによつてクリツクすることにより所望のイベント素材を選択する。これにより選択したイベント素材を示す帯状グラフイツク表示が表示されるので、これをプログラムウインドウ内にあるタイムライン(詳細は後述する)上の所望位置に置く。これを順に繰り返してイベント素材を示す帯状グラフイツク表示を所望の順番に並べることによりプログラムの順番を指示する。また所望のイベント素材にビデオエフエクトを付加するのであれば、所定の制御コマンドボタンをクリツクすることによりビデオエフエクト設定のためのダイアログを表示させ、その中から付加したいビデオエフエクトを選択する。これにより選択したビデオエフエクトを示す帯状グラフイツク表示が表示されるので、これをタイムライン上のビデオエフエクトを付加したい位置に置く。
【0029】
このようにしてプログラムの概案が決まると、オペレータは所定の制御コマンドボタンをクリツクすることによりプレビユの指示を入力する。これを受けた編集装置1は、編集処理装置3を制御することによりプログラムウインドウで指示されたプログラムの順番に基づいて各イベント素材を再生すると共に、編集処理装置3を制御することにより指示されたイベント素材にビデオエフエクトを施し、ビデオ信号S2を生成する。このビデオ信号S2はコンピユータ2に供給され、かくしてモニタ2Bに表示される。これによりオペレータはプログラムウインドウを使用して指示したプログラム内容を確認することができる。
【0030】
このようなプレビユの結果、プログラム内容に変更がなければ、オペレータは所定の制御コマンドボタンをクリツクすることにより記録指示を入力する。これを受けた編集装置1は、先程と同様に編集処理装置3を制御することにより指示されたプログラムを示すビデオ及びオーデイオ信号S15を生成し、これをローカルストレージ8に供給して記録する。かくしてこの処理により、プログラムウインドウによつて指示されたプログラムが完成し、ローカルストレージに記憶される。なお、この編集により生成したプログラムを放送する場合には、GUIを介して転送の指示を入力すれば、ローカルストレージからそのビデオ及びオーデイオ信号が読み出され、編集処理装置3を介してオンエアバツフア9に転送される。
【0031】
このようにしてこの編集装置1では、各素材の映像やプログラムの映像をモニタ2Bで確認しながら当該プログラムを作成し得るので、編集の使い勝手を向上し得る。またこの編集装置1では、オペレータがスイツチヤや特殊効果装置を直接操作しなくても編集が行えるので、編集操作を容易に行うことができ、編集に掛かる手間を削減し得る。
【0032】
(1−2)コンピユータの内部構成
この項ではコンピユータ2の内部構成について具体的に説明する。図2に示すように、コンピユータ2は、コマンドデータやビデオデータを伝送するためのシステムバス20、コンピユータ全体の制御を行うCPU21、入力されるビデオ信号S2に対して画像処理等を行うビデオプロセツサ22、モニタ2Bに表示されるビデオデータやGUIのためのグラフイツク表示を管理する表示コントローラ23、ローカルハードデイスクドライブ(ローカルHDD)24Aを制御するためのHDDインターフエイス24、フロツピーデイスクドライブ(FDD)25Aを制御するためのFDDインターフエイス25、マウス2D及びキーボード2C等のポインテイングデバイスからのコマンドに基づいて制御コマンドを生成するポインテイングデバイスインターフエイス26、編集処理装置3に制御信号S1を送出するためのソフトウエアドライバを備えた外部インターフエイス27を有している。
【0033】
システムバス20は、コンピユータ2内部でビデオデータやコマンドデータ、或いはアドレスデータ等の通信を行うためのバスであり、ビデオデータを伝送するための画像データバス20Aと、コマンドデータやアドレスデータを伝送するためのコマンドデータバス20Bとからなる。
【0034】
画像データバス20AにはCPU21、ビデオプロセツサ22、表示コントローラ23、HDDインターフエイス24及びFDDインターフエイス25がそれぞれ接続されており、当該CPU21、ビデオプロセツサ22、表示コントローラ23、HDDインターフエイス24及びFDDインターフエイス25はこの画像データバス20Aを介してビデオデータの伝送を行うようになされている。
【0035】
一方、コマンドデータバス20Bには、CPU21、ビデオプロセツサ22、表示コントローラ23、HDDインターフエイス24、FDDインターフエイス25、ポインテイングデバイスインターフエイス26及び外部インターフエイス27がそれぞれ接続されており(すなわちコンピユータ2内部の全てのブロツクが接続されている)、当該コマンドデータバス20Bを介してコマンドデータやアドレスデータの伝送を行うようになされている。
【0036】
CPU21はコンピユータ2全体の制御を行うブロツクであり、コンピユータ2のオペレーテイングシステムが格納されているROM21Aと、アツプロードされたアプリケーシヨン・ソフトウエア等が格納されるRAM21Bとを有している。コンピユータ2を起動する場合には、CPU21はROM21Aに記憶されたオペレーテイングシステムに基づいたソフトウエアを実行する。またアプリケーシヨン・ソフトウエアをこの起動中のオペレーテイングシステムの下で実行する場合には、CPU21はまずハードデイスクドライブ24Aのハードデイスクに記録されているアプリケーシヨン・ソフトウエアを読み出してRAM21Bにアツプロードし、その後、当該アプリケーシヨン・ソフトウエアを実行する。
【0037】
ビデオプロセツサ22は、コンピユータ2に入力されるSDI規格のビデオ信号S2を受け取り、当該ビデオ信号S2に対してデータ変換を施すと共に、その変換されたビデオデータを一時的にバツフアリングするためのブロツクである。具体的には、ビデオプロセツサ22は、当該ビデオプロセツサ22の全体を制御するプロセツサコントローラ22Aと、受け取つたビデオ信号S2のペイロード部からコンポジツトビデオ信号を抽出し、かつ当該コンポジツトビデオ信号をデイジタルのコンポーネントビデオ信号に変換するデータ変換部22Bと、データ変換部22Bから送出される数フレーム分のビデオデータを一時的に記憶するフレームメモリ22Cとからなる。
【0038】
プロセツサコントローラ22Aは、データ変換部22Bに対して制御信号を送出することにより当該データ変換部22Bのデータ変換動作を制御すると共に、当該データ変換部22Bにビデオ信号S2からタイムコードを抽出させる。またプロセツサコントローラ22Aは、フレームメモリ22Cに対して制御信号を送出することにより当該フレームメモリ22Cのリード/ライトタイミング及びリード/ライトアドレスを制御する。因みに、リードタイミングに関しては、プロセツサコントローラ22Aは表示コントローラ23に送出するタイムコードとビデオデータ(フレームデータ)とが対応するようにフレームメモリ22Cのリードタイミングを制御する。
【0039】
データ変換部22Bは、プロセツサコントローラ22Aからの制御信号に基づいてコンポジツトビデオ信号をデイジタルのコンポーネントビデオ信号に変換する。因みに、タイムコードはこの変換過程において抽出される。この変換により得られたビデオデータは上述したようにフレームメモリ22Cに送出され、また抽出されたタイムコードはプロセツサコントローラ22Aに送出される。
【0040】
フレームメモリ22Cはデータ変換部22Bから供給されるビデオデータを一時的に記憶する。このフレームメモリ22Cのリード/ライトタイミングは、上述したようにプロセツサコントローラ22Aによつて制御される。このフレームメモリ22Cは2個のフレームメモリから構成され、2フレーム分のビデオデータを記憶し得るようになされている。
【0041】
このフレームメモリ22Cに記憶されたビデオデータは、プロセツサコントローラ22Aの読み出し制御に基づいて読み出される。その際、フレームメモリ22Cに記憶されたビデオデータを全画素読み出すのではなく、所定の間隔で間引いて読み出すことにより画像サイズを原画像よりも小さくする。このようにして画像サイズが小さく変換されたビデオデータは、モニタ2Bのビユーアウインドウ(詳細は後述する)に表示されるため、画像データバス20Aを介して表示コントローラ23に送出される。
【0042】
表示コントローラ23は、モニタ2Bに表示されるデータを制御するための制御ブロツクである。表示コントローラ23はメモリコントローラ23AとVRAM(ビデオ・ランダム・アクセス・メモリ)23Bとを有している。メモリコントローラ23Aはコンピユータ2の内部同期に従つてVRAM23Bのリード/ライトタイミングを制御する。このVRAM23Bには、ビデオプロセツサ22のフレームメモリ22Cから送出されたビデオデータ及びCPU21によつて生成されるイメージデータが、メモリコントローラ23Aからのタイミング制御信号に基づいて記憶される。このVRAM23Bに記憶されたビデオデータやイメージデータは、コンピユータ2の内部同期に基づいたメモリコントローラ23Aからのタイミング制御信号に基づいて読み出され、モニタ2Bに表示される。
【0043】
この場合、イメージデータによるグラフイツク表示がGUIのためのグラフイツク表示となる。因みに、CPU21からVRAM23Bに送出されるイメージデータは、例えばウインドウやカーソル、或いはスクロールバーやデバイスを示すアイコン等のイメージデータである。このコンピユータ2では、これらの複数種類のイメージデータをモニタ2Bに表示することによつてGUIのためのグラフイツク表示を得ている。
【0044】
HDDインターフエイス24は、コンピユータ2内部に設けられたローカルハードデイスクドライブ(HDD)24Aと通信するためのインターフエイスブロツクである。このHDDインターフエイス24とハードデイスクドライブ24AとはSCSI(Small Computer System Interface )の伝送フオーマツトに基づいて通信が行われるようになされている。
【0045】
ハードデイスクドライブ24Aには、このコンピユータ2で起動するアプリケーシヨン・ソフトウエアがインストールされており、当該アプリケーシヨン・ソフトウエアを実行する場合には、このハードデイスクドライブ24Aから読み出されてCPU21のRAM21Bにアツプロードされる。またこのアプリケーシヨン・ソフトウエアを終了する際には、RAM21Bに記憶されている編集オペレーシヨンによつて生成された各種情報(例えばフアイル情報等)は、このハードデイスクドライブ24Aを介してハードデイスクにダウンロードされる。
【0046】
FDDインターフエイス25は、コンピユータ2内部に設けられたフロツピーデイスクドライブ(FDD)25Aと通信するためのインターフエイスブロツクである。このFDDインターフエイス25とフロツピーデイスクドライブ25AとはSCSIの伝送フオーマツトに基づいて通信が行われるようになされている。
【0047】
ポインテイングデバイスインターフエイス26は、コンピユータ2に接続されたマウス2D及びキーボード2Cからの情報を受信するインターフエイスブロツクである。ポインテイングデバイスインターフエイス26は、マウス2Dに設けられた2次元ロータリーエンコーダの検出情報と、マウス2Dに設けられた左右のボタンのクリツク情報とを当該マウス2Dから受け取り、受け取つたそれらの情報をデコードしてCPU21に送出する。同様に、ポインテイングデバイスインターフエイス26はキーボード2Cに設けられたボタンからの入力情報を受け取り、受け取つた入力情報をデコードしてCPU21に送出する。これによりCPU21は、モニタ2Bに表示されるGUIのうちいずれのコマンドボタンが指示されたか認識し得ると共に、キーボード2Cより入力された各種データを認識し得、それらに対応する制御を行うことができる。
【0048】
外部インターフエイス27は、コンピユータ2の外部に接続された編集処理装置3と通信するためのブロツクである。外部インターフエイス27はCPU21で生成された再生コマンドや記録コマンド等の各種制御コマンドを所定の通信プロトコルのデータに変換するドライバを有しており、当該ドライバを介して制御コマンドを示す制御信号S1を編集処理装置3に送出する。
【0049】
(1−3)編集処理装置の構成
この項では編集処理装置3の構成について説明する。図3に示すように、編集処理装置3は大きく分けてシステムコントロール部3A、マトリクススイツチヤ部3B、画像処理部3C及び音声処理部3Dからなつている。システムコントロール部3Aは、コンピユータ2から送られてくる制御信号S1や専用コントローラ4、5から送られてくる制御信号S3、S4を受け、当該制御信号S1、S3又はS4を基に各ブロツクの動作を制御する。具体的には、システムコントロール部3Aは、コントロールバス3Eを介してマトリクススイツチヤ部3B、画像処理部3C及び音声処理部3Dの動作を制御すると共に、制御信号S5、S6、S9又はS12を送出してデイリーサーバ6、VTR7及びローカルストレージ8の再生又は記録動作等を制御する。因みに、システムコントロール部3Aは外部より供給されるリフエレンスタイムコード(REF-TC)も受け取り、タイムコードの管理も行うようになされている。
【0050】
マトリスクスイツチヤ部3Bは複数の入力端子と複数の出力端子とを有し、システムコントロール部3Aからの制御に応じて所望の入力端子を所望の出力端子に接続するようになされており、これにより各デバイス(デイリーサーバ6、VTR7又はローカルストレージ8)から読み出されたビデオ及びオーデイオ信号のうち所望の信号を画像処理部3Cや音声処理部3Dに送出し得ると共に、所望の信号をコンピユータ2や各デバイス(VTR7、ローカルストレージ8又はオンエアバツフア9)に送出し得るようになされている。さらに画像処理部3Cによつて処理されたビデオ信号をコンピユータ2に送出したり、或いはそのビデオ信号に音声処理部3Dによつて処理されたオーデイオ信号を重畳して各デバイス(VTR7、ローカルストレージ8又はオンエアバツフア9)に送出し得るようにもなされている。
【0051】
画像処理部3Cは、トランジシヨン・エフエクト(ワイプやページターン等、バツクグラウンドの映像からフオアグラウンドの映像に切り換えるようなエフエクト)やアニメーシヨン・エフエクト(モザイクやピクチヤ・イン・ピクチヤ等、特殊な画像処理や挿入処理を伴うエフエクト)といつたエフエクト処理をビデオ信号に施すブロツクであり、マトリクススイツチヤ部3Bによつて選択されたビデオ及びオーデイオ信号からビデオ信号を抽出し、当該ビデオ信号にエフエクト処理を施した後、そのビデオ信号をマトリクススイツチヤ部3Bに出力する。
【0052】
音声処理部3Dは、オーデイオ信号のレベル調整や合成を行うブロツクであり、マトリクススイツチヤ部3Dによつて選択されたビデオ及びオーデイオ信号からオーデイオ信号を抽出した後、そのオーデイオ信号にレベル調整を施したり、或いはオーデイオ信号同士をそれぞれ合成したりし、その結果得られるオーデイオ信号をマトリクススイツチヤ部3B又はスピーカ11、12に出力する。
【0053】
ここでこれら各ブロツクの構成を図を用いて以下に具体的に説明する。図4に示すように、システムコントロール部3Aは、メインCPU(M−CPU)30、コミユニケーシヨンCPU(C−CPU)31及びデバイス制御用CPU(D−CPU)32〜34の複数のCPUから構成される。メインCPU30は、コントロールバス3Eを介して各ブロツク(すなわちマトリクススイツチヤ部3B、画像処理部3C及び音声処理部3D)に制御コマンドを与えることにより当該各ブロツクの動作を制御するためのCPUである。またコミユニケーシヨンCPU31は、外部のタイムコード発生器(図示せず)によつて発生したリフアレンスタイムコード(REF-TC)を受け取つたり、或いはコンピユータ2からの制御信号S1や専用コントローラ4、5からの制御信号S3、S4を受け取つたりするための通信用CPUである。またデバイス制御用CPU32〜34は、各デバイス(すなわちデイリーサーバ6、VTR7及びローカルストレージ8)に対して制御信号S5、S6、S9又はS12を送出して当該各デバイスの動作を制御するためのCPUである。
【0054】
このようなシステムコントロール部3Aは、コミユニケーシヨンCPU31によつて制御信号S1、S3又はS4を受け取り、当該コミユニケーシヨンCPU31によつてその制御信号S1、S3又はS4が示す制御コマンドを再生する。この制御コマンドはシステムコントロール部3A内部のバス35を介してメインCPU30に転送される。メインCPU30はこの制御コマンドを解析し、デバイス制御が必要であれば対応するデバイス制御用CPU32、33又は34に制御コマンドを送出して当該デバイス制御用CPU32、33又は34を介してデバイスの動作を制御し、マトリクススイツチヤ部3B、画像処理部3C又は音声処理部3Dの制御が必要であれば対応するブロツクにコントロールバス3Eを介して制御コマンドを送出して当該ブロツクの動作を制御する。
【0055】
因みに、コミユニケーシヨンCPU31は、内部にコンピユータ2の外部インターフエイス27に対応した通信用のドライバを有しており、当該ドライバによつてコンピユータ2から送られてくる制御信号S1を受信するようになされている。またデバイス制御用CPU32〜34は内部にRS−422規格のドライバを有しており、当該ドライバによつてRS−422規格の制御信号S5、S6、S9又はS12を各デバイスに送出するようになされている。
【0056】
続いて図5を用いてマトリクススイツチヤ部3Bについて説明する。この図5に示すように、マトリクススイツチヤ部3Bは大きく分けて制御回路40、マトリクススイツチヤブロツク41及びフオーマツト変換ブロツク42からなつている。制御回路40はこのマトリクススイツチヤ部3Bの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S20、S21を生成し、当該制御信号S20、S21をそれぞれマトリクススイツチヤブロツク41、フオーマツト変換ブロツク42に出力してその動作を制御する。
【0057】
マトリクススイツチヤブロツク41は、入力端子IN1〜IN11にそれぞれ接続される複数の入力ラインと、出力端子OUT1〜OUT13にそれぞれ接続される複数の出力ラインとが格子状に配列されており、入力ラインと出力ラインが交差するクロスポイント(図中×印で示す)の所で当該入力ラインと出力ラインを接続し得るようになされている。このためマトリクススイツチヤブロツク41は、制御回路40から供給される制御信号S20に基づいて所望のクロスポイントの所で入力ラインと出力ラインを接続すれば、入力端子IN1〜IN11に入力された所望の信号を所望の出力端子OUT1〜OUT13に出力することができる。
【0058】
因みに、このマトリクススイツチヤ部3Bにおいては、デイリーサーバ6、VTR7及びローカルストレージ8の各デバイスから読み出されたビデオ及びオーデイオ信号がそれぞれ入力端子IN1〜IN8に入力されるようになされている(但し、この図5の例では、入力端子IN1〜IN5にビデオ及びオーデイオ信号S7、S8、S10、S13、S14が入力され、入力端子IN5〜IN8は空き端子となつている)。また入力端子IN9及びIN10には画像処理部3Cによつて画像処理が施されたビデオ信号S31、S32がそれぞれ入力され、入力端子IN11には音声処理部3Dによつて信号処理が施されたオーデイオ信号S33が入力されるようになされている。
【0059】
またこのマトリクススイツチヤ部3Bにおいては、出力端子OUT1はローカルストレージ8にビデオ及びオーデイオ信号S15を出力するための端子として割り当てられ、出力端子OUT2はVTR7にビデオ及びオーデイオ信号S11を出力するための端子として割り当てられ、出力端子OUT3はオンエアバツフア9にビデオ及びオーデイオ信号S16を出力するための端子として割り当てられており、出力端子OUT1〜OUT3はそれぞれプログラム出力用の端子として割り当てられている。また出力端子OUT4はプレビユ専用のモニタ13にビデオ信号S19を出力するためのプレビユ用の出力端子として割り当てられており、出力端子OUT5はコンピユータ2にビデオ信号S2を出力するためのキヤプチヤ用の出力端子として割り当てられている。さらに出力端子OUT6〜OUT10は画像処理部3Cにビデオ及びオーデイオ信号S23〜S27を出力するための端子として割り当てられ、出力端子OUT11〜OUT13は音声処理部3Dにビデオ及びオーデイオ信号S28〜S30を出力するための端子として割り当てられている。
【0060】
フオーマツト変換ブロツク42は、制御回路40から供給される制御信号S21に基づいて、出力端子OUT1〜OUT5に出力する信号をSDI規格の信号に変換する回路ブロツクであり、出力端子OUT1〜OUT3に出力する信号をフオーマツト変換するアウトプツトプロセツサ43及びオーデイオコンバイナ44と、出力端子OUT4に出力する信号をフオーマツト変換するアウトプツトプロセツサ45と、出力端子OUT5に出力する信号をフオーマツト変換するアウトプツトプロセツサ46とを有している。
【0061】
アウトプツトプロセツサ43は、画像処理部3Cによつて画像処理されたビデオ信号(すなわち入力端子IN9又はIN10に入力されるビデオ信号S31又はS32)を出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。オーデイオコンバイナ44は、音声処理部3Dによつて処理されたエンベデツトオーデイオ信号(すなわち入力端子IN11に入力されるオーデイオ信号S33)を出力するとき、アウトプツトプロセツサ43から出力されるSDI規格のビデオ信号に当該エンベデツトオーデイオ信号S33を重畳する。これにより画像処理部3Cによつて処理されたビデオ信号S31、S32や音声処理部3Dによつて処理されたオーデイオ信号S33をSDI規格の信号でローカルストレージ8やVTR7或いはオンエアバツフア9に送出し得る。因みに、入力端子IN1〜IN8に入力されたビデオ及びオーデイオ信号を出力端子OUT1〜OUT3に出力する場合には、当該ビデオ及びオーデイオ信号がSDI規格で各デバイスから出力されているので、アウトプツトプロセツサ43及びオーデイオコンバイナ44は何ら処理せず、入力されるビデオ及びオーデイオ信号をそのまま出力端子OUT1〜OUT3に出力する。
【0062】
アウトプツトプロセツサ45、46も、同様に、それぞれ画像処理部3Cによつて画像処理されたビデオ信号S31又はS32を出力端子OUT4又はOUT5に出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。これにより画像処理部3Cによつて処理されたビデオ信号S31又はS32をSDI規格の信号でプレビユ専用のモニタ13やコンピユータ2に送出し得る。因みに、このアウトプツトプロセツサ45、46も、入力端子IN1〜IN8に入力されたビデオ及びオーデイオ信号を出力端子OUT4、OUT5に出力する場合には、当該ビデオ及びオーデイオ信号に何ら処理せず、そのまま出力端子OUT4、OUT5に出力する。
【0063】
続いて図6を用いて画像処理部3Cについて説明する。この図6に示すように、画像処理部3Cは大きく分けて制御回路50と、デマルチプレクサブロツク51と、スイツチヤブロツク52と、特殊効果ブロツク53と、ミキサブロツク54とを有している。制御回路50はこの画像処理部3Cの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S40、S41、S42、S43を生成し、当該制御信号S40、S41、S42、S43をそれぞれデマルチプレクサブロツク51、スイツチヤブロツク52、特殊効果ブロツク53、ミキサブロツク54に出力してその動作を制御する。これによりこの画像処理部3Cでは、マトリクススイツチヤ部3Bから供給されたビデオ信号(S23〜S27)に対して画像処理を施す。因みに、ここで言う画像処理とは、ソースビデオ信号に特殊効果を施したり、バツクグラウンドビデオ信号に特殊効果のかかつたビデオ信号を挿入したりするアニメーシヨン・エフエクトや、バツクグラウンドビデオ信号からフオアグラウンドビデオ信号に映像を切り換えるトランジシヨン・エフエクトのことである。
【0064】
デマルチプレクサブロツク51は、SDI規格の信号形式で送られてくるビデオ及びオーデイオ信号S23〜S27からビデオ信号又はキー信号を抽出するブロツクである。このデマルチプレクサブロツク51は、入力されるビデオ及びオーデイオ信号S23〜S27からそれぞれ信号抽出を行う5つのデマルチプレクサ回路51A〜51Eからなつている。デマルチプレクサ回路51Aは、ビデオ及びオーデイオ信号S23を形成する各パケツトのペイロード部からキー信号を抽出する回路であり、当該キー信号の先頭に配置されている同期信号及びヘツダ情報に基づいて抽出を行う。またデマルチプレクサ回路51Bは、ビデオ及びオーデイオ信号S24を形成する各パケツトのペイロード部からビデオ信号を抽出する回路であり、当該ビデオ信号の先頭に配置されている同期信号及びヘツダ情報に基づいて抽出を行う。同様に、デマルチプレクサ回路51Cはビデオ及びオーデイオ信号S25からキー信号を抽出し、デマルチプレクサ回路51Dはビデオ及びオーデイオ信号S26からビデオ信号を抽出し、デマルチプレクサ回路51Eはビデオ及びオーデイオ信号S27からビデオ信号を抽出する。
【0065】
スイツチヤブロツク52は、抽出されたキー信号及びビデオ信号に対してトランジシヨン・エフエクトのための処理を施すブロツクであり、ワイプ信号発生器52A、52B、キー信号処理回路52C、52D、及びビデオ信号処理回路52E、52Fからなつている。ワイプ信号発生器52Aは、制御回路50からの制御信号S41に基づいてオペレータが指定したトラジシヨン・エフエクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52C及びビデオ信号処理回路52Eに送出する。キー信号処理回路52Cは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Aから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述するミキサブロツク54に送出する。またビデオ信号処理回路52Eは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Bから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述するミキサブロツク54に送出する。
【0066】
同様に、ワイプ信号発生器52Bは、制御回路50からの制御信号S41に基づいてオペレータが指定したトラジシヨン・エフエクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52D及びビデオ信号処理回路52Fに送出する。キー信号処理回路52Dは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Cから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述する特殊効果ブロツク53に送出する。またビデオ信号処理回路52Fは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Dから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述する特殊効果ブロツク53に送出する。
【0067】
特殊効果ブロツク53は、制御回路50から供給される制御信号S42に基づいて、キー信号処理回路52Dから出力されるキー信号及びビデオ信号処理回路52Fから出力されるビデオ信号を3次元的に画像変換するためのブロツクであり、3次元アドレス発生回路53A、フレームメモリ53B、53C及び補間回路53D、53Eからなつている。3次元アドレス発生回路53Aは、制御信号S42に基づいて、オペレータが指定した3次元的な画像変換を行うための変換アドレスを生成し、当該変換アドレスをフレームメモリ53B、53C及び補間回路53D、53Eに出力する。
【0068】
フレームメモリ53Bは、キー信号処理回路52Dから供給されるキー信号を順次内部のメモリ領域に格納すると共に、その格納されたキー信号を変換アドレスに基づいて読み出すことにより、当該キー信号に対して3次元的な画像変換を施し、その結果得られるキー信号を補間回路53Dに送出する。同様に、フレームメモリ53Bは、ビデオ信号処理回路52Fから供給されるビデオ信号を順次内部のメモリ領域に格納すると共に、その格納されたビデオ信号を変換アドレスに基づいて読み出すことにより、当該ビデオ信号に対して3次元的な画像変換を施し、その結果得られるビデオ信号を補間回路53Eに送出する。
【0069】
補間回路53Dは3次元的な変換処理が施されたキー信号に補間処理を施す回路であり、変換アドレスに基づいてキー信号の画素を空間的に補間し、その結果得られるキー信号を後述するミキサブロツク54に送出する。同様に、補間回路53Eは3次元的な変換処理が施されたビデオ信号に補間処理を施す回路であり、変換アドレスに基づいてビデオ信号の画素を空間的に補間し、その結果得られるビデオ信号を後述するミキサブロツク54に送出する。
【0070】
ミキサブロツク54は制御信号S43による指示に従つてビデオ信号を合成するブロツクであり、2つのミツクス回路54A、54Bからなつている。ミツクス回路54Aは、特殊効果ブロツク53から出力されるキー信号に基づいて、当該特殊効果ブロツク53によつて画像変換されたビデオ信号とデマルチプレクサ回路51Eから出力されるバツクグラウンドビデオ信号としてのビデオ信号とを合成することによりビデオ信号S31を生成する。またミツクス回路54Bは、スイツチヤブロツク52から出力されるキー信号に基づいて、当該スイツチヤブロツク52から出力されるビデオ信号とミツクス回路54Aから出力されるビデオ信号S31とを合成することによりビデオ信号S32を生成する。このようにして生成されたビデオ信号S31、S32は、上述したようにマトリクススイツチヤ部3Bに送出される。
【0071】
因みに、単に2つの映像を切り換えるだけのトランジシヨン・エフエクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aを介してミツクス回路54Bに入力すると共に、ビデオ信号処理回路52Eから出力されるビデオ信号をフオアグラウンドビデオ信号としてミツクス回路54Bに入力し、その2つのビデオ信号をキー信号処理回路52Cから出力されるキー信号に基づいて合成する。これによりバツクグラウンドビデオ信号からフオアグラウンドビデオ信号に切り換わるビデオ信号S32が生成される。
【0072】
またページターンのような画像変換を伴うトランジシヨン・エフエクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号をフオアグラウンドビデオ信号として特殊効果ブロツク53を介して画像変換した後にミツクス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロツク53を介して信号処理されたキー信号に基づいて合成する。これによりページをめくるようにしてバツクグラウンドビデオ信号からフオアグラウンドビデオ信号に切り換わるビデオ信号S31が生成される。
【0073】
またピクチヤ・イン・ピクチヤのようなアニメーシヨン・エフエクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号を挿入素材として特殊効果ブロツク53を介して画像変換した後にミツクス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロツク53を介して信号処理されたキー信号に基づいて合成する。これによりバツクグラウンドビデオ信号に挿入素材が挿入されたピクチヤ・イン・ピクチヤのビデオ信号S31が生成される。
【0074】
続いて図7を用いて音声処理部3Dについて説明する。この図7に示すように、音声処理部3Dは大きく分けて制御回路55、入力信号処理ブロツク56、ミキサブロツク57及び出力信号処理ブロツク58からなつている。制御回路55はこの音声処理部3Dの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S45、S46、S47を生成し、当該制御信号S45、S46、S47をそれぞれ入力信号処理ブロツク56、ミキサブロツク57、出力信号処理ブロツク58に出力してその動作を制御する。これによりこの音声処理部3Dでは、マトリクススイツチヤ部3Bから供給されたオーデイオ信号(S28〜S30)に対して音声処理を施す。因みに、ここで言う音声処理とは、オーデイオ信号のレベル調整と合成のことである。
【0075】
入力信号処理ブロツク56は、SDI規格の信号形式で送られてくるビデオ及びオーデイオ信号S28〜S30からオーデイオ信号を抽出するブロツクである。この入力信号処理ブロツク56は、信号分離回路としてのセパレータ56A〜56Cと、フオーマツト変換回路としてのデコーダ56D〜56Fとを有している。セパレータ56A〜56Cは、それぞれSDI規格のビデオ及びオーデイオ信号S28〜S30からエンベデツトオーデイオ信号を抽出する回路であり、入力されるビデオ及びオーデイオ信号S28〜S30からエンベデツトオーデイオ信号を抽出してデコーダ56D〜56Fに送出する。デコーダ56D〜56Fはそれぞれエンベデツトオーデイオ信号をフオーマツト変換する回路であり、入力されるエンベデツトオーデイオ信号をそれぞれAES/EBU(Audio Engineering Society / European Broadcasting Union )フオーマツトに変換し、その結果得られるオーデイオ信号S48〜S50をそれぞれミキサブロツク57に送出する。
【0076】
ミキサブロツク57は、オーデイオ信号S48〜S50のレベル調整を行うと共に、信号合成を行うブロツクであり、可変抵抗回路57A〜57F及び加算回路57G、57Hからなつている。入力信号処理ブロツク56から供給されたオーデイオ信号S48〜S50はそれぞれ右側成分と左側成分に分離された後に可変抵抗回路57A〜57Cと可変抵抗回路57D〜57Fに入力される。可変抵抗回路57A〜57Cと57D〜57Fはコンピユータ2のモニタ2Bに表示されるGUIのオーデイオフエイダ又は専用コントローラ5に設けられたオーデイオフエイダの操作に連動して抵抗値が変化するようになされており、これにより入力されるオーデイオ信号をそれぞれオペレータが指定した信号レベルにレベル調整する。
【0077】
可変抵抗回路57A〜57Cによつてレベル調整されたオーデイオ信号は、それぞれ加算回路57Gに入力され、ここで加算された後に出力信号処理ブロツク58に送出される。同様に、可変抵抗回路57D〜57Fによつてレベル調整されたオーデイオ信号は、それぞれ加算回路57Hに入力され、ここで加算された後に出力信号処理ブロツク58に送出される。
【0078】
出力信号処理ブロツク58は出力するオーデイオ信号をSDI規格の信号形式に変換するブロツクであり、フオーマツト変換回路としてのエンコーダ58A、58Bと信号合成回路としてのエンベデツト回路58Cとを有している。エンコーダ58AはAES/EBUフオーマツトのオーデイオ信号をエンベデツトオーデイオ信号にフオーマツト変換する回路であり、加算回路57Gから出力されたオーデイオ信号をエンベデツトオーデイオ信号S17にフオーマツト変換し、そのエンベデツトオーデイオ信号S17をエンベデツト回路58Cに送出すると共に、音声確認用のスピーカ11(図1参照)に送出する。同様に、エンコーダ58BはAES/EBUフオーマツトのオーデイオ信号をエンベデツトオーデイオ信号にフオーマツト変換する回路であり、加算回路57Hから出力されたオーデイオ信号をエンベデツトオーデイオ信号S18にフオーマツト変換し、そのエンベデツトオーデイオ信号S18をエンベデツト回路58Cに送出すると共に、音声確認用のスピーカ12(図1参照)に送出する。
【0079】
エンベデツト回路58Cは、マトリクススイツチヤ部3Bのコンバイナ44によつてオーデイオ信号をSDI規格のビデオ信号に重畳し得るように所定の信号形式に信号変換を行う回路であり、入力されるエンベデツトオーデイオ信号S17、S18を合成した後に所定の信号形式に信号変換を行う。この処理により得られたオーデイオ信号S33は、上述したようにマトリクススイツチヤ部3Bのコンバイナ44に送出される。
【0080】
(1−4)ローカルストレージの構成
次にこの項では編集処理装置3に接続されるデータ記憶手段としてローカルストレージ8について説明する。図8に示すように、このローカルストレージ8は、入出力インターフエイスとしてのデータ入出力ブロツク60と、このローカルストレージ8全体の動作を制御するシステムコントロールブロツク61と、ビデオデータを記憶するデイスクアレイブロツク62と、オーデイオデータを記憶するデイスクアレイブロツク63とを有している。
【0081】
データ入出力ブロツク60は入力1チヤンネル、出力2チヤンネルの構成を有しており、システムコントロールブロツク61からの制御信号S60に基づいて、編集処理装置3から供給されたビデオ及びオーデイオ信号S15にデータ記憶に先立つて所定の信号処理を施すと共に、デイスクアレイブロツク62、63から読み出したデータに所定の信号処理を施してビデオ及びオーデイオ信号S13、S14として出力する。
【0082】
具体的に説明すると、まず編集処理装置3から供給されたビデオ及びオーデイオ信号S15はエンコーダ60Aに入力される。エンコーダ60AはSDI規格のビデオ及びオーデイオ信号S15からビデオ信号S61とオーデイオ信号S62を抽出し、当該ビデオ信号S61をビデオ圧縮回路60Bに出力すると共に、オーデイオ信号S62をオーデイオ圧縮回路60Jに出力する。ビデオ圧縮回路60Bは、圧縮率1/10のMPEG規格でビデオ信号S61を圧縮し、その圧縮したビデオデータをバツフアメモリ60Cに格納する。同様に、オーデイオ圧縮回路60Jは、所定の音声圧縮方式を用いてオーデイオ信号S62を圧縮し、その圧縮したオーデイオデータをバツフアメモリ60Kに格納する。バツフアメモリ60C、60Kに格納されたビデオデータとオーデイオデータは、システムコントロールブロツク61の制御の基に順次読み出され、ビデオデータ用のデイスクアレイブロツク62とオーデイオ用のデイスクアレイブロツク63にそれぞれ記録される。
【0083】
一方、再生第1チヤンネルのビデオデータとしてデイスクアレイブロツク62から読み出されたビデオデータは、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Fに格納される。同様に、再生第1チヤンネルのオーデイオデータとしてデイスクアレイブロツク63から読み出されたオーデイオデータは、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Mに格納される。第1のビデオ伸長回路60Fは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバツフアメモリ60Fから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS63を第1のデコーダ60Dに出力する。同様に、第1のオーデイオ伸長回路60Lは、圧縮されているオーデイオデータをバツフアメモリ60Mから読み出し、当該オーデイオデータを伸長処理した後、そのオーデイオデータS64を第1のデコーダ60Dに出力する。第1のデコーダ60DはSDI規格のフオーマツトに基づいてビデオデータS63にオーデイオデータS64を重畳する。これによりデイスクアレイブロツク62から読み出した再生第1チヤンネルのビデオデータとデイスクアレイブロツク63から読み出した再生第1チヤンネルのオーデイオデータをSDI規格のビデオ及びオーデイオ信号S13として送出し得る。
【0084】
同様に、再生第2チヤンネルのビデオデータとしてデイスクアレイブロツク62から読み出されたビデオデータは、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Iに格納される。また再生第2チヤンネルのオーデイオデータとしてデイスクアレイブロツク63から読み出されたオーデイオデータも、システムコントロールブロツク61の制御の基に、順次バツフアメモリ60Pに格納される。第2のビデオ伸長回路60Hは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバツフアメモリ60Iから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS65を第2のデコーダ60Gに出力する。同様に、第2のオーデイオ伸長回路60Nも、圧縮されているオーデイオデータをバツフアメモリ60Pから読み出し、当該オーデイオデータを伸長処理した後、そのオーデイオデータS66を第2のデコーダ60Gに出力する。第2のデコーダ60GはSDI規格のフオーマツトに基づいてビデオデータS65にオーデイオデータS66を重畳する。これによりデイスクアレイブロツク62から読み出した再生第2チヤンネルのビデオデータとデイスクアレイブロツク63から読み出した再生第2チヤンネルのオーデイオデータをSDI規格のビデオ及びオーデイオ信号S14として送出し得る。
【0085】
システムコントロールブロツク61は、このローカルストレージ8の全体を制御するブロツクであり、CPU61Aと、DMAコントローラ(Direct Memory Access controller )61B、61Cと、SCSIプロトコルコントローラ61D、61Eと、制御信号S12の入力インターフエイス61Fとを有している。CPU61Aはシステムコントロールブロツク61の中心的存在である制御回路を構成しており、編集処理装置3からRS−422の通信プロトコルで送られてくる制御信号S12を入力インターフエイス61Fを介して受け、その制御信号S12が示す制御コマンドに基づいて、DMAコントローラ61B、61CとSCSIプロトコルコントローラ61D、61Eの動作を制御する。またCPU61Aは上述したように制御信号S60を生成してデータ入出力ブロツク60に出力することにより当該データ入出力ブロツク60の動作を制御する。
【0086】
さらにCPU61Aは、デイスクアレイブロツク62及び63の記録アドレスを、記録されるデータのタイムコードと共に管理しており、これによりタイムコードを基準にしてそのタイムコードが示すデータの記録アドレスを容易に検索し得るようになされている。具体的には、CPU61Aは、デイスクアレイブロツク62にフレーム単位で記録されるビデオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。同様に、CPU61Aは、デイスクアレイブロツク63にフレーム単位で記録されるオーデイオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。従つて外部からタイムコードを指定しさえすれば、対応表を参照して記録アドレスを容易に探し出すことができ、ビデオデータ及びオーデイオデータを速やかに再生することができる。
【0087】
ビデオ系のDMAコントローラ61Bは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロツク60のバツフアメモリ60Cからビデオデータを読み出し、データ再生時にはデータ入出力ブロツク60のバツフアメモリ60F、60Iにビデオデータを書き込む。またビデオ系のSCSIプロトコルコントローラ61Dは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Bから受け取つたフレーム単位のビデオデータと、そのビデオデータのフレームに付与されているタイムコードとをSCSIフオーマツトのデータS67に変換してビデオデータ用のデイスクアレイブロツク62に送出し、ビデオデータの記録を当該デイスクアレイブロツク62に指示する。またSCSIプロトコルコントローラ61Dは、データ再生時、デイスクアレイブロツク62から再生されたSCSIフオーマツトのビデオデータS67を受け取り、これを元のデータ形式に変換してDMAコントローラ61Bに送出する。
【0088】
同様に、オーデイオ系のDMAコントローラ61Cは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロツク60のバツフアメモリ60Kからオーデイオデータを読み出し、データ再生時にはデータ入出力ブロツク60のバツフアメモリ60M、60Pにオーデイオデータを書き込む。またオーデイオ系のSCSIプロトコルコントローラ61Eは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Cから受け取つたフレーム単位のオーデイオデータと、そのオーデイオデータのフレームに付与されているタイムコードとをSCSIフオーマツトのデータS68に変換してオーデイオデータ用のデイスクアレイブロツク63に送出し、オーデイオデータの記録を当該デイスクアレイブロツク63に指示する。またSCSIプロトコルコントローラ61Eは、データ再生時、デイスクアレイブロツク63から再生されたSCSIフオーマツトのオーデイオデータS68を受け取り、これを元のデータ形式に変換してDMAコントローラ61Cに送出する。
【0089】
ビデオデータ用のデイスクアレイブロツク62及びオーデイオデータ用のデイスクアレイブロツク63は、それぞれ内部に複数のハードデイスクを有したデイスクアレイ装置からなり、その複数のバードデイスクを並列的に同時運転してビデオデータやオーデイオデータを記録するようになされている。またデイスクアレイブロツク62及び63は、データを記録するときに冗長性を持たせて記録するようになされており、これによりデイスクアレイ装置内のいずれかのハードデイスクが故障した場合でも、故障したハードデイスクに記録されていたデータを復旧(再構築動作ともいう)し得るようになされている。なお、このようなデータの再構築機能を有するデイスクアレイ装置は、一般に、RAID(Redundant Array of Inexpensive Disks)と呼ばれている。
【0090】
ここでこのようなデイスクアレイブロツク62、63について、以下に図を用いて具体的に説明する。但し、デイスクアレイブロツク62、63は基本的に同一の構成を有しているので、ここではデイスクアレイブロツク62についてのみ説明する。図9に示すように、デイスクアレイブロツク62は、大きく分けてバツフアメモリ62Aと、デイスクアレイコントローラ62Bと、データマルチプレクサ62Cと、パリテイ演算回路62Dと、複数のSCSIプロトコルコントローラ62E〜62Iと、複数のハードデイスク62J〜62Nとからなつている。
【0091】
バツフアメモリ62Aはデータの一時記憶用のメモリであり、図8に示したシステムコントロールブロツク61から送出されるSCSIフオーマツトのデータS67を順次受け取つて記憶すると共に、データ再生時には後述するデータマルチプレクサ62Cから送られてくるデータをデータ送出に伴つて一時的に記憶する。
【0092】
デイスクアレイコントローラ62Bは、このデイスクアレイブロツク62における記録動作や再生動作等、ブロツク全体の動作を制御する回路である。このデイスクアレイコントローラ62Bは、バツフアメモリ62Aに記憶されているデータのうちシステムコントロールブロツク61からの制御コマンドに関するデータをコマンドデータバス62Pを介して受け取り、その制御コマンドに対応したコマンドデータをコマンドデータバス62Pを介してデータマルチプレクサ62C、SCSIプロトコルコントローラ62E〜62I及びハードデイスク62J〜62Nに送出することにより各部の動作を制御する。
【0093】
データマルチプレクサ62Cは、データ記録時、ビデオデータ等の記録対象のデータをバツフアメモリ62Aから読み出して当該データをSCSIプロトコルコントローラ62E〜62Hを介して各ハードデイスク62J〜62Mに振り分けると共に、振り分けたデータ内容をパリテイ演算回路62Dに通知する。またデータマルチプレクサ62Cは、データ再生時、各ハードデイスク62J〜62Mから再生されたデータを1つにまとめてバツフアメモリ62Aに送出すると共に、ハードデイスク62J〜62Mの損傷等により再生できなかつたデータがあるのであればパリテイ演算回路62Dから供給されるパリテイデータを基にそのデータを再構築演算によつて再生する。
【0094】
パリテイ演算回路62Dは、データ記録時、データマルチプレクサ62Cが振り分けたデータ内容に基づいてそれらのデータのパリテイデータを演算し、当該パリテイデータをSCSIプロトコルコントローラ62Iを介してハードデイスク62Nに供給する。またパリテイ演算回路62Dは、データ再生時、ハードデイスク62J〜62Mから再生できないデータがあるのであれば、ハードデイスク62Nから再生したパリテイデータをデータマルチプレクサ62Cに送出する。
【0095】
SCSIプロトコルコントローラ62E〜62Iは、データ記録時、データマルチプレクサ62Cから供給された記録対象のデータ又はパリテイ演算回路62Dから供給されたパリテイデータをハードデイスク62J〜62Nの記録フオーマツトに合つたデータ形式に変換し、当該変換されたデータをハードデイスク62J〜62Nに送出する。またSCSIプロトコルコントローラ62E〜62Iは、データ再生時、各ハードデイスク62J〜62Nから再生されたデータをSCSIフオーマツトのデータ形式に変換し、これをデータマルチプレクサ62C又はパリテイ演算回路62Dに送出する。
【0096】
因みに、SCSIプロトコルコントローラ62E〜62Iは、ハードデイスク62J〜62Nをアクセスした際に当該ハードデイスク62J〜62Nの故障等によりデータ再生ができないことが検出された場合には、その検出結果をデイスクアレイコントローラ62Bに送出するようになされており、これによりデイスクアレイコントローラ62Bからデータマルチプレクサ62Cにデータ再構築を指示し得るようになされている。
【0097】
ハードデイスク62J〜62Nは、ビデオデータ等の記録対象のデータを分散して並列的に記録するためのデータ記憶手段である。この例では、4つのハードデイスク62J〜62Mを設けてデータを分散するようになつているが、この数は特に限定されるものではない。このハードデイスク62J〜62Mは、データ記録時、SCSIプロトコルコントローラ62E〜62Hから供給されるデータを順次所望の記録エリアに記録すると共に、データ再生時にはデータを順次読み出してSCSIプロトコルコントローラ62E〜62Hに送出する。このように複数のハードデイスク62J〜62Mを設けてデータを分散して記録するようにしたことにより、このデイスクアレイブロツク62ではビデオデータ等のような大容量のデータであつても確実に記録することができる。
【0098】
またハードデイスク62Nは、記録対象のデータを基に算出したパリテイデータを記録するためのデータ記憶手段である。このハードデイスク62Nは、データ記録時、SCSIプロトコルコントローラ62Iから供給されるパリテイデータを順次所望の記録エリアに記録すると共に、データ再生時にはパリテイデータを順次読み出してSCSIプロトコルコントローラ62Iに送出する。このように記録対象のデータを基に算出したパリテイデータを、当該記録対象のデータを記録するハードデイスク62J〜62Mとは別のハードデイスク62Nに記録するようにしたことにより、故障等によつてハードデイスク62J〜62Mからデータを再生できない場合でも、当該パリテイデータを基にデータを再構築することができる。
【0099】
ここでこのデータ再構築の原理について説明する。まずデータマルチプレクサ62Cによつて割り振られたデータのうちハードデイスク62Jに割り振られたデータをD0、ハードデイスク62Kに割り振られたデータをD1、ハードデイスク62Lに割り振られたデータをD2、ハードデイスク62Mに割り振られたデータをD3とし、パリテイ演算回路62Dによつて算出されたパリテイデータをPDとする。
【0100】
パリテイ演算回路62P内部には、図10(A)に示すような論理演算手段70が設けられており、当該論理演算手段70によつてパリテイデータを算出するようになされている。この論理演算手段70は、ハードデイスク62Jに割り振られたデータD0と、ハードデイスク62Kに割り振られたデータD1と、ハードデイスク62Lに割り振られたデータD2と、ハードデイスク62Mに割り振られたデータD3とを加算し、その加算結果が偶数であれば値「1」のパリテイデータPDを出力し、加算結果が奇数であれば値「0」のパリテイデータを出力する。因みに、加算結果が「0」である場合には、偶数と見なして値「1」のパリテイデータPDを出力する。
【0101】
具体的には、図10(B)に示すように、例えばデータD0〜D3が全て値「0」の場合には、論理演算手段70は加算結果が「0」となるので値「1」なるパリテイデータPDを出力し、データD0〜D2が値「0」でデータD3が値「1」の場合には、加算結果が「1」となるので値「0」なるパリテイデータPDを出力する。以下、同様の原理でその他のデータの組み合わせについても、図10(B)の図表のようなパリテイデータPDを出力する。このように算出されたパリテイデータPDは、上述したようにSCSIプロトコルコントローラ62Iを介してハードデイスク62Nに記録される。
【0102】
ここで再生時にハードデイスク62Lの故障で当該ハードデイスク62Lに記録されているデータD2が再生できなかつたとすると、デイスクアレイコントローラ62Bは、SCSIプロトコルコントローラ62Gからの再生不可の検出結果を受けて、データマルチプレクサ62Cにパリテイデータによるデータ再構築を指示する。これを受けたデータマルチプレクサ62Cは、図11(A)に示すように、内部に設けられた論理演算手段71に対してハードデイスク62Jから再生されたデータD0、ハードデイスク62Kから再生されたデータD1、ハードデイスク62Mから再生されたデータD3及びハードデイスク62Nから再生されたパリテイデータPDを入力し、当該論理演算手段71によつてデータD2の再構築のための演算を実行する。この論理演算手段71は、パリテイデータPDを算出する論理演算手段70と同様に、入力されるデータD0、D1、D3及びパリテイデータPDを加算し、その加算結果が偶数であれば値「1」の再構築データ(D2)を出力し、加算結果が奇数であれば値「0」の再構築データ(D2)を出力する。
【0103】
具体的には、図11(A)に示すように、例えばデータD0、D1、D3が値「0」でパリテイデータPDが値「1」の場合には、論理演算手段71は加算結果が「1」となるので値「0」なる再構築データ(D2)を出力し、データD0、D1、PDが値「0」でデータD3が値「1」の場合には、加算結果が同じく「1」となるので値「0」なる再構築データ(D2)を出力する。以下、同様の原理でその他のデータの組み合わせについても、図11(B)の図表のような再構築データ(D2)を出力する。この図11(B)と先の図10(B)を対比させれば分かるように、ハードデイスク62Lの故障により再生できなかつたデータD2が正確に復元できている。
【0104】
このようにしてこのデイスクアレイブロツク62では、データ記録時、記録対象のデータD0〜D3を基にパリテイデータPDを算出してハードデイスク62Nに当該パリテイデータPDを記録するようにしたことにより、データ再生時にハードデイスク62J、62K、62L又は62Mの故障によりデータD0、D1、D2又はD3が再生できなかつた場合でも、当該パリテイデータPDを基に再生できなかつたデータD0、D1、D2又はD3を確実に復元し得る。
【0105】
(2)プログラム編集
(2−1)プログラム編集用アプリケーシヨン・ソフトウエア
プログラム編集を実行する場合、編集装置1においては、まずコンピユータ2によりプログラム編集用のアプリケーシヨン・ソフトウエアをHDD24Aより読み出して起動し、この結果モニタ2Bに表示される所定の入力画面にてプログラム名を入力することによつてモニタ2B上に図12に示すようなプログラムの編集用画面90を表示させる。
【0106】
プログラム編集する場合の編集用画面90は、ビユーアウインドウ92、ログウインドウ93及びプログラムウインドウ94の3つのウインドウを表示するようになされ、これら3つのウインドウでの入力操作によりプログラムを編集する。
実際、プログラムの編集作業は、ビユーアウインドウ92において選択されたソースデバイスより読み出される編集素材に対してイン点及びアウト点を設定して所望の長さに切り取り、その切り取つた編集素材(以下、これをイベントと呼ぶ)に関する情報をフアイルに格納する。そしてログウインドウ93にその切り取つたイベントのスタンプ画をクリツプとして貼り付ける。このような作業を繰り返すことによつてログウインドウ93上に複数の切り取りイベントを集めることができる。もちろんこの場合、ログウインドウ93には1つのイベントだけを登録するようにしても良い。
【0107】
ビユーアウインドウ92より切り取つた編集素材に対する編集作業としては、ログウインドウ93に集められたイベントの中から所望のイベントを選択してプログラムウインドウ94の上に設けられたタイムライン95に並べて継ぎ合わせ編集する他、タイムライン95上に並べられたイベントに対してアニメーシヨン・エフエクト又はトランジシヨン・エフエクト等ビデオエフエクトを設定する等の編集作業を実行し得るようになされている。
【0108】
タイムライン95は、デイリーサーバ6やローカルストレージ8等のソースデバイスから読み出した複数のイベント各々をタイムコードに対応付けてラインとして表示するようにしたプログラムデータ編集領域である。
【0109】
このビユーアウインドウ92は、ソースデバイスから読み出した編集素材又はプログラムウインドウ94のタイムライン95に並べられたイベントを再生するデバイスコントロール部96を設けており、当該デバイスコントロール部96を介した制御によつて編集素材を再生しながら編集作業を実行することができる。またタイムライン95上に並べられたイベントに対しては、イン点及びアウト点を設定することによつてイベント長を所望の長さに設定しなおすこともできる。
【0110】
因みに編集用画面90においては、画面上に読み出されたウインドウが現在、実行対象の場合、すなわちウインドウがアクテイブのときウインドウのタイトルバー98を非アクテイブのときの表示色である灰色から青色に変化させる。このようにタイトルバー92の表示をアクテイブ又は非アクテイブに応じて色別表示するようにしたことによりウインドウがアクテイブであるか否かを視覚により容易に識別し得るようになされている。
【0111】
(2−2)ビユーアウインドウの構成
図13に示すようにビユーアウインドウ92は、ソースデバイスとして選択された編集素材を画像表示するための窓としてビユーア106を表示すると共に、ビユーアウインドウ92に読み出した編集素材に対して設定したイン点のスタンプ画像を表示するイン点画像表示部110及び編集素材に対して設定したアウト点のスタンプ画像を表示するアウト点画像表示部112を表示するようになされている。
【0112】
因みにイン点画像表示部110の下部には当該イン点画像表示部110に表示されているスタンプ画像のタイムコードを表示するイン点タイムコード表示欄111が表示される。またアウト点画像表示部112の下部にも当該アウト点画像表示部112に表示されているスタンプ画像のタイムコードを表示するアウト点タイムコード表示欄113が表示される。さらにビユーアウインドウ92は、選択素材の長さ、すなわち編集開始点から編集終了点までの長さ(Duration)を表示するDUR表示欄114等の表示部を表示するようになされている。
【0113】
ビユーアウインドウ92においては、表示されるデイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTの各ソースデバイスにアサインされたソース選択ボタン102(102A〜102E)の内いずれかを選択してクリツクすることにより、デイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTのいずれかをソースデバイスとして選択し得るようになされている。
【0114】
因に後述するように、補助入力部AUXは複数のソースを有するもので、現在、補助入力部AUXとして設定されている補助入力部(AUX1〜AUXn)内のいずれかの入力部名がソース選択ボタン102Dに表示される。
【0115】
ソース選択ボタン102の選択によつてソースデバイスが選択されると、当該ソースデバイスよりコンピユータ2に素材のフアイルが読み出される。ここで選択したソース選択ボタン102を再度クリツクすることにより、図14(A)に示すようなフアイルリスト103A又は図14(B)に示すようなソースリスト103Bを画面表示させることができる。この場合、フアイルリスト103Aは、デイリーサーバ6又はローカルストレージ8内に収納されているフアイルのフアイルリストが表示され、またソースリスト103Bには、補助入力部AUX素材の入力部のリストが表示される。ここでマウスによつて各フアイルリスト103A又はソースリスト103B内の所望のフアイル名又はソースにカーソルを合わせてクリツクすることによりフアイル又はソースをそれぞれ選択した後、「OK」ボタン103Cをクリツクすることにより選択したフアイル又はソースをソースデバイスよりコンピユータ2に読み出すようになされている。
【0116】
ここでフアイルリスト103A又はソースリスト103Bにおいては、「Cancel」ボタン103Dをクリツクすることにより、選択したフアイルリスト103A又はソースリスト103Bを取り消すことができる。
【0117】
また選択したソースデバイスが内部入力INTの場合、ソース選択ボタン102Eを再びクリツクすると、ビデオ編集用画面90上に図15に示すようなマツトダイアログ104が表示される。マツトダイアログ104は、色信号をパネル形式のボタンに階調表示した基礎カラー(Basic Color) 104A又はフエイバレツトカラー104B(Favorite Color)において、所望の色信号をクリツクすることにより選択し、当該色信号による色をビユーア104Cに表示するようにしている。また例えばタイル模様等の模様をパターン入力部105Aにパターン番号を入力することにより読み出すことができる。
【0118】
また選択した色信号は、色信号変更部104Dにおいて「Hue」(Hue) 色相を360 段階、「Sat」(Saturation)彩度、及び「Lum」(Luminance) 輝度をそれぞれテンキー入力によつて101 段階で設定することができ、さらに赤、緑、青の3原色を256 段階でテンキー入力によつて設定又は修正し得るようになされている。
【0119】
ビユーアウインドウ92においては、ソースデバイスより読み出した編集素材の画像を画像表示用窓であるビユーア106に表示すると共に、素材名欄107には選択した編集素材名、タイムコード表示欄108にはビユーア106に表示されている素材のタイムコードを、さらにステイタス欄109にはビユーアウインドウ92の状況(ステイタス)をそれぞれ表示するようになされている。ここでウインドウ100のステイタス表示が「OPEN」となると、デバイスコントロール部96によるデバイスコントロールによつて選択された素材に対するデバイスコントロールが実行可能な状態に設定されていることを示している。
【0120】
実際、タイムコード表示欄108をクリツクすることにより、当該タイムコード表示欄108を入力モードに設定することができ、ここでタイムコード表示欄108に素材の所望の位置のタイムコードを入力してエンターキーを入力することにより、素材の所望の位置をタイムコードに応じて探し出す(サーチ)ことができる。
【0121】
ここで、ステイタス欄109にテンキー入力により再生速度を入力すると、当該再生速度でデバイスを再生モードに設定することができる。このとき再生中の素材の所望位置において、マークインボタン115をクリツク入力することにより、その位置にイン点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれイン点画像表示部110とイン点タイムコード表示欄111とに表示される。
【0122】
同様にして、再生中の素材の所望位置において、マークアウトボタン116をクリツク入力することにより、その位置にアウト点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれアウト点画像表示部112とアウト点タイムコード表示欄113とに表示される。
【0123】
ここでイン点タイムコード表示欄111をクリツクすることによつてイン点タイムコード表示欄111をタイムコードの入力モードにかえることができ、このときイン点タイムコード表示欄111に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をイン点画像として読み出し、イン点画像表示部110に表示させることもできる。
【0124】
同様にしてアウト点タイムコード表示欄113をクリツクすることによつてアウト点タイムコード表示欄113をタイムコードの入力モードにかえることができ、このときアウト点タイムコード表示欄113に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をアウト点画像として読み出し、アウト点画像表示部112に表示させることもできる。
【0125】
このようにして編集素材に対してイン点及びアウト点を設定して切り取つたビユーアウインドウ92上の素材を、タイムライン95上に並べる前にプレビユボタン117をクリツクすることによりタイムライン上に並べられた場合と同じ様にプレビユさせることができる。これによりビユーアウインドウ92で切り取つた素材の内容をタイムライン95上に貼り付ける前にプレビユによつて確認し得る。
【0126】
ビユーアウインドウ92においては、デバイスコントロール部96の制御対象がビユーアウインドウ92にあるときには、選択したソースデバイスから読み出した編集素材をビユーア106にてモニタしながら、再生ボタン119Aをクリツクすることにより再生し得る。またデバイスコントロール部96においては編集素材をスチルボタン119Bによつてスチル再生することもできるようになされている。
【0127】
デバイスコントロール部96は、スライダ(Slider)部120及びジヨグシヤトル部121の2つの制御部を有し、スライダ部120においては、イベントの長さを示すデユレーシヨン表示部120Aの範囲内においてスライダ120Bの表示される位置によつて、現在、再生中のフアイルの現在位置を表すと共に、当該スライダ120Bをマウス2Dによつてデユレーシヨン表示部120Aの任意の位置にドラツグ・アンド・ドロツプすることによつてフアイルの所望の位置をサーチするようになされている。
【0128】
またスライダ部120においては、矢印ボタン120C又は120Dをクリツクすることにより、フアイルの位置をそれぞれ±1フレームずつ前後に移動させることができるようになされている。因みにスライダ部120は、デイリーサーバ6又はローカルストレージ8等のデイスク記憶媒体からのフアイル読み出しの場合の他は表示されない。
【0129】
またジヨグシヤトル部121においては、シヤトルボタン121Aをクリツクすることによつていわゆるシヤトルモードを設定し、当該シヤトルモードにおいてシヤトルボタン121B又は121Cを押すことによつて、シヤトルボタン121B又は121Cをクリツクする毎にデバイスのサーチ速度を−50倍速から+50倍速範囲で可変に設定してフアイル内のデータをサーチするようになされている。
【0130】
(2−3)ログウインドウへの編集素材の登録
ビユーアウインドウ92において、所定の選択デバイスより読み出された後、イン点及びアウト点を設定することにより切り取つた編集素材は、プログラムウインドウ94に直接イベントとして貼り付けるか又は図16に示すようにログウインドウ93にスタンプ画(図中、クリツプCLとして示す)として貼り付けて登録する。この場合、ビユーアウインドウ92の登録部122において予めPGMボタン122B及び又はLOGボタン122Cを選択することによつて編集素材のエントリモード(Entry Mode)(登録モード)をプログラムモード又はログモードに設定しておく。そしてその設定状態でビユーアウインドウ92においてイン点及びアウト点を設定して素材を切り取つた後、ADDボタン122Aをクリツクすることによつて切り取つた素材をプログラムウインドウ94及び又はログウインドウ93に登録する。
【0131】
(2−4)タイムラインによるイベント編集
ここでビユーアウインドウ92にて切り取つた素材又はログウインドウ93に登録されているイベントを編集する場合、ビユーアウインドウ92上に設けられたTLボタン126をクリツク入力することによつて、デバイスコントロール部96による制御対象をプログラムウインドウ94上のタイムライン95に移す。
【0132】
ここで登録部122の登録モードがプログラムモードに設定されている場合、ADDボタン122Aがクリツクされることによつて、イン点及びアウト点を指定して切り取つた素材がプログラムウインドウ94上のタイムライン95に貼り付けられる。
【0133】
このようにプログラムウインドウ94に設けられたタイムライン95に切り取られた編集素材がタイムコードに対応付けられて並べられると、編集素材は最小単位であるイベントに変換され、デバイスコントロール部96を介した制御によつて再生され編集用画面90において編集し得るように設定される。
【0134】
ここで例えば編集素材がVTR7に記録されている場合は、VTR7より素材を一旦ビユーアウインドウ92上に読み出して、その素材に対してイン点及びアウト点を設定した後、ダウンロード・ボタン123Aをクリツク入力することにより編集素材をローカルストレージ8内にダウンロードする。これによりデバイスコントロール部96のスライダ部120を介した制御によつてVTR7に記録されていた素材に対してフアイルサーチし得る。
【0135】
図17及び図18に示すようにタイムライン95は、タイムコードに対応付けられた複数の編集ラインにより構成されている。このタイムライン95は、まずベースライン132として基本となる映像を貼るベースビデオ・ライン(Base Video Line) 132A、基本となる音声を貼るベースオーデイオ・ライン132B、次に基本音声に重ねる音声を貼るサブライン134、ビデオエフエクトを設定するエフエクトライン135を表示するようになされている。さらにタイムライン95は、ベースライン132にいわゆるオーバレイ(Overlay) させることによつて映像を貼り込むためのオーバレイライン136をそれぞれ帯状にグラフイツク表示するようになされている。
【0136】
さらにベースビデオとオーバレイ・ビデオの映像にテロツパから送出される文字や補助入力部AUXから送出される衛星画像等をオーバレイするためのダウンストリームキー(DSK:Down Stream Key) を設定してタイトル素材を貼るためのDSKライン137及びアナウンサ等の音声(Voice) を貼るボイスオーバ・ライン138をそれぞれ帯状にグラフイツク表示するようになされている。
【0137】
因みにタイムライン95に表示される編集素材及び設定されたエフエクトは全てイベントとして各ライン毎に異なつた色により、例えばビデオイベントは青、オーデイオイベントは黄色、エフエクトイベントはピンク色、DSKイベントは緑色によつて表示される。
【0138】
またタイムライン95上においては、TLボタン126のオン時又はプレビユウボタン123B(図12)をクリツクすることによりタイムライン95上のイベントをプレビユするときに、ビユーアウインドウ92に画面表示されている素材の画像のタイムコードに対応する位置にナウライン139を表示させるようになされている。
【0139】
因みにナウライン139はタイムライン95が表示されているときは、当該タイムライン95上に常時表示されるようになされており、通常は灰色表示され、プレビユウ又は再生実行中には赤色に色別表示される。このようにナウライン139をプレビユウ又は再生実行中とで色別表示するようにしたことにより、現在、ナウライン139によつて示されるタイムコード位置に対応する映像クリツプがビユーアウインドウ92に画面表示されているものであるか否かを視覚により容易に識別し得る。
【0140】
図17に示すようにナウライン139は、タイムライン95の上部に表示される入力ツール140によつて簡易にタイムライン95上の所望の位置へ移動させることができるようになされている。因みにプログラムウインドウ94には、入力ツール140としてナウライン139をタイムライン95の先頭に移動させるヘツドボタン141、ナウライン139をタイムライン95上の最後尾のイベントに直後に移動させるテールボタン142、ナウライン139を現在位置するイベントの一つ前のイベントに移動させる前ボタン143及びナウライン139を現在位置するイベントの一つ後のイベントに移動させる次ボタン144を設け、それらをタイムライン95上に表示するようになされている。
【0141】
またタイムライン95においては、スライダ部145のスライドつまみ146をマウスでクリツクしてドラツグ・アンド・ドロツプすることにより、ナウライン139をタイムライン95上の所定の位置に移動し得るようになされている。
【0142】
さらにタイムライン95上にはタイムコードに対応した目盛りを表すスケールライン147(Scale Line)を表示するようにし、当該スケールライン147の所望の位置をマウス2Dでクリツクすることにより、そのクリツク位置にナウライン139を移動させるような機能をもたせている。
【0143】
図18に示すようにプログラムウインドウ94には、GUIツールとしてタイムライン95に設定される時間又は、スケールライン147の一目盛りが示す時間を調整するためのズームアウトボタン150及びズームインボタン151が設けられている。ズームアウトボタン150は、プログラムウインドウ94の1画面で表示できるタイムラインの時間を長く設定するものである。またズームインボタン151はプログラムウインドウ94の1画面で表示できるタイムラインの時間を短く設定するものである。
【0144】
またプログラムウインドウ94では、カウントタイム表示欄152によつてナウライン139のタイムライン上の現在位置を表示するようにし、さらにトータルタイム表示欄153(図12)によつてタイムラインの先頭から最後尾のイベントまでの長さ、又は設定位置から最後尾のイベントまでの長さを表示するようになされている。
【0145】
またプログラムウインドウ94においては、入力ツールとして、リツプルボタン154、マニユアル・ロケーシヨンボタン155、トリムボタン156、マツチカツトボタン157、デリートボタン158及びビデオエフエクトボタン159を表示するようになされている。
【0146】
因みにリツプルボタン154は、既にベースラインに並んでいるイベントの途中にイベントを貼り付ける場合、貼り付けるイベントを挿入イベントとしてベースラインに挿入し、以降のイベントをその挿入イベントの次に続くように順次、繰下げて並べ替える処理を設定すると共に、ベースライン上のイベントが削除又は移動された場合にはベースラインに穴が開いた部分に後に続くイベントを繰り上げて並べるという処理を設定する。
【0147】
またマニユアル・ロケーシヨンボタン155は、エフエクトの位置(ロケーシヨン)を設定し得るようなアニメーシヨン・エフエクトを設定するときに、当該アニメーシヨン・エフエクトをかけるイベントのプレビユ又はレコーデイング実行中にマウス2Dによる操作によつてエフエクトのロケーシヨンを制御し得るように設定する。
【0148】
またトリムボタン156は、タイムライン95上においてイベントにトリムを設定しモニタ上にてイベントのフオアグランド及びバツクグランドをその境界部分と共に表示し、マツチカツトボタン157は、イベントをナウライン139の位置にて二つに切り離す設定をするためのボタンとして設けられている。
【0149】
またデリートボタン158は、イベントに対して削除を設定するものである。またビデオエフエクトボタン159は、映像の変わり目や映像自体にエフエクト(ビデオエフエクト)をかけるためのダイアログを表示させるものである。
【0150】
さらにプログラムウインドウ94は、サブオーデイオ・ライン134、ボイスオーバ・ライン138に貼り付けられたオーデイオ・イベントのフエイドイン又はフエイドアウトの効果を付けるためのオーデイオフエイドボタン160、DSKの各種設定を行うためのダイアログを開くためのDSKボタン161及び最終的なオーデイオの4チヤネル出力に対してタイムライン上のオーデイオをどのようにルーテイングするかを決定するためのダイアログを表示させるミツクスダウンボタン162を表示するようになされている。
【0151】
(2−5)デバイスアイコンの表示
ところで図13に示すビユーアウインドウ92においては、表示されるシーン名欄107の隣欄にビユーア106に読み出されている素材の記憶先デバイスを示すデバイスアイコン165が表示される。
【0152】
ビユーアウインドウ92に表示される各デバイスアイコン165は図19(A)〜(E)に示すように、ビユーアウインドウ92に読み出された素材のソースデバイスに応じて、ソースデバイスがデイリーサーバ6の場合はサーバアイコン165A(図19(A))、ソースデバイスがローカルストレージ8の場合はローカルストレージアイコン165B(図19(B))、VTR7の場合はVTRアイコン165C(図19(C))、補助入力部AUXからの入力の場合はAUXアイコン165D(図19(D))、さらにビユーア106に表示されている画像の素材が編集装置1内部の内部入力INTより発生されている信号素材の場合はINTアイコン165E(図19(E))がそれぞれ表示される。
【0153】
このようにビユーア106に表示される画像の記憶先デバイスを示すデバイスアイコン165をイベント画像と同時にビユーアウインドウ92上に表示するようにしたことにより、ビユーアウインドウ92に読み出されている素材の記憶先デバイスをデバイスアイコン165をみることで視覚により容易に識別し得る。
【0154】
また図17に示すように、デバイスアイコン165は、タイムライン95上の各ラインにおいても、当該タイムライン95上に並べられたイベントの記憶先デバイスに応じてサーバアイコン165A、ローカルストレージアイコン165B、VTRアイコン165C、AUXアイコン165D又はINTアイコン165Eの各デバイスアイコン165が各イベント毎に表示される。
【0155】
この結果、タイムライン95に読み出されているイベントの記憶先デバイスを各ライン上に表示されるデバイスアイコン165をみることで視覚により容易に識別し得る。これにより、例えばデバイスコントロール部96を介してイベントに対してエフエクトを設定するとき、ベースライン132の記憶先デバイスがデイリーサーバ6又はローカルストレージ8であるか否かを容易に判別し得、これにより例えば記憶先デバイスがVTR7の場合、編集素材をVTR7からローカルストレージ8へダウンロードすべきか否かを容易に判断し得る等、素材に対する編集操作をより確実にし得る。デバイスアイコン165は、さらにログウインドウに登録される各クリツプCLにも記憶先のソースデバイスに応じてそれぞれ表示されるようになされている。
【0156】
(2−6)ログウインドウへのクリツプの登録
次にビユーアウインドウ92においてイン点及びアウト点の設定により切り取られた素材をログウインドウ93に登録する場合について説明する。
【0157】
すなわちビユーアウインドウ92において、所定のソースデバイスより編集素材を読み出し、当該編集素材に対してイン点及びアウト点を設定した後、LOGボタン122Bが選択された状態でADDボタン122Aをクリツクすると、編集素材の登録モードはログウインドウ93への登録モードとなり、この結果、編集素材に関する標題情報が図16に示すように、カード形式のクリツプCLとしてログウインドウ93に登録される。
【0158】
因みにログウインドウ93に登録するイベント素材に対してビデオレベルを設定することができる。この場合、まずビユーアウインドウ92に表示されるビデオ・アジヤスト・キー167Aをクリツクすることにより、図20に示すようなビデオレベル設定用のダイアログ170が表示される。
【0159】
ダイアログ170は、スライド部170Aにおいてビデオレベル(「Lum Gain」)の各レベルを調整し得るようになされている。この場合、スライド部170Aに表示されているスライドつまみ170Bをマウス2Dにより移動させて、各レベルをスライド調整し得るようになされている。
【0160】
さらにログウインドウ93に登録するイベント素材に対してオーデイオレベルを設定することができる。この場合、オーデイオ・アジヤスト・キー167Bをクリツクすることにより、図21に示すようなオーデイオレベル設定用のダイアログ172を編集用画面90上に表示させ、マウス2Dを用いてトリム173のスライドつまみ173Aを移動させることによりオーデイオ入力信号レベルをスライド調整し得る。さらにフエイダ部174にてマウス2Dを用いてスライドつまみ174Aを移動させることにより各素材のオーデイオ出力レベルをスライド調整し得る。
【0161】
またこのダイアログ172においては、フイルタボタン175及びイコライザボタン176を選択することによつてオーデイオ出力レベルに対してフイルタ及び又はイコライザを設定し得る。
【0162】
さらにこのダイアログ172に表示されるルーテイング・パネル177によつてオーデイオトラツクT1〜T4の出力を4つの各出力チヤネルCh1〜Ch4に対して入力の段階で必要に応じて設定し得るようになされている。
【0163】
(2−7)クリツプに対するヘツダの設定
次にログウインドウ93内に並べて表示される各クリツプCLに対してヘツダを付加する場合について説明する。この場合、まずログウインドウ93において、シーンチエンジ・ボタン178Aをクリツク入力することによつて図22(A)に示すようなダイアログ180を表示させ、当該ダイアログ180のシーン名入力欄181にキー入力によりクリツプCLのヘツダとなるシーン名を入力するようにしている。
【0164】
実際、クリツプCLに対するシーン名の設定は、編集装置1において、図23に示すようなビデオ編集アプリケーシヨン・ソフトウエアのクリツプシーン名の設定手順に従つたCPU21の制御により実行される。
【0165】
すなわちクリツプシーン名の設定手順は、まずステツプSP1において、シーンチエンジ・ボタン178Aがクリツク入力され選択されると、次のステツプSP2において、シーン名入力用のダイアログ180(図22(A))が画面表示される。ここで次のステツプSP3において、ダイアログ180内に設けられたシーン名のリストを表示させるための矢印ボタン182が選択された場合、ステツプSP4においてCPU21の制御によつて、図22(B)に示すように登録されている既存のシーン名のリスト183を読み出して画面表示する。
【0166】
次にステツプSP5においてリスト183中に表示されている登録シーン名が選択された場合、ステツプSP6において、CPU21の制御によつてシーン名を設定するクリツプCLに対して選択シーン名と同じシーン名を付けると共に、当該シーン名の末尾に付された番号(以下、シーン番号と呼ぶ)が既に登録されているクリツプCLのシーン名のシーン番号と連番になるようにシーン番号を設定して、ダイアログ180内のシーン名欄181に、そのシーン名を表示する。次にステツプSP7においてステツプSP6において設定したシーン名及びシーン番号をクリツプCLのシーン名及びシーン番号としてリスト183に登録する。
【0167】
このようにしてシーン名が登録されると、次のステツプSP8においてダイアログ180が閉じられる。そしてこのシーン名の登録以降、ビユーアウインドウ92のADDボタン122Aが入力されると、CPU21の制御によりログウインドウ93に登録されるクリツプCLに対して登録されたシーン名及び連番のシーン番号が自動で付される。
【0168】
これによりログウインドウ93に連結して登録されるクリツプCLに対して同じシーン名を自動で付すことができ、各クリツプCLの関連性をシーン名によつて容易に識別し得る。さらにクリツプCLのシーン名に連番のシーン番号を自動で付加するようにしたことによつて各クリツプCLの繋がり又は違いをシーン番号によつて容易に識別することができると共に、各クリツプCLの各シーンをシーン名及びシーン番号によつて容易にサーチ又はソートすることができる。
【0169】
またステツプSP3において、矢印ボタン182をクリツク入力しなかつた場合、CPU21の制御はステツプSP29に移り、ここでシーン名入力欄181にキーボード2Cより新たにシーン名をキー入力すると、そのシーン名をリスト183に登録し、これ以降、ログウインドウ93に登録されるクリツプCLに対しては新たに登録されたシーン名がCPU21の制御により自動で付される。
【0170】
またステツプSP5において、リスト183に表示された既存のシーン名を選択することなくキーボード2Cよりリターンキーを入力した場合、CPU21の制御はステツプSP10に移つて登録されているシーン名を取り消し、処理ステツプをステツプSP7に移して、以降の処理ステツプを順次実行する。
【0171】
以上によつてクリツプシーン名の設定手順を終了する。
【0172】
因みにログウインドウ93に登録されたクリツプCLは、図24(A)〜図24(C)に示すように、シーン名、イン点画像及びイベント時間を表示するカードCL1(図24(A))、シーン名、イベント時間、イン点及びアウト点の現在のタイムコード並びにイン点画像及びアウト点画像を表示するカードCL2(図24(B))、シーン名、イベント時間、イン点画像及びクリツプCLに関する情報を記載するテキスト表示欄を表示するカードCL3(図24(C))等によつて表示することができる。
【0173】
ここでログウインドウ93に表示されたクリツプCLをクリツクすることによつて図25に示すように、クリツプCLのシーン名、フアイル名、イベント時間、イン点及びアウト点の現在のタイムコード並びにオーデイオ・トラツクの使用状態等の情報を表示するダイアログ186が開かれる。
【0174】
因みにログウインドウ93に登録される各カードCL1〜CL3の各クリツプ画像の下部に記憶先デバイスに応じてサーバアイコン165A(図19(A))、ローカルストレージアイコン165B(図19(B))、VTRアイコン165C(図19(C))、AUXアイコン165D(図19(D))又はINTアイコン165E(図19(E))のデバイスアイコン165が表示されるようになされている。これによりログウインドウ93に読み出されている各素材の記憶先デバイスをデバイスアイコン165をみることで視覚により容易に識別し得る。
【0175】
またログウインドウ93に登録されたクリツプCLに対しては、リコールボタン178C、ソートボタン178D及びデリートボタン178Eによつてクリツプ編集がなし得る。すなわちリコールボタン178Cはクリツク入力することによりクリツプ名等をもとにクリツプCLを検索するボタン、ソートボタン178Dはクリツク入力することによりクリツプCLを降順又は昇順に並べ替えするボタン、さらにデリートボタン178Eはクリツク入力することによつてログウインドウ93上に登録したクリツプCLの削除を設定するボタンである。さらにダウンロードボタン178Bはクリツク入力することによつて選択されたクリツプCLをローカルストレージ8にダウンロードすることができるボタンである。
【0176】
(2−8)イン点及びアウト点の設定
次にプログラムウインドウ94のタイムライン95上に並べられたイベントに対するイン点及びアウト点の設定について説明する。タイムライン95上のイベントに対するイン点及びアウト点の設定は、図26及び図27に示すビデオ編集アプリケーシヨン・ソフトウエアによるイン点及びアウト点の設定手順に従つたCPU21の制御により実行される。
【0177】
すなわちイン点及びアウト点の設定手順は、まずステツプSP21において、モニタ2B上に表示されたビユーアウインド100のソース選択ボタン102A〜102Eのいずれかを選択してクリツクすることにより、ステツプSP22において、CPU21の制御により所定のソースデバイスを選択する。ここで次のステツプSP23において、CPU21の制御により選択したソースデバイスがデイリーサーバ6又はローカルストレージ8であるか否かを判断し、ソースデバイスがデイリーサーバ6又はローカルストレージ8であればステツプSP24に移る。
【0178】
ステツプSP24において、選択したデイリーサーバ6又はローカルストレージ8に対応するソース選択ボタン102を再びクリツクすると、CPU21の制御により、編集用画面90上に、デイリーサーバ6又はローカルストレージ8に格納されている素材のフアイルリスト103Aが表示される。ここで続くステツプSP25において、フアイルリスト103Aに表示されるフアイル名の一つをクリツクすることによつて編集素材を選択する。この結果、編集素材が設定される。
【0179】
次にステツプSP26において、ビユーアウインドウ92上に表示されるTLボタン126をクリツク入力すると、ステツプSP27においてCPU21の制御によるデバイス制御の対象をタイムライン95に移し、以降、デバイスコントロール部96を介したタイムライン95上での入力操作によつて編集素材に対するイン点及びアウト点の設定が開始される。
【0180】
このときタイムライン95には、CPU21の制御によりナウライン139が表示され、当該ナウライン139の表示位置のタイムコードに対応するイベントのクリツプ画像がビユーア106に画面表示される。
【0181】
ここでステツプSP23において、選択したソースデバイスがデイリーサーバ6又はローカルストレージ8の他のソースデバイスであるとCPU21により判断された場合、ステツプSP28に移つて、さらに選択したソースデバイスがVTR7であるか否かをCPU21によつて判断する。ここで選択ソースデバイスがVTR7であると判断された場合、処理ステツプはステツプSP26に移り、ステツプSP26及びSP27の処理を実行する。
【0182】
続いてステツプSP29においては、デバイスコントロール部96のスライダ部120を介してナウライン139をタイムライン95上において所望の位置に移動させることによつてフアイルの所望位置をサーチする。このときタイムライン95上のナウライン139は赤色表示され、またナウライン139の移動できる範囲も色別表示される。これによりナウライン139の移動範囲及び位置を容易に確認し得る。
【0183】
ここでデバイスコントロール部96を介した制御によつてタイムライン95上のプログラムをシヤトルモード等によつて再生することにより、ビユーア106上において、ナウライン139位置の画像を表示させると同時に、タイムコード表示欄106にタイムコードを表示させることができる。
【0184】
ここでクリツプ画像及びタイムコードを参照しながら所望の位置にてマークインボタン115をクリツク入力すると、CPU21の制御はステツプSP30に移り、タイムライン95上に設定されたイベントに対してナウライン139の表示位置に対応するタイムコード位置にイン点を設定するようになされている。このときCPU21の制御によりビユーアウインドウ92上のイン点画像表示欄110にはイベントのイン点のスタンプ画像(例えば、旗の絵など)が表示され、同時にイベントのイン点タイムコード表示欄111にはイン点のタイムコードが表示される。
【0185】
さらにステツプSP31において、デバイスコントロール部96を介した制御によつてタイムライン95上のプログラムを再生し、その際ビユーア106上に表示される画像及びタイムコード表示欄108に表示されるタイムコードをモニタしながら、目的のタイムコードにてマークアウトボタン116をクリツク入力する。この結果、CPU21の制御はステツプSP32に移り、タイムライン95上に設定されたイベントに対してナウライン139の表示位置に対応するタイムコード位置にアウト点が設定される。このときCPU21の制御によりビユーアウインドウ92上のアウト点表示欄112にはイベントのアウト点のスタンプ画像(例えば、旗の絵など)が表示され、同時にアウト点タイムコード表示欄113にはアウト点のタイムコードが表示される。
【0186】
次にステツプSP33において、CPU21の制御によりタイムライン95上のイベントに設定されたイン点及びアウト点それぞれのタイムコードからイン点及びアウト点間のイベント時間が計算され、当該イベント時間をビユーアウインドウ92上のDUR表示欄114に表示する。
【0187】
次にステツプSP34において、例えばタイムライン95上のイベントのイン点及びアウト点間に挿入すべきイベントのクリツプCLをログウインドウ93より選択してドラツグし、タイムライン95のイン点又はアウト点付近にドロツプする。この結果、ステツプSP35においてCPU21の制御によりタイムラインのイン点及びアウト点間に挿入すべきクリツプCLに対応するイベントが貼り付けられる。
【0188】
ここでステツプSP28において、選択したソースデバイスがVTR7の他のソースデバイスであると判断された場合は、選択したソースデバイスが補助入力部AUX又は内部入力INTであると判断して処理ステツプをステツプSP28よりステツプSP35に移し、タイムライン95のイン点及びアウト点間に補助入力部AUX又は内部入力INTより入力される挿入すべき画像情報をタイムライン95上の所定の位置に貼り付ける。
【0189】
このようにしビユーアウインドウ92上にてソースデバイスから読み出し、イン点及びアウト点を設定することによつて切り取つた編集素材のタイムライン95上への貼り付けが完了すると、イン点及びアウト点の設定手順を終了する。
【0190】
因みにステツプSP35においては、図28に示すような次の4つのケースにおいてタイムライン95上にて設定されたイベントのイン点(図中、マークインとして示す)及びアウト点(図中、マークアウトとして示す)間にクリツプCLの素材(以下、単にクリツプ素材と呼ぶ)を貼ることができる。
【0191】
すなわち第1のケースとして、タイムライン95上にイン点及びマークアウトが設定され、かつクリツプに対してマークインのみが設定されている場合がある。この場合、設定されていないクリツプ素材のマークアウトは、タイムライン及びクリツプ素材のイン点及びアウト点それぞれのタイムコードをもとにCPU21の演算処理によりタイムライン95に設定されたマークアウトに合わせて設定される。
【0192】
ここでクリツプ素材のマークアウトがタイムライン95のマークアウトに足りない場合、ビユーアウインドウ92に読み出したクリツプ素材の長さに余裕があるときは、CPU21の制御によりクリツプ素材のマークアウトとタイムライン95のマークアウト間の足りない分が足され、またクリツプ素材のマークアウトがタイムライン95のマークアウトを越えるときは、クリツプ素材のマークアウトがタイムライン95のマークアウトに合わせて短縮されて設定される。
【0193】
また第2のケースとして、タイムライン95上にはマークインのみが設定され、かつクリツプCLに対してマークイン及びマークアウトが設定されている場合がある。この場合、タイムライン95のマークアウトは、タイムライン及びクリツプのイン点及びアウト点それぞれのタイムコードをもとに挿入クリツプ素材のマークアウトに合わせた値がCPU21により設定される。
【0194】
また第3のケースとして、クリツプ素材に対してマークイン及びマークアウトが設定され、かつタイムライン95上にはマークアウトのみが設定されている場合がある。この場合、タイムライン95のマークインは、クリツプのマークインのタイムコードをもとに挿入クリツプのマークインに合わせた値がCPU21によつて設定される。
【0195】
さらに第4のケースとして、タイムライン95上にマークイン及びマークアウトが設定され、かつクリツプ素材に対してマークイン及びマークアウトが設定されている場合がある。この場合、タイムライン95上のイベントのマークイン及びマークアウト間の長さと、クリツプ素材のマークイン及びマークアウト間の長さとがそれぞれ一致しているとCPU21が判断したときは、クリツプ素材は丁度、タイムライン上のイン点及びアウト点間に合わせてそのまま貼り付けられる。
【0196】
これに対してタイムライン95上のイベントのマークイン及びマークアウト間の長さと、クリツプ素材のマークイン及びマークアウト間の長さとが一致していないとCPU21が判断したときは、一致していないクリツプ素材の長さをCPU21によつてタイムライン95に設定されたマークイン又はマークアウトに合わせて設定し直される。
【0197】
これによりビユーア106に表示されるイベント画像をモニタしながら、デバイスコントロール部96を介しての簡易な入力操作によつてタイムライン95上に読み出されたイベントに対してイン点及びアウト点を設定することができる。
【0198】
さらにマウスを用いた簡易な入力操作によつてタイムライン95上に設定されたイベントのイン点及びアウト点間に挿入すべきクリツプ素材を貼り付けることができる。またこの際、タイムライン95上のイベントに貼り付けるクリツプ素材のイン点及びアウト点のタイムコードをCPU21の演算処理によりタイムライン95上のイベントに設定されたイン点及びアウト点のタイムコードに合わせて設定して自動で貼り付けることができる。
【0199】
(2−9)タイムライン上へのイベントの貼り付け
ここでログウインドウ93に登録されたクリツプCLをタイムライン95上のイベントに貼り付けて、当該イベントに対してエフエクトを付加して編集する場合について説明する。
【0200】
ビデオエフエクト編集は、まずログウインドウ93において、クイツクエントリ・ボタン180(図16)をクリツクすることにより、ログウインドウ93上に表示されているクリツプCLに対応するクリツプ素材に対して登録モードを設定することができる。このようにして登録モードが設定されたログウインドウ93において、編集するクリツプ素材のクリツプCLを並べたい順にマウス2Dでクリツクして選択することにより、CPU21の制御により選択されたクリツプCLのクリツプ素材がタイムライン95上のベースビデオ・ライン132A及びベースオーデイオ・ライン132Bのナウライン139の位置に順次並べられる。
【0201】
この場合、1つのイベントがタイムライン131のナウライン139の位置におかれると、ナウライン139はそのイベントのアウト点の位置に移動する。そして次にマウス2Dによつて並べたいクリツプCLをクリツクすると、そのクリツプCLに対応するクリツプ素材が移動したナウライン139の位置に並べられる。以下、順次クリツクされたクリツプCLのクリツプ素材がクリツプ素材の後方に移動したナウライン139位置に並べられる。
【0202】
またこのようにしてタイムライン95上にイベントが並べられると、フアンクシヨンキーのプレビユボタン123Bによつてナウライン139の位置からタイムライン95の全てのラインをプレビユすることができる。このプレビユ動作は、オールストツプボタン123Cをクリツクすることによつて中止される。またこれらタイムライン95上のイベントは、編集用画面90のRECボタン123Dをクリツクすることによつてローカルストレージ8に記録することができる。
【0203】
このようにログウインドウ93に表示されるクリツプCLを並べる順にマウス2Dによつてクリツクするという簡易な操作によつてタイムライン95上に並べるようにしたことにより、クリツプ素材を大まかにタイムライン95上に並べる際の編集操作を大幅に簡略化し、編集の効率を向上し得る。
【0204】
(2−10)ダイアログによるエフエクトの設定
編集装置1においては、タイムライン95上のベースビデオ・ライン132Aに並べられたイベントの映像自体にエフエクトをかけるようなアニメーシヨン・エフエクト又は2つのイベントの変わり目をエフエクトをかけて切り替えるトランジシヨン・エフエクトをかけるようになされている。ここでタイムライン95上に貼り付けられたイベントに対してエフエクトをかける場合、まずプログラムウインドウ94においてビデオ・エフエクト・ボタン159をクリツク入力することにより、図29に示すようなエフエクト設定用のダイアログ190を編集用画面90上に画面表示させる。
【0205】
タイムライン131上で並べられたイベントに対してエフエクトをかける場合は、このダイアログ190において、所望のエフエクト・パターンを選択してタイムライン95上のエフエクトライン135に貼り付ける。この場合、エフエクト・パターンの選択方法としては、まず第1にパターン番号設定部191に所望のエフエクト・パターンのパターン番号をキーボード2Cよりテンキー入力した後、エンターキーを押すことによつて選択する方法がある。また第2に使用頻度の高いエフエクトのパターン(以下、これをフエイバレツト・パターン(Favorite Pattern)と呼ぶ)のイメージが図的に表現された10種類程のビツトマツプをフエイバレツト・パターン表示部192において表示して、当該フエイバレツト・パターン表示部192の中から所望のエフエクト・パターンをクリツクして選択する方法がある。因にフエイバレツト・パターンとしては、画面を切り換えるときにバツクグランドの画面をページをめくるようにしてフオアグランドの画面に切り換えるページターン192A、モザイク模様によつて画面をぼかすモザイク192B等が設定される。
【0206】
ここで上述した第1又は第2のいずれかの方法により、タイムライン95上のイベントに対して設定すべきエフエクト・パターンを選択した後、ダイアログ190上のトランジシヨン設定部193Aにおいて、エフエクトの遷移時間(トランジシヨン時間)をテンキー入力してエンターキーを押すか又はいくつかの典型的なトランジシヨン時間が複数設定されたトランジシヨンボタン193Bから所望のトランジシヨン時間をクリツクすることによりトランジシヨン時間を選択して設定する。
【0207】
このようにしてダイアログ190にてイベントに対して設定すべきエフエクトの種類及びトランジシヨン時間が決定した後、例えば上述した第2の方法によりダイアログ190のフエイバレツト・パターン表示部192内の所望のトランジシヨン・エフエクトのパターン・ビツトマツプ192Xを図30(A)に示すようにマウス2Dによつてドラツグし、タイムライン95上の効果をかけて切り替えるべきイベントの上のエフエクトライン135に移動させてドロツプする。これにより例えば図30(B)に示すように、トランジシヨン・エフエクト、Mix192X′をベースライン132のイベントに対して設定することができる。
【0208】
またタイムライン95上のイベントに対してアニメーシヨン・エフエクトを付加する場合、まずビユーアウインドウ92にてTLボタン126をクリツク入力することにより、デバイスコントロール部96の制御対象をタイムライン95に移す。これと同時にナウライン139位置のベースライン132上のイベント(ベースイベント)がビユーウインドウ92に読み出され、デバイスコントロールの対象とすることができる。ここで再生、ジヨグ等のデバイスコントロールを行うとナウライン139がタイムライン95上を移動し、これと連動してビユーウインドウ92上のベースイベントがビユーア106に表示される。
【0209】
ここでタイムライン95の所定の位置においてマークインボタン115及びマークアウトボタン116をクリツク入力することによりイベントに対してイン点及びアウト点を設定する。これにより図31(A)に示すように、タイムライン95のスケールライン147上の位置にイン点及びアウト点に対応するビツトマツプ166A及び166Bを表示させると共に、タイムライン95上にマークライン166C及び166Dを表示させる。これによりタイムライン95のベースライン132においてエフエクト・イベントの挿入範囲を設定することができる。
【0210】
次にログウインドウ93のクリツプCLの中から所望のクリツプCLを選択してマウス2Dによつてドラツグし、タイムライン95に設定したイン点位置のマークライン166Cに近づけてドロツプする。ここで予めダイアログ190において例えばフエイバレツト・パターン表示部192より、アニメーシヨン・エフエクトをマウス2Dによつてクリツクして選択しておく。これにより図31(B)に示すように、オーバレイビデオ・ライン136のイン点の位置にフエイバレツト・パターン表示部192より選択したアニメーシヨン・エフエクト(この場合、ピクチヤインピクチヤ(PinP))のイベントEF0を貼り付けることができる。
【0211】
(2−11)パターン・ビツトマツプの登録
ここでフエイバレツト・パターン表示部192にフエイバレツト・パターンを登録する場合、まず、パターンリスト・ボタン194をクリツクすることにより、複数のエフエクト・パターンのビツトマツプがグラフイツク表示されたリスト(図示せず)を表示させて、当該リストの中からフエイバレツト・パターンとしてフエイバレツト・パターン表示部192に登録すべき所望のエフエクトを読み出す。またはパターン番号設定部191に所望のエフエクト・パターンのパターン番号をテンキー入力することによつてエフエクト・パターンのビツトマツプをビツトマツプ表示欄195に読み出し、このようにして読み出されたビツトマツプをマウス2Dによつてドラツグしてフエイバレツト・パターン表示部192の所望の位置でドロツプすることにより、フエイバレツト・パターン表示部192に登録する。
【0212】
これによりオペレータは、タイムライン95と同一画面上に表示されるフエイバレツト・パターン表示部192に複数登録されたエフエクト・パターンの中から、所望のエフエクト・パターンをマウス2Dによりドラツグしてタイムライン95上のイベントの所望の位置にドロツプするという簡易な操作によつてイベントに対して迅速にエフエクトを設定することができる。
【0213】
(2−12)トランジシヨン・エフエクトの設定
次にタイムライン95上に設定されたイベントに対して実際にトランジシヨン・エフエクト及びアニメーシヨン・エフエクトを設定する場合について説明する。
【0214】
例えば図32(A)に示すように、タイムライン95上において並べられた2つのイベントE0及びE1の切り替わり位置にナウライン139があるとCPU21が判断した場合、CPU21は各イベントE0及びE1のもつイベントデータをもとに、まずタイムライン95上においてイベントE1の左側に位置するイベントE0をバツクグランドに設定した後、イベントE0のアウト点をサーチする。
【0215】
次にイベントE0の右側に位置するイベントE1をフオアグランドに設定してイベントE1のイン点をサーチする。これによりタイムライン95上のナウライン139の位置にトランジシヨン・エフエクトをかけるとき、各イベントに対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、イベントE0及びE1の切り替え位置を読み出すことによつて、切り替え位置のトランジシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0216】
また図32(B)に示すように、タイムライン95上のイベントE1の間にナウライン139があり、かつオーバレイライン136に対象となるイベントがないとCPU21が判断した場合、CPU21の制御によりイベントE1をバツクグランドに設定してイベントE1のナウライン139の位置をサーチした後、イベントE1のナウライン139をフオアグランドに設定する。これによりタイムライン95上のナウライン139の位置にトランジシヨン・エフエクトをかけるとき、イベントE1に対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、イベントE1の切り替え位置を読み出すことによつて、切り替え位置のトランジシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0217】
(2−13)アニメーシヨン・エフエクトの設定
また図32(C)に示すように、タイムライン95上のアニメーシヨン・エフエクトCutの開始位置にナウライン139があり、かつオーバレイライン136にエフエクトの対象となるイベントE2があるとCPU21が判断した場合、CPU21の制御によつてイベントE1をバツクグランドに設定すると共に、イベントE1のアウト点をサーチする。さらにCPU21の制御により、オーバレイライン136上のイベントE2をフオアグランドに設定すると共に、イベントE2のイン点をサーチする。これによりタイムライン95上のナウライン139の位置にアニメーシヨン・エフエクトをかけるとき、各イベントに対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、イベントE1のイン点及びイベントE2のイン点を読み出すことによつて、エフエクトをかける位置におけるアニメーシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0218】
また図32(D)に示すように、アニメーシヨン・エフエクトCut内の所定位置にナウライン139があり、かつオーバレイライン136にエフエクトの対象となるイベントがあるとCPU21が判断した場合、CPU21の制御によつてイベントE1をバツクグランドに設定すると共に、イベントE1のナウライン139の位置をサーチする。次にイベントE2をフオアグランドに設定してイベントE2のナウライン139の位置をサーチする。これにより上述のようにタイムライン95上にて並べられたイベントE1に対してイベントE2を用いたアニメーシヨン・エフエクトをかけるとき、各イベントに対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、ナウライン139の位置を読み出すことによつて、ナウライン139位置のアニメーシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0219】
さらに図32(E)に示すように、単独のイベントにエフエクトをかけることができる、例えばAロールエフエクト部(図中、「Mirror」として示す)の途中にナウライン139があるとCPU21が判断した場合、CPU21の制御によつてイベントE1をバツクグランドに設定すると共に、イベントE1のナウライン139の位置をサーチし、さらにイベントE1のナウライン139の位置をフオアグランドに設定する。これによりタイムライン95上のイベントE1に対してAロールエフエクトによるアニメーシヨン・エフエクトをかけるとき、イベントE1に対するバツクグランド及びフオアグランドの設定を自動で行うことができると共に、ナウライン139の位置を読み出すことによつて、ナウライン139位置のアニメーシヨン・エフエクトの状態をビユーア106上にて直ちに確認することができる。
【0220】
(2−14)エフエクトのマニユアル・トランジシヨン操作
ここで、例えば図32(A)及び図32(B)に示すように、トランジシヨン・エフエクトをかける対象となるイベントE0及び又はイベントE1に対してフオアグランド及びバツクグランドが設定されたトランジシヨン・エフエクトのパターンは、ダイアログ190(図29)のフエイダレバー196を操作することにより、ビユーア106の画面上でテスト再生することができる。
【0221】
この場合、フエイダレバー196が最も上に位置している状態ではビユーア106にはバツクグランドが表示される。またフエイダレバー196をマウスによりドラツグして上から下の方向に向かつて移動させるに従つて、ビユーア106に表示されるトランジシヨン・エフエクトのパターンは、トランジシヨン・エフエクトのパターンに従つてフオアグランドに移行していく。そしてフエイダレバー196が最も下に位置している状態ではビユーア106にはフオアグランドが表示される。
【0222】
これによりフエイダレバー196のマニユアル操作による任意の速度でトランジシヨン・エフエクトのかかつたイベントを再生し得る。
【0223】
またトランジシヨン・エフエクトの設定状態において、ATボタン(Autoボタン)197をクリツク入力した場合は、まず初めにフエイダレバー196が最も上の位置に移動して、その後、徐々に下の位置に移動し、設定されたトランジシヨン時間でトランジシヨンする。かくして自動でビユーア106上にてトランジシヨン・エフエクトを再生し得る。
【0224】
同様にして図32(C)〜図32(E)に示すように、イベントE1、E2に対してフオアグランド及びバツクグランドを設定した後、エフエクトパターン番号を選択することにより設定したアニメーシヨン・エフエクトのパターンは、ダイアログ190のフエイダレバー196を操作することにより、ビユーア106の画面上でテスト再生することができる。
【0225】
この場合、フエイダレバー196が最も上に位置している状態ではビユーア106にはアニメーシヨン・エフエクトのかかつていない状態であるバツクグランドが表示される。またフエイダレバー196をマウスによりドラツグして上から下の方向に向かつて移動させるに従つて、ビユーア106の表示画像はアニメーシヨン・エフエクトのかかつた状態に移行していく。そしてフエイダレバー196が最も下に位置している状態ではビユーア106にはフオアグランド及びバツクグランドが設定されたアニメーシヨン・エフエクトのかかつたイベントが表示される。
【0226】
これによりフエイダレバー196のマニユアル操作による任意の速度でアニメーシヨン・エフエクトのかかつたイベントを再生し得る。
【0227】
またアニメーシヨン・エフエクトの設定状態において、ATボタン197をクリツク入力すると、まずフエイダレバー196は最も上の位置に移動して、その後、徐々に下の位置に移動し、設定されたトランジシヨン時間でトランジシヨンする。かくしてATボタン197により通常の再生条件により、自動でアニメーシヨン・エフエクトを再現し得る。
【0228】
ここでダイアログ190に設けられたパラメータ設定部198においては、切り替え位置のエツジ(Edge)に関するパラメータ、ライトを当てるような効果であるライテイング(Lighting)に関するパラメータ、影や帯を引くような効果であるトライアル(Trial)/ シヤドウ(Shadow)に関するパラメータ、エフエクトを設定する位置であるロケーシヨン(Location)に関するパラメータ等、エフエクトに付加することのできる各種パラメータを各パラメータに対応するボタンをクリツク入力することにより設定し得るようになされている。
【0229】
さらにダイアログ190上においては、キーボタン199をクリツク入力することによつてクロマ(Chroma)キー及び又は外部(External)キーを設定し得るようになされている。
【0230】
(2−15)エフエクトの修正
エフエクトを設定されたイベントを修正する場合、修正するエフエクトイベントをマウスによつてダブルクリツクすることにより、ダイアログ190がオープンされ、当該ダイアログ190内に既に設定されているエフエクトパラメータが表示される。ここで例えば既に設定されているエフエクトが図33(A)に示す「Wipe」のようにトランジシヨン・エフエクトであつた場合、エフエクト・イベントをダブルクリツクすると、イベントE0がバツクグランドに設定され、イベントE0のアウト点がサーチされると共に、イベントE1がフオアグランドに設定されてイベントE1のイン点がサーチされる。これによりタイムライン95上のナウライン139の位置をトランジシヨン・エフエクトを設定したイベントE0のアウト点及びイベントE1のイン点に直ちに設定して、ビユーア106上で確認することができる。
【0231】
また例えば既に設定されているエフエクトが図33(B)に示す「Mosaic」(モザイク)のようにアニメーシヨン・エフエクトであつた場合は、エフエクト・イベントをダブルクリツクするとイベントE1がバツクグランドに設定され、イベントE1のイン点がサーチされると共に、イベントE2がフオアグランドに設定されてイベントE1のアウト点がサーチされる。
【0232】
これによりタイムライン95上のナウライン139の位置をアニメーシヨン・エフエクトを設定したイベントE1又はE2のイン点に直ちに設定することができる。
【0233】
かくしてダイアログ190を開いたとき、ベース・ライン132上のビデオエフエクトをかける対象のイベントに対してフオアグランド及びバツクグランドが自動で設定されると共に、イベントのフオアグランドの終了点及びバツクグランドの開始点が自動でサーチされる。
【0234】
(2−16)エフエクトの表現方法
ここでタイムライン95上において、イベントに対して設定するエフエクトの表現方法について説明する。
【0235】
タイムライン95上において設定するエフエクトには、大きく分けて2つのイベントを切り換える際にかけられるトランジシヨン・エフエクトとアニメーシヨン・エフエクトとに分けられ、トランジシヨン・エフエクトは、さらにトランジシヨン系及びフリツプ/タンブル系に分けられる。
【0236】
すなわち図34(A)に示すように、トランジシヨン・エフエクトの内、トランジシヨン系の場合、タイムライン95のベースビデオ・ライン132Aに基準となるイベントE1及びE2を表示すると共に、ベースビデオ・ライン132Aの一行上に設けられたエフエクト・ライン135にエフエクトをかける時間長に応じたエフエクトEF1をエフエクトの種類名と共に表示する。さらにイベントE1とイベントE2との境界を斜線によつて表わす。これによりイベントE1からイベントE2へカツトが切り換えられていることが視覚により容易に識別することができる。因みにトランジシヨン系のエフエクトとしては、ワイプ、ページターン等がある。
【0237】
また図34(B)に示すように、トランジシヨン・エフエクトの内フリツプ/タンブル系の場合、トランジシヨン系の場合と同様にタイムライン95のベースビデオ・ライン132A上に基準となるイベントE1及びE2を表示すると共に、ベースビデオ・ライン132Aの一行上に設けられたエフエクト・ライン135にエフエクトをかける時間長に応じたエフエクトEF2を当該エフエクトEF2のエフエクトの種類名と共に表示する。さらにイベントE1とイベントE2との境界を斜線によつて表わす。これによりイベントE1からイベントE2へカツト切り換えがフリツプ/タンブルによつてなされることを視覚により容易に識別することができる。さらにフリツプ/タンブル系の場合は、画像の中心線を基準にしてイベント画像を3次元的に回転させるエフエクトなので、画像が丁度90°回転したときのインターナル・ビデオ(Internal Video)が見えないということをオーバレイライン122においてエフエクトIVによつて表示するようになされている。
【0238】
次にアニメーシヨン・エフエクトにはイベントに対してかけられるビデオエフエクトが1つのイベントにエフエクトをかける、又は所定のイベントにエフエクトのかかつたイベントを挿入するものがあり、このアニメーシヨン・エフエクトは、さらにスタンダードアニメーシヨン系及びモデイフアイ系(=エフエクトタイプ)に分けられる。
【0239】
すなわち図34(C)に示すように、基準イベントに対してエフエクトのかかつたイベントを挿入するピクチユア・イン・ピクチユア等によるスタンダードアニメーシヨン系の場合、基準となるイベントE1をベースビデオ・ライン132Aに表示し、挿入するエフエクトのかかつたイベントE2をオーバレイライン136に表示するようになされている。この場合、ベースビデオ・ライン132A上のビデオエフエクトがかけられている位置には、縦線を表示することによつてイベントに対してアニメーシヨン・エフエクトがかけられている状態を表示するようになされている。このように基準イベントと挿入イベントとを別々のラインに表示すると共に、アニメーシヨン・エフエクトがかけられている位置には、縦線を表示するようにしたことにより、基準イベントに対してアニメーシヨン・エフエクトの挿入イベントを挿入しているということを視覚によつて容易に識別し得る。またこの場合、挿入イベントに用いられるエフエクトの種類をエフエクトライン135にエフエクトEF3として表示するようにしたことにより、イベントに対するエフエクトの種類を視覚によつて容易に識別し得る。
【0240】
図34(D)に示すように、1つのイベントに対してモザイク処理等を施すモデイフアイ系の場合、基準となるイベントE1及びE2をベースビデオ・ライン132Aに表示し、挿入するエフエクトをエフエクトEF3としてエフエクトライン136に表示するようになされている。この場合、ベースビデオ・ライン132A上のビデオエフエクトがかけられている位置には、縦線を表示することによつてイベントE1及びE2に対してアニメーシヨン・エフエクトがかけられている状態を表示するようになされている。このように基準イベントと挿入イベントとを別々のラインに表示すると共に、アニメーシヨン・エフエクトがかけられている位置に縦線を表示することによつてイベントに対してエフエクトがかけられているということを視覚によつて容易に識別し得る。またこの場合、挿入イベントに用いられるエフエクトの種類をエフエクトライン135にエフエクトEF4として表示するようにしたことにより、イベントに対するエフエクトの種類を視覚によつて容易に識別し得る。
【0241】
(2−17)オーデイオの出力ルーテイング設定
図35に示すように、プログラムウインドウ94(図18)のツールバーからオーデイオミツクスダウン用のダイアログ選択ボタン162をクリツク入力することにより編集用画面90上にダイアログ200を画面表示させ、当該ダイアログ200を用いてタイムライン95上に複数並べられたイベントの各オーデイオトラツクを出力チヤネルに対応付けて出力経路を設定して各イベント毎にオーデイオレベルを設定するようになされている。
【0242】
ダイアログ200は、ベースオーデイオ、サブオーデイオ及びボイスオーバそれぞれがもつ4つのトラツクT1〜T4と4つの出力チヤネルCh1〜Ch4とをマトリクス形式で対応させたパネル201を設けており、当該パネル201において、各トラツクT1〜T4に対して所望の出力チヤネルCh1〜Ch4位置に対応するボタンを選択してクリツクすることにより、各トラツクを各出力チヤネルにルーテイング設定する。
【0243】
この場合、例えば図35に示すパネル201おいては、第1列の1行目のトラツクT1に属するボタン201Aをクリツクすることにより、トラツクT1を出力チヤネルCh1にルーテイング設定している。以下同様にして、パネル201上にてトラツクT2を出力チヤネルCh2、トラツクT3を出力チヤネルCh3に、またトラツクT4を出力チヤネルCh4にルーテイング設定していることを示している。
【0244】
またサブオーデイオ・ライン134及びボイスオーバ・ライン138についても同様にして例えば、サブオーデイオのもつトラツクT1〜T4をそれぞれ出力チヤネルCh1〜Ch4に、またボイスオーバのもつトラツクT1及びT2をそれぞれ出力チヤネルCh1及びCh2にルーテイング設定していることを示す。
【0245】
ここでダイアログ200に設けられた、マニユアルフエイダボタン(「Manual Fader」)202をクリツク入力すると、編集用画面90には図36に示すようなフエイダアサイン用のダイアログ205が画面表示される。
【0246】
ダイアログ205は、ベースオーデイオ、サブオーデイオ及びボイスオーバそれぞれのもつ4つのトラツクT1〜T4とフエイダF1〜F4とをマトリクスで対応させるようにしたパネル206を設けており、当該パネル206において、各列に設定された各トラツクT1〜T4に対して各行に設定された所望のフエイダF1〜F4位置に対応するボタンを選択してクリツクすることにより、各トラツクをそれぞれフエイダF1〜F4にルーテイング設定する。
【0247】
この場合、例えば図36に示すパネル206においては、ベースオーデイオの第1列及び第2列のトラツクT1及びT2に属するボタン206A及び206Bをクリツク入力することにより、ベースオーデイオのトラツクT1及びT2をフエイダF1にルーテイング設定していることを示す。以下同様にして、サブオーデイオの第1列及び第2列のトラツクT1及びT2に属するボタン206C及び206Dをクリツク入力することによりトラツクT1及びT2をフエイダF2にルーテイング設定していることを示し、さらにボタン206E及び206Fをクリツク選択することによりボイスオーバのトラツクT1及びT2をフエイダF3にルーテイング設定していることを示す。
【0248】
また、このパネル206における各トラツクT1〜T4に対する各フエイダF1〜F4の設定状態は、表示部207にて各トラツクT1〜T4の各列の対応位置に表示される。
【0249】
ここで、上述したようにダイアログ200及び205上において、オーデイオ出力を各チヤネルにルーテイング設定したイベントをビユーアウインドウ92上のプレビユボタン117をクリツク入力することによつてプレビユする場合について説明する。
【0250】
例えば図37に示すようにタイムライン95上に並べられたイベントが、ダイアログ200上のパネル201及びダイアログ205上のパネル206での設定に従つてルーライング設定されている場合、図38(A)及び(B)に示すように実際、編集装置1の変容コントローラ5の各フエイダF1〜F4に対してベースオーデイオ・ライン132BのイベントE1〜E3がフエイダF1に、サブオーデイオ・ライン134のイベントE4がフエイダF2に、またボイスオーバ138のイベントE5〜E7がフエイダF3にルーテイング設定されることを示している。
【0251】
このようにしてタイムライン95上のベースオーデイオ・ライン132B、サブオーデイオ・ライン134及びボイスオーバ・ライン138の各トラツクT1及びT2に対してフエイダF1、F2及びF3が対応付けられた後、マニユアルフエイダのオン/オフボタン202A(図36)の「ON」をクリツク入力することにより、イベントをプレビユ又はレコーデイングするときにベースオーデイオ・ライン132B、サブオーデイオ・ライン134及びボイスオーバ138の各オーデイオレベルをフエイダF1、F2、及びF3に対応付けされた各フエイダレバー208を操作することによつて各々調整することができる。
【0252】
(2−18)エフエクトの設定手順
タイムライン95上に並べられたイベントに対するエフエクトの設定は、図39及び図40に示すようなビデオ編集アプリケーシヨン・ソフトウエアによるエフエクトの設定手順に従つてCPU21の制御により実行される。
【0253】
すなわちエフエクトの設定手順は、まずステツプSP40においてエフエクトを付加する対象となるイベントをタイムライン95(図17及び図18)上のベースビデオ・ライン132Aに並べる。ここでステツプSP41においてプログラムウインドウ94上のエフエクトボタン159をクリツク入力することによりエフエクトの各種設定を行うためのダイアログ190(図29)を画面表示させる。
【0254】
次にステツプSP42において、ダイアログ190上のフエイバレツトパターン・表示部192に表示されるエフエクトのパターン・ビツトマツプの中から所望のパターンをクリツクして選択する。この結果、CPU21の制御によりパターン番号設定部191のパターン番号欄191Aに選択されたパターンの番号が出力表示される。
【0255】
因みにエフエクトのパターンは、所望のパターン番号が既に判つている場合は直接、パターン番号設定部191のパターン番号欄191Aに所望のパターン番号をキーボード2Cよりテンキー入力した後、エンターキーをクリツクすることによつても選択することができる。
【0256】
ここでCPU21は、イベントに対して設定するエフエクトがアニメーシヨン・エフエクトであるかトランジシヨン・エフエクトであるかを判断し、次のステツプSP43において、ビデオエフエクトがアニメーシヨン・エフエクトである場合には続くステツプSP44に進む。ステツプSP44において、まずタイムライン95上の所望の位置でビユーア106上のマークインボタン115及びアウトボタン116を押すことによつてイベントに対してイン点及びアウト点を設定してタイムライン95上のエフエクトをかける範囲を指定する(図31(A))。
【0257】
次にステツプSP45において、ステツプSP42にて選択されたクリツプCLをドラツグ・アンド・ドロツプによりタイムライン95上に貼り付ける。この結果、図31(B)に示すように新しいイベント「New Event 」がタイムライン95のオーバレイ・ビデオ・ライン136に貼り付けられる。このようにオーバレイビデオ・ライン136にオーバレイイベントが貼り付けられると、タイムライン95のエフエクトライン135にも選択したエフエクト例えばピクチヤ・イン・ピクチヤ「PinP」が貼り付けられる。これによりベースビデオ・ライン132Aのイベントに対してアニメーシヨン・エフエクトを設定することができる。(図31(B))。
【0258】
かくしてマウス2Dを用いたドラツグ・アンド・ドロツプによる簡易な操作によつて、タイムライン95上に貼り付けられたイベントのイン点及びアウト点間にアニメーシヨン・エフエクトを設定し得る。
【0259】
このようにしてイベントに対してアニメーシヨン・エフエクトが設定されると、ステツプSP46においてダイアログ190を閉じるようにして、次の処理ステツプSP47に移る。
【0260】
ここでステツプSP43において、CPU21によつてイベントに対して設定するエフエクトがトランジシヨン・エフエクトであると判断された場合、CPU21の制御によりステツプSP48に移り、ダイアログ190を用いてトランジシヨン時間を設定した後、次のステツプSP49において、選択されたエフエクトをドラツグ・アンド・ドロツプによりタイムライン95上に貼り付ける(図30(A))。この結果、タイムライン95のエフエクトライン135に選択したエフエクトが貼り付けられ、これによりベースビデオ・ライン132Aのイベントに対してトランジシヨン・エフエクトを設定することができる(図30)。かくしてマウス2Dを用いたドラツグ・アンド・ドロツプによる簡易な操作によつてタイムライン95上に貼り付けられたイベントに対してトランジシヨン・エフエクトを設定し得る。この後、処理ステツプはステツプSP46に移る。
【0261】
ここでステツプSP46においてダイアログ190が閉じられると、次にステツプSP47において、イベントに対して設定したエフエクトを修正するか否かを判断する。ここでイベントに対して設定したエフエクトを修正する場合は、ステツプSP50に移つて一旦設定したエフエクト・イベントを削除した後、ステツプSP41に戻り、ビデオエフエクトの設定手順をステツプSP42から再度、実行し直す。
【0262】
またステツプSP47において、イベントに対して設定したエフエクトを修正しないとした場合は、イベントに対するエフエクトの設定を完了してエフエクトの設定手順を終了する。これによりタイムライン95上に読み出されたイベントに対して、アニメーシヨン・エフエクト又はトランジシヨン・エフエクトを容易に設定し得る。
【0263】
(3)実施の形態の動作
以上の構成において、まず、コンピユータ2のモニタ2B上に表示されるビユーアウインドウ92上のソース選択ボタン102A〜102Eのいずれかを選択してクリツクすることにより、所定のソースデバイスを選択して、当該ソースデバイスより所望の編集素材、すなわちプログラムを読み出すことができる。
【0264】
次にソースデバイスより読み出したプログラムをイン点及びアウト点を指定して所望の長さに切り取つた後、登録部122のADDボタン122Aをクリツク入力することによりログウインドウ93上又はプログラムウインドウ94のタイムライン95上に登録することができる。
【0265】
ここで切り取つたプログラムをタイムライン95上に登録した場合、ビユーアウインドウ92上のTLボタン126をクリツク入力することにより、デバイスコントロール部96の制御をタイムライン95上に移すことができる。
【0266】
この場合、タイムライン95上の所定のラインには登録されたプログラムが当該プログラムの長さに応じた長さで帯状にグラフイツク表示される。このタイムライン95上には、ナウライン139が表示され、当該ナウライン139の表示位置の画像がビユーア106に表示される。またタイムコード表示欄108にはナウライン139位置のタイムコードが表示される。これによりナウライン139位置の画像及びタイムコードを確認し得る。
【0267】
ここでデバイスコントロール部96のスライダ部120によりタイムライン95上の所望の位置にナウライン139を移動させることによつてフアイルの所望位置を容易にサーチすることができる。このときタイムライン95上に登録されたプログラムをデバイスコントロール部96の制御を介して再生し、ビユーア106によつて再生画像をモニタしながらプログラムをサーチして、所望の位置にてマークインボタン115及びマークアウトボタン116をクリツク入力することによりプログラムに対してイン点又はアウト点を設定することができる。
【0268】
このようにタイムライン95上のプログラムに対してイン点及びアウト点が設定されると、CPU21の制御によりプログラムに設定されたイン点及びアウト点それぞれのタイムコードからイン点及びアウト点間の長さを計算してその長さDURをビユーアウインドウ92上のDUR表示欄114に表示することができる。
【0269】
ここでログウインドウ93上の所定のクリツプ素材をドラツグしてタイムライン95のプログラムに設定されたイン点付近にドロツプするという簡易な操作により、タイムライン95上のプログラムのイン点及びアウト点間に所望のイベントを貼り付けることができる。
【0270】
この場合、図23に示すように例えば、第1のケースとしてタイムライン95上にイン点及びアウト点が設定され、かつクリツプ素材にイン点のみが設定されている場合、タイムライン及びクリツプ素材のイン点及びアウト点それぞれのタイムコードをもとにCPU21の演算処理によりタイムライン95に設定されたアウト点に合わせてクリツプ素材のアウト点が設定される。
【0271】
また第2のケースとしてタイムライン95上にはイン点のみが設定され、かつクリツプ素材にイン点及びアウト点が設定されている場合、タイムライン95及びクリツプのイン点及びアウト点それぞれのタイムコードをもとにCPU21の演算処理によつて挿入クリツプ素材のアウト点が設定される。
【0272】
また第3のケースとしてクリツプに対してイン点及びアウト点が設定され、かつタイムライン95上にはアウト点のみが設定されている場合、クリツプのイン点のタイムコードをもとにCPU21の演算処理によつて挿入クリツプのイン点に合わせた値がタイムライン95のイン点として設定される。
【0273】
さらに第4のケースとしてタイムライン95上にイン点及びアウト点が設定され、かつクリツプに対してイン点及びアウト点が設定されている場合、タイムライン95上のイベントのイン点及びアウト点間の長さと、クリツプ素材の長さとがそれぞれ一致しているとCPU21が判断したときは、クリツプCLはそのままタイムライン上のイン点及びアウト点間に貼り付けられ。
【0274】
これに対してタイムライン95上のイベントのイン点及びアウト点の長さと、クリツプ素材の長さが一致していないとCPU21が判断したときは、CPU21の演算処理によつてクリツプ素材の長さをタイムライン95上のイン点又はアウト点に合わせて設定し直しされる。
【0275】
これにより挿入するクリツプ素材のイン点及び又はアウト点のタイムコード情報と、タイムライン95上のイベントのイン点及び又はアウト点のタイムコード情報とをもとにしたCPU21の演算処理により、クリツプ素材の長さ又はタイムライン95上のイベントのイン点及び又はアウト点を設定してタイムライン95上に所望のクリツプ素材を容易に貼り付けることができる。
【0276】
(4)実施の形態の効果
以上の構成によれば、ソースデバイスから入力される編集素材を読み出し、当該編集素材の長さに応じてタイムライン95上においてイベントとして帯状にグラフイツク表示することによつて、視覚により大まかなプログラムの長さ及び位置を確認することができる。
【0277】
さらにタイムライン95上のプログラムをデバイスコントロール部96を介して再生することができると共に、再生中にタイムライン95上に表示されるナウライン139の位置のプログラムの画像及びタイムコードをそれぞれビユーア106及びタイムコード表示欄108によつて確認することができる。
【0278】
これによりタイムライン95上においてプログラムの画像及びタイムコードを確認しながらプログラムに対してマークインボタン115及び又はマークアウトボタン116をクリツク入力という簡易な方法によつてイン点及び又はアウト点を設定することができる。
【0279】
さらにログウインドウ93よりクリツプ素材を読み出してタイムライン95に貼り付けるときに、クリツプ素材のもつタイムコード情報及びタイムライン95上に設定されたイン点及び又はアウト点のタイムコード情報をもとにCPU21の演算処理によつてクリツプ素材の長さを設定し直すか、タイムライン95上のイン点及び又はアウト点のタイムコードを設定し直すようにしたことにより、挿入イベントをタイムライン95上の所定位置に確実に貼り付けることができる。
【0280】
(5)他の実施の形態
なお上述の実施例においては、ログウインドウ93より編集カツトのプログラム情報であるクリツプ素材をフアイルとして読み出してタイムライン95に貼り付けるときに、編集領域であるタイムライン95上にイン点及び又はアウト点を設定した場合について述べたが、本発明はこれに限らず、例えばエフエクトのプログラム情報を編集する場合に用いても良く、これにより上述の実施の形態と同様の効果を得ることができる。
【0281】
【発明の効果】
上述のように本発明によれば、編集領域上に配置されたイベント同士の間に新たなイベントを挿入する際、ライン開始時点及びライン終了時点、イベント開始時点及びイベント終了時点が正確に設定されていない場合、ライン上の間隔に合わせてイベントの間隔を適切に設定し直すことができ、またライン終了時点に合わせてイベント終了時点を設定できるので、編集作業の作業効率を向上させることができ、かくしてイベントの挿入による迅速な編集が容易になし得る編集装置を実現し得る。
【図面の簡単な説明】
【図1】本発明を適用した編集装置を示すブロツク図である。
【図2】編集装置を構成するコンピユータの内部構成を示すブロツク図である。
【図3】編集装置を構成する編集処理装置の内部構成を示すブロツク図である。
【図4】編集処理装置のシステムコントロール部の構成を示すブロツク図である。
【図5】編集処理装置のマトリクススイツチヤ部の構成を示すブロツク図である。
【図6】編集処理装置の画像処理部の構成を示すブロツク図である。
【図7】編集処理装置の音声処理部の構成を示すブロツク図である。
【図8】編集装置に接続されるローカルストレージの構成を示すブロツク図である。
【図9】ローカルストレージのデイスクアレイブロツクの構成を示すブロツク図である。
【図10】デイスクアレイブロツクにおける動作の説明に供する図表である。
【図11】デイスクアレイブロツクにおける動作の説明に供する図表である。
【図12】編集用画面の説明に供する略線図である。
【図13】ビユーアウインドウの説明に供する略線図である。
【図14】フアイルリスト(図14(A)及びソースリスト(図14(B)の説明に供する略線図である。
【図15】補助入力素材設定用のダイアログの説明に供する略線図である。
【図16】ログウインドウの説明に供する略線図である。
【図17】プログラムウインドウの説明に供する略線図である。
【図18】プログラムウインドウの説明に供する略線図である。
【図19】デバイスアイコンの説明に供する略線図である。
【図20】ビデオレベル設定用のダイアログの説明に供する略線図である。
【図21】オーデイオレベル設定用のダイアログの説明に供する略線図である。
【図22】シーンチエンジのダイアログの説明に供する略線図である。
【図23】クリツプのシーン名設定手順を示すフローチヤートである。
【図24】ログウインドウ上に表示されるクリツプの説明に供する略線図である。
【図25】ログウインドウ上に表示されるクリツプの説明に供する略線図である。
【図26】イン点及びアウト点の設定手順を示すフローチヤートである。
【図27】イン点及びアウト点の設定手順を示すフローチヤートである。
【図28】タイムライン上へのクリツプの貼り付けの説明に供する略線図である。
【図29】エフエクト設定用のダイアログの説明に供する略線図である。
【図30】タイムライン上におけるエフエクトの設定の説明に供する略線図である。
【図31】タイムライン上におけるエフエクトの設定の説明に供する略線図である。
【図32】タイムライン上におけるエフエクト設定位置の説明に供する略線図である。
【図33】タイムライン上におけるエフエクトの修正の説明に供する略線図である。
【図34】タイムライン上におけるエフエクトの表現の説明に供する略線図である。
【図35】出力チヤネル・アサイン用のダイアログの説明に供する略線図である。
【図36】フエイダ・アサイン用のダイアログの説明に供する略線図である。
【図37】タイムライン上に貼り付けられたイベントの説明に供する略線図である。
【図38】オーデイオフエイダのルーテイング設定の説明に供する略線図である。
【図39】エフエクトの設定手順を示すフローチヤートである。
【図40】エフエクトの設定手順を示すフローチヤートである。
【符号の説明】
1……編集装置、2……コンピユータ、2A……本体、2B……モニタ2B、2C……キーボード、2D……マウス、3……編集処理装置、4、5……専用コントローラ、6……デイリーサーバ、7……VTR、8……ローカルストレージ、9……オンエアバツフア、10……ローカルエリアネツトワーク、90……編集用画面、92……ビユーアウインドウ、93……ログウインドウ、94……プログラムウインドウ、95……タイムライン、96……デバイスコントロール部、102、102A、102A、102C、102AD、102E……ソース選択ボタン、103A……フアイルリスト、103B……ソースリスト、106……ビユーア、108……タイムコード表示欄、110……イン点画像表示部、111……イン点タイムコード表示欄、112……アウト点画像表示部、113……アウト点タイムコード表示欄、120……スライダ部、126……TLボタン、132……ベースライン、132A……ベースビデオ・ライン、132B……ベースオーデイオ・ライン、134……サブライン、135……エフエクトライン、137……DSKライン、138……ボイスオーバ・ライン、139……ナウライン、147……スケールライン、165……デバイスアイコン、165A……サーバアイコン、165B……ローカルストレージアイコン、165C……VTRアイコン、165D……AUXアイコン、CL……クリツプ、170、172、190、200……ダイアログ、174……フエイダ部、180……クリツクエントリ・ボタン、192……フアイバレツト・パターン表示部。[0001]
【table of contents】
The present invention will be described in the following order.
[0002]
TECHNICAL FIELD OF THE INVENTION
Conventional technology
Problems to be solved by the invention
Means for solving the problem
BEST MODE FOR CARRYING OUT THE INVENTION
(1) Device configuration (FIGS. 1 to 11)
(1-1) Overall configuration of editing apparatus
(1-2) Internal configuration of the computer
(1-3) Configuration of editing processing apparatus
(1-4) Configuration of local storage
(2) Program editing (FIGS. 12 to 40)
(2-1) Program editing application software
(2-2) Structure of the viewer window
(2-3) Registration of editing material in the log window
(2-4) Event editing by timeline
(2-5) Device icon display
(2-6) Registering clips in the log window
(2-7) Setting header for clip
(2-8) Setting in and out points
(2-9) Pasting events on the timeline
(2-10) Effect setting by dialog
(2-11) Registration of pattern / bitmap
(2-12) Setting transition effects
(2-13) Setting animation effect
(2-14) Effect manual transition operation
(2-15) Modification of effects
(2-16) Effect expression method
(2-17) Audio output routing setting
(2-18) Effect setting procedure
(3) Operation of the embodiment
(4) Effects of the embodiment
(5) Other embodiments
The invention's effect
[0003]
BACKGROUND OF THE INVENTION
The present invention relates to an editing apparatus, and is suitable for application to an editing apparatus that edits, for example, a news material.
[0004]
[Prior art]
Conventionally, as this kind of editing apparatus, an apparatus using a video tape recorder (hereinafter abbreviated as VTR) as a recording means for recording a news material has been proposed. In such an editing apparatus, video and audio as materials are recorded in a VTR, and desired editing is performed by reading out desired video and audio from the VTR and using them as news materials.
[0005]
[Problems to be solved by the invention]
By the way, news programs are required to provide viewers with the events that have occurred in various places as soon as possible. Therefore, it is desirable that an editing apparatus for editing a news material can be edited with high speed.
[0006]
By the way, in the case of linear editing using a video tape or the like, it was used as a mark when inserting a material by setting an in point and an out point on the tape when creating an editing cut. However, when a file stored on a disk medium is read and nonlinear editing is performed on the file data, the edited material is recorded collectively at the end. On the other hand, the In point and Out point cannot be set. For this reason, when editing work such as overwriting or insertion of the material, it is difficult to check while actually editing the video being edited.
[0007]
The present invention has been made in consideration of the above points, and an object of the present invention is to propose an editing apparatus with improved usability capable of quick editing.
[0008]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, in order to arrange at least one set range of editing materials as an event along a timeline indicating the progress of time, storage means for storing a plurality of editing materials composed of video. Display control means for displaying the editing area on the predetermined display screen in the display means, user interface means for mediating editing operations from the outside to the editing area, and events arranged in the editing area by the user interface means When a new editing material is inserted as a new event in between, the line start time and line end time indicating the insertion range of the new event on the timeline, and the new event of the new editing material Editing point setting means for setting an event start point and an event end point indicating the range When the line start time, line end time, event start time and event end time are all set by the edit time setting means, and the interval between the line start time and the line end time does not match the interval between the event start time and the event end time If the event start time and event end time intervals are reset to match the line start time and line end time intervals, and the line start time, line end time, and event start time are set by the editing time setting means, the line Set the event end time according to the end time, Editing processing means for arranging a new event in the editing area.
[0009]
As a result, when a new event is inserted between events arranged in the editing area, the line start time, line end time, event start time, and event end time are accurately set. If not, the event interval should match the interval on the line Properly It can be set again, and the event end time can be set to match the line end time, improving the work efficiency of editing work be able to.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0011]
(1) Device configuration
(1-1) Overall configuration of editing apparatus
In FIG. 1,
[0012]
As a control means, the
[0013]
Incidentally, when this application software is operated, a graphic display for GUI (Graphical User Interface) is displayed on the
[0014]
In addition, the video signal S2 is input to the
[0015]
On the other hand, the
[0016]
Not only the
[0017]
Incidentally, the
[0018]
The
[0019]
Further, a
[0020]
In addition, a
[0021]
An on-air buffer (storage means for temporarily storing a program during broadcasting) 9 is also connected to the
[0022]
The on-
[0023]
The
[0024]
[0025]
Furthermore, a preview-only monitor 13 is connected to the
[0026]
Here, an editing method in the
[0027]
First, the operator clicks a predetermined control command button displayed on the
[0028]
Subsequently, the operator selects a desired event material by clicking the desired clip image shown in the log window with the
[0029]
When the outline of the program is determined in this way, the operator inputs a preview instruction by clicking a predetermined control command button. Receiving this, the
[0030]
If there is no change in the program contents as a result of such a preview, the operator inputs a recording instruction by clicking a predetermined control command button. Receiving this, the
[0031]
In this way, the
[0032]
(1-2) Internal configuration of the computer
In this section, the internal configuration of the
[0033]
The
[0034]
A
[0035]
On the other hand, a
[0036]
The
[0037]
The
[0038]
The processor controller 22A controls the data conversion operation of the
[0039]
The
[0040]
The frame memory 22C temporarily stores the video data supplied from the
[0041]
The video data stored in the frame memory 22C is read based on the reading control of the processor controller 22A. At this time, the video data stored in the frame memory 22C is not read out for all pixels, but is read out by thinning out at a predetermined interval to make the image size smaller than the original image. The video data whose image size has been reduced in this way is displayed in a viewer window (details will be described later) of the
[0042]
The
[0043]
In this case, the graphic display based on the image data becomes the graphic display for the GUI. Incidentally,
[0044]
The
[0045]
The
[0046]
The
[0047]
The
[0048]
The
[0049]
(1-3) Configuration of editing processing apparatus
In this section, the configuration of the
[0050]
The
[0051]
The
[0052]
The
[0053]
Here, the configuration of each of these blocks will be specifically described below with reference to the drawings. As shown in FIG. 4, the
[0054]
Such a
[0055]
Incidentally, the
[0056]
Next, the
[0057]
The
[0058]
Incidentally, in this
[0059]
In this
[0060]
The
[0061]
When the
[0062]
Similarly, when the
[0063]
Next, the
[0064]
The demultiplexer block 51 is a block for extracting a video signal or a key signal from the video and audio signals S23 to S27 sent in the signal format of the SDI standard. The demultiplexer block 51 is composed of five
[0065]
The
[0066]
Similarly, the wipe
[0067]
The
[0068]
The
[0069]
The
[0070]
The
[0071]
Incidentally, when performing a transition effect that simply switches between two images, the video signal output from the
[0072]
In addition, when performing a transition effect with image conversion such as a page turn, the video signal output from the
[0073]
When performing an animation effect such as a picture-in-picture, the video signal output from the
[0074]
Next, the
[0075]
The input
[0076]
The
[0077]
The audio signals whose levels have been adjusted by the
[0078]
The output
[0079]
The embedded
[0080]
(1-4) Configuration of local storage
Next, in this section, the
[0081]
The data input /
[0082]
More specifically, first, the video and audio signal S15 supplied from the
[0083]
On the other hand, the video data read from the
[0084]
Similarly, the video data read from the
[0085]
The
[0086]
Further, the
[0087]
In response to a command from the
[0088]
Similarly, the
[0089]
The
[0090]
The disk array blocks 62 and 63 will be specifically described below with reference to the drawings. However, since the disk array blocks 62 and 63 basically have the same configuration, only the
[0091]
The buffer memory 62A is a memory for temporarily storing data, and sequentially receives and stores the SCSI format data S67 sent from the
[0092]
The
[0093]
At the time of data recording, the
[0094]
[0095]
The
[0096]
Incidentally, when the
[0097]
The
[0098]
The
[0099]
Here, the principle of data reconstruction will be described. First, of the data allocated by the
[0100]
A logical operation means 70 as shown in FIG. 10A is provided inside the
[0101]
Specifically, as shown in FIG. 10B, for example, when the data D0 to D3 are all values “0”, the logical operation means 70 has the value “1” because the addition result is “0”. Parity data PD is output. When the data D0 to D2 is “0” and the data D3 is “1”, the addition result is “1”, so that the parity data PD having the value “0” is output. To do. Thereafter, parity data PD as shown in the chart of FIG. 10B is output for other data combinations based on the same principle. The parity data PD calculated in this way is recorded in the
[0102]
If the data D2 recorded on the hard disk 62L cannot be reproduced due to a failure of the hard disk 62L at the time of reproduction, the
[0103]
Specifically, as shown in FIG. 11A, for example, when the data D0, D1, and D3 are the value “0” and the parity data PD is the value “1”, the logical operation means 71 outputs the addition result. Since it is “1”, the reconstructed data (D2) having the value “0” is output. When the data D0, D1, and PD are the value “0” and the data D3 is the value “1”, the addition result is “ Since it is “1”, the reconstructed data (D2) having the value “0” is output. Hereinafter, reconstructed data (D2) as shown in the chart of FIG. 11B is output for other data combinations based on the same principle. As can be seen from a comparison between FIG. 11B and FIG. 10B, the data D2 that could not be reproduced due to the failure of the hard disk 62L can be accurately restored.
[0104]
In this manner, the
[0105]
(2) Program editing
(2-1) Program editing application software
When executing program editing, the
[0106]
When editing a program, the
Actually, the editing operation of the program is performed by setting an in point and an out point with respect to an editing material read from the source device selected in the
[0107]
As an editing operation for the editing material cut out from the
[0108]
The
[0109]
The
[0110]
Incidentally, in the
[0111]
(2-2) Structure of the viewer window
As shown in FIG. 13, the
[0112]
Incidentally, an in-point time code display field 111 for displaying the time code of the stamp image displayed in the in-point
[0113]
In the
[0114]
As will be described later, the auxiliary input unit AUX has a plurality of sources, and any input unit name in the auxiliary input units (AUX1 to AUXn) currently set as the auxiliary input unit AUX is the source selection. Displayed on the button 102D.
[0115]
When a source device is selected by selecting the
[0116]
Here, in the
[0117]
When the selected source device is the internal input INT, clicking the
[0118]
The selected color signal is changed to “Hue” (Hue) hue in 360 steps, “Sat” (Saturation) saturation, and “Lum” (Luminance) luminance in the color
[0119]
In the
[0120]
In fact, by clicking on the time
[0121]
Here, when the playback speed is input to the
[0122]
Similarly, by clicking the mark-
[0123]
By clicking the In-point time code display column 111, the In-point time code display column 111 can be changed to the time code input mode. At this time, the target time code value is displayed in the In-point time code display column 111. The input of the numeric keypad allows the material data image corresponding to the input time code to be read out as an in-point image and displayed on the in-point
[0124]
Similarly, by clicking the out point time
[0125]
The materials on the
[0126]
In the
[0127]
The
[0128]
In the
[0129]
Further, in the
[0130]
(2-3) Registration of editing material in the log window
In the
[0131]
(2-4) Event editing by timeline
Here, when editing the material clipped in the
[0132]
Here, when the registration mode of the
[0133]
When the editing material cut out in the
[0134]
Here, for example, when the editing material is recorded in the
[0135]
As shown in FIGS. 17 and 18, the
[0136]
Furthermore, the title material is set by setting the downstream key (DSK: Down Stream Key) for overlaying characters sent from terrorist and satellite images sent from the auxiliary input unit AUX to the video of the base video and overlay video. A
[0137]
By the way, the editing material displayed on the
[0138]
On the
[0139]
Incidentally, when the
[0140]
As shown in FIG. 17, the now line 139 can be easily moved to a desired position on the
[0141]
In the
[0142]
Further, a scale line 147 (Scale Line) representing a scale corresponding to the time code is displayed on the
[0143]
As shown in FIG. 18, the
[0144]
In the
[0145]
In the
[0146]
By the way, the
[0147]
The
[0148]
The
[0149]
The
[0150]
Further, the
[0151]
(2-5) Device icon display
By the way, in the
[0152]
As shown in FIGS. 19A to 19E, each
[0153]
As described above, the
[0154]
As shown in FIG. 17, the
[0155]
As a result, the storage destination device of the event read out on the
[0156]
(2-6) Registering clips in the log window
Next, when the material cut out by setting the in and out points in the
[0157]
In other words, in the
[0158]
Incidentally, the video level can be set for the event material registered in the
[0159]
The
[0160]
Furthermore, an audio level can be set for the event material registered in the
[0161]
In this
[0162]
Further, the output of the audio tracks T1 to T4 can be set to the four output channels Ch1 to Ch4 as needed at the input stage by the
[0163]
(2-7) Setting header for clip
Next, a case where a header is added to each clip CL displayed side by side in the
[0164]
Actually, the setting of the scene name for the clip CL is executed in the
[0165]
That is, the clip scene name setting procedure is as follows. When the
[0166]
Next, when the registered scene name displayed in the
[0167]
When the scene name is registered in this way, the
[0168]
As a result, the same scene name can be automatically assigned to the clip CL registered in connection with the
[0169]
If the
[0170]
In step SP5, if the return key is input from the
[0171]
Thus, the clip scene name setting procedure is completed.
[0172]
Incidentally, as shown in FIGS. 24A to 24C, the clip CL registered in the
[0173]
When the clip CL displayed in the
[0174]
Incidentally, a
[0175]
The clip CL registered in the
[0176]
(2-8) Setting in and out points
Next, setting of in and out points for events arranged on the
[0177]
That is, the procedure for setting the IN point and OUT point is as follows. First, in step SP21, by selecting and clicking one of the
[0178]
When the
[0179]
Next, in step SP26, when the
[0180]
At this time, the
[0181]
Here, in step SP23, when the
[0182]
Subsequently, at step SP29, the desired position of the file is searched by moving the now line 139 to the desired position on the
[0183]
Here, the program on the
[0184]
When the mark-in
[0185]
Further, in step SP31, the program on the
[0186]
Next, at step SP33, the event time between the IN point and OUT point is calculated from the time codes of the IN point and OUT point set for the event on the
[0187]
Next, at step SP34, for example, a clip CL of an event to be inserted between the in and out points of the event on the
[0188]
If it is determined in step SP28 that the selected source device is another source device of the
[0189]
When the editing material clipped by reading out from the source device on the
[0190]
Incidentally, in step SP35, the event's In point (shown as mark-in in the figure) and Out point (shown as mark-out in the figure) set on the
[0191]
That is, as a first case, there are cases where an in point and a mark out are set on the
[0192]
Here, if the clip material markout is not sufficient for the markout of the
[0193]
As a second case, only mark-in may be set on the
[0194]
As a third case, mark-in and mark-out may be set for the clip material, and only the mark-out may be set on the
[0195]
As a fourth case, mark-in and mark-out may be set on the
[0196]
On the other hand, on the
[0197]
Thus, while monitoring the event image displayed on the
[0198]
Furthermore, a clip material to be inserted between the In point and Out point of the event set on the
[0199]
(2-9) Pasting events on the timeline
Here, a case will be described in which the clip CL registered in the
[0200]
In the video effect editing, first, in the
[0201]
In this case, when one event is placed at the position of the now line 139 of the
[0202]
When events are arranged on the
[0203]
By arranging the clips CL displayed in the
[0204]
(2-10) Effect setting by dialog
In the
[0205]
When applying effects to events arranged on the
[0206]
Here, after selecting the effect pattern to be set for the event on the
[0207]
After the effect type and transition time to be set for the event are determined in the
[0208]
In addition, when adding an animation effect to an event on the
[0209]
Here, by clicking the mark-in
[0210]
Next, a desired clip CL is selected from the clips CL in the
[0211]
(2-11) Registration of pattern / bitmap
Here, when registering a facet pattern in the facet
[0212]
As a result, the operator drags the desired effect pattern from the plurality of effect patterns displayed in the face
[0213]
(2-12) Setting transition effects
Next, a description will be given of a case where a transition effect and an animation effect are actually set for an event set on the
[0214]
For example, as shown in FIG. 32 (A), when the
[0215]
Next, the event E1 located on the right side of the event E0 is set to the foreground, and the in point of the event E1 is searched. As a result, when the transition effect is applied to the position of the now line 139 on the
[0216]
As shown in FIG. 32B, when the
[0217]
(2-13) Setting animation effect
Further, as shown in FIG. 32 (C), when the
[0218]
Further, as shown in FIG. 32D, when the
[0219]
Further, as shown in FIG. 32E, the
[0220]
(2-14) Effect manual transition operation
Here, for example, as shown in FIGS. 32 (A) and 32 (B), a transition ground in which a foreground and a back ground are set for the event E0 and / or the event E1 to be subjected to the transition effect. The effect pattern can be test-reproduced on the screen of the
[0221]
In this case, the background is displayed on the
[0222]
As a result, it is possible to reproduce a transition effect event at an arbitrary speed by manual operation of the
[0223]
When the AT button (Auto button) 197 is clicked in the transition effect setting state, the
[0224]
Similarly, as shown in FIGS. 32 (C) to 32 (E), after setting the foreground and background for the events E1 and E2, the animation pattern set by selecting the effect pattern number is set. The effect pattern can be test-reproduced on the screen of the
[0225]
In this case, in the state where the
[0226]
As a result, an animation effect event can be reproduced at an arbitrary speed by manual operation of the
[0227]
In addition, when the
[0228]
Here, in the
[0229]
Further, on the
[0230]
(2-15) Modification of effects
When modifying an event for which an effect has been set, a
[0231]
For example, if the already set effect is an animation effect such as “Mosaic” (mosaic) shown in FIG. 33B, double-clicking the effect event sets the event E1 to the background. The In point of the event E1 is searched, the event E2 is set to the foreground, and the out point of the event E1 is searched.
[0232]
As a result, the position of the
[0233]
Thus, when the
[0234]
(2-16) Effect expression method
Here, an effect expression method set for an event on the
[0235]
The effects set on the
[0236]
That is, as shown in FIG. 34A, in the case of a transition system among transition effects, events E1 and E2 serving as a reference are displayed on the
[0237]
Further, as shown in FIG. 34B, in the case of the transition effect flip / tumble system, as in the case of the transition system, the events E1 and E2 serving as references on the
[0238]
Next, in animation effects, there is a video effect that can be applied to an event, where an effect is applied to one event, or an event that has an effect is inserted into a given event. Furthermore, it can be divided into standard animation type and modification type (= effect type).
[0239]
That is, as shown in FIG. 34C, in the case of a standard animation system such as a picture-in-picture that inserts an effect event with respect to a reference event, the reference event E1 is input to the
[0240]
As shown in FIG. 34D, in the case of a modifier system that applies mosaic processing or the like to one event, reference events E1 and E2 are displayed on the
[0241]
(2-17) Audio output routing setting
As shown in FIG. 35, the dialog 200 is displayed on the
[0242]
The dialog 200 includes a
[0243]
In this case, for example, in the
[0244]
Similarly, for the
[0245]
Here, when a manual fader button (“Manual Fader”) 202 provided in the dialog 200 is click-inputted, a
[0246]
The
[0247]
In this case, for example, in the
[0248]
Further, the setting states of the respective faders F1 to F4 for the respective tracks T1 to T4 on the
[0249]
Here, a description will be given of a case where an event in which the audio output is set to be routed to each channel is previewed by clicking the
[0250]
For example, as shown in FIG. 37, when the events arranged on the
[0251]
After the faders F1, F2, and F3 are associated with the tracks T1 and T2 of the
[0252]
(2-18) Effect setting procedure
The effect setting for the events arranged on the
[0253]
That is, in the effect setting procedure, first, in step SP40, events to which effects are added are arranged on the
[0254]
Next, in step SP42, a desired pattern is clicked and selected from the effect pattern / bit map displayed on the face pattern /
[0255]
For the effect pattern, if the desired pattern number is already known, the desired pattern number is directly input to the
[0256]
Here, the
[0257]
Next, in step SP45, the clip CL selected in step SP42 is pasted on the
[0258]
Thus, an animation effect can be set between the In point and Out point of the event pasted on the
[0259]
When the animation effect is set for the event in this way, the
[0260]
If it is determined in step SP43 that the effect set for the event by the
[0261]
If the
[0262]
If the effect set for the event is not corrected in step SP47, the effect setting for the event is completed and the effect setting procedure is terminated. As a result, an animation effect or a transition effect can be easily set for an event read on the
[0263]
(3) Operation of the embodiment
In the above configuration, first, by selecting and clicking one of the
[0264]
Next, after the program read from the source device is cut to a desired length by specifying the IN point and the OUT point, the time of the
[0265]
When the cut program is registered on the
[0266]
In this case, the registered program is displayed on the predetermined line on the
[0267]
Here, the desired position of the file can be easily searched by moving the now line 139 to a desired position on the
[0268]
When the in point and the out point are set for the program on the
[0269]
Here, by dragging a predetermined clip material on the
[0270]
In this case, as shown in FIG. 23, for example, when the In point and the Out point are set on the
[0271]
As a second case, when only the In point is set on the
[0272]
As a third case, when the In point and Out point are set for the clip and only the Out point is set on the
[0273]
Further, as a fourth case, when the in and out points are set on the
[0274]
On the other hand, when the
[0275]
As a result, the clip material is calculated by the
[0276]
(4) Effects of the embodiment
According to the above configuration, the editing material input from the source device is read out, and displayed graphically in a strip shape as an event on the
[0277]
Further, a program on the
[0278]
As a result, while confirming the image and time code of the program on the
[0279]
Further, when the clip material is read from the
[0280]
(5) Other embodiments
In the above-described embodiment, when the clip material, which is the program information of the editing cut, is read from the
[0281]
【The invention's effect】
As described above, according to the present invention, when a new event is inserted between events arranged on the editing area, the line start time, the line end time, the event start time, and the event end time are accurately set. The If not, the event interval should match the interval on the line Properly It can be set again, and the event end time can be set to match the line end time, improving the work efficiency of editing work Thus, it is possible to realize an editing apparatus that can easily perform quick editing by inserting events.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an editing apparatus to which the present invention is applied.
FIG. 2 is a block diagram showing an internal configuration of a computer constituting the editing apparatus.
FIG. 3 is a block diagram showing an internal configuration of an editing processing apparatus that constitutes the editing apparatus.
FIG. 4 is a block diagram showing a configuration of a system control unit of the editing processing apparatus.
FIG. 5 is a block diagram showing a configuration of a matrix switch section of the editing processing apparatus.
FIG. 6 is a block diagram showing a configuration of an image processing unit of the editing processing apparatus.
FIG. 7 is a block diagram showing a configuration of an audio processing unit of the editing processing apparatus.
FIG. 8 is a block diagram showing a configuration of a local storage connected to the editing apparatus.
FIG. 9 is a block diagram showing the configuration of a disk array block of local storage.
FIG. 10 is a chart for explaining operations in the disk array block.
FIG. 11 is a chart for explaining operations in the disk array block.
FIG. 12 is a schematic diagram for explaining an editing screen.
FIG. 13 is a schematic diagram for explaining a viewer window;
FIG. 14 is a schematic diagram for explaining a file list (FIG. 14A) and a source list (FIG. 14B);
FIG. 15 is a schematic diagram for explaining an auxiliary input material setting dialog;
FIG. 16 is a schematic diagram for explaining a log window;
FIG. 17 is a schematic diagram for explaining a program window;
FIG. 18 is a schematic diagram for explaining a program window.
FIG. 19 is a schematic diagram for explaining device icons;
FIG. 20 is a schematic diagram for explaining a dialog for video level setting;
FIG. 21 is a schematic diagram for explaining an audio level setting dialog;
FIG. 22 is a schematic diagram for explaining a scene change dialog;
FIG. 23 is a flowchart showing a clip scene name setting procedure.
FIG. 24 is a schematic diagram for explaining clips displayed on a log window;
FIG. 25 is a schematic diagram for explaining clips displayed on a log window;
FIG. 26 is a flowchart showing a procedure for setting an IN point and an OUT point.
FIG. 27 is a flowchart showing a procedure for setting an IN point and an OUT point.
FIG. 28 is a schematic diagram for explaining the attachment of a clip on a time line.
FIG. 29 is a schematic diagram for explaining an effect setting dialog;
FIG. 30 is a schematic diagram for explaining the effect setting on the time line;
FIG. 31 is a schematic diagram for explaining the effect setting on the time line;
FIG. 32 is a schematic diagram for explaining an effect setting position on a time line;
FIG. 33 is a schematic diagram for explaining the effect correction on the timeline;
FIG. 34 is a schematic diagram for explaining the expression of an effect on the timeline.
FIG. 35 is a schematic diagram for explaining a dialog for output channel assignment.
FIG. 36 is a schematic diagram for explaining a dialog for fader assignment.
FIG. 37 is a schematic diagram for explaining an event pasted on a timeline.
FIG. 38 is a schematic diagram for explaining the routing setting of the audio off-adapter.
FIG. 39 is a flowchart showing an effect setting procedure;
FIG. 40 is a flowchart showing an effect setting procedure.
[Explanation of symbols]
1 ... Editing device, 2 ... Computer, 2A ... Main unit, 2B ...
Claims (7)
時間の進行を表すタイムラインに沿って上記編集素材のうち設定された範囲をイベントとして1以上配置するための編集領域を表示手段における所定の表示画面上に表示させる表示制御手段と、
上記編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、 上記ユーザインターフエイス手段により、上記編集領域に配置済の上記イベント同士の間に新たな上記編集素材が新たな上記イベントとして挿入される際、上記タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、
上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が全て設定され、且つ上記ライン開始時点及び上記ライン終了時点の間隔と上記イベント開始時点及び上記イベント終了時点の間隔とが一致しない場合、上記イベント開始時点及び上記イベント終了時点の間隔を上記ライン開始時点及び上記ライン終了時点の間隔に合わせて設定し直し、上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点及び上記イベント開始時点が設定された場合、上記ライン終了時点に合わせて上記イベント終了時点を設定して、上記編集領域に上記新たなイベントを配置する編集処理手段と
を具えることを特徴とする編集装置。Storage means for storing a plurality of editing materials composed of images;
Display control means for displaying on the predetermined display screen in the display means an editing area for arranging one or more set ranges of the editing material as events along a timeline representing the progress of time;
The user interface means that mediates an editing operation from the outside to the editing area, and the new editing material is inserted as a new event between the events already arranged in the editing area by the user interface means. When starting, a line start time and line end time indicating the insertion range of the new event on the timeline, and an event start time and event end time indicating the range of the new editing material as the new event Editing point setting means for setting
The line start time, the line end time, the event start time, and the event end time are all set by the edit time setting means, and the interval between the line start time and the line end time, the event start time, and the event If the interval at the end point does not match, the interval between the event start point and the event end point is reset according to the interval between the line start point and the line end point, and the line start point is set by the editing point setting means. Editing processing means for setting the event end time in accordance with the line end time and placing the new event in the editing area when the line end time and the event start time are set. An editing device characterized by that.
上記映像に対するエフエクトを上記イベントとして上記イベント開始時点及び上記イベント終了時点を設定させ、The effect for the video is set as the event, and the event start time and the event end time are set.
上記編集処理手段は、The editing processing means
上記エフエクトを上記編集領域に配置するPlace the effect in the editing area
ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
上記編集領域内の上記タイムライン上で現在着目している時間を示すナウラインを表示させると共に、当該ナウラインが示す時間に対応して配置されている上記イベントの映像を表示する映像表示領域を上記表示画面上に表示させ、A display of a video display area for displaying a video of the event arranged corresponding to the time indicated by the now line while displaying a current line indicating the currently focused time on the timeline in the editing area. On the screen,
上記編集処理手段は、The editing processing means
上記新たなイベントが配置された場合、当該新たなイベントの配置が反映された映像を上記映像表示領域に表示させるWhen the new event is arranged, a video reflecting the arrangement of the new event is displayed in the video display area.
ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
上記編集領域に上記イベントを上記タイムラインに沿って帯状にグラフイツク表示させるThe event is displayed graphically in a band along the timeline in the editing area.
ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
上記編集領域内の上記タイムライン上で現在着目している時間を示すナウラインを表示させると共に、当該ナウラインが示す時間を上記表示画面内の時間表示領域に表示させるThe now line indicating the currently focused time is displayed on the time line in the editing area, and the time indicated by the now line is displayed in the time display area in the display screen. ことを特徴とする請求項1に記載の編集装置。The editing apparatus according to claim 1.
時間の進行を表すタイムラインに沿って上記編集素材のうち設定された範囲をイベントEvent the set range of the above editing material along the timeline showing the progress of time として1以上配置するための編集領域を表示手段における所定の表示画面上に表示させる表示制御手段と、Display control means for displaying an editing area for arranging one or more on a predetermined display screen in the display means,
上記編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、User interface means for mediating editing operations from the outside to the editing area; 上記ユーザインターフエイス手段により、上記編集領域に配置済の上記イベント同士の間に新たな上記編集素材が新たな上記イベントとして挿入される際、上記タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、When the new editing material is inserted as a new event between the events already arranged in the editing area by the user interface means, the insertion range of the new event on the timeline is indicated. Editing point setting means for setting a line starting point and a line ending point, and an event starting point and an event ending point indicating the range of the new editing material as the new event;
上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が全て設定され、且つ上記ライン開始時点及び上記ライン終了時点の間隔と上記イベント開始時点及び上記イベント終了時点の間隔とが一致しない場合、上記イベント開始時点及び上記イベント終了時点の間隔を上記ライン開始時点及び上記ライン終了時点の間隔に合わせて設定し直し、上記編集時点設定手段により上記ライン開始時点、上記イベント開始時点及び上記イベント終了時点が設定された場合、上記イベント終了時点に合わせて上記ライン終了時点を設定して、上記編集領域に上記新たなイベントを配置する編集処理手段とThe line start time, the line end time, the event start time, and the event end time are all set by the edit time setting means, and the interval between the line start time and the line end time, the event start time, and the event If the interval at the end point does not match, the interval between the event start point and the event end point is reset according to the interval between the line start point and the line end point, and the line start point is set by the editing point setting means. Editing processing means for setting the line end time in accordance with the event end time and placing the new event in the edit area when the event start time and the event end time are set.
を具えることを特徴とする編集装置。An editing device characterized by comprising:
時間の進行を表すタイムラインに沿って上記編集素材のうち設定された範囲をイベントとして1以上配置するための編集領域を表示手段における所定の表示画面上に表示させる表示制御手段と、 Display control means for displaying on the predetermined display screen in the display means an editing area for arranging one or more set ranges of the editing material as events along a timeline representing the progress of time;
上記編集領域に対する外部からの編集操作を仲介するユーザインターフエイス手段と、 上記ユーザインターフエイス手段により、上記編集領域に配置済の上記イベント同士の間に新たな上記編集素材が新たな上記イベントとして挿入される際、上記タイムライン上における当該新たなイベントの挿入範囲を示すライン開始時点及びライン終了時点と、当該新たな編集素材のうち当該新たなイベントとする範囲を示すイベント開始時点及びイベント終了時点とを設定させる編集時点設定手段と、 The user interface means that mediates an editing operation from the outside to the editing area, and the new editing material is inserted as a new event between the events already arranged in the editing area by the user interface means. When starting, a line start time and line end time indicating the insertion range of the new event on the timeline, and an event start time and event end time indicating the range of the new editing material as the new event Editing point setting means for setting
上記編集時点設定手段により上記ライン開始時点、上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が全て設定され、且つ上記ライン開始時点及び上記ライン終了時点の間隔と上記イベント開始時点及び上記イベント終了時点の間隔とが一致しない場合、上記イベント開始時点及び上記イベント終了時点の間隔を上記ライン開始時点及び上記ライン終了時点の間隔に合わせて設定し直し、上記編集時点設定手段により上記ライン終了時点、上記イベント開始時点及び上記イベント終了時点が設定された場合、上記イベント開始時点に合わせて上記ライン開始時点を設定して、上記編集領域に上記新たなイベントを配置する編集処理手段とThe line start time, the line end time, the event start time, and the event end time are all set by the edit time setting means, and the interval between the line start time and the line end time, the event start time, and the event If the interval at the end point does not match, the interval between the event start point and the event end point is reset according to the interval between the line start point and the line end point, and the line end point is set by the editing point setting means. Editing processing means for setting the line start time in accordance with the event start time and placing the new event in the edit area when the event start time and the event end time are set.
を具えることを特徴とする編集装置。An editing device characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11049297A JP3951196B2 (en) | 1997-04-12 | 1997-04-12 | Editing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11049297A JP3951196B2 (en) | 1997-04-12 | 1997-04-12 | Editing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10290418A JPH10290418A (en) | 1998-10-27 |
JP3951196B2 true JP3951196B2 (en) | 2007-08-01 |
Family
ID=14537129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11049297A Expired - Fee Related JP3951196B2 (en) | 1997-04-12 | 1997-04-12 | Editing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3951196B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6744969B1 (en) | 1998-11-10 | 2004-06-01 | Sony Corporation | Data recording and reproducing apparatus and data editing method |
WO2000028543A1 (en) * | 1998-11-10 | 2000-05-18 | Sony Corporation | Edit data creating device and edit data creating method |
JP5037425B2 (en) * | 2008-05-14 | 2012-09-26 | 東芝Itコントロールシステム株式会社 | High speed photography device |
WO2016035728A1 (en) * | 2014-09-04 | 2016-03-10 | ソニー株式会社 | Video data processing apparatus and video data processing method |
-
1997
- 1997-04-12 JP JP11049297A patent/JP3951196B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10290418A (en) | 1998-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4536164B2 (en) | Editing apparatus and editing method | |
US20030091329A1 (en) | Editing system and editing method | |
JP4117616B2 (en) | Editing system, control method thereof and editing apparatus | |
JP3837746B2 (en) | Editing system | |
JP4462642B2 (en) | Editing apparatus and editing method | |
JP4168334B2 (en) | Editing apparatus and editing method | |
JP4229199B2 (en) | Editing apparatus and editing method | |
JP3951196B2 (en) | Editing device | |
JP4588126B2 (en) | Editing system and editing method | |
JP4174718B2 (en) | Editing apparatus and editing method | |
KR100603173B1 (en) | Editing apparatus and editing method | |
JPH10290419A (en) | Editor | |
KR100603161B1 (en) | Editing system and editing method | |
JP4172525B2 (en) | Editing apparatus and editing method | |
JPH10283759A (en) | Editing apparatus | |
JP2007317352A (en) | Editing device and editing method | |
JPH10290393A (en) | Editing device | |
JPH10290417A (en) | Editor | |
JPH10290394A (en) | Editing device | |
JPH10290416A (en) | Editor | |
JP4051648B2 (en) | Editing apparatus and editing method | |
JP3899586B2 (en) | Editing apparatus and editing method | |
JP3906922B2 (en) | Editing system | |
JPH1198412A (en) | Edit system, display device and computer | |
JP4200462B2 (en) | Editing apparatus and editing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 19970513 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20031209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070330 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070412 |
|
LAPS | Cancellation because of no payment of annual fees |