JP4588126B2 - 編集システム及び編集方法 - Google Patents

編集システム及び編集方法 Download PDF

Info

Publication number
JP4588126B2
JP4588126B2 JP54372698A JP54372698A JP4588126B2 JP 4588126 B2 JP4588126 B2 JP 4588126B2 JP 54372698 A JP54372698 A JP 54372698A JP 54372698 A JP54372698 A JP 54372698A JP 4588126 B2 JP4588126 B2 JP 4588126B2
Authority
JP
Japan
Prior art keywords
editing
effect
event
video
timeline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP54372698A
Other languages
English (en)
Inventor
哲郎 中田
昌文 松井
求 植田
嘉幸 中村
功誠 山下
奈緒実 江頭
敏幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of JP4588126B2 publication Critical patent/JP4588126B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/40Combinations of multiple record carriers
    • G11B2220/41Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
    • G11B2220/415Redundant array of inexpensive disks [RAID] systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • G11B27/024Electronic editing of analogue information signals, e.g. audio or video signals on tapes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は編集装置に関し、例えば放送局などで使用されるニュース素材等を編集するための編集システム及び編集方法に適用して好適なものである。
【0002】
【従来の技術】
従来、放送局等における編集素材を編集するためのポストプロダクションの分野では、編集素材を記録するための記録装置として磁気テープを使用したテープ編集が一般的であった。このテープ編集とは、素材テープをサーチしながら編集点を決定することによって必要なシーンだけを選び、マスターテープへダビングしながら番組のストーリーを組み立てていく作業である。しかし、このテープ編集作業は、テープ上の記録された素材の所望のフレームにアクセスするために、試行錯誤しながらキューアップを繰り返さなければならないため、編集点の決定に膨大な時間がかかっていた。また、編集点が決定されたカット毎にテープからテープへのダビングが必要であり、その都度、素材テープのVTRとマスターのVTRを制御しなければいけないため、編集作業に多大な時間が必要であった。その結果、編集作業者は、長時間にわたって精神の集中が求められるこのテープ編集作業から開放されることはなかった。
【0003】
放送局でのニユース番組、報道番組及びスポーツ番組の制作では、各地で起こった当日の出来事をいち早く視聴者に提供すること、すなわち速報性が要求される。特に、このようなニュース番組、報道番組及びスポーツ番組の制作では、単に編集されたシーンをつなぎあわせるようなアッセンブル編集だけでなく、編集シーンの映像に対してモザイク効果やA/Bロール等のエフェクトや、編集シーンの音声に対して、話者の声色の変更、取材現場の周辺ノイズの除去などのエフェクと追加しなければいけない。
【0004】
【発明が解決しようとする課題】
エフェクト等を追加するためには、ソースVTR及びマスタVTRを操作する編集作業だけで無く、これらのエフェクトを施すためのビデオスイッチャ装置や特殊効果装置を操作するための別の編集作業が必要であった。
【0005】
そのため、従来の編集装置では、ニユース番組、報道番組及びスポーツ番組に提供されるビデオプログラムを、素早く迅速に制作することができないという問題があった。
【0006】
本発明は以上の点を考慮してなされたもので、迅速に、ニユース番組、報道番組及びスポーツ番組等に提供される即時性の要求されるビデオプログラムを制作することのできる使い勝手の向上した編集システムを提案しようとするものである。
【0007】
【課題を解決するための手段】
本発明の編集システムは、ソース素材を編集するための編集システムにおいて、ソースデバイスから供給されたソース素材をランダムアクセス可能な記録媒体に記録するとともに、記録媒体からソース素材を再生するためのデータストレージ装置と、データストレージ装置に記録されたソース素材を編集するためのプログラムリストに従って、データストレージ装置から再生された複数のビデオ信号およびオーディオ信号を処理する編集手段と、ソース素材のビデオイメージをビューイングしながら編集点を決定することによってイベントを生成するためのビューアウインドウと、ビューアウンドウにおいて設定されたイベントに関するクリップイメージを表示するログウインドウと、イベントに対する所望のエフェクトを選択するためのエフェクト設定ダイアログと、互いに時間的関係が同一とされた第1および第2のタイムラインを含み、複数のイベントを所望の順に第1のタイムライン上に並べることによってプログラムリストを作成するプログラムウインドウとをコンピュータディスプレイに表示する制御手段と、クリップイメージをクリックすることによって、イベントを選択し、選択されたイベントに対応するクリップイメージをログウインドウからプログラムウインドウに移動させると共に、第1のタイムライン上の所望の位置においてドロップさせることによって選択されたイベントを第1のタイムライン上に配置し、選択されたエフェクトに対応するアイコンを移動させ、第2のタイムライン上にドロップするための操作手段とを備え、制御手段は、ソースデバイスに記憶された複数のソース素材から、所望のソース素材を検索するソース素材検索処理と、検索されたソース素材をビューアウインドウに表示して再生し複数のイベントを生成するイベント生成処理と、イベント生成処理によって生成された複数のイベントに対応するクリップイメージを、ユーザによる操作手段の操作に応じて第1のタイムライン上へドラッグすることによってイベントに対応するアイコンを表示させ、当該アイコンを第1のタイムライン上の所望の位置にドロップさせるようにして所望の順に並べることによってプログラムリストを生成するプログラムリスト生成処理と、選択されたエフェクトを、操作手段の操作に応じて第2のタイムライン上の所望の位置へドラッグすることによって、エフェクトに対応するアイコンを表示させ、アイコンを第2のタイムライン上の所望の位置にドロップさせることで、該エフェクトに対応するアイコンの位置に対応する期間のエフェクトを設定するエフェクト設定処理と、作成したプログラムリストに基いて、最終ビデオプログラムを作成する処理とを実行するように編集手段を制御することを特徴とする。
【0008】
また、本発明の編集方法は、ソース素材を編集するための編集方法において、ソース素材のビデオイメージをビューイングしながら編集点を決定することによってイベントを生成するためのビューアウインドウと、ビューアウンドウにおいて設定されたイベントに関するクリップイメージを表示するログウインドウと、イベントに対する所望のエフェクトを選択するためのエフェクト設定ダイアログと、互いに時間的関係が同一とされた第1および第2のタイムラインを含み、操作手段によって、クリップイメージをクリックすることによって、イベントを選択し、選択されたイベントに対応するクリップイメージをログウインドウからプログラムウインドウに移動させると共に、第1のタイムライン上の所望の位置においてドロップさせることによって選択されたイベントを所望の順に第1のタイムライン上に並べることによってプログラムリストを作成するプログラムウインドウとをコンピュータディスプレイに表示し、ソースデバイスに記憶された複数のソース素材から、所望のソース素材を検索するソース素材検索処理と、検索されたソース素材をビューアウインドウに表示して再生し複数のイベントを生成するイベント生成処理と、イベント生成処理によって生成された複数のイベントに対応するクリップイメージを、ユーザによる操作手段の操作に応じて第1のタイムライン上へドラッグすることによってイベントに対応するアイコンを表示させ、当該アイコンを第1のタイムライン上の所望の位置にドロップさせるようにして所望の順に並べることによってプログラムリストを生成するプログラムリスト生成処理と、選択されたエフェクトを、操作手段の操作に応じて第2のタイムライン上の所望の位置へドラッグすることによって、エフェクトに対応するアイコンを表示させ、アイコンを第2のタイムライン上の所望の位置にドロップさせることで、該エフェクトに対応するアイコンの位置に対応する期間のエフェクトを設定するエフェクト設定処理と、作成したプログラムリストに基いて、最終ビデオプログラムを作成する処理とを実行することを特徴とする。
【0009】
【発明の実施の形態】
以下、本発明に係る編集システム及び編集方法の好ましい実施の形態について説明する。
1.編集装置の構成
1−1.編集装置の全体構成
図1において、1は全体として本発明を適用した編集装置を示し、大きく分けてコンピュータ2と編集処理装置3からなる。
【0010】
制御手段としてコンピュータ2は、CPU(中央処理ユニット)や各種処理回路、或いはフロッピーディスクドライブ、ハードディスクドライブ等を備える本体2Aと、当該本体2Aに接続される表示手段としてのモニタ2Bと、入力手段としてのキーボード2C及びマウス2Dとを有している。このようなコンピュータ2は編集のためのアプリケーシヨンソフトウエアがハードディスクドライブに予めインストールされており、オペレーテイングシステムの基で当該アプリケーシヨンソフトウエアを動作させることにより編集装置用のコンピュータとして起動するようになされている。
【0011】
このアプリケーシヨンソフトウエアを動作させたときには、モニタ2B上に編集用のGUI(グラフイカルユーザインターフェース)のためのグラフィックイメージが表示されるようになされている。この編集装置1では、このグラフィック表示と上述した入力手段とによってユーザインターフェースを構成し、例えばマウス2Dを使用して、モニタ2Bに表示される制御コマンドボタンを示すグラフィック表示の中から所望のグラフィック表示を選択することにより、編集処理の処理内容を指定するための制御コマンドを入力するようになされている。なお、コンピュータ2は、入力された制御コマンドが編集処理装置3における編集処理動作を制御するものであれば当該制御コマンドに応じた制御信号S1を生成し、これを編集処理装置3に送出して編集処理動作を指示するようになされている。
【0012】
またこのコンピュータ2には編集処理装置3を介してビデオ信号S2が入力され、これにより各素材の映像をモニタ2Bに表示して素材内容を確認しながらイン点(イベントの開始点)やアウト点(イベントの終了点)をマーキングイしりことができる。このイベントとは、イン点及びアント点によって指定された編集区間のことであって、タイムライン上に並べられた1つの編集素材のことを示している。また、このイベントは、オーディオイベント、ビデオイベント、DSK(Down StreamKey)イベント等から構成される。
【0013】
このコンピュータ2は、イン点及びアウト点を指示することによって切り取られたイベントや編集した完成プログラムの映像をモニタ上に表示することによって、それらを確認することができる。(以下、この切り取られたイベントや編集プログラムを再生して表示することをプレビューと呼ぶ)。
【0014】
一方、編集処理装置3は内部にマトリクススイッチャ部、画像処理部及び音声処理部を有しており、素材の切り取りや繋ぎ合わせ、或いはビデオ信号やオーディオ信号に対するエフェクト処理等、実際の編集作業を実行する編集実行装置である。
【0015】
この編集処理装置3には上述したようなコンピュータ2が接続されているだけでなく、別の入力手段として専用コントローラ4、5も接続されており、当該専用コントローラ4、5を使用しても編集のための制御コマンドを入力し得るようになされている。
【0016】
専用コントローラ4は、素材のイン点やアウト点を指示するためのボタン操作子や、素材の再生を指示するためのボタン操作子、或いは編集したプログラムの記録を指示するためのボタン操作子等を有していると共に、変速再生(いわゆるシヤトル再生)やコマ送り再生(いわゆるジヨグ再生)の指示を入力するためのダイアル操作子等を有しており、それらのボタン操作子又はダイアル操作子を介して入力された指示情報に応じた制御信号S3を編集処理装置3に送出するようになされている。
【0017】
また専用コントローラ5は、オーディオ信号の信号レベルを設定するための4つのオーディオ用フェーダレバーや2つの映像を切り換えるときの切換率を設定するためのビデオ用フェーダレバー等を有しており、それらのフェーダレバーを介して入力された指示情報(この指示情報はフェーダレバーによる設定値を示す)に応じた制御信号S4を編集処理装置3に送出するようになされている。
【0018】
また、この編集処理装置3に対しては、デイリーサーバ6(一般に放送局において映像や音声等の編集素材を記憶している記憶手段)が接続されており、この編集処理装置3は、デイリーサーバ6に記憶されているビデオ及びオーディオ信号を取り込むことができる。デイリーサーバ6は2チヤンネル分の出力ポートを有しており、編集処理装置3から供給されるチヤンネル毎の制御信号S5、S6に応じて所望のビデオ及びオーディオ信号S7、S8を記憶媒体6Aから読み出して出力することができる。なお、記憶媒体6Aには圧縮率1/10のMPEG(Moving Picture coding Experts Group)規格で圧縮されたビデオ及びオーディオ信号が記憶されており、読み出されたビデオ及びオーディオ信号はそれぞれデコーダ6B、6Cを介して復号化が行われた後、シリアルデイジタルインターフエイス(以下、これをSDIと呼ぶ)規格のフオーマツトに変換され、そのSDI規格のビデオ及びオーディオ信号S7、S8が編集処理装置3に供給される。
【0019】
またこの編集処理装置3に対してはVTR7も接続されており、この編集処理装置3は、VTR7に記憶されているビデオ及びオーディオ信号も取り込むことができる。VTR7はSDI規格の入出力インターフエイスを有しており、編集処理装置3から供給される制御信号S9に応じて所望のビデオ及びオーディオ信号S10を読み出して出力することができる。またVTR7は、編集処理された後のビデオ及びオーディオ信号やデイリーサーバ6から読み出されたビデオ及びオーディオ信号S7、S8を記録対象のビデオ及びオーディオ信号S11として編集処理装置3から受けることができとともに、制御信号S9に応じてそのビデオ及びオーディオ信号S11をビデオテープに記録できるようにも構成されている。
【0020】
またこの編集処理装置3に対しては、記憶手段として、複数のハードディスクからなるローカルストレージ8も接続されており、編集処理装置3は、当該ローカルストレージ8に記憶されているビデオ及びオーディオ信号も取り込むことができるように構成されている。ローカルストレージ8はSDI規格の入出力インターフエイスを有していると共に、出力ポートとしては2チヤンネル分のポートを有しており、編集処理装置3から供給される制御信号S12に応じて所望のビデオ及びオーディオ信号S13A〜SEを読み出して出力するようになされている。またローカルストレージ8は、編集処理された後のビデオ及びオーディオ信号やデイリーサーバ6又はVTR7から読み出されたビデオ及びオーディオ信号を記録対象のビデオ及びオーディオ信号S15として編集処理装置3から受けるようになされており、制御信号S9に応じてそのビデオ及びオーディオ信号S15を内部のハードディスクに記録するようにもなされている。
【0021】
またこの編集処理装置3に対しては、オンエアバツフア(放送の際にプログラムを一時的に記憶するための記憶手段)9も接続されており、当該編集処理装置3によつて編集処理したプログラムのビデオ及びオーディオ信号S16をオンエアバツフア9に記憶し得るようになされている。この場合、オンエアバツフア9はSDI規格の入力インターフエイスを有しているので、送出されるビデオ及びオーディオ信号S16としてはSDI規格の信号フオーマツトになっている。またオンエアバツフア9においては、供給されたビデオ及びオーディオ信号S16をエンコーダ9Aによって圧縮率1/10のMPEG規格で圧縮した後、内部の記憶媒体9Bに記憶するようになされている。
【0022】
なお、このオンエアバツフア9と編集装置1のコンピュータ2は例えばイーサネツト等のローカルエリアネツトワーク(以下、これをLANと呼ぶ)10を介して接続されており、オンエアバツフア9に対する制御コマンドはコンピュータ2及びLAN10を介して当該オンエアバツフア9に送出される。また編集されたプログラムがどのような素材で構成されているかを示す編集リスト(一般にエデイツトデイシジヨンリストと呼ばれる)も、このLAN10を介してオンエアバツフア9に送出される。
【0023】
また編集装置1のコンピュータ2とデイリーサーバ6もこのLAN10を介して接続されており、当該LAN10を介してデイリーサーバ6に記憶されている各素材のフアイル名等をコンピュータ2から参照し得るようになされている。
【0024】
また編集処理装置3に対しては、オプシヨン接続としてスピーカ11及び12が接続されるようになされており、編集処理装置3によって編集されたオーディオ信号S17、S18を当該スピーカ11、12から送出してオーディオに関する編集結果を確認し得るようになされている。
【0025】
さらに編集処理装置3に対しては、オプシヨン接続としてプレビュー専用のモニタ13も接続されるようになされており、編集処理装置3によって編集されたビデオ信号S19を当該モニタ13に表示してビデオに関する編集結果をこのモニタ13によっても確認し得るようになされている。このモニタ13に表示されるプレビュー画面の方がコンピュータ2のモニタ2Bに表示されるプレビュー画面よりも大きいので、モニタ13を接続した方がより鮮明に編集結果を確認し得る。
【0026】
ここでこの編集装置1における編集方法を簡単に説明する。まずこの編集装置1では、アプリケーシヨンソフトウエアを起動させると、上述したようにモニタ2BにGUIのためのグラフィック表示が表示される。このグラフィック表示としては、後述するように、素材の映像を見ながらイン点やアウト点を指定することによってイベントを生成するビューアウインドウの画面や、ビューアウインドウによって生成したイベントのクリツプ画を表示するログウインドウの画面、或いはこの編集装置1で行う編集処理内容を指定すると共に、指定された編集処理内容をグラフィック表示を使用して表示するプログラムウインドウの画面や、その他、制御コマンドを入力するための制御コマンドボタン等である。
【0027】
まず編集オペレータは、このモニタ2Bに表示される所定の制御コマンドボタンをマウス2Dを使用してボタンやアイコンをクリックすることにより、編集素材が記憶されているデバイス(すなわちデイリーサーバ6、VTR7又はローカルストレージ8)を指示すると共に、その素材の再生を指示する。これによりその指示された素材のビデオ信号S2が編集処理装置3を介してコンピュータ2に供給され、その素材の映像がモニタ2Bに表示される。オペレータはその素材の映像を見ながらイン点とアウト点を指示することにより、プログラム作成に必要なイベントを生成する。オペレータはこの処理を繰り返し、プログラム作成に必要なイベントを一通り用意し、これをログウインドウに登録する。
【0028】
続いてオペレータは、ログウインドウに示されている所望のクリツプ画をマウス2Dによってクリックすることにより所望のイベントを選択する。これにより選択したイベントを示す帯状グラフィックが表示されるので、これをプログラムウインドウ内にあるタイムライン(詳細は後述する)上の所望位置に置く。これを順に繰り返してイベントを示す帯状グラフィック表示を所望の順番に並べることによりプログラムの順番を指示する。また所望のイベントにビデオエフェクトを付加するのであれば、所定の制御コマンドボタンをクリックすることによりビデオエフェクト設定のためのダイアログを表示させ、その中から付加したいビデオエフェクトを選択する。これにより選択したビデオエフェクトを示す帯状グラフィック表示が表示されるので、これをタイムライン上のビデオエフェクトを付加したい位置に置く。
【0029】
このようにしてプログラムの概案が決まると、オペレータは所定の制御コマンドボタンをクリックすることによりプレビューの指示を入力する。これを受けた編集装置1は、編集処理装置3を制御することによりプログラムウインドウで指示されたプログラムの順番に基づいて各イベントを再生すると共に、編集処理装置3を制御することにより指示されたイベントにビデオエフェクトを施し、ビデオ信号S2を生成する。このビデオ信号S2はコンピュータ2に供給され、モニタ2Bに表示される。これによりオペレータはプログラムウインドウを使用して指示したプログラム内容を確認することができる。
【0030】
このようなプレビューの結果、プログラム内容に変更がなければ、オペレータは所定の制御コマンドボタンをクリックすることにより記録指示を入力する。これを受けた編集装置1は、先程と同様に編集処理装置3を制御することにより指示されたプログラムを示すビデオ及びオーディオ信号S15a、S15bを生成し、これをローカルストレージ8に供給して記録する。かくしてこの処理により、プログラムウインドウによつて指示されたプログラムが完成し、ローカルストレージに記憶される。なお、この編集により生成したプログラムを放送する場合には、GUIを介して転送の指示を入力すれば、ローカルストレージからそのビデオ及びオーディオ信号が読み出され、編集処理装置3を介してオンエアバツフア9に転送される。
【0031】
このようにしてこの編集装置1では、各素材の映像やプログラムの映像をモニタ2Bで確認しながら当該プログラムを作成し得るので、編集の使い勝手を向上し得る。またこの編集装置1では、オペレータがスイッチャや特殊効果装置を直接操作しなくても編集が行えるので、編集操作を容易に行うことができ、編集に掛かる手間を削減し得る。
【0032】
1−2.コンピュータの構成
この項ではコンピュータ2の内部構成について具体的に説明する。図2に示すように、コンピュータ2は、コマンドデータやビデオデータを伝送するためのシステムバス20、コンピュータ全体の制御を行うCPU21、入力されるビデオ信号S2に対して画像処理等を行うビデオプロセッサ22、モニタ2Bに表示されるビデオデータやGUIのためのグラフィック表示を管理する表示コントローラ23、ローカルハードディスクドライブ(ローカルHDD)24Aを制御するためのHDDインターフエイス24、フロツピーディスクドライブ(FDD)25Aを制御するためのFDDインターフエイス25、マウス2D及びキーボード2C等のポインテイングデバイスからのコマンドに基づいて制御コマンドを生成するポインテイングデバイスインターフエイス26、編集処理装置3に制御信号S1を送出するためのソフトウエアドライバを備えた外部インターフエイス27を有している。
【0033】
システムバス20は、コンピュータ2内部でビデオデータやコマンドデータ、或いはアドレスデータ等の通信を行うためのバスであり、ビデオデータを伝送するための画像データバス20Aと、コマンドデータやアドレスデータを伝送するためのコマンドデータバス20Bとからなる。
【0034】
画像データバス20AにはCPU21、ビデオプロセッサ22、表示コントローラ23、HDDインターフエイス24及びFDDインターフエイス25がそれぞれ接続されており、当該CPU21、ビデオプロセッサ22、表示コントローラ23、HDDインターフエイス24及びFDDインターフエイス25はこの画像データバス20Aを介してビデオデータの伝送を行うようになされている。
【0035】
一方、コマンドデータバス20Bには、CPU21、ビデオプロセッサ22、表示コントローラ23、HDDインターフエイス24、FDDインターフエイス25、ポインテイングデバイスインターフエイス26及び外部インターフエイス27がそれぞれ接続されており(すなわちコンピュータ2内部の全てのブロックが接続されている)、当該コマンドデータバス20Bを介してコマンドデータやアドレスデータの伝送を行うようになされている。
【0036】
CPU21はコンピュータ2全体の制御を行うブロックであり、コンピュータ2のオペレーテイングシステムが格納されているROM21Aと、アツプロードされたアプリケーシヨンソフトウエア等が格納されるRAM21Bとを有している。コンピュータ2を起動する場合には、CPU21はROM21Aに記憶されたオペレーテイングシステムに基づいたソフトウエアを実行する。またアプリケーシヨンソフトウエアをこの起動中のオペレーテイングシステムの下で実行する場合には、CPU21はまずハードディスクドライブ24Aのハードディスクに記録されているアプリケーシヨンソフトウエアを読み出してRAM21Bにアツプロードし、その後、当該アプリケーシヨンソフトウエアを実行する。
【0037】
ビデオプロセッサ22は、コンピュータ2に入力されるSDI規格のビデオ信号S2を受け取り、当該ビデオ信号S2に対してデータ変換を施すと共に、その変換されたビデオデータを一時的にバツフアリングするためのブロックである。具体的には、ビデオプロセッサ22は、当該ビデオプロセッサ22の全体を制御するプロセッサコントローラ22Aと、受け取ったビデオ信号S2のペイロード部からコンポジツトビデオ信号を抽出し、かつ当該コンポジツトビデオ信号をデイジタルのコンポーネントビデオ信号に変換するデータ変換部22Bと、データ変換部22Bから送出される数フレーム分のビデオデータを一時的に記憶するフレームメモリ22Cとからなる。
【0038】
プロセッサコントローラ22Aは、データ変換部22Bに対して制御信号を送出することにより当該データ変換部22Bのデータ変換動作を制御すると共に、当該データ変換部22Bにビデオ信号S2からタイムコードを抽出させる。またプロセッサコントローラ22Aは、フレームメモリ22Cに対して制御信号を送出することにより当該フレームメモリ22Cのリード/ライトタイミング及びリード/ライトアドレスを制御する。リードタイミングに関しては、プロセッサコントローラ22Aは表示コントローラ23に送出するタイムコードとビデオデータ(フレームデータ)とが対応するようにフレームメモリ22Cのリードタイミングを制御する。
【0039】
データ変換部22Bは、プロセッサコントローラ22Aからの制御信号に基づいてコンポジツトビデオ信号をデイジタルのコンポーネントビデオ信号に変換する。タイムコードはこの変換過程において抽出される。この変換により得られたビデオデータは上述したようにフレームメモリ22Cに送出され、また抽出されたタイムコードはプロセッサコントローラ22Aに送出される。
【0040】
フレームメモリ22Cはデータ変換部22Bから供給されるビデオデータを一時的に記憶する。このフレームメモリ22Cのリード/ライトタイミングは、上述したようにプロセッサコントローラ22Aによって制御される。このフレームメモリ22Cは2個のフレームメモリから構成され、2フレーム分のビデオデータを記憶し得るようになされている。
【0041】
このフレームメモリ22Cに記憶されたビデオデータは、プロセッサコントローラ22Aの読み出し制御に基づいて読み出される。その際、フレームメモリ22Cに記憶されたビデオデータを全画素読み出すのではなく、所定の間隔で間引いて読み出すことにより画像サイズを原画像よりも小さくする。このようにして画像サイズが小さく変換されたビデオデータは、モニタ2Bのビューアウインドウ(詳細は後述する)に表示されるため、画像データバス20Aを介して表示コントローラ23に送出される。
【0042】
表示コントローラ23は、モニタ2Bに表示されるデータを制御するための制御ブロックである。表示コントローラ23はメモリコントローラ23AとVRAM(ビデオランダムアクセスメモリ)23Bとを有している。メモリコントローラ23Aはコンピュータ2の内部同期に従ってVRAM23Bのリード/ライトタイミングを制御する。このVRAM23Bには、ビデオプロセッサ22のフレームメモリ22Cから送出されたビデオデータ及びCPU21によって生成されるイメージデータが、メモリコントローラ23Aからのタイミング制御信号に基づいて記憶される。このVRAM23Bに記憶されたビデオデータやイメージデータは、コンピュータ2の内部同期に基づいたメモリコントローラ23Aからのタイミング制御信号に基づいて読み出され、モニタ2Bに表示される。
【0043】
この場合、イメージデータによるグラフィック表示がGUIのためのグラフィック表示となる。CPU10からVRAM23Bに送出されるイメージデータは、例えばウインドウやカーソル、或いはスクロールバーやデバイスを示すアイコン等のイメージデータである。このコンピュータ2では、これらの複数種類のイメージデータをモニタ2Bに表示することによってGUIのためのグラフィック表示を得ている。
【0044】
HDDインターフエイス24は、コンピュータ2内部に設けられたローカルハードディスクドライブ(HDD)24Aと通信するためのインターフエイスブロックである。このHDDインターフエイス24とハードディスクドライブ24AとはSCSI(Small Computer System Interface)の伝送フオーマツトに基づいて通信が行われるようになされている。
【0045】
ハードディスクドライブ24Aには、このコンピュータ2で起動するアプリケーシヨンソフトウエアがインストールされており、当該アプリケーシヨンソフトウエアを実行する場合には、このハードディスクドライブ24Aから読み出されてCPU21のRAM21Bにアツプロードされる。またこのアプリケーシヨンソフトウエアを終了する際には、RAM21Bに記憶されている編集オペレーシヨンによって生成された各種情報(例えばフアイル情報等)は、このハードディスクドライブ24Aを介してハードディスクにダウンロードされる。
【0046】
FDDインターフエイス25は、コンピュータ2内部に設けられたフロツピーディスクドライブ(FDD)25Aと通信するためのインターフエイスブロックである。このFDDインターフエイス25とフロツピーディスクドライブ25AとはSCSIの伝送フオーマツトに基づいて通信が行われるようになされている。
【0047】
ポインテイングデバイスインターフエイス26は、コンピュータ2に接続されたマウス2D及びキーボード2Cからの情報を受信するインターフエイスブロックである。ポインテイングデバイスインターフエイス26は、マウス2Dに設けられた2次元ロータリーエンコーダの検出情報と、マウス2Dに設けられた左右のボタンのクリック情報とを当該マウス2Dから受け取り、受け取ったそれらの情報をデコードしてCPU21に送出する。同様に、ポインテイングデバイスインターフエイス26はキーボード2Cに設けられたボタンからの入力情報を受け取り、受け取った入力情報をデコードしてCPU21に送出する。これによりCPU21は、モニタ2Bに表示されるGUIのうちいずれのコマンドボタンが指示されたか認識し得ると共に、キーボード2Cより入力された各種データを認識し得、それらに対応する制御を行うことができる。
【0048】
外部インターフエイス27は、コンピュータ2の外部に接続された編集処理装置3と通信するためのブロックである。外部インターフエイス27はCPU21で生成された再生コマンドや記録コマンド等の各種制御コマンドを所定の通信プロトコルのデータに変換するドライバを有しており、当該ドライバを介して制御コマンドを示す制御信号S1を編集処理装置3に送出する。
【0049】
1−2.編集処理装置の構成
この項では編集処理装置3の構成について説明する。図3に示すように、編集処理装置3は大きく分けてシステムコントロール部3A、マトリクススイッチャ部3B、画像処理部3C及び音声処理部3Dからなつている。システムコントロール部3Aは、コンピュータ2から送られてくる制御信号S1や専用コントローラ4、5から送られてくる制御信号S3、S4を受け、当該制御信号S1、S3又はS4を基に各ブロックの動作を制御する。具体的には、システムコントロール部3Aは、コントロールバス3Eを介してマトリクススイッチャ部3B、画像処理部3C及び音声処理部3Dの動作を制御すると共に、制御信号S5、S6、S9又はS12を送出してデイリーサーバ6、VTR7及びローカルストレージ8の再生又は記録動作等を制御する。システムコントロール部3Aは外部より供給されるリフエレンスタイムコード(REF-TC)も受け取り、タイムコードの管理も行うようになされている。
【0050】
マトリスクスイッチャ部3Bは複数の入力端子と複数の出力端子とを有し、システムコントロール部3Aからの制御に応じて所望の入力端子を所望の出力端子に接続するようになされており、これにより各デバイス(デイリーサーバ6、VTR7又はローカルストレージ8)から読み出されたビデオ及びオーディオ信号のうち所望の信号を画像処理部3Cや音声処理部3Dに送出し得ると共に、所望の信号をコンピュータ2や各デバイス(VTR7、ローカルストレージ8又はオンエアバツフア9)に送出し得るようになされている。さらに画像処理部3Cによって処理されたビデオ信号をコンピュータ2に送出したり、或いはそのビデオ信号に音声処理部3Dによって処理されたオーディオ信号を重畳して各デバイス(VTR7、ローカルストレージ8又はオンエアバツフア9)に送出し得るようにもなされている。
【0051】
画像処理部3Cは、トランジションエフェクト(ワイプやページターン等、バツクグラウンドの映像からフオアグラウンドの映像に切り換えるようなエフェクト)やアニメーションエフェクト(モザイクやピクチヤインピクチヤ等、特殊な画像処理や挿入処理を伴うエフェクト)といつたエフェクト処理をビデオ信号に施すブロックであり、マトリクススイッチャ部3Bによって選択されたビデオ及びオーディオ信号からビデオ信号を抽出し、当該ビデオ信号にエフェクト処理を施した後、そのビデオ信号をマトリクススイッチャ部3Bに出力する。
【0052】
尚、この編集装置においては、エフェクトの種類としてトランジションエフェクトとアニメーションエフェクトの2種類を有している。トランジションエフェクトとは、ワイプ効果やページターン効果等のように、2つの画像を切り換えるビデオエフェクトのことを言い、アニメーションエフェクトとは、3次元画像空間変換等の画像に特殊効果をかけるエフェクト、または、スポットライト効果、ズームアップ効果及びピクチャインピクチャ効果等のようにある画像にビデオエフェクトのかかった画像を挿入するエフェクトのことを言う。
【0053】
音声処理部3Dは、オーディオ信号のレベル調整や合成を行うブロックであり、マトリクススイッチャ部3Dによって選択されたビデオ及びオーディオ信号からオーディオ信号を抽出した後、そのオーディオ信号にレベル調整を施したり、或いはオーディオ信号同士をそれぞれ合成したりし、その結果得られるオーディオ信号をマトリクススイッチャ部3B又はスピーカ11、12に出力する。
【0054】
ここでこれら各ブロックの構成を図を用いて以下に具体的に説明する。図4に示すように、システムコントロール部3Aは、メインCPU(M−CPU)30、コミユニケーシヨンCPU(C−CPU)31及びデバイス制御用CPU(D−CPU)32〜34の複数のCPUから構成される。メインCPU30は、コントロールバス3Eを介して各ブロック(すなわちマトリクススイッチャ部3B、画像処理部3C及び音声処理部3D)に制御コマンドを与えることにより当該各ブロックの動作を制御するためのCPUである。またコミユニケーシヨンCPU31は、外部のタイムコード発生器(図示せず)によって発生したリフアレンスタイムコード(REF-TC)を受け取ったり、或いはコンピュータ2からの制御信号S1や専用コントローラ4、5からの制御信号S3、S4を受け取ったりするための通信用CPUである。またデバイス制御用CPU32〜34は、各デバイス(すなわちデイリーサーバ6、VTR7及びローカルストレージ8)に対して制御信号S5、S6、S9又はS12を送出して当該各デバイスの動作を制御するためのCPUである。
【0055】
このようなシステムコントロール部3Aは、コミユニケーシヨンCPU31によって制御信号S1、S3又はS4を受け取り、当該コミユニケーシヨンCPU31によってその制御信号S1、S3又はS4が示す制御コマンドを再生する。この制御コマンドはシステムコントロール部3A内部のバス35を介してメインCPU30に転送される。メインCPU30はこの制御コマンドを解析し、デバイス制御が必要であれば対応するデバイス制御用CPU32、33又は34に制御コマンドを送出して当該デバイス制御用CPU32、33又は34を介してデバイスの動作を制御し、マトリクススイッチャ部3B、画像処理部3C又は音声処理部3Dの制御が必要であれば対応するブロックにコントロールバス3Eを介して制御コマンドを送出して当該ブロックの動作を制御する。
【0056】
コミユニケーシヨンCPU31は、内部にコンピュータ2の外部インターフエイス27に対応した通信用のドライバを有しており、当該ドライバによってコンピュータ2から送られてくる制御信号S1を受信するようになされている。またデバイス制御用CPU32〜34は内部にRS−422規格のドライバを有しており、当該ドライバによってRS−422規格の制御信号S5、S6、S9又はS12を各デバイスに送出するようになされている。
【0057】
続いて図5を用いてマトリクススイッチャ部3Bについて説明する。この図5に示すように、マトリクススイッチャ部3Bは大きく分けて制御回路40、マトリクススイッチャブロック41及びフオーマツト変換ブロック42からなつている。制御回路40はこのマトリクススイッチャ部3Bの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S20、S21を生成し、当該制御信号S20、S21をそれぞれマトリクススイッチャブロック41、フオーマツト変換ブロック42に出力してその動作を制御する。
【0058】
マトリクススイッチャブロック41は、入力端子IN1〜IN11にそれぞれ接続される複数の入力ラインと、出力端子OUT1〜OUT13にそれぞれ接続される複数の出力ラインとが格子状に配列されており、入力ラインと出力ラインが交差するクロスポイントP(図中×印で示す)の所で当該入力ラインと出力ラインを接続し得るようになされている。このためマトリクススイッチャブロック41は、制御回路40から供給される制御信号S20に基づいて所望のクロスポイントの所で入力ラインと出力ラインを接続すれば、入力端子IN1〜IN11に入力された所望の信号を所望の出力端子OUT1〜OUT13に出力することができる。尚、移行の説明において、例えばIN7とOUT9を接続するクロスポイントを「P79」とし、IN10とOUT4とを接続するクロスポイントを「P104」とする。
【0059】
このマトリクススイッチャ部3Bにおいては、デイリーサーバ6、VTR7及びローカルストレージ8の各デバイスから読み出されたビデオ及びオーディオ信号がそれぞれ入力端子IN1〜IN8に入力されるようになされている(但し、この図5の例では、入力端子IN1〜IN5にビデオ及びオーディオ信号S7、S8、S10及びS13A〜S13Eが入力され、入力端子IN5〜IN8は空き端子となっている)。また入力端子IN9及びIN10には画像処理部3Cによって画像処理が施されたビデオ信号S31、S32がそれぞれ入力され、入力端子IN11には音声処理部3Dによって信号処理が施されたオーディオ信号S33が入力されるようになされている。
【0060】
またこのマトリクススイッチャ部3Bにおいては、出力端子OUT1はローカルストレージ8にビデオ及びオーディオ信号S15を出力するための端子として割り当てられ、出力端子OUT2はVTR7にビデオ及びオーディオ信号S11を出力するための端子として割り当てられ、出力端子OUT3はオンエアバツフア9にビデオ及びオーディオ信号S16を出力するための端子として割り当てられており、出力端子OUT1〜OUT3はそれぞれプログラム出力用の端子として割り当てられている。また出力端子OUT4はプレビュー専用のモニタ13にビデオ信号S19を出力するためのプレビュー用の出力端子として割り当てられており、出力端子OUT5はコンピュータ2にビデオ信号S2を出力するためのキヤプチヤ用の出力端子として割り当てられている。さらに出力端子OUT6〜OUT10は画像処理部3Cにビデオ及びオーディオ信号S23〜S27を出力するための端子として割り当てられ、出力端子OUT11〜OUT13は音声処理部3Dにビデオ及びオーディオ信号S28〜S30を出力するための端子として割り当てられている。
【0061】
フオーマツト変換ブロック42は、制御回路40から供給される制御信号S21に基づいて、出力端子OUT1〜OUT5に出力する信号をSDI規格の信号に変換する回路ブロックであり、出力端子OUT1〜OUT3に出力する信号をフオーマツト変換するアウトプットプロセッサ43及びオーディオコンバイナ44と、出力端子OUT4に出力する信号をフオーマツト変換するアウトプットプロセッサ45と、出力端子OUT5に出力する信号をフオーマツト変換するアウトプットプロセッサ46とを有している。
【0062】
アウトプットプロセッサ43は、画像処理部3Cによって画像処理されたビデオ信号(すなわち入力端子IN9又はIN10に入力されるビデオ信号S31又はS32)を出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。オーディオコンバイナ44は、音声処理部3Dによって処理されたエンベデッドオーディオ信号(すなわち入力端子IN11に入力されるオーディオ信号S33)を出力するとき、アウトプットプロセッサ43から出力されるSDI規格のビデオ信号に当該エンベデッドオーディオ信号S33を重畳する。これにより画像処理部3Cによって処理されたビデオ信号S31、S32や音声処理部3Dによって処理されたオーディオ信号S33をSDI規格の信号でローカルストレージ8やVTR7或いはオンエアバツフア9に送出し得る。尚、このエンベデッドオーディオ(Embedded Audio)とは、SDI規格の補助データ領域のパケットを使用して伝送されるデジタルオーディオデータのことである。
【0063】
入力端子IN1〜IN8に入力されたビデオ及びオーディオ信号を出力端子OUT1〜OUT3に出力する場合には、当該ビデオ及びオーディオ信号がSDI規格で各デバイスから出力されているので、アウトプットプロセッサ43及びオーディオコンバイナ44は何ら処理せず、入力されるビデオ及びオーディオ信号をそのまま出力端子OUT1〜OUT3に出力する。
【0064】
アウトプットプロセッサ45、46も、同様に、それぞれ画像処理部3Cによって画像処理されたビデオ信号S31又はS32を出力端子OUT4又はOUT5に出力するとき、当該ビデオ信号S31又はS32をSDI規格のビデオ信号に変換する。これにより画像処理部3Cによって処理されたビデオ信号S31又はS32をSDI規格の信号でプレビュー専用のモニタ13やコンピュータ2に送出し得る。このアウトプットプロセッサ45、46も、入力端子IN1〜IN8に入力されたビデオ及びオーディオ信号を出力端子OUT4、OUT5に出力する場合には、当該ビデオ及びオーディオ信号に何ら処理せず、そのまま出力端子OUT4、OUT5に出力する。
【0065】
続いて図6を用いて画像処理部3Cについて説明する。この図6に示すように、画像処理部3Cは大きく分けて制御回路50と、デマルチプレクサブロック51と、スイッチャブロック52と、特殊効果ブロック53と、ミキサブロック54とを有している。制御回路50はこの画像処理部3Cの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S40、S41、S42、S43を生成し、当該制御信号S40、S41、S42、S43をそれぞれデマルチプレクサブロック51、スイッチャブロック52、特殊効果ブロック53、ミキサブロック54に出力してその動作を制御する。これによりこの画像処理部3Cでは、マトリクススイッチャ部3Bから供給されたビデオ信号(S23〜S27)に対して画像処理を施す。ここで言う画像処理とは、ソースビデオ信号に特殊効果を施したり、バツクグラウンドビデオ信号に特殊効果のかかつたビデオ信号を挿入したりするアニメーションエフェクトや、バツクグラウンドビデオ信号からフオアグラウンドビデオ信号に映像を切り換えるトランジションエフェクトのことである。
【0066】
デマルチプレクサブロック51は、SDI規格の信号形式で送られてくるビデオ及びオーディオ信号S23〜S27からビデオ信号又はキー信号を抽出するブロックである。このデマルチプレクサブロック51は、入力されるビデオ及びオーディオ信号S23〜S27からそれぞれ信号抽出を行う5つのデマルチプレクサ回路51A〜51Eからなつている。デマルチプレクサ回路51Aは、ビデオ及びオーディオ信号S23を形成する各パケツトのペイロード部からキー信号を抽出する回路であり、当該キー信号の先頭に配置されている同期信号及びヘツダ情報に基づいて抽出を行う。またデマルチプレクサ回路51Bは、ビデオ及びオーディオ信号S24を形成する各パケツトのペイロード部からビデオ信号を抽出する回路であり、当該ビデオ信号の先頭に配置されている同期信号及びヘツダ情報に基づいて抽出を行う。同様に、デマルチプレクサ回路51Cはビデオ及びオーディオ信号S25からキー信号を抽出し、デマルチプレクサ回路51Dはビデオ及びオーディオ信号S26からビデオ信号を抽出し、デマルチプレクサ回路51Eはビデオ及びオーディオ信号S27からビデオ信号を抽出する。
【0067】
スイッチャブロック52は、抽出されたキー信号及びビデオ信号に対してトランジションエフェクトのための処理を施すブロックであり、ワイプ信号発生器52A、52B、キー信号処理回路52C、52D、及びビデオ信号処理回路52E、52Fからなつている。ワイプ信号発生器52Aは、制御回路50からの制御信号S41に基づいてオペレータが指定したトランジションエフェクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52C及びビデオ信号処理回路52Eに送出する。キー信号処理回路52Cは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Aから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述するミキサブロック54に送出する。またビデオ信号処理回路52Eは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Bから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述するミキサブロック54に送出する。
【0068】
同様に、ワイプ信号発生器52Bは、制御回路50からの制御信号S41に基づいてオペレータが指定したトランジションエフェクトに対応するワイプ信号を生成し、当該ワイプ信号をキー信号処理回路52D及びビデオ信号処理回路52Fに送出する。キー信号処理回路52Dは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Cから供給されるキー信号を当該ワイプ信号に対応するように変換し(又は供給されるワイプ信号に基づいて当該ワイプ信号に対応する所望のキー信号を新たに生成する)、その結果得られるキー信号を後述する特殊効果ブロック53に送出する。またビデオ信号処理回路52Fは、供給されるワイプ信号に基づいてデマルチプレクサ回路51Dから供給されるビデオ信号を当該ワイプ信号に対応するように変換し、その結果得られるビデオ信号を後述する特殊効果ブロック53に送出する。
【0069】
特殊効果ブロック53は、制御回路50から供給される制御信号S42に基づいて、キー信号処理回路52Dから出力されるキー信号及びビデオ信号処理回路52Fから出力されるビデオ信号を3次元的に画像変換するためのブロックであり、3次元アドレス発生回路53A、フレームメモリ53B、53C及び補間回路53D、53Eからなつている。3次元アドレス発生回路53Aは、制御信号S42に基づいて、オペレータが指定した3次元的な画像変換を行うための変換アドレスを生成し、当該変換アドレスをフレームメモリ53B、53C及び補間回路53D、53Eに出力する。
【0070】
フレームメモリ53Bは、キー信号処理回路52Dから供給されるキー信号を順次内部のメモリ領域に格納すると共に、その格納されたキー信号を変換アドレスに基づいて読み出すことにより、当該キー信号に対して3次元的な画像変換を施し、その結果得られるキー信号を補間回路53Dに送出する。同様に、フレームメモリ53Bは、ビデオ信号処理回路52Fから供給されるビデオ信号を順次内部のメモリ領域に格納すると共に、その格納されたビデオ信号を変換アドレスに基づいて読み出すことにより、当該ビデオ信号に対して3次元的な画像変換を施し、その結果得られるビデオ信号を補間回路53Eに送出する。
【0071】
補間回路53Dは3次元的な変換処理が施されたキー信号に補間処理を施す回路であり、変換アドレスに基づいてキー信号の画素を空間的に補間し、その結果得られるキー信号を後述するミキサブロック54に送出する。同様に、補間回路53Eは3次元的な変換処理が施されたビデオ信号に補間処理を施す回路であり、変換アドレスに基づいてビデオ信号の画素を空間的に補間し、その結果得られるビデオ信号を後述するミキサブロック54に送出する。
【0072】
ミキサブロック54は制御信号S43による指示に従ってビデオ信号を合成するブロックであり、2つのミツクス回路54A、54Bからなつている。ミツクス回路54Aは、特殊効果ブロック53から出力されるキー信号に基づいて、当該特殊効果ブロック53によって画像変換されたビデオ信号とデマルチプレクサ回路51Eから出力されるビデオ信号とを合成することによりビデオ信号S31を生成する。またミツクス回路54Bは、スイッチャブロック52から出力されるキー信号に基づいて、当該スイッチャブロック52から出力されるビデオ信号とミツクス回路54Aから出力されるビデオ信号S31とを合成することによりビデオ信号S32を生成する。このようにして生成されたビデオ信号S31、S32は、上述したようにマトリクススイッチャ部3Bに送出される。
【0073】
単に2つの映像を切り換えるだけのトランジションエフェクトを行う場合には、デマルチプレクサ回路51Dから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aを介してミツクス回路54Bに入力すると共に、ビデオ信号処理回路52Eから出力されるビデオ信号をフオアグラウンドビデオ信号としてミツクス回路54Bに入力し、その2つのビデオ信号をキー信号処理回路52Cから出力されるキー信号に基づいて合成する。これによりバツクグラウンドビデオ信号からフオアグラウンドビデオ信号に切り換わるビデオ信号S32が生成される。
【0074】
尚、フォアグランド映像とは、トランジションエフェクトの実行によって画面に現れる画像または、アニメーションエフェクトの実行によってバックグランフド画像に挿入され、エフェクトパターンを埋める画像の事を言う。また、バックグランド映像とは、トランジションエフェクトの実行によって、画面から消し去られる画像または、アニメーションエフェクトの実行によってフォアグランド画像が埋められたエフェクトパターンが挿入される画像のことを言う。
【0075】
またページターンのような画像変換を伴うトランジションエフェクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号をフオアグラウンドビデオ信号として特殊効果ブロック53を介して画像変換した後にミツクス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロック53を介して信号処理されたキー信号に基づいて合成する。これによりページをめくるようにしてバツクグラウンドビデオ信号からフオアグラウンドビデオ信号に切り換わるビデオ信号S31が生成される。
【0076】
またピクチヤインピクチヤのようなアニメーションエフェクトを行う場合には、デマルチプレクサ回路51Eから出力されるビデオ信号をバツクグラウンドビデオ信号としてミツクス回路54Aに入力すると共に、ビデオ信号処理回路52Fから出力されるビデオ信号を挿入素材として特殊効果ブロック53を介して画像変換した後にミツクス回路54Aに入力し、その2つのビデオ信号を特殊効果ブロック53を介して信号処理されたキー信号に基づいて合成する。これによりバツクグラウンドビデオ信号に挿入素材が挿入されたピクチヤインピクチヤのビデオ信号S31が生成される。
【0077】
続いて図7を用いて音声処理部3Dについて説明する。この図7に示すように、音声処理部3Dは大きく分けて制御回路55、入力信号処理ブロツク56、補助入力信号処理ブロック57、ミキサブロツク58及び出力信号処理ブロック59からなつている。制御回路55はこの音声処理部3Dの全体を制御する回路であり、コントロールバス3Eを介して受けた制御コマンドに基づいて制御信号S45、S46、S47、S48を生成し、当該制御信号S45、S46、S47、S48をそれぞれ入力信号処理ブロツク56、補助入力信号処理ブロツク57、ミキサブロツク58、出力信号処理ブロツク59に出力してその動作を制御する。これによりこの音声処理部3Dでは、マトリクススイツチヤ部3Bから供給されたオーデイオ信号(S28〜S30)に対して音声処理が施される。ここで言う音声処理とは、オーデイオ信号のレベル調整と合成のことである。
【0078】
入力信号処理ブロツク56は、SDI規格の信号形式がパラレル化され送られてくるビデオ及びオーデイオ信号S28〜S30からオーデイオ信号を抽出し、そのオーディオ信号を信号処理部(DSP部)で処理するためにDSPフォーマットのオーディオ信号に変換して送出するブロックである。この入力信号処理ブロツク56は、信号分離回路としてのセパレータ56A〜56Cを有している。セパレータ56A〜56Cは、それぞれパラレル化されたSDI規格のビデオ及びオーディオ信号S28〜S30からDSPフォーマットのオーデイオ信号を抽出する回路である。すなわち、セパレータ56A〜56Cは、入力されるビデオ及びオーデイオ信号S28〜S30からエンベデツトオーディオ信号を抽出して、シリアル化した後オーディオ信号をそれぞれミキサブロツク58に送出する。
【0079】
補助入力信号処理ブロック57は、外部から入力されるAES/EBU(Audio Engineering Society/European Broadcasting Union)フォーマットのオーディオ信号をDSPフォーマットのオーディオ信号に変換するブロックである。この補助入力信号処理ブロック57は、レート変換のためのサンプリングレートコンバータ57A〜57Dと、フォーマット変換回路としてのデコーダ57E〜57Hとを有している。サンプリングレートコンバータ57A〜57Dでは、供給されたAES/EBUフォーマットのオーディオ信号の異なるサンプリングレートが音声処理部3D内の所定のサンプリングレートに変換される。サンプリングレートが変換されたオーディオ信号は、デコーダ57E〜57Hに送出される。デコーダ57E〜57Hは、それぞれオーディオ信号をフオーマツト変換する回路であり、入力されるAES/EBUフォーマットのオーデイオ信号をそれぞれDSPフォーマットのオーディオ信号に変換し、その結果得られるオーディオ信号をそれぞれミキサブロツク58に送出する。
【0080】
ミキサブロツク58は、オーデイオ信号のレベル調整を行うと共に、信号合成を行うブロツクであり、ゲイン設定回路58A〜58Nと、加算回路58O、58Pと、ゲイン設定回路58A〜58Nの信号レベルを専用コントローラ5へ送信するメータデータ発生回路58Qとからなつている。入力信号処理ブロツク56から供給されたオーデイオ信号及び補助入力信号処理ブロック57から供給されたオーディオ信号は、それぞれ右側成分と左側成分に分離された後にゲイン設定回路58A〜58Gとゲイン設定回路58H〜58Nに入力される。ゲイン設定回路58A〜58Gと58H〜58Nは、コンピユータ2のモニタ2Bに表示されるGUIのオーディオフエーダ又は専用コントローラ5に設けられたオーディオフエーダの操作に連動して抵抗値が変化するようになされており、これにより入力されるオーディオ信号をそれぞれオペレータが指定した信号レベルにレベル調整する。
【0081】
ゲイン設定回路58A〜58Gによってレベル調整されたオーディオ信号は、それぞれ加算回路58Oに入力され、ここで加算された後に出力信号処理ブロツク59に送出される。同様に、ゲイン設定回路58H〜58Nによってレベル調整されたオーディオ信号は、それぞれ加算回路58Pに入力され、ここで加算された後に出力信号処理ブロック59に送出される。メータデータ発生回路58Qは、後述する専用コントローラ5のパネルのディジタルメータを直接制御するように、この時の信号レベルをデータへ変換する。変換されたデータは、専用コントローラ5へ送出される。
【0082】
出力信号処理ブロツク59は出力するDSPフォーマットのオーデイオ信号をSDI規格の信号形式をパラレル化したエンベデッドオーディオ信号に変換するブロックである。この出力信号処理ブロック59は、信号合成回路としてのエンベデツト回路59Aと、フオーマツト変換回路としてのエンコーダ59B、59Cとを有している。エンベデツト回路59Aは、マトリクススイツチヤ部3Bのコンバイナ44によってオーディオ信号をSDI規格のビデオ信号に重畳し得るように所定の信号形式に信号変換を行う回路であり、加算回路58O及び58Pから供給されたシリアルのオーディオ信号を合成した後に所定の信号形式、すなわちパラレルのエンベデッドオーディオ信号に信号変換を行う。この処理により得られたエンベデッドオーデイオ信号S33は、上述したようにマトリクススイツチヤ部3Bのコンバイナ44に送出される。
【0083】
エンコーダ59BはDSPフオーマツトのオーデイオ信号をAES/EBUフォーマットのオーディオ信号にフオーマツト変換する回路であり、加算回路58Oから出力されたオーデイオ信号をAES/EBUフォーマットのオーデイオ信号S17にフオーマツト変換し、音声確認用のスピーカ11(図1参照)に送出する。同様に、エンコーダ59CはDSPフオーマツトのオーデイオ信号をAES/EBUフォーマットのオーディオ信号にフオーマツト変換する回路であり、加算回路58Pから出力されたオーデイオ信号をAES/EBUフォーマットのオーディオ信号S18にフオーマツト変換し、音声確認用のスピーカ12(図1参照)に送出する。
【0084】
1−4.ローカルストレージの構成
次にこの項では編集処理装置3に接続されるデータ記憶手段としてローカルストレージ8について説明する。図8に示すように、このローカルストレージ8は、入出力インターフエイスとしてのデータ入出力ブロック60と、このローカルストレージ8全体の動作を制御するシステムコントロールブロック61と、ビデオデータを記憶するディスクアレイブロック62と、オーディオデータを記憶するディスクアレイブロック63とを有している。尚、この図8には、1チャンネル分の入出力ブロック及びディスクアレイブロックしか書かれていないが、実際には、5チャンネル分の入出力ブロック及びディスクアレイブロックがある。
【0085】
データ入出力ブロック60は入力1チヤンネル、出力2チヤンネルの構成を有しており、システムコントロールブロック61からの制御信号S60に基づいて、編集処理装置3から供給されたビデオ及びオーディオ信号S15にデータ記憶に先立つて所定の信号処理を施すと共に、ディスクアレイブロック62、63から読み出したデータに所定の信号処理を施してビデオ及びオーディオ信号S13A〜S13Eとして出力する。
【0086】
具体的に説明すると、まず編集処理装置3から供給されたビデオ及びオーディオ信号S15はエンコーダ60Aに入力される。エンコーダ60AはSDI規格のビデオ及びオーディオ信号S15からビデオ信号S61とオーディオ信号S62を抽出し、当該ビデオ信号S61をビデオ圧縮回路60Bに出力すると共に、オーディオ信号S62をオーディオ圧縮回路60Jに出力する。ビデオ圧縮回路60Bは、圧縮率1/10のMPEG規格でビデオ信号S61を圧縮し、その圧縮したビデオデータをバツフアメモリ60Cに格納する。同様に、オーディオ圧縮回路60Jは、所定の音声圧縮方式を用いてオーディオ信号S62を圧縮し、その圧縮したオーディオデータをバツフアメモリ60Kに格納する。バツフアメモリ60C、60Kに格納されたビデオデータとオーディオデータは、システムコントロールブロック61の制御の基に順次読み出され、ビデオデータ用のディスクアレイブロック62とオーディオ用のディスクアレイブロック63にそれぞれ記録される。
【0087】
一方、再生第1チヤンネルのビデオデータとしてディスクアレイブロック62から読み出されたビデオデータは、システムコントロールブロック61の制御の基に、順次バツフアメモリ60Fに格納される。同様に、再生第1チヤンネルのオーディオデータとしてディスクアレイブロック63から読み出されたオーディオデータは、システムコントロールブロック61の制御の基に、順次バツフアメモリ60Mに格納される。第1のビデオ伸長回路60Fは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバツフアメモリ60Fから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS63を第1のデコーダ60Dに出力する。同様に、第1のオーディオ伸長回路60Lは、圧縮されているオーディオデータをバツフアメモリ60Mから読み出し、当該オーディオデータを伸長処理した後、そのオーディオデータS64を第1のデコーダ60Dに出力する。第1のデコーダ60DはSDI規格のフオーマツトに基づいてビデオデータS63にオーディオデータS64を重畳する。これによりディスクアレイブロック62から読み出した再生第1チヤンネルのビデオデータとディスクアレイブロック63から読み出した再生第1チヤンネルのオーディオデータをSDI規格のビデオ及びオーディオ信号S13Aとして送出し得る。
【0088】
同様に、再生第2チヤンネルのビデオデータとしてディスクアレイブロック62から読み出されたビデオデータは、システムコントロールブロック61の制御の基に、順次バツフアメモリ60Iに格納される。また再生第2チヤンネルのオーディオデータとしてディスクアレイブロック63から読み出されたオーディオデータも、システムコントロールブロック61の制御の基に、順次バツフアメモリ60Pに格納される。第2のビデオ伸長回路60Hは、圧縮率1/10のMPEG規格で圧縮されているビデオデータをバツフアメモリ60Iから読み出し、当該ビデオデータを伸長処理した後、そのビデオデータS65を第2のデコーダ60Gに出力する。同様に、第2のオーディオ伸長回路60Nも、圧縮されているオーディオデータをバツフアメモリ60Pから読み出し、当該オーディオデータを伸長処理した後、そのオーディオデータS66を第2のデコーダ60Gに出力する。第2のデコーダ60GはSDI規格のフオーマツトに基づいてビデオデータS65にオーディオデータS66を重畳する。これによりディスクアレイブロック62から読み出した再生第2チヤンネルのビデオデータとディスクアレイブロック63から読み出した再生第2チヤンネルのオーディオデータをSDI規格のビデオ及びオーディオ信号S14として送出し得る。
【0089】
システムコントロールブロック61は、このローカルストレージ8の全体を制御するブロックであり、CPU61Aと、DMAコントローラ(Direct Memory Access controller)61B、61Cと、SCSIプロトコルコントローラ61D、61Eと、制御信号S12の入力インターフエイス61Fとを有している。CPU61Aはシステムコントロールブロック61の中心的存在である制御回路を構成しており、編集処理装置3からRS−422の通信プロトコルで送られてくる制御信号S12を入力インターフエイス61Fを介して受け、その制御信号S12が示す制御コマンドに基づいて、DMAコントローラ61B、61CとSCSIプロトコルコントローラ61D、61Eの動作を制御する。またCPU61Aは上述したように制御信号S60を生成してデータ入出力ブロック60に出力することにより当該データ入出力ブロック60の動作を制御する。
【0090】
さらにCPU61Aは、ディスクアレイブロック62及び63の記録アドレスを、記録されるデータのタイムコードと共に管理しており、これによりタイムコードを基準にしてそのタイムコードが示すデータの記録アドレスを容易に検索し得るようになされている。具体的には、CPU61Aは、ディスクアレイブロック62にフレーム単位で記録されるビデオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。同様に、CPU61Aは、ディスクアレイブロック63にフレーム単位で記録されるオーディオデータの全記録アドレスと、記録されるフレームの全タイムコードとを対応付けた対応表を内蔵メモリに記憶している。従って外部からタイムコードを指定しさえすれば、対応表を参照して記録アドレスを容易に探し出すことができ、ビデオデータ及びオーディオデータを速やかに再生することができる。
【0091】
ビデオ系のDMAコントローラ61Bは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロック60のバツフアメモリ60Cからビデオデータを読み出し、データ再生時にはデータ入出力ブロック60のバツフアメモリ60F、60Iにビデオデータを書き込む。またビデオ系のSCSIプロトコルコントローラ61Dは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Bから受け取つたフレーム単位のビデオデータと、そのビデオデータのフレームに付与されているタイムコードとをSCSIフオーマツトのデータS67に変換してビデオデータ用のディスクアレイブロック62に送出し、ビデオデータの記録を当該ディスクアレイブロック62に指示する。またSCSIプロトコルコントローラ61Dは、データ再生時、ディスクアレイブロック62から再生されたSCSIフオーマツトのビデオデータS67を受け取り、これを元のデータ形式に変換してDMAコントローラ61Bに送出する。
【0092】
同様に、オーディオ系のDMAコントローラ61Cは、CPU61Aからのコマンドに応じて、データ記録時にはデータ入出力ブロック60のバツフアメモリ60Kからオーディオデータを読み出し、データ再生時にはデータ入出力ブロック60のバツフアメモリ60M、60Pにオーディオデータを書き込む。またオーディオ系のSCSIプロトコルコントローラ61Eは、データ記録時、CPU61Aからのコマンドと、DMAコントローラ61Cから受け取ったフレーム単位のオーディオデータと、そのオーディオデータのフレームに付与されているタイムコードとをSCSIフオーマツトのデータS68に変換してオーディオデータ用のディスクアレイブロック63に送出し、オーディオデータの記録を当該ディスクアレイブロック63に指示する。またSCSIプロトコルコントローラ61Eは、データ再生時、ディスクアレイブロック63から再生されたSCSIフオーマツトのオーディオデータS68を受け取り、これを元のデータ形式に変換してDMAコントローラ61Cに送出する。
【0093】
ビデオデータ用のディスクアレイブロック62及びオーディオデータ用のディスクアレイブロック63は、それぞれ内部に複数のハードディスクを有したディスクアレイ装置からなり、その複数のバードディスクを並列的に同時運転してビデオデータやオーディオデータを記録するようになされている。またディスクアレイブロック62及び63は、データを記録するときに冗長性を持たせて記録するようになされており、これによりディスクアレイ装置内のいずれかのハードディスクが故障した場合でも、故障したハードディスクに記録されていたデータを復旧(再構築動作ともいう)し得るようになされている。なお、このようなデータの再構築機能を有するディスクアレイ装置は、一般に、RAID(Redandant Array of InexpensiveDisks)と呼ばれている。
【0094】
ここでこのようなディスクアレイブロック62、63について、以下に図を用いて具体的に説明する。但し、ディスクアレイブロック62、63は基本的に同一の構成を有しているので、ここではディスクアレイブロック62についてのみ説明する。図9に示すように、ディスクアレイブロック62は、大きく分けてバツフアメモリ62Aと、ディスクアレイコントローラ62Bと、データマルチプレクサ62Cと、パリテイ演算回路62Dと、複数のSCSIプロトコルコントローラ62E〜62Iと、複数のハードディスク62J〜62Nとからなつている。
【0095】
バツフアメモリ62Aはデータの一時記憶用のメモリであり、図8に示したシステムコントロールブロック61から送出されるSCSIフオーマツトのデータS67を順次受け取って記憶すると共に、データ再生時には後述するデータマルチプレクサ62Cから送られてくるデータをデータ送出に伴って一時的に記憶する。
【0096】
ディスクアレイコントローラ62Bは、このディスクアレイブロック62における記録動作や再生動作等、ブロック全体の動作を制御する回路である。このディスクアレイコントローラ62Bは、バツフアメモリ62Aに記憶されているデータのうちシステムコントロールブロック61からの制御コマンドに関するデータをコマンドデータバス62Pを介して受け取り、その制御コマンドに対応したコマンドデータをコマンドデータバス62Pを介してデータマルチプレクサ62C、SCSIプロトコルコントローラ62E〜62I及びハードディスク62J〜62Nに送出することにより各部の動作を制御する。
【0097】
データマルチプレクサ62Cは、データ記録時、ビデオデータ等の記録対象のデータをバツフアメモリ62Aから読み出して当該データをSCSIプロトコルコントローラ62E〜62Hを介して各ハードディスク62J〜62Mに振り分けると共に、振り分けたデータ内容をパリテイ演算回路62Dに通知する。またデータマルチプレクサ62Cは、データ再生時、各ハードディスク62J〜62Mから再生されたデータを1つにまとめてバツフアメモリ62Aに送出すると共に、ハードディスク62J〜62Mの損傷等により再生できなかつたデータがあるのであればパリテイ演算回路62Dから供給されるパリテイデータを基にそのデータを再構築演算によって再生する。
【0098】
パリテイ演算回路62Pは、データ記録時、データマルチプレクサ62Cが振り分けたデータ内容に基づいてそれらのデータのパリテイデータを演算し、当該パリテイデータをSCSIプロトコルコントローラ62Iを介してハードディスク62Nに供給する。またパリテイ演算回路62Pは、データ再生時、ハードディスク62J〜62Mから再生できないデータがあるのであれば、ハードディスク62Nから再生したパリテイデータをデータマルチプレクサ62Cに送出する。
【0099】
SCSIプロトコルコントローラ62E〜62Iは、データ記録時、データマルチプレクサ62Cから供給された記録対象のデータ又はパリテイ演算回路62Pから供給されたパリテイデータをハードディスク62J〜62Nの記録フオーマツトに合つたデータ形式に変換し、当該変換されたデータをハードディスク62J〜62Nに送出する。またSCSIプロトコルコントローラ62E〜62Iは、データ再生時、各ハードディスク62J〜62Nから再生されたデータをSCSIフオーマツトのデータ形式に変換し、これをデータマルチプレクサ62C又はパリテイ演算回路62Pに送出する。
【0100】
SCSIプロトコルコントローラ62E〜62Iは、ハードディスク62J〜62Nをアクセスした際に当該ハードディスク62J〜62Nの故障等によりデータ再生ができないことが検出された場合には、その検出結果をディスクアレイコントローラ62Bに送出するようになされており、これによりディスクアレイコントローラ62Bからデータマルチプレクサ62Cにデータ再構築を指示し得るようになされている。
【0101】
ハードディスク62J〜62Nは、ビデオデータ等の記録対象のデータを分散して並列的に記録するためのデータ記憶手段である。この例では、4つのハードディスク62J〜62Mを設けてデータを分散するようになっているが、この数は特に限定されるものではない。このハードディスク62J〜62Mは、データ記録時、SCSIプロトコルコントローラ62E〜62Hから供給されるデータを順次所望の記録エリアに記録すると共に、データ再生時にはデータを順次読み出してSCSIプロトコルコントローラ62E〜62Hに送出する。このように複数のハードディスク62J〜62Mを設けてデータを分散して記録するようにしたことにより、このディスクアレイブロック62ではビデオデータ等のような大容量のデータであつても確実に記録することができる。
【0102】
またハードディスク62Nは、記録対象のデータを基に算出したパリテイデータを記録するためのデータ記憶手段である。このハードディスク62Nは、データ記録時、SCSIプロトコルコントローラ62Iから供給されるパリテイデータを順次所望の記録エリアに記録すると共に、データ再生時にはパリテイデータを順次読み出してSCSIプロトコルコントローラ62Iに送出する。このように記録対象のデータを基に算出したパリテイデータを、当該記録対象のデータを記録するハードディスク62J〜62Mとは別のハードディスク62Nに記録するようにしたことにより、故障等によってハードディスク62J〜62Mからデータを再生できない場合でも、当該パリテイデータを基にデータを再構築することができる。
【0103】
ここでこのデータ再構築の原理について説明する。まずデータマルチプレクサ62Cによって割り振られたデータのうちハードディスク62Jに割り振られたデータをD0、ハードディスク62Kに割り振られたデータをD1、ハードディスク62Lに割り振られたデータをD2、ハードディスク62Mに割り振られたデータをD3とし、パリテイ演算回路62Pによって算出されたパリテイデータをPDとする。
【0104】
パリテイ演算回路62P内部には、図10Aに示すような論理演算手段70が設けられており、当該論理演算手段70によってパリテイデータを算出するようになされている。この論理演算手段70は、ハードディスク62Jに割り振られたデータD0と、ハードディスク62Kに割り振られたデータD1と、ハードディスク62Lに割り振られたデータD2と、ハードディスク62Mに割り振られたデータD3とを加算し、その加算結果が偶数であれば値「1」のパリテイデータPDを出力し、加算結果が奇数であれば値「0」のパリテイデータを出力する。加算結果が「0」である場合には、偶数と見なして値「1」のパリテイデータPDを出力する。
【0105】
具体的には、図10Bに示すように、例えばデータD0〜D3が全て値「0」の場合には、論理演算手段70は加算結果が「0」となるので値「1」なるパリテイデータPDを出力し、データD0〜D2が値「0」でデータD3が値「1」の場合には、加算結果が「1」となるので値「0」なるパリテイデータPDを出力する。以下、同様の原理でその他のデータの組み合わせについても、図10Bの図表のようなパリテイデータPDを出力する。このように算出されたパリテイデータPDは、上述したようにSCSIプロトコルコントローラ62Iを介してハードディスク62Nに記録される。
【0106】
ここで再生時にハードディスク62Lの故障で当該ハードディスク62Lに記録されているデータD2が再生できなかったとすると、ディスクアレイコントローラ62Bは、SCSIプロトコルコントローラ62Gからの再生不可の検出結果を受けて、データマルチプレクサ62Cにパリテイデータによるデータ再構築を指示する。これを受けたデータマルチプレクサ62Cは、図11Aに示すように、内部に設けられた論理演算手段71に対してハードディスク62Jから再生されたデータD0、ハードディスク62Kから再生されたデータD1、ハードディスク62Mから再生されたデータD3及びハードディスク62Nから再生されたパリテイデータPDを入力し、当該論理演算手段71によってデータD2の再構築のための演算を実行する。この論理演算手段71は、パリテイデータPDを算出する論理演算手段70と同様に、入力されるデータD0、D1、D3及びパリテイデータPDを加算し、その加算結果が偶数であれば値「1」の再構築データ(D2)を出力し、加算結果が奇数であれば値「0」の再構築データ(D2)を出力する。
【0107】
具体的には、図11Aに示すように、例えばデータD0、D1、D3が値「0」でパリテイデータPDが値「1」の場合には、論理演算手段71は加算結果が「1」となるので値「0」なる再構築データ(D2)を出力し、データD0、D1、PDが値「0」でデータD3が値「1」の場合には、加算結果が同じく「1」となるので値「0」なる再構築データ(D2)を出力する。以下、同様の原理でその他のデータの組み合わせについても、図11Bの図表のような再構築データ(D2)を出力する。この図11Bと先の図10Bを対比させれば分かるように、ハードディスク62Lの故障により再生できなかつたデータD2が正確に復元できている。
【0108】
このようにしてこのディスクアレイブロック62では、データ記録時、記録対象のデータD0〜D3を基にパリテイデータPDを算出してハードディスク62Nに当該パリテイデータPDを記録するようにしたことにより、データ再生時にハードディスク62J、62K、62L又は62Mの故障によりデータD0、D1、D2又はD3が再生できなかつた場合でも、当該パリテイデータPDを基に再生できなかつたデータD0、D1、D2又はD3を確実に復元し得る。
【0109】
2.グラフィックユーザインターフェースの構成
2−1.本実施例の編集装置1においては、まずコンピュータ2により編集用のアプリケーシヨンソフトウエアを、コンピュータ内部のハードディスクHDDより読み出して起動することによって、モニタ2B上に図12に示すような編集用のグラフィカルユーザインターフェース90を表示させる。
【0110】
編集処理を行なうためのグラフィカルユーザインターフェース90は、ビューアウインドウ92、ログウインドウ93及びプログラムウインドウ94の3つのウインドウから構成され、これら3つのウインドウを使用して編集操作を行なう。
【0111】
ビューアウインドウ92は、選択されたソースデバイスから再生されたビデオイメージをビューイングしながら、そのソースデバイスから再生された編集素材に対してイン点及びアウト点を設定するためのウインドウである。
【0112】
ログウインドウ93は、イン点及びアウト点の指定によって生成されたイベントを表わすクリップカード(スタンプピクチャ)を登録するためのウインドウである。
【0113】
プログラムウインドウ94は、イン点及びアウト点が指定されたイベントを、タイムラインに並べることによって、所望のプログラムを作成するためのウインドウである。
【0114】
大まかな編集方法としては、ビューアウインドウ92においてイン点及びアウト点を指定することでイベントを生成する。そして、ログウインドウ93にその作成したイベントをクリップカードとして表示する。このような作業を繰り返すことによってログウインドウ93上に複数のイベントを表わすクリップカードが表示される。
【0115】
次に、ログウインドウ93に登録されたイベントの中から所望のイベントをドラッグアンドドロップを使用して、プログラムウインドウ94のタイムライン95に並べてることによって、プログラムを作成することができる。また、このタイムライン上で、タイムライン95上に並べられたイベントに対してアニメーションエフェクト又はトランジションエフェクト等ビデオエフェクトを設定することができる。
【0116】
2−2.ビューアウインドウの構成
ビューアウインドウ92は、ソースデバイスを選択し、選択されたソースデバイスから再生されたビデオイメージをビューイングしながら、そのソースデバイスから再生された編集素材に対してイン点及びアウト点を設定するためのウインドウである。
【0117】
図13に示すように、ビューアウインドウ92は、ソースデバイスから再生されたビデオイメージをビューイングするビューア106と、選択されたソースデバイスをコントロールするためのデバイスコントロール部96と、ビューアウインドウ92に表示されている素材に対して、イン点を指定するためのマークインボタン115と、マークインボタン115のクリックによって指定されたイン点のスタンプ画像を表示するイン点画像表示部110と、ビューアウインドウ92に表示されている素材に対して、アウト点を指定するためのマークアウトボタン116と、マークアウトボタン116のクリックによって指定されたアウト点のスタンプ画像を表示するアウト点画像表示部112有している。
【0118】
ビューアウインドウ92は、イン点画像表示部110に表示されているスタンプ画像のタイムコードつまりイン点のタイムコードを表示するためのイン点タイムコード表示欄111と、アウト点画像表示部112に表示されているスタンプ画像のタイムコードつまりアウト点のタイムコードを表示するためのアウト点タイムコード表示欄113と、イン点とアウト点のマーキングによって生成されたイベントの期間(Duration)を表示するための欄であって、イン点のタイムコード及びアウト点のタイムコードに基いて演算されたタイムコードが表示されるDUR表示欄114とを有している。
【0119】
さらに、ビューアウインドウ92は、デイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTの各ソースデバイスを任意の選択するためのソース選択ボタン102(102A〜102E)を有している。編集オペレータが、これらのいずれかのソース選択ボタンをクリックすることにより、デイリーサーバ6、VTR7、ローカルストレージ8、補助入力部AUX及び内部入力INTのいずれかをソースデバイスとして選択することができる。
【0120】
補助入力部AUXは複数のソースを有するもので、現在、補助入力部AUXとして設定されている補助入力部(AUX1〜AUXn)内のいずれかの入力部名がソース選択ボタン102Dに表示される。
【0121】
デバイスコントロール部96は、スライダ(Slider)部120及びジヨグシヤトル部121とを有している。スライダ部120を操作することによって、イベントの長さを示すデユレーシヨン表示部120Aの範囲内においてスライダ120Bの表示される位置によって、現在、再生中のフアイルの現在位置を表すと共に、当該スライダ120Bをマウス2Dによってデユレーシヨン表示部120Aの任意の位置にスライドすることによってフアイルの所望の位置をサーチすることができる。矢印ボタン120C又は120Dをクリックすることにより、フアイルの位置をそれぞれ±1フレームずつ前後に移動させることができるようになされている。
【0122】
ジヨグシヤトル部121は、1倍速再生を指示する再生ボタン119Aと、スチル再生を指示するスチルボタン119Bと、シヤトル再生するシャトルモードを指示するシヤトルボタン121Aと、このシヤトルモードにおいてデバイスのサーチ速度を−50倍速から+50倍速範囲で可変にするためのボタン121B又は121Cとを有している。
【0123】
ビューアウインドウ92は、さらに、選択された編集素材名が表示される素材名欄107と、ビューア106に表示されている映像フレームのタイムコードが表示されるタイムコード表示欄108と、ビューアウインドウ92の状況(ステイタス)を表示するためのステイタス欄109とを有している。
【0124】
タイムコード表示欄108をクリックすることにより、当該タイムコード表示欄108を入力モードに設定することができ、ここでタイムコード表示欄108に素材の所望の位置のタイムコードを入力してエンターキーを入力することにより、素材の所望の位置をタイムコードに応じて探し出す(サーチ)ことができる。
【0125】
また、ステイタス欄109のステイタス表示が「OPEN」となると、デバイスコントロール部96によるデバイスコントロールによって選択された素材に対するデバイスコントロールが実行可能な状態に設定されていることを示す。
【0126】
さらに、ステイタス欄109にテンキー入力により再生速度を入力すると、当該再生速度でデバイスを再生モードに設定することができる。このとき再生中の素材の所望位置において、マークインボタン115をクリック入力することにより、その位置にイン点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれイン点画像表示部110とイン点タイムコード表示欄111とに表示される。さらに選択された素材のサーを行ない、マークアウトボタン116をクリック入力することにより、その位置にアウト点が設定されると共に、スタンプ画とタイムコードが取り込まれてそれぞれアウト点画像表示部112とアウト点タイムコード表示欄113とに表示される。
【0127】
また、イン点タイムコード表示欄111をクリックすることによってイン点タイムコード表示欄111をタイムコードの入力モードにかえることができ、このときイン点タイムコード表示欄111に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をイン点画像として読み出し、イン点画像表示部110に表示させることもできる。同様にしてアウト点タイムコード表示欄113をクリックすることによってアウト点タイムコード表示欄113をタイムコードの入力モードにかえることができ、このときアウト点タイムコード表示欄113に目的のタイムコード値をテンキー入力することにより入力タイムコードに対応する素材データの画像をアウト点画像として読み出し、アウト点画像表示部112に表示させることもできる。
【0128】
またビューアウインドウ92は、イン点とアウト点によって規定された編集素材を、イベントとして登録する前に、イン点からアウト点の素材をプレビューするためのプレビューボタン117と、そしてその設定状態でビューアウインドウ92においてイン点及びアウト点設定された素材をイベントとして登録するためのADDボタン122Aと、イベントを登録する際のエントリーモードとして、イベントをログウインドウ93にクリップカードをして登録するログモードを選択するログボタン122B、イベントを登録する際のエントリーモードとして、タイムライン95にイベントを登録するタイムラインモードを選択するタイムラインボタン122Cとを有している。
【0129】
2−3.ログウインドウの構成
ログウインドウ93は、ビュアーウインドウ92において登録されたイベントをクリップカード179として格納しておくためのデータベースウインドウである。
【0130】
このログウインドウは、複数のクリップカードを表示するためのクリップカード表示エリアと、ダイレクトエントリーボタン180と、シーンチェンジボタン178Aと、リコールボタン178Cと、ソートボタン178D、デリートボタン178E、ダウンロードボタン178Bとを有している。
【0131】
ダイレクトエントリーボタン178Cは、ログウインドウに格納されているクリップカード179をタイムライン上に自動的に並べるダイレクトエントリーモードを設定するためのボタンである。このダイレクトエントリーモードとは、ログウインドウ93に表示されているクリップカード179を、ドラッグアンドドロップせずにクリックするだけで、タイムライン上に並べることができるモードである。具体的には、後述する。
【0132】
シーンチェンジボタン178Cは、このログウインドウ93にクリップカード179として格納されるイベントに対して、一連のクリップ名を付けたい場合に使用するボタンである。このシーンチェンジボタン178Cがクリックされると、シーン名設定ダイアログがオープンする。このシーンの設定方法については後述する。
【0133】
リコールボタン178Cは、クリックすることによりクリップ名等をもとにクリップカード179を検索するボタンであっって、ソートボタン178Dはクリックすることによりクリップカード179を降順又は昇順に並べ替えするボタンであって、さらにデリートボタン178Eはクリックすることによってログウインドウ93上に登録したクリップカード179の削除を設定するボタンである。
【0134】
さらにダウンロードボタン178Bは、選択されたクリップカード179をローカルストレージ8へのダウンロードを指示するためのボタンである。
【0135】
このログウインドウ93に登録されたクリップカード179を表示するための表示形式として、図15A〜図15Cに示すように、3つのクリップカード表示形式が存在する。
【0136】
図15Aに示すような第1のクリップカード表示形式は、クリップ名、イン点のスタンプピクチャ及びイベントのデュレーションを表示する形式である。図15Bに示すような第2のクリップカード表示形式は、クリップ名、イベントデュレーション、イン点及びアウト点のタイムコード及びイン点及びアウト点のスタンプピクチャを表示する形式である。図15Cに示すような第3のクリップカード表示形式は、クリップ名、イベントデュレーション、イン点のスタンプピクチャ及びイベントに関する情報を記載したテキストを表示するテキスト表示欄を表示する形式である。
【0137】
編集オペレータによって、これらの3つのクリップカード表示形式の中から所望のクリップカード表示形式が選択され、このログウインドウ93にイベントをクリップカードとして格納する場合には、その選択されクリップカード表示形式となるようにクリップカードが表示される。
【0138】
2−4.プログラムウインドウの構成
プログラムウインドウ94は、ビューアウインドウ92においてイン点とアウト点が指定された素材及びログウインドウ93に格納されているクリップカード179を、タイムライン上にイベントとして並べることによって、プログラムリスト(ED)を作成するためのウインドウである。
【0139】
図16及び図17に示すようにプログラムウインドウは、ビデオ及びオーディオを貼り付ける複数のラインにより構成されているタイムライン95を有している。このタイムライン95は、ベースビデオライン(Base Video Line)132A、ベースオーディオライン132B、サブオーディオライン134、ビエフェクトライン135と、オーバレイライン(OverlayLine)136と、DSKライン137と、ボイスオーバライン138A、138Bとから構成される。
【0140】
ベースビデオライン(Base Video Line)132Aは、ベースとなるベースビデオを貼るためのラインであって、ベースオーディオライン132Bは、ベースビデオに関連するベースオーディオを貼るためのラインである。このベースビデオライン138Aとベースオーディオライン138Bは、常にリンクしており、同じ素材が使用される。
【0141】
オーバレイライン(Overlay Line)136は、2つの映像を合成するようなアニメーションエフェクトを設定した場合に使用するラインであって、ベースビデオに対してオーバレイさせるビデオを貼るためのラインである。サブオーディオライン134は、オーバレイライン136に貼られたオーバレイビデオのオーディオを設定するためのラインである。このオーバレイライン136とサブオーディオライン138Bは、常にリンクしており、同じ素材が使用される。
【0142】
エフェクトライン135は、ビデオエフェクトを設定するためのラインである。このエフェクトライン135の使い方については後述する。
【0143】
DSKライン137は、タイトルや文字スーパの合成等に使用されるダウンストリームキー(Down Stream Key)を設定するためのラインである。
【0144】
ボイスオーバライン138A及び138Bは、ベースオーディオに対して、アナウンサ等の声(Voice)を合成するためのラインである。
【0145】
タイムライン95に表示されるイベント及び設定されたエフェクトは各ライン毎に異なつた色に設定されている。例えば、ビデオイベントは青、オーディオイベントは黄色、エフェクトイベントはピンク色、DSKイベントは緑色によって表示される。
【0146】
またタイムライン95は、タイムライン上におけるカレントタイム又はカレント位置を表わすナウライン139を有している。タイムライン95上のイベントをプレビューするプレビューモードのときには、ビューアウインドウ92に画面表示されるビデオフレームと連動して、ナウライン139がタイムライン上を右に移動する。
【0147】
ナウライン139はタイムライン95が表示されているときは、当該タイムライン95上に常時表示されるようになされており、通常は灰色表示され、プレビュー又は再生実行中には赤色に色別表示される。このようにナウライン139をプレビュー又は再生実行中とで色別表示するようにしたことにより、現在、ナウライン139によって示されるタイムコード位置に対応する映像クリツプがビューアウインドウ92に画面表示されているものであるか否かを視覚により容易に識別し得る。
【0148】
図16に示すようにナウライン139は、タイムライン95の上部に表示される入力ツール140によつて簡易にタイムライン95上の所望の位置へ移動させることができるようになされている。プログラムウインドウ94には、入力ツール140としてナウライン139をタイムライン95の先頭に移動させるヘツドボタン141、ナウライン139をタイムライン95上の最後尾のイベントに直後に移動させるテールボタン142、ナウライン139を現在位置するイベントの一つ前のイベントに移動させる前ボタン143、ナウライン139を現在位置するイベントの一つ後のイベントに移動させる次ボタン144、ナウライン139をタイムライン95上の所定の位置に移動しスライダ146が設けられている。
【0149】
またタイムライン95には、ナウライン139のタイムライン上の現在位置を表示するためのカウントタイム表示欄152が設けられている。
【0150】
また、タイムライン95上には、タイムコードに対応した目盛りを表すスケールライン147(Scale Line)が設けられている。このスケールライン147のスケール幅は、タイムライン95に貼り付けられるイベントの長さ、及びタイムライン上で作成されるプログラムの長さに応じて任意に変更できる。
【0151】
図17に示すように、プログラムウインドウ94には、GUIツールとしてタイムライン95に設定される時間又は、スケールライン147の一目盛りが示す時間を調整するためのズームアウトボタン150及びズームインボタン151が設けられている。ズームアウトボタン150は、プログラムウインドウ94の1画面で表示できるタイムラインの時間を長く設定するものである。またズームインボタン151はプログラムウインドウ94の1画面で表示できるタイムラインの時間を短く設定するものである。
【0152】
またプログラムウインドウ94には、入力ツールとして、リツプルボタン154、マニユアルロケーシヨンボタン155、トリムボタン156、マツチカツトボタン157、デリートボタン158及びビデオエフェクトボタン159が設けられている。
【0153】
リツプルボタン154は、既にベースラインに並んでいるイベントの途中にイベントを貼り付ける場合、貼り付けるイベントを挿入イベントとしてベースラインに挿入し、以降のイベントをその挿入イベントの次に続くように順次、繰下げて並べ替える処理を設定すると共に、ベースライン上のイベントが削除又は移動された場合にはベースラインに穴が開いた部分に後に続くイベントを繰り上げて並べるという処理を設定する。
【0154】
またマニユアルロケーシヨンボタン155は、エフェクトの位置(ロケーシヨン)を設定し得るようなアニメーションエフェクトを設定するときに、当該アニメーションエフェクトをかけるイベントのプレビュー又はレコーデイング実行中にマウス2Dによる操作によってエフェクトのロケーシヨンを制御し得るように設定する。
【0155】
またトリムボタン156は、タイムライン95上においてイベントにトリムを設定しモニタ上にてイベントのバックグランド及びバツクグランドをその境界部分共に表示し、マツチカツトボタン157は、イベントをナウライン139の位置にて2つに切り離す設定をするためのボタンとして設けられている。
【0156】
またデリートボタン158は、イベントに対して削除を設定するものである。またビデオエフェクトボタン159は、映像の変わり目や映像自体にエフェクト(ビデオエフェクト)をかけるためのダイアログを表示させるものである。
【0157】
さらにプログラムウインドウ94には、サブオーディオライン134、ボイスオーバライン138に貼り付けられたオーディオイベントのフェードイン又はフエイドアウトの効果を付けるためのオーディオフェードボタン160、DSKの各種設定を行うためのダイアログを開くためのDSKボタン161及び最終的なオーディオの4チヤネル出力に対してタイムライン上のオーディオをどのようにルーテイングするかを決定するためのダイアログを表示させるミツクスダウンボタン162が設けられている。
【0158】
2−5.デバイスアイコン
本実施例の編集装置においては、ビューアウインドウ92、ログウインドウ93及びプログラムウインドウ94の各ウインドウにおいて、編集対象となっている素材及びイベントが、どのソースデバイスの素材及びイベントであるのかを示すデバイスアイコン165が表示される。
【0159】
デバイスアイコン165は、図18A〜図18Eに示すような、5種類のデバイスアイコンを有している。素材のソースデバイスがデイリーサーバ6の場合はサーバアイコン165A、素材のソースデバイスがローカルストレージ8の場合はローカルストレージアイコン165B、素材のソースデバイスがVTR7の場合はVTRアイコン165C、素材のソースデバイスが補助入力部AUXである場合はAUXアイコン165D、素材のソースデバイスが編集装置内部の信号発生装置である場合はINTアイコン126がそれぞれ表示される。
【0160】
ビューアウインドウ92においては、図13に示されるように、ビューア106に表示されている映像がどのソースデバイスであるかを示すために、ビューア106の上部に、このデバイスアイコン165が表示される。つまり、デバイスアイコン165をイベント画像と同時にビューアウインドウ92上に表示するようにしたことにより、ビューアウインドウ92に再生されている映像がどのソースデバイスから供給されている映像であるかを、デバイスアイコン165によって容易に識別することができる。
【0161】
ログウインドウ93においては、図18に示されるように、各クリップカード179によって示されるイベントがどのソースデバイスから生成されたイベントであるかを示すために、各クリップカード毎にデバイスアイコン165が表示される。つまり、デバイスアイコン165を各クリップカード179毎に表示するようにしたことにより、各クリップカード179によって示されるイベントが、どのソースデバイスの映像から生成されたイベントであるかを、デバイスアイコン165によって容易に識別することができる。
【0162】
プログラムウインドウ94においては、図16に示すように、タイムライン上に登録された各イベントどのソースデバイスから生成されたイベントであるかを示すために、各イベント毎にデバイスアイコン165が表示される。つまり、デバイスアイコン165をタイムライン上の各イベント毎に表示するようにしたことにより、各イベントが、どのソースデバイスの映像から生成されたイベントであるかを、デバイスアイコン165によって容易に識別することができる。
【0163】
編集オペレータが、編集プログラムを作成するにあたって、各イベントのソースデバイスを認識しなければいけない理由を説明する。本実施例の編集装置において使用されているローカルストレレージ8は、ランダムアクセス可能な記録媒体を使用し、しかも、マルチチャンネルのビデオ及びオーディオをリアルタイムで再生できる能力を有しているので、エフェクト設定やプログラム生成処理に関して何の制限もない。
【0164】
しかし、VTR7のようにランダムアクセスできない記録媒体の場合には、キューアップするためにはテープをまき戻す時間が必要であるため、エフェクト設定及びプログラム生成処理に関して多くの制限が設けられている。例えば、VTR7のテープ上の素材から生成された2つ以上のイベントを、タイムライン上において近くに並べるようなプログラムを作成することはできない。また、同じように、VTR7のテープから生成された2つ以上のイベントを、時間的重なるように、ベースビデオラインとオーバレイビデオラインに配置するようなプログラムは作成することはできない。
【0165】
また、サーバから生成された素材に関しては、VTRほどエフェクト設定及びプログラム生成処理において制限はないが、ローカルストレージ8に比べるとアクセス性能が遅いという理由と、編集処理装置から離れた位置に配置されているため、ビデオ信号の受取りに遅延が発生することがあるという理由で、数種類のエフェクト設定に関して制限がある。
【0166】
以上のような理由で、編集オペレータは、編集プログラムを作成するにあたって、各イベントのソースデバイスを認識しなければいけない。
【0167】
このように、各イベントに対して、デバイスアイコンを付与することによって、容易にソースデバイスを認識することができる。これにより、イベントに対してエフェクトを設定するとき、イベントのソースデバイスが、VTR7、デイリーサーバ6又はローカルストレージ8であるか否かを容易に判別することができる。例えば、エフェクトを付加しようとするイベントのソースデバイスがVTR7であって、タイムライン上においてそのイベントの近くに設定されているイベントのソースデバイスもVTRであることが判明した場合には、どちらかのイベントをVTR7からローカルストレージ8にダウンロードするように指示することができる。つまり、素材に対する編集操作をより確実に行なうことができる。
【0168】
3.ファイルマネージャ
本実施例の編集装置においては、ローカルストレージ8にダウンロードした素材や完成ビデオプログラム、コンピュータ2のハードディスクHDDに保存されたプログラムリストやログクリップ等の各種データは、ファイルマネージャで管理するようにされている。つまり、登録されたイベントは、1つのファイルとしてこのファイルマネージャによって管理されている。
【0169】
また、このファイルマネージャによって、各ファイルは予め指定された特定のフォルダに格納されるように管理されている。例えば、ログファイルは、ログフォルダに格納され、プログラムリスト(EDL)ファイルは、プログラムリストフォルダに格納され、素材ファイルは、素材フォルダに格納され、完成ビデオプログラム(Edited Master)に関するデータを記憶する編集マスタファイルは、編集マスタフォルダに格納されるようになっている。
【0170】
このファイルマネージャによって管理される全てのファイルは、図27に示したようなファイル情報を有している。このファイル情報は、ファイル名331、イベント名332、イン点のタイムコード333、イン点のクリップアドレス334、アウト点のタイムコード335、アウト点のクリップアドレス336、ディユレーション337、ファイルタイプ情報338、ファイル位置情報339、ソースデバイスID情報340、作成日時341、ビデオ調整情報342、オーディオ調整情報343、テキストデータ344、プログラムリスト名345等から構成されている。
【0171】
このファイル名331は、このイベントがどのファイル名の素材から生成されたデータであるかを示すためのデータであって、ソースファイル名の名前が登録される。ソースデバイスが、ローカルストレージ8又はサーバ6の場合には、そのソースファイル名が登録されるが、ソースデバイスが、VTRの場合には、テープカセットのリール名が登録される。
【0172】
イベント名332は、編集オペレータが任意に付与することのできる名称である。このイベント名は、すでに説明したクリップ名と同じものであって、単に、ログウインドウ93に表示されているクリップに付与されている名称をクリップ名と呼び、タイムラインウインドウ95に表示されているイベントに付与されている名称をイベント名と呼んでいる。
【0173】
イン点のクリップアドレス334及びアウト点のクリップアドレス336は、イン点及びアウト点をマーキングしたときに生成されたスタンプピクチャが記憶されているコンピュータ2のハードディスクHDDのアドレスを示している。
【0174】
ファイルタイプ情報338は、そのファイルがログクリップを示すファイルであるのか、プログラムリストを示すファイルであるのか、ローカルストレージにダウンロードされた素材を示すファイルであるのか、ローカルストレージに記録済みの完成プログラムであるのかを示す情報である。「Log」は、そのファイルがログクリップであることを示し、「EDL」は、そのファイルがプログラムリストであることを示し、「Material」は、そのファイルがローカルストレージにダウンロードされた素材であることを示し、「Master」は、そのファイルが、ローカルストレージに記録済みの完成プログラムであることを示している。
【0175】
ファイル位置情報339は、そのファイルがコンピュータ2のハードディスクHDDに記録されているデータファイルであるのか、ローカルストレージ8内の素材ファイルであるのかを示すデータである。「C」は、コンピュータ内のデータファイル「であることを示し、「L」はローカルストレージ内の素材ファイルを示している。
【0176】
ソースデバイス情報は、このファイル情報によって示される素材がどのソースデバイスに記録されているかを示す情報である。「S」はソースデバイスがサーバ6であることを示し、「L」はソースデバイスがローカルストレージであることを示し、「V」は、ソースデバイスが、VTRであることを示し、「A」はAUX(オグジャリー)素材であることを示し、「I」は内部素材であることを示している。
【0177】
4.編集処理の動作
4−1.イベント作成処理
まず、図20のフローを参照して、編集処理の最初の処理であるイベント作成処理ついて説明する。尚、以下の説明において使用する「編集オペレータの操作」とは、コンピュータ1を操作する編集オペレータが、例えば、モニタ2Bに表示されたグラフィックイメージのある部分をマウス2D等のポインティングデバイスによってクリック、ドラッグ及びドロップする操作や、キーボード2C、マウス2D、専用コントーラ4、5等を直接操作することを示している。
【0178】
まず、ステップSP301において、コンピュータ1のCPU21は、編集オペレータの操作に応答して、制御対象となるソースデバイスを選択する。具体的には、編集オペレータが、GUI用の画像としてモニタ2B上に表示されたビューアウインド92のソース選択ボタン102A〜102Eのいずれかをクリックすることにより、CPU21は、制御対象となるソースデバイスを決定することになる。例えば、オペレータによってソース選択ボタン102AがクリックされるとCPU21はソースデバイスとしてデイリーサーバ6が選択されたと判断し、オペレータによってソース選択ボタン102Bがクリックされると、CPU21はソースデバイスとしてVTR7が選択されたと判断し、オペレータによってソース選択ボタン102Cがクリックされると、CPU21はソースデバイスとしてローカルルトレージ8が選択されたと判断する。
【0179】
ステップSP302では、CPU21は、編集オペレータの操作に応答して、ステップSP301において指定されたソースデバイスに登録されている素材ファイルを検索する。具体的には、まず、コンピュータ1のモニタ2B上に図21に示したような素材検索用のダイアログ300が表示される。このダイアログ300は、入力項目として、素材データの生成日時を入力するための生成日時入力覧301と、ファイル名称入力覧302と、ファイルタイプ入力覧303と、オーディオモード選択覧304と、プログラム名入力覧305と、検索実行指示ボタン306とを有している。例えば、ファイル名称入力覧302に「FIRE」というキーワードを入力すると、ファイル名称に「FIRE」という文字が含まれているファイルのみを検索することができる。編集オペレータがダイアログ300の各入力覧に所望のデータを入力することによって検索条件が設定され、その後、編集オペレータによって検索実行ボタン306が押されると、CPU21は、このダイアログ300に設定された条件に従ってソースデバイスに登録されたファイルを検索する検索処理を実行する。
【0180】
CPU21は、RAM21Bに記憶されたファイル情報を参照し、ダイアログ300に設定された条件にあったファイルを検索する。そして、CPU21は、その検索結果を図22に示されるようなファイルリスト310として表示する。
【0181】
ステップSP303では、CPU21は、編集オペレータの指示に応答して、ステップSP302における検索結果のファイルリストから所望のファイルを選択する。具体的には、編集オペレータがファイルリスト310の中から所望のファイル名をクリックすると、CPU21は、編集オペレータによって指定されたファイルを選択する。
【0182】
ステップSP304では、CPU21は、選択されたファイルに含まれるビデオデータ及びオーディオデータを再生し、その再生されたビデオデータがビューアウインドウ92に表示される共に、再生されたオーディオデータがスピーカ11及び12から再生されるように、選択されたソースデバイス及び編集装置3を制御する。一例として、デイリーサーバ6に記録されているファイルを再生する場合を例にあげて説明する。
【0183】
まず、CPU21は、LAN10を介してデイリーサーバ6に対して、ステップSP303において選択されたファイルをデイリーサーバから再生するための制御信号を供給する。デイリーサーバ6は、この制御信号に基いて、指定されたファイルに含まれるビデオデータ及びオーディオデータをSDIフォーマットの規格に基いたデジタル信号S7として編集処理装置3に供給する。供給されたデジタル信号S7は、編集処理装置3のマトリクススイチャ部3Bの入力端子IN1に入力される。
【0184】
CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1と出力端子OUT9を接続するためのクロスポイントP19をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN1に供給されたSDIフォーマットのデジタル信号S7は、出力端子OUT9からSDIフォーマットのデジタルビデオ信号S26として出力され、画像処理部3Cに供給される。
【0185】
出力端子OUT9から出力されたSDIフォーマットのデジタルビデオ信号S26は、画像処理部3Cのデマルチプレクサ51Dに供給される。デマルチプレクサ51Dは、SDIフォーマットのデータのペイロード部からデジタルビデオ信号を抽出し、その抽出されたデジタルビデオ信号は、スイッチャブロック52、特殊効果ブロック53及びミキサブロック54を介して出力ビデオ信号S31として出力される。
【0186】
画像処理部3Cから出力されたデジタルビデオ信号S31は、再びマトリックススイッチャ部3Bの入力端子IN9に供給される。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN9と出力端子OUT5を接続するためのクロスポイントP95をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN9に供給されたデジタルビデオ信号S31は、アウトプットプロセッサ46を介して出力端子OUT5からデジタルビデオ信号S2としてコンピュータ2に出力される。
【0187】
編集処理装置3から出力されたデジタルビデオ信号S2は、コンピュータ2のビデオプロセッサ22に供給され、表示コントローラ23を介してコンピュータモニタ2Bビューアウインドウ92に表示される。
【0188】
一方、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1に供給されたSDIフォーマットのデジタル信号S7を、音声処理部3Dに供給するように、マトリクススイチャ部3Bを制御する。つまり、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1と出力端子OUT11を接続するためのクロスポイントP111をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN1に供給されたSDIフォーマットのデジタル信号S7は、出力端子OUT9からだけでは無く、出力端子OUT11からもデジタル出力信号S28として、音声処理部3Dに出力される。
【0189】
SDIフォーマットのデジタル出力信号S28のペイロード部には、ビデオデータが重畳され、補助データ部にはオーディオデータが重畳されているので、音声処理部3Dのセパレータ56Aは、SDIフォーマットのデジタル信号S28からオーディオデータみをセパレートする。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、セパレートされたオーディオ信号S48を、ミキサブロック57を介して、出力オーディオ信号S17、S18としてスピーカ11及び12に供給するように音声処理部3Dを制御する。
【0190】
ステップSP305では、編集オペレータの操作に従って、コンピュータのCPU21は、選択されたソースデバイスから再生されたビデオデータとオーディオデータを調整する。具体的には、編集オペレータによってビューアウインドウ92のビデオアジャストキー167Aがクリックされると、コンピュータ2のCPU21は、図23に示したようなビデオレバル設定用のダイアログ170をモニタ2Bに表示する。編集オペレータは、スライダ部170をマウス2Dによって移動させて、所望のLuminanceやChroma等のレベルを設定することができる。
【0191】
コンピュータ2のCPU21は、システムコントロール部3Aを介して、このビデオレベル設定用のダイアログ170によって設定された各レベルを、ファイル情報のビデオ調整情報として記憶する。また、CPU21は、選択されたソースデバイスから再生されたビデオデータのLuminanceレベル及びChromaレベルが、このビデオレバル設定用のダイアログ170によって設定されたLuminanceレベル及びChromaレベルとなるように、画像処理部3Cのビデオ信号処理回路52E及び52Fを制御する。
【0192】
尚、上述したビデオレベル調整処理は、編集オペレータによってビデオアジャストキー167Aがクリックされた場合にのみ行われる処理である。このようなビデオレベル調整処理が行われない場合には、基準Luminanceレベル及び基準Chromaレベルとして予め設定されたデフォルト値によってビデオ信号が調整される。
【0193】
一方、編集オペレータによってビューアウインドウ92のオーディオアジャストキー167Aがクリックされると、コンピュータ2のCPU21は、図24に示したようなオーディオビデオレバル設定用のダイアログ172をモニタ2B上に表示する。編集オペレータは、スライダ173Aを調整及びフェーダ174Aをマウス2Dによって移動させることによって、所望のオーディオ入出力レベルを設定することができる。
【0194】
コンピュータ2のCPU21は、システムコントロール部3Aを介して、このオーディオビデオレバル設定用のダイアログ172によって設定されたオーディオレベルを、ファイル情報のオーディオ調整情報として記憶する。また、CPU21は、選択されたソースデバイスから再生されたオーディオデータの入出力レベルが、このオーディオレベル設定用のダイアログ172によって設定されたオーディオデータの入出力レベルとなるように、音声処理部3Dのミキサブロック57を制御する。
【0195】
尚、上述したオーディオレベル調整処理は、編集オペレータによってオーディオアジャストキー167Bがクリックされた場合にのみ行われる処理である。このようなオーディオレベル調整処理が行われない場合には、オーディオデータの基準入出力レベルとして予め設定されたデフォルト値によってオーディオ信号が調整される。
【0196】
ステップSP306において、CPU21は、編集オペレータの操作に基いて、選択されたソースファイルに記録されているビデオ素材をサーチする。具体的には、編集オペレータが、ビューアウインドウ92のデバイスコントロール部96を操作すると、コンピュータ2のCPU21は、その操作に対応するように、選択されたソースデバイスの再生動作を制御する。その結果、ビューワウインドウ92のビューア106には、編集オペレータの指定した速度のビデオデータが表示される。
【0197】
ステップSP307において、CPU21は、編集オペレータの操作に基いて、イン点及びアウト点を設定する。具体的には、ステップSP306のサーチ処理によって、選択されたファイルのビデオイメージがビューア106に動画として表示されているときに、編集オペレータがステップSP306のようにビデオフレームをサーチすることによって所望のビデオフレームがビュワーウインドウ92のビューア106に表示されたときに、ビュワーウインドウ92のマークインボタン115をクリックすると、そのマークインボタン115をクリックしたタイミングでイン点が指定される。CPU21は、そのマークインボタン115がクリックされるとそのクリック操作に応答して、そのクリックされたタイミングにおけるビューア106に表示されていたビデオデータを、クリップ画(スタンプピクチャ)としてイン点画像表示部110に表示する。それと同時に、CPU21は、そのイン点がマーキングされたタイミングのビデオフレームに付与されていたタイムコードをイン点のタイムコードとして認識する。
【0198】
イン点が指定された後、編集オペレータがステップSP306のようにビデオフレームをさらにサーチし、所望のビデオフレームがビュワーウインドウ92のビューア106に表示されたときに、マークアウトボタン116をクリックすると、そのマークアウトボタン116をクリックしたタイミングでアウト点が指定される。CPU21は、そのマークアウトボタン116がクリックされるとそのクリック操作に応答して、そのクリックされたタイミングにおけるビューア106に表示されていたビデオデータを、クリップ画(スタンプピクチャ)としてアウト点画像表示部112に表示する。それと同時に、CPU21は、そのアウト点がマーキングされたタイミングのビデオフレームに付与されていたタイムコードをアウト点のタイムコードとして認識する。
【0199】
このようにアウト点が指定されると、CPU21は、設定されたイン点及びアウト点それぞれのタイムコードからイン点及びアウト点間の時間が計算され、その計算した時間をビューアウインドウ92上のDUR表示欄114に表示する。
【0200】
ステップSP308では、CPU21は、編集オペレータの操作に基いて、ステップSP307において設定されたイン点及びアウト点によって指定された期間をプレビューする。具体的には、編集オペレータが、ビューワウインドウ92のプレビューボタン117をクリックすると、CPU21は、イン点よりも数秒前のビデオフレームからアウト点のビデオフレームまでを再生するように、編集制御装置3のシステムコントロール部3Aを介して、適切なソースデバイス(デイリーサーバ6、ローカルストレージ8又はVTR7)を制御する。
【0201】
本実施例の編集システムにおけるプレビュー処理は、ステップSP307の処理によって生成されたイベントが、タイムライン95のナウライン139の位置に登録されたと仮定して行われる処理である。また、このプレビュー処理は、イン点から再生を開始するのではなく、イン点の数秒前(例えば5秒前)から再生を開始するようにしている。
【0202】
つまり、このプレビュー処理は、仮想的にイベントをタイムライン上の登録し、イン点の数秒前から再生を開始するようにすることによって、実際にイベントをタイムライン上に登録する前に、これから登録しようとしているイベントとその直前のイベントとのつなぎめを仮想的に確認することができる。
【0203】
もし、このプレビューの結果、素材自体及びイン点及びアウト点の設定等が気に入らない場合には、再びステップSP301又はステップSP306に戻ることができる。
【0204】
尚、このステップSP308は、必須の処理ではなくて、編集オペレータによってプレビューボタン117がクリックされたときにのみ行われる処理である。
【0205】
ステップSP309では、コンピュータ2のCPU21は、編集オペレータの操作に従って、デイリーサーバ6及びVTR7の素材をローカルストレージ8にダウンロードする処理が指定されたか否かを判断する。具体的には、編集オペレータが、ビューアウインドウ92のダウンロードボタン123Aをクリックすると、CPU21は、ダウンロード処理が指定されたと判断する。尚、このダウンロード処理は、ステップSP301においてソースデバイスとして、デイリーサーバ6又はVTR7が指定されているときにのみ行なえる処理である。編集オペレータによって、ダウンロード処理が指定されると、CPU21は、図25に示すようにダウンロード処理設定用のダイアログ320をオープンし、ステップSP310に進む。一方、編集オペレータによってダウンロード処理が指定されない場合にはステップSP312に進む。
【0206】
ステップSP310では、CPU21は、編集オペレータの操作に従って、ダウンロード処理を開始する。具体的には、CPU21が実際にダウンロード処理を開始する前に、まず、編集オペレータがダウンロード処理設定用のダイアログ320においてダウンロード処理おいて必要な設定を入力する。ファイル名称入力部321は、ローカルストレージにダウンロードされるファイルに対して付与される新たなファイル名を設定するための設定覧であって、スタートタイムコード設定部322は、ローカルストレージにダウンロードされるファイルのスタートタイムコードを設定するための設定覧であって、転送スピード設定覧323は、選択されたソースデバイスからローカルストレージに転送される転送スピードを設定するための設定覧である。
【0207】
編集オペレータが、ダウンロード処理設定用のダイアログ320に必要な設定を入力し、エグゼキュートボタン324をクリックすると、CPU21は、指定されたファイルのイン点からアウト点までのビデオデータをローカルストレージ8にダウンロードするように、ソースデバイス及び編集制御装置3を制御する。以下に、デイリーサーバ6に記録されているファイルのイン点からアウト点のビデオデータ及びオーディオデータをローカルストレージ8にダウンロードする場合を例に挙げて、コンピュータ2のCPU21及び編集制御装置3の動作を説明する。
【0208】
まず、デイリーサーバ6は、指定されたファイルのイン点のビデオデータ及びオーディオデータから再生を開始し、その再生されたビデオ信号及びオーディオ信号をSDIフォーマットの規格に基いたデジタル信号S7として編集処理装置3に供給する。供給されたデジタル信号S7は、編集処理装置3のマトリクススイチャ部3Bの入力端子IN1に入力される。
【0209】
デイリーサーバ6から再生されたデジタル信号S7をローカルストレージ8にダウンロードしなければいけないので、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1と出力端子OUT1を接続するためのクロスポイントP11をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN1に供給されたSDIフォーマットのデジタル信号S7は、アウトプットプロセッサ43を介して出力端子OUT1からSDIフォーマットのデジタル信号S15として出力される。
【0210】
ローカルストレージ8は、編集処理装置3から供給されたデジタル信号S15を、RAIDアルゴリズムを使用して適切な記録媒体に記録する。その結果、デイリーサーバ6に記録されているビデオ及びオーディオデータが、ローカルストレージ8にダウンロードされる。
【0211】
一方、このようなダインロード処理中、ローカルストレージにダウンロードされているビデオ信号をビューワウインドウ92に表示するために、まず、CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN1に供給されたSDIフォーマットのデジタル信号S7を出力端子9に出力するように、マトリクススイチャ部3BのクロスポイントP19をアクティブにする。その結果、入力端子IN1に供給されたSDIフォーマットのデジタル信号S7は、出力端子S15を介してローカルストレージにダウンロードされると同時に、出力端子OUT9を介して、SDIフォーマットのデジタルビデオ信号S26として画像処理部3Cに供給される。
【0212】
出力端子OUT9から出力されたSDIフォーマットのデジタルビデオ信号S26は、画像処理部3C部を通って、出力ビデオ信号S31として再びマトリックススイッチャ部3Bの入力端子IN9に供給される。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN9と出力端子OUT5を接続するためのクロスポイントP95をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN9に供給されたデジタルビデオ信号S31は、アウトプットプロセッサ46を介して出力端子OUT5からデジタルビデオ信号S2としてコンピュータ2に出力される。
【0213】
編集処理装置3から出力されたデジタルビデオ信号S2は、コンピュータ2のビデオプロセッサ22に供給され、表示コントローラ23を介してコンピュータモニタ2Bのビューアウインドウ92に表示される。
【0214】
つまり、デイリーサーバ6から再生されたビデオデータは、ローカルストレージ8にダウンロードされると同時に、コンピュータ2のビューワウインドウ92に表示される。尚、本実施例の編集装置では、編集素材を、このようにローカルストレージ8にダウンロードしながらビューワウインドウ92に表示するようにする処理を「バックグランドでのダウンロード処理」と呼んでいる。
【0215】
ステップSP311では、編集オペレータの指示に従って、CPU21は、バックグラウンドでダウンロード処理を行なうように編集処理装置3を制御する。編集オペレータが、ダウンロード処理中にダウンロード設定用ダイアログ320のキャンセルボタン325をクリックすること、フォアグラウンド処理として行われていたダウンロード処理が、バックグランド処理として行なわれる。具体的には、CPU21は、編集オペレータによってダウンロード設定用ダイアログ320のキャンセルボタン325がクリックされると、デイリーサーバ6からのデジタルデータが供給される入力端子IN1と、ダウンロードするための出力端子OUT1とのクロスポイントP11は、アクティブの状態で維持するが、入力端子IN1と画像処理部3Dに出力するためのOUT端子OUT9とのクロスポイントP19を、インアクティブにするように、マトリックススイッチャ部3Bを制御する。
【0216】
その結果、デイリーサーバから再生されたデジタル信号S7は、ローカルストレージ8にダウンロードされ続けるが、画像処理部3C及びコンピュータ2への供給はストップする。つまり、コンピュータ2を操作する編集オペレータから見ると、オペレータの見えないバックグランドでこのダウンロード処理が行われていることになる。
【0217】
このステップSP311の処理において、CPU21は、ローカルストレージをダウンロードで処理するように編集処理装置3を制御すると、バックグランドでのダウンロード処理を行いなから、再びステップSP301に戻り、次の素材を編集する処理に移行する。
【0218】
尚、このステップSP311において、編集オペレータによってバックグラウンドでのダウンロード処理が指定されない場合には、ダウンロード処理が終了するまで、バックグランドでのダウンロード処理が行なわれる。
【0219】
次に、ステップSP309においてダウンロード処理が指定されない通常の編集プロセスについて、次のステップSP312からを参照して説明する。
【0220】
ステップSP312では、CPU21は、編集オペレータの操作に従って、シーン名設定処理を行なう。具体的には、編集オペレータによってビューアウインドウ92のシーンチエンジボタン178Aがクリックされると、シーン名設定処置(ステップSP313)に移行し、シーンチェンジボタン178Aがクリックされない場合には、ステップSP314に移行し、そのステップSP314において既に設定されているシーン名を使用してクリップ名及びイベント名を作成する。
【0221】
ステップSP313のシーン名設定処理について説明する。
【0222】
まず、CPU21は、図26Aに示されるようなシーン名入力用のダイアログ180をモニタ2B上にオープンする。編集オペレータによって、ダイアログ180内に設けられたシーン名のリストを表示させるためのプルダウンボタン182が選択された場合、CPU21は、図26Bに示すようなシーン名のリスト183をモニタ2B上に表示する。このシーン名のリストは、前回の編集オペレーションのときに編集オペレータによって使用及び登録されたシーン名のリストであって、RAM21Bに履歴リストとして記憶されているデータである。
【0223】
編集オペレータによって表示されたリスト183中からシーン名が選択された場合には、CPU21は、その選択されたシーン名を、後述するクリップ生成処理及びイベント作成処理で使用するシーン名として登録する。
【0224】
また、このプルダウンボタン182を選択せずに、編集オペレータがシーン名入力欄181に新たにシーン名をキーボード2Cから直接入力することもできる。この場合にも同じように、CPU21は、その入力されたシーン名を、後述するクリップ生成処理及びイベント作成処理で使用するシーン名として登録する。
【0225】
本実施例の編集装置に、このようなシーン名を更新する機能が設けられている理由について説明する。
【0226】
後述するクリップ作成処理及びイベント作成処理では、このシーン名を使用してクリップ名及びイベント名が付与される。具体的には、クリップ名及びイベント名は、「シーン名称」と「シリアル番号」とから生成される。すなわち、ステップSP313においてシーン名が「FIRE」に更新されたとすると、この後の、クリップ作成処理において、「FIRE001」、「FIRE002」、「FIRE003」....というようなクリップ名を有するクリップが順に作成される。例えば、この後、ステップSP313においてシーン名が「SEA」に更新されたとすると、同じように、この後の、クリップ作成処理において、「SEA001」、「SEA002」、「SEA003」....というようなクリップ名を有するクリップが順に作成される。
【0227】
つまりこのように、編集オペレータが、素材のシーンが変わった時に適切なシーン名を設定することによって、ログウインドウ93に登録されたクリップをシーン名毎に分類することができる。それによって、何百というクリップを作成したとしても、その沢山のクリップを容易に管理することができる。また、ステップSP302においてローカルストレージ8のクリップを検索するときに、このシーン名をキーワードとすることによって、関連するクリップのみを容易に検索することができる。
【0228】
ステップSP314において、編集オペレータの操作に応答して、CPU21は、エントリーモードを設定する。このエントリーモードとは、イン点及びアウト点が設定された素材を、ログウインドウにエントリー(登録)するか、タイムラインウインドウにエントリー(登録)するかを決めるためのモードである。このエントリーモーは、イン点及びアウト点が設定された素材を、ログウインドウにクリップとして登録するログモードと、イン点及びアウト点が設定された素材をタイムラインウインドウにイベントとして登録するタイムラインモードとの2つのモードを有し、エントリーモードとして何れかのモードが指定されるように構成されている。
【0229】
具体的には、編集オペレータが、ビューアウインドウ92のログボタン122Bを選択すると、ログモードが選択され、編集オペレータが、ビューアウインドウ92のタイムラインボタン122Cを選択すると、タイムラインモードが選択される。ログモードが設定された場合にはステップSP315に進み、タイムラインモードが設定された場合にはステップSP316に進む。
【0230】
ステップSP315では、編集オペレータの操作に応答して、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。具体的には、編集オペレータが、ビューアウインドウ92のADDボタン122Aをクリックすると、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。このとき、CPU21は、この登録されたイベントを表わすための図27に示したようなファイル情報を生成する。
【0231】
さらに、ステップSP314においてログモードが選択されているので、CPU21は、イベントのイン点のスタンプピクチャと、イン点のタイムコードと、ステップSP313において設定されたシーン名に基いて生成されたクリップ名とをクリップカード179としてログウインドウ93に表示する。
【0232】
ステップSP306からこのステップSP315の処理を繰り返すことによって、編集オペレータによって指定された複数のイベントが登録される。さらに、このログモードでは、その複数のイベントを表わす複数のクリップカード179をログウインドウ93に表示されることができる。
【0233】
ステップSP316では、編集オペレータの操作に応答して、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。具体的には、ステップSP315と同じように、編集オペレータが、ビューアウインドウ92のADDボタン122Aをクリックすると、CPU21は、イン点とアウト点として指定された素材をイベントとして登録する。このとき、CPU21は、図19に示したような、この登録されたイベントを表わすためのファイル情報を生成する。
【0234】
さらに、ステップSP314においてタイムラインモードが選択されているので、CPU21は、ビデオイベントをベースビデオライン132Aのナウライン139の位置に貼り付け、オーディオイベントをベースオーディオライン132Bのナウライン139の位置に貼り付ける。
【0235】
ステップSP306からこのステップSP316の処理を繰り返すことによって、編集オペレータによって指定された複数のイベントが登録される。さらに、このタイムラインウインドウでは、その複数のイベントをタイムライン95のベースビデオ及びベースオーディオライン132の所望の位置に貼り付けることができる。
【0236】
尚、このログモードにおいて生成されるイベントと、タイムラインモードにおいて生成されるイベントとは全く同じである。このログモード及びタイムラインモードとの違いは、生成されたイベントを、クリップカードとしてログウインドウ93に表示するか又はイベントとしてタイムライン95に表示されるかという点が異なるだけである。
【0237】
4−2.プログラムリスト作成処理
次に、ステップSP301からステップSP315のイベント生成処理によって作成されたイベントを使用して、プログラムリストを作成するプログラムリスト作成処理に関して説明する。
【0238】
図27のフローチャートは、このプログラムリスト作成処理の動作を説明するための図である。この図27に示されたフローチャートは、ログウインドウ93にクリップカード179として表示されたイベントを使用してプログラムリストを作成する場合のフローである。
【0239】
まず、ステップSP401では、ログウインドウ93にクリップカード179として表示されているイベントを、タイムライン上に並べる。このようにタイムライン上にイベントを並べるためには、以下の2つの方法がある。
【0240】
第1の方法は、編集オペレータが、マウス2Dを使用してクリップカードをドラッグアンドドロップを使用して、タイムライン95上の所望の位置に挿入する方法である。具体的には、ログウインドウ93に表示されているクリップカード179をマウス2Dでクリックすることによって、このクリップカードがアクティブになり、ドラッグ可能な状態になる。次に、このクリップカード179をドラッグさせ、タイムライン95の所望の位置でドロップすると、ベースビデオライン132A上のドロップ位置に、クリップカード179に対応するビデオイベントが挿入され、ベースオーディオライン132B上のドロップ位置に、クリップカード179に対応するオーディオベントが挿入される。
【0241】
第2の方法は、ダイレクトエントリモードを使用して、クリップカード179をタイムライン178B上に自動的に並べる方法である。まず、編集オペレータによってログウインドウ93ダイレクトエントリーボタン180がクリックされると、通常モードから、ダイレクトエントリーモードになる。このダイレクトエントリーモードとは、ログウインドウ93に表示されているクリップカード179を、ドラッグアンドドロップせずにクリックするだけで、タイムライン上に並べることができるモードである。具体的には、このダイレクトエントリーモードにおいて、編集オペレータが、ログウインドウ93のクリップカード179をクリックすると、タイムライン95のナウライン139の位置に、クリックされたクリップカード179に対応するビデオイベント及びオーディオイベントが挿入される。また、このイベントの挿入に伴なってナウライン139は、ダイレクトエントリーモードによって新しく挿入されたイベントのアウト点の位置に自動的に移動する。つまり、ログウインドウ93のクリップカード179を順にクリックすると、タイムライン95の右側にクリックされた順に挿入されていくことになる。
【0242】
のようなダイレクトエントリーモードを使用することによって、ログウインドウ93に表示されているクリップカード179を、ドラッグアンドドロップせずに、クリックするだけでタイムタイン95に貼り付けることができる。従って、数個では無く何十という沢山の数のクリップカード179を、タイムライン上に貼り付けなければいけないような場合に、このダイレクトエントリーモードによって、各クリップカード179に対するドラッグアンドドロップ操作を省略することができるので、編集操作を簡略化できると共に編集時間を短縮することができる。
【0243】
ステップSP402では、編集オペレータの操作に応じて、CPU21は、タイムライン95に貼り付けられたオーディオのミックスダウン設定を行なう。このミックスダウン処理とは、オーディオイベントに対して設定された4つのトラックの出力レベルを設定すると共に、この4つのトラックを最終オーディオ出力(プログラムアウト)の4チャンネルに対するルーティングを設定するための処理である。
【0244】
まず、プログラムウインドウ94のツールバーからオーディオミツクスダウン用のダイアログ選択ボタン162がクリックされると、グラフィカルユーザインターフェース90上にオーディオミツクスダウン用のダイアログ200が表示される。
【0245】
ダイアログ200は、ベースオーディオ(BASE)、サブオーディオ(SUB)、ボイスオーバ1(VO1)及びボイスオーバ2(VO2)に設定された各オーディオイベントがもつ4つのトラツクT1〜T4(又は2つのトラックT1〜T2)を、夫々最終オーディオ出力(プログラムアウト)チャンネルCh1〜Ch4にどのように対応付けて出力するかを設定するための出力ルーティング部201と、この各オーディオイベントがもつ4つのトラツクT1〜T4に対し、夫々オーディオのレベルを設定するためのトラックフェーダ部208と、専用コントーローラ5に設けられたトタックフェーダが4つのトラツクT1〜T4にどのようにアサインされているかを示すフェーダパネルアサイン部207と、オーディオラインの各トラックに対して専用コントーローラ5に設けられた4つのフェーダレバーをアサインするための設定ダイアログをオープンするためのフェーダアサインボタン202と、専用コントーローラ5に設けられた4つのフェーダレバーを使用して各トラックのオーディオレベルをマニュアル調整するモードを、オンするかオフするかを示すオン/オフボタン202Aとを備えている。
【0246】
この出力ルーティング部201において、各トラツクT1〜T4に対して所望の出力チャンネルCh1〜Ch4位置に対応するクロスポイントボタンをクリックすることにより、各トラツクを所望の出力チャンネルにルーテイングすることができる。
【0247】
例えば、図28に示した例は、ベースオーディオライン132B上のイベントのトラツクT1のクロスポイントボタン201Aをクリックすることにより、トラツクT1を出力チャンネルCh1にルーテイングしていることを示している。以下同様にして、トラツクT2を出力チャンネルCh2、トラツクT3を出力チャンネルCh3に、またトラツクT4を出力チャンネルCh4にルーテイングしていることを示している。またサブオーディオライン134、ボイスオーバ1ライン138A及びボイスオーバ2ライン138Bについても同様に、サブオーディオラインのオーディオイベントのトラツクT1〜T4をそれぞれ出力チャンネルCh1〜Ch4にルーティングし、またボイスオーバ1のオーディオイベントのトラツクT1及びT2をそれぞれ出力チャンネルCh1及びCh2にルーテイングし、ボイスオーバ2のオーディオイベントのトラツクT1及びT2をそれぞれ出力チャンネルCh3及びCh4にルーテイングしていることを示している。
【0248】
ここでミックスダウン設定用のダイアログ200に設けられた、マニユアルフェーダボタン202をクリックすると、図29に示すようなフェーダアサイン用のダイアログ205が表示される。
【0249】
ダイアログ205は、ベースオーディオ、サブオーディオ、ボイスオーバ1及びボイスオーバ2に登録されたオーディオイベントが有する4つのトラツクT1〜T4(又は2つのトラックT1〜T2)を、専用コントローラ5のどのフェーダレバーF1〜F4にアサインするかを設定するためのアサインパネル206を有している。当該アサインパネル206において、各列に設定された各トラツクT1〜T4に対して設定された所望のフェーダレバーF1〜F4に対応するボタンをクリックすることにより、それぞれのトラツクT1〜T4を任意のフェーダレバーF1〜F4にアサインすることができる。
【0250】
例えば図29は、ベースオーディオのトラツクT1及びT2に属するボタン206A及び206Bをクリックすることにより、ベースオーディオのトラツクT1及びT2を第1のフェーダレバーF1にアサインしていることを示している。以下同様にして、サブオーディオのトラツクT1及びT2のボタン206C及び206DをクリックすることによりトラツクT1及びT2を第2のフェーダレバーF2にアサインしていることを示し、さらにボタン206E及び206FをクリックすることによりボイスオーバのトラツクT1及びT2を第3のフェーダレバーF3にアサインしていることを示す。
【0251】
各オーディオラインのトラックT1〜T4のオーディオレベルを設定する場合には、マウス2Dで、トラックフェーダ部208のスライダ208Aを上下させることによって所望のオーディオを設定することができる。また、オン/オフボタン202Aがオンになっている場合には、専用コントローラのフェーダレバーによるマニュアル調整が可能である。従って、編集オペレータが、このフェーダレーバF1〜F4を上下させることによって、各フェーダレバーに対応付けられたトラックにおいて所望のオーディオレベル設定することができる。また、この時、編集オペレータが専用コントローラ5のフェーダレバーを操作すると、そのフェーダレバーの操作に追従して、ミックスダウン設定ダイアログのトラックフェーダ部208のスライダ208Aが自動的にスライドする。
【0252】
また、フェーダアサインダイアログ205において、各オーディオライン(BASE、SUB、VO1及びVO2)の各トラックT1〜T4に対する専用コントローラのフェーダレバーF1〜F4のアサインを自由に設定することができる。従って、例えば、編集すべきオーディオがベースオーディオ(BASE)のみの場合には、このベースオーディオのトラックT1〜T4に対して、それぞれフェーダレバーF1〜F4をアサインすることができたりもする。つまり、各オーディオライン(BASE、SUB、VO1及びVO2)及び各トラックT1〜T4を、物理的に専用コントローラ5のフェーダレバーと関連付けているのでは無く、ソフト的に関連付けている事によって、各オーディオライン及び各トラックT1〜T4と、専用コントローラ5のフェーダレバーと関連付けを如何様にでも変更することができる。
【0253】
ステップSP402においてオーディオミックスダウンの設定が終了すると、次のステップSP403に進む。
【0254】
ステップSP403では、編集オペレータの編集操作に応答して、CPU21は、タイムライン上のイベントに対してエフェクトを設定するためのエフェクト設定ダイアログ190をオープンする。具体的には、編集オペレータが、プログラムウインドウ94においてビデオエフェクトボタン159をクリックすると、図30に示すようなエフェクト設定用のダイアログ190がオープンする。
【0255】
このエフェクト設定ダイアログ190は、現在設定されているエフェクトパターンを示すエフェクトパターン部191と、使用頻度の高いエフェクトパターンが表示されるフェバリットパターン部192と、選択されたエフェクトのトランジションを設定するためのトランジション設定部193と、エフェクトを設定する対象(ビデオ/オーディオ)を選択するビデオ/オーディオ選択部195と、エフェクトをモディファイするためのパラメータが設定されるモディファイ部198と、キー信号に関するパラメータを設定するKey設定部199とを備えている。
【0256】
ステップSP404では、エフェクト設定対象として、ビデオ及びオーディオを選択する。ビデオとオーディオの両方に同時にエフェクトをかける場合には、「Video」と「Audio」ボタン195の両方をクリックし、ビデオ又はオーディオのいずれか一方のみにエフェクトをかける場合には、「Video」又は「Audio」ボタン195のいずれかをクリックする。
【0257】
ステップSP405では、編集オペレータは、所望のエフェクトを選択する。このエフェクトを選択する方法として、以下の3つの方法のいずれかによってエフェクトを選択することができる。
【0258】
第1のエフェクト選択方法は、エフェクトを表わすパターン番号を直接入力することによって、所望のエフェクトを設定する方法である。例えば、編集オペレータが、所望のエフェクトパターン番号を予め知っている場合には、パターン番号設定部191に所望のエフェクトパターンのパターン番号を、キーボード2Cより直接入力すると、この入力されたパターン番号に対応した所望のエフェクトが設定される。
【0259】
第2のエフェクト選択方法は、編集オペレータが好んで使用する使用頻度の高いエフェクトのパターン(以下、これをフェイバリットパターン(Favorite Pattern)と呼ぶ)から所望のエフェクトを選択する方法である。具体的には、CPU21は、編集オペレータが好んで使用する使用頻度の高いエフェクトのパターンを常に記憶しておき、このエフェクト設定ダイアログ190のフェイバリットパターン表示部192に、この使用頻度の高いエフェクトのパターンを示すアイコンが表示されるように構成さされている。編集オペレータが、このフェイバリットパターン表示部192の中から所望のエフェクトパターンをクリックすることによって、所望のエフェクトが選択される。
【0260】
第3のエフェクト選択方法は、全パターンリズトの中から所望のエフェクトパターンを選択する方法である。編集オペレータが、パターンリストボタン194を押すと、登録されている全てのエフェクトパターンが種類毎に表示され、その中から所望のエフェクトパターンをクリックすることによって、所望のエフェクトが選択される。
【0261】
これらの何れかの方法でエフェクトが選択されると、その選択されたエフェクトのアイコンが、エフェクトパターン部191に表示される。これによって、エフェクトが選択される。
【0262】
ステップSP406では、編集オペレータによって、選択されたエフェクトに対して所望のトランジション時間が設定される。この選択されたエフェクトに対してトランジション時間を設定する場合には、ダイアログ190上のトランジション設定部193Aにおいて、選択したエフェクトの遷移時間(トランジション時間)をキーボードから入力するか又はプリセットされた複数個のトランジション時間の中から所望のトランジション時間を選択することによりトランジション時間を設定することができる。
【0263】
ステップSP407では、選択されたエフェクトに対してエフェクトパラメータを設定する。具体的には、このエフェクトパラメータとは、例えば、ビデオ切り替え位置のエツジ(Edge)に関するパラメータ、ライトを当てるような効果であるライテイング(Lighting)に関するパラメータ、影や帯を引くような効果であるトライアル(Traial)/シヤドウ(Shadow)に関するパラメータ、エフェクトを設定する位置であるロケーシヨン(Location)に関するパラメータ等であって、エフェクトの種類に応じて様々なパラメータを設定できるようになっている。エフェクト設定ダイアログ190のモディファイ部198を使用することによって、これらのエフェクトに関する各種パラメータを設定することができる。さらにダイアログ190上においては、キーボタン199をクリック入力することによってクロマ(Chroma)キー及び又は外部(External)キーを設定し得るようになされている。
【0264】
ステップSP408では、編集オペレータの操作にしたがって、CPU21は、設定されたエフェクトをプレビューするように各ソースデバイス及び編集処理装置を制御する。編集オペレータが、ダイアログ190のフェーダレバー196又はATボタン(Autoボタン)197を操作することによって、設定されたエフェクトをビューア106の画面上でプレビューすることができる。
【0265】
設定されたエフェクトが、ワイプ効果等のトランジションエフェクトの場合には、フェーダレバー196が最も上に位置している状態ではビューア106にはバツクグランド画像が表示される。またフェーダレバー196をマウスによりドラッグして上から下の方向に向かつて移動させるに従って、フォアグランド画像に次第にトランジションしていく。そして、フェーダレバー196が最も下に位置している状態ではビューア106にはフォアグランド画像が表示される。これによりフェーダレバー196のマニユアル操作による任意の速度及び位置でトランジションエフェクトをプレビューすることができる。
【0266】
尚、フォアグランド画像とは、トランジションエフェクトの実行によって画面に現れる画像または、アニメーションエフェクトの実行によってバックグランフド画像に挿入され、エフェクトパターンを埋める画像の事を言う。また、バックグランド画像とは、トランジションエフェクトの実行によって、画面から消し去られる画像または、アニメーションエフェクトの実行によってフォアグランド画像が埋められたエフェクトパターンが挿入される画像のことを言う。
【0267】
また、本実施例の編集装置においては、エフェクトの種類としてトランジションエフェクトとアニメーションエフェクトの2種類を有している。トランジションエフェクトとは、ワイプ効果やページターン効果等のように、2つの画像を切り換えるビデオエフェクトのことを言い、アニメーションエフェクトとは、3次元画像空間変換等の画像に特殊効果をかけるエフェクト、または、スポットライト効果、ズームアップ効果及びピクチャインピクチャ効果等のようにある画像にビデオエフェクトのかかった画像を挿入するエフェクトのことを言う。
【0268】
また、フェーダレバー196のマニユアル操作の代わりに、ATボタン(Autoボタン)197がクリックされた場合には、エフェクトに対して予め設定されたトランジションスピードで、バックグランド画像からフォアグランド画像にトランジションしていく。具体的には、ATボタン197がクリックされると、まず初めにフェーダレバー196が最も上の位置に移動して、その後、自動的に一定のスピードで徐々に下に移動していく。そのフェーダレバー196の移動に伴なって一定のスピードで、バックグランドビデオからフォアグランドビデオにトランジションするトランジションエフェクトが実行される。その結果、ビューア106上にてトランジションエフェクトをプレビューすることができる。
【0269】
このプレビュー処理を行なう段階では、このステップ503において選択されたエフェクトは編集オペレータによってまだタイムライン95のエフェクトライン135に貼り付けられていないので、このエフェクトがどのイベントに対して設定されるかはまだ分からない。従って、このエフェクトをプレビューするためのプレビュー処理を行なうために必要なバックグランド画像及びフォアグランド画像は、既に、編集処理装置3の画像処理部3Cに設定されていたビデオ信号を使用し、エフェクトを仮想的に実行する。なぜなら、このエフェクトのプレビューは、設定されたエフェクト自体、設定されたトランジション時間及び設定されたエフェクトパラメータが適切か否かをチェックするためのプレビュー処理であるので、バックグランド画像及びフォアグランド画像はどのような画像であっても良いからである。
【0270】
実際には、編集処理装置3のマトリックススイッチャ部3Bの制御によって、現在、画像処理部3Cに対してビデオ信号S24として供給されている信号をフォアグランドビデオとし、画像処理部3Cに対してビデオ信号S26として供給されている信号をバックグランドビデオとして使用する。つまり、このエフェクトのプレビューをおこなうときには、コンピュータのCPU21は、画像処理部3Cにビデオ信号S26として供給されていた信号をバックグランド画像として使用し、画像処理部3Cにビデオ信号S24として供給されている信号を、フォアグランド画像として使用するように編集処理装置を制御する。
【0271】
ステップSP408のプレビューの結果、エフェクト設定ダイアログ190によって設定したエフェクトが所望のエフェクトであったときには、次のステップSP409に進む。
【0272】
ステップSP409では、編集オペレータの操作にしたがって、CPU21は、選択されたエフェクト及び、そのエフェクトに関するフォアグランドイベントを、タイムライン95に貼り付ける。このタイムラインへのエフェクトの貼り付け方は、トランジションエフェクトとアニメーションエフェクトとで異なるので、トランジションエフェクトのタイムラインの貼り付け方法とアニメーションエフェクトのタイムラインの貼り付け方法とをそれぞれ説明する。
【0273】
まず、図31A及び図36Bを参照して、トランジションエフェクトをタイムラインに貼り付ける方法を説明する。
【0274】
編集オペレータが、ダイアログ190のフェイバリットパターン表示部192内の選択されたトランジションエフェクトのアイコン191Bを、タイムライン95上にマウス2Dによってドラッグすると、図31Aに示すようなアイコンの影192Xが、タイムライン95上に表示される。
【0275】
このアイコンの影192Xを、ライムライン95のエフェクトライン135の所望する位置でドロツプすると、図31Bに示すように、トランジションエフェクト192Yが設定される。
【0276】
この図31Bは、「Heli−1」というイベントから「Ship2」というイベントに遷移するときに、「Mix」によって示されたエフェクト期間において、「Heli−1」の画像と「Ship2」の画像とをミックスすることを表わしている。つまり、このミックスエフェクトを実行する場合には、「Heli−1」というイベントがバックグランド画像として指定され、「Ship2」というイベントがフォアグランド画像として指定される。
【0277】
このようにイベント間にトランジションエフェクトを設定すると、バックグランド画像として指定されているイベントのアウト点が、自動的にトランジション時間分だけ延長される。例えば、バックグランド画像として指定されているイベント「Heli−1」のアウト点が、「00:00:05:00」であって、このミックスエフェクト192Yのトランジション時間が2秒であったとすると、バックグランド画像として指定されているイベント「Heli−1」のアウト点が、自動的に2秒だけ延長され、「00:00:07:00」になるということである。
【0278】
このようなトランジションエフェクトを実行する場合には、コンピュータのCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、「Heli−1」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、「Ship2」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部は、このミックスエフェクトに設定されたトランジション時間及び各種のエフェクトパタメータに応じたエフェクトを実行するように、ミキサ54Bを制御する。
【0279】
次に、図32から、図35を参照して、アニメーションエフェクトをタイムラインの貼り付け方法を説明する。アニメーションエフェクトをタイムライン上に貼り付ける方法は、エフェクトの種類及びイベントに対するエフェクトの設定の仕方によって異なってくるので以下の第1のケース及び第2のケースに分けで説明する。
【0280】
第1のケースは、1つのイベントにズーム効果やライトスポット等の特殊効果をかけるためのエフェクトを設定する場合である。この第1のケースについて、図32A及び図32Bを参照して説明する。
【0281】
トランジションエフェクトをタイムライン上に貼り付けた操作と同じように、編集オペレータが、ダイアログ190のフェイバリットパターン表示部192内の選択されたアニメーションエフェクトのアイコン191Bを、タイムライン95上にマウス2Dによつてドラッグすると、図32Aに示すようなアイコンの影192Eが、タイムライン95上に表示される。このアイコンの影192Eを、ライムライン95のエフェクトライン135の所望する位置でドロツプすると、図32Bに示すように、イベント「002」に対して特殊効果等のアニメーションエフェクト192Fが設定される。
【0282】
尚、図32Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータ2のCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「002」という素材のビデオ信号を出力端子OUT9から出力される信号S26として設定するように、クロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部3Bは、このモディファイエフェクトに設定されたトランジション時間及び各種のエフェクトパタメータに応じたエフェクトを実行するように、特殊効果ブロック53を制御する。
【0283】
第2のケースは、ピクチャインピクチャ効果等のように、あるイベントに対してエフェクトのかかったイベントを挿入するためのエフェクと設定する場合である。この第2のケースを説明するために、以下のように、「エフェクトとクリップとを同時に設定する場合」、「先に貼ったエフェクトを、後から貼るクリップと同じ長さにする場合」及び「後から貼るクリップを、先に貼ったエフェクトと同じ長さにする場合」について、それぞれ説明する。
【0284】
まず、エフェクトとクリップとを同時に設定する場合について、図33A及び図33Bを参照して説明する。
【0285】
まず、編集オペレータが、ログウインドウに表示されたクリップカード179をマウス2Dによってタイムライン上にドラッグすると、図33Aに示すようなアイコンの影192Gが、タイムライン95上に表示される。このアイコンの影192Gを、オーバレイビデオライン136の所望する位置でドロツプすると、図33Bに示すように、オーバレイビデオライン136に、ログウインドウ93からドラッグアンドドロップされたイベント「007」が貼り付けされる。さらに、これと同時に、エフェクト設定ダイアログ190に現在設定されているエフェクトが、自動的にエフェクトライン135に貼り付けられる。また、そのエフェクトの期間として、オーバレイビデオライン136に貼り付けられたイベント「007」の期間に対応する期間が設定される。
【0286】
このように、オーバレイビデオライン136に所望のイベントを貼り付けるだけで、タイムラインのエフェクトライン135に自動的にエフェクトが設定されることによって、一層操作性を向上させることができる。
【0287】
図33Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータ2のCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「002」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、同じイベント「007」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部3Bは、このモディファイエフェクトに設定されたトランジション時間及び各種のエフェクトパタメータに応じたエフェクトを実行するように、特殊効果ブロック53を制御する。
【0288】
次に、先に貼ったエフェクトを、後から貼るクリップと同じ長さにする場合について、図34A及び図34Bを参照して説明する。
【0289】
まず、編集オペレータが、図34Aに示すように、ダイアログ190において選択されたアニメーションエフェクトのアイコン191Bを、タイムライン95のエフェクトライン135上にマウス2Dによってドラッグし、所望にイベントの上になるようにドロップすることによって、エフェクトライン135上に所望のエフェクト192Kを貼り付ける。
【0290】
次に、編集オペレータが、図34Aに示すように、ログウインドウに表示されたクリップカード179をマウス2Dによってタイムライン上にドラッグする。そして、図33Bに示すように、ドラッグしたクリップカードをタイムラインのオーバレイビデオライン136にドロップすると、所望にイベント192Lがオーバレイビデオライン136に貼り付けられる。そして、このフォアグランド画像として貼り付けられたイベント192Lの期間に応じて、先に貼り付けられたエフェクト192Kの期間が変更され、その結果、エフェクトライン135には、この後に貼り付けられたイベント192Lの期間に対応した期間を有したエフェクト192Mが表示される。つまり、後に貼り付けられたイベント192Lの期間に応じて、エフェクト192Mのトランジション期間が変更される。
【0291】
このようにして、このフォアグランド画像として貼り付けられたイベント192Lの期間に応じて、先に貼り付けられたエフェクトの期間を自動的に変更することによって、エフェクトの期間を再設定する必要がないので、編集操作性を向上させることができる。
【0292】
図34Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータ2のCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「002」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、同じイベント「002」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部3Bは、このピクチャインピクチャエフェクトに設定されたトランジション時間及び各種のエフェクトパタメータに応じたエフェクトを実行するように、スイッチャブロック52を制御する。
【0293】
次に、後から貼るクリップを、先に貼ったエフェクトと同じ長さにする場合について、図35A及び図35Bを参照して説明する。
【0294】
まず、編集オペレータが、図35Aに示すように、ダイアログ190において選択されたアニメーションエフェクトのアイコン191Bを、タイムライン95のエフェクトライン135上にマウス2Dによってドラッグし、所望にイベントの上になるようにドロップすることによって、エフェクトライン135上に所望のエフェクト192Oを貼り付ける。
【0295】
次に、編集オペレータが、図35Aに示すように、ログウインドウに表示されたクリップカード179をマウス2Dによってタイムライン上にドラッグする。そして、図35Bに示すように、ドラッグしたクリップカードをタイムラインのエフェクトライン135の先に貼られたエフェクト192Oに重なるようにドロップすると、イベント192Pがオーバレイビデオライン136に貼り付けられる。そして、先に貼り付けられたエフェクト192Oの期間に応じて、このフォアグランド画像として貼り付けられたイベント192Nの期間が変更され、その結果、オーバレイビデオライン136には、この先に貼り付けられたエフェクト192Oの期間に対応した期間を有したイベント192Pが表示される。つまり、この先に貼り付けられたエフェクト192Oの期間と、後に貼られたイベント192Pの期間とが一致するように、イベント192Pのアウト点が変更されるということである。
【0296】
このようにして、この先に貼り付けられたエフェクト期間と、後に貼られたイベントの期間とが一致するようにすることによって、イベントの期間を変更する作業を省略することができるので、編集操作性を向上させることができる。
【0297】
図35Bに示したようなアニメーションエフェクトを実行する場合には、コンピュータのCPU21からの制御信号に応答して、編集処理装置3のマトリックススイッチャ部3Bは、イベント「006」という素材のビデオ信号を、出力端子OUT9から出力される信号S26として設定し、イベント「003」という素材のビデオ信号を、出力端子OUT7から出力される信号S24として設定するようにクロスポイントを切り換える。また、コンピュータのCPU21からの制御信号に応答して、編集処理装置3の画像処理部は、このモディファイエフェクトに設定されたトランジション時間及び各種のエフェクトパタメータに応じたエフェクトを実行するように、特殊効果ブロック53を制御する。
【0298】
次に、タイムライン95を使用して、エフェクトをタイムライン95に貼り付ける方法について、図36A及び図36Bを参照して説明する。
【0299】
まず、編集オペレータが、ビューアウインドウ92のTLボタン126をクリック入力するとタイムライン制御モードに切り換わる。このタイムライン制御モードとは、タイムライン95とビューワウインドウ92を時間的に関連つけた制御モードである。従って、タイムライン95におけるナウライン139の表示位置のタイムコードに対応するビデオ画像が、ビューアウインドウ92のビューア106に表示される。
【0300】
編集オペレータが、フアイルの所望フレームをサーチするために、デバイスコントロール部96のスライダ部120を操作すると、それに伴なってナウライン139は、タイムライン95上を移動する。つまり、編集オペレータが再生やジョグ走行等のデバイスコントロールを行なうと、コンピュータ2は、ナウライン139がタイムライン95上を右に移動するように、モニタ2Dに表示されるグラフィカルユーザインターフェース90を変更し、これと連動してビューアウインドウ92のビューア106にビデオ画像が表示されるように、各ソースデバイスを制御する。
【0301】
次に、編集オペレータが、ビューアウインドウ92のビューア106に表示されたビデオイメージを見ながら、所望の位置にてマークインボタン115をクリックすると、CPU21は、マークインボタン115が押されたときに、タイムライン95上においてナウライン139が存在している位置に、イン点ポイントを示すフラグ166Cとマークライン166Cを表示する。
【0302】
また、このイン点がマーキングされたタイミングにおいて、ビューアウインドウ92上のイン点表示欄110には、ビューア106に表示されているフレームのスタンプピクチャでは無くて、タイムライン制御モードにおいてイン点がマーキングされたことを示すために、フラグ116Cのような画像が表示される。
【0303】
さらに、編集オペレータが、デバイスコントロール部96のスライダ部120を操作してフアイルをサーチし、所望の位置にてマークアウトボタン116をクリックすると、CPU21は、マークアウトボタン116が押されたときに、タイムライン95上においてナウライン139が存在している位置に、アウト点ポイントを示すフラグ166Bとマークライン166Dを表示する。
【0304】
また、このアウト点がマーキングされたタイミングにおいて、ビューアウインドウ92上のアウト点表示欄112には、ビューア106に表示されているフレームのスタンプピクチャでは無くて、タイムライン制御モードにおいてアウト点がマーキングされたことを示すために、フラグ116Dのような画像が表示される。
【0305】
次に、編集オペレータは、図36Bに示すように、ログウインドウ93のクリップカード179の中から所望のクリップカード179をマウス2Dによってドラッグし、設定したイン点のマークライン166Cとアウト点のマークライン166Dの間のオーバレイビデオライン136上にドロツプする。その結果、オーバレイビデオライン136上のマークライン166C及びマークライン166Dの間に、ログウインドウ93からドロップされたイベントが挿入される。また、図36Bに示すように、ステップSP407において設定されているエフェクトが、自動的に、エフェクトライン135上のマークライン166C及びマークライン166Dの間に、挿入される。
【0306】
もし、ログウンドウ93からドロップされるクリップのデュレーションと、マークライン166C及びマークライン166Dによって規定されるデュレーションとが異なる場合には、マークライン166C及びマークライン166Dによって規定されるデュレーション優先させるようにしている。つまり、マークライン166C及びマークライン166Dによって規定されるデュレーションに従って、ログウンドウ93からドロップされるクリップのアウト点のタイムコードを補正するようすることによって、マークライン166C及びマークライン166Dによって規定されるデュレーションに対して、ログウンドウ93からドロップされるクリップのデュレーションとを一致させることができる。
【0307】
尚、図36A及び図36Bでは、オーバレイビデオライン136にイベントを貼る例を説明したが、同様に、他のライン(サブオーディオライン134、ボイスオーバライン138A、138B)にもクリップを貼ることができる。
【0308】
以上のような操作及び制御によって、既にタイムライン上に貼り付けられているバックグランドイベントの位置をタイムライン上で見ながら、タイムライン95上においてエフェクト及びエフェクトに関するフォアグランドイベントの挿入される区間を設定することができる。また、既にタイムライン上に貼り付けられているバックグランドイベントのイン点及びアウト点等の編集点にこだわることなく、任意の位置及び期間にエフェクト及びフォアグランドイベントを貼り付けることができる。
【0309】
ステップSP409のエフェクトの貼り付け処理及びフォアグランドイベントの貼り付け処理が終了すると、次のステップSP410に進む。
【0310】
ステップSP410において、編集オペレータの制御にしたがって、コンピュータ2のCPU21は、タイムライン95上に作成したプログラムをプレビューするプレビュー処理を実行する。具体的には、編集オペレーが、プレビューボタン「PVW」123Bをクリックすると、タイムライン95のナウライン139の位置からプレビューが開始される。プレビュー中は、コンピュータ2の制御によって、タイムライン95上のプログラムに対応した映像及び音声がローカルストレージ8から再生される。さらに、コンピュータ2の制御によって、タイムライン95上のプログラムに対応した映像処理及び音声処理が行われるように、編集処理装置3は、供給された映像素材及び音声素材を処理し、コンピュータ2に出力する。コンピュータ2のCPU21は、供給された映像がビューアウインドウ92のビューア106に表示するように表示コントローラ23を制御すると共に、その表示されている映像と対応するように、タイムライン95上においてナウライン139のタイムライン95上における位置を可変するように表示コントローラ23を制御する。
【0311】
ナウライン139が、ビューアウインドウ92のビューア106に表示されている映像と対応するように移動しているので、編集オペレータは、ビューアウインドウ92のビューア106に表示されている映像を見ながら、ビューア106に表示されている映像が、タイムライン95上に作成されたプログラムのどの位置の映像であるのかを容易に把握できると共に、タイムライン95上に作成されたプログラムのどの位置までビューイングが終了したかを容易に把握することができる。
【0312】
次に、このプレビューのときの編集処理装置3の処理について、図37を参照して詳しく説明する。図37Aから図37Cは、プレビューを実行しているときのあるタイミングにおけるタイムラインの様子を表わしている図である。
【0313】
図37は、イベントE0とイベントE1との間にトランジションエフェクト「Wipe」が指定されている例を示している。図37Aから図37Cは、プレビューを実行中のあるタイミングにおけるタイムラインの様子をそれぞれ表わしている図である。
【0314】
図37Aは、エフェクト実行前であって、イベントE0が再生されている状態を示している。このときには、コンピュータ2は、このイベントE0をバックグランドイベントとして処理するように編集処理装置3を制御する。このイベントE0の信号がローカルストレージからの出力信号S13Aとして編集処理装置3のマトリクススイチャ部3Bの入力端子IN4に供給されている場合を例にあげて、この時の編集処理装置3の制御をより詳しく説明する。
【0315】
編集処理装置3のシステムコントロール部3Aは、まず、入力端子IN4と出力端子OUT9を接続するためのクロスポイントP49をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN4に供給されたイベントE0のビデオ信号S13Aは、出力端子OUT9から出力ビデオ信号S26として出力され、画像処理部3Cに供給される。
【0316】
出力端子OUT9から出力された出力信号S26は、画像処理部3Cのデマルチプレクサ51Dに供給される。デマルチプレクサ51Dは、SDIフォーマットのデータのペイロード部からデジタルビデオ信号をのみを抽出する。画像処理部3Cにおいて、デジタルビデオ信号は、スイッチャブロック52、特殊効果ブロック53及びミキサブロック54を介して出力ビデオ信号S32として出力される。
【0317】
画像処理部3Cから出力されたデジタルビデオ信号S32は、再びマトリックススイッチャ部3Bの入力端子IN10に供給される。CPU21は、編集処理装置3のシステムコントロール部3Aを介して、入力端子IN10と出力端子OUT5を接続するためのクロスポイントP105をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN10に供給されたデジタルビデオ信号S32は、アウトプットプロセッサ46を介して出力端子OUT5からデジタルビデオ信号S2としてコンピュータ2に出力される。
【0318】
編集処理装置3から出力されたデジタルビデオ信号S2は、コンピュータ2のビデオプロセッサ22に供給され、表示コントローラ23を介してコンピュータモニタ2Bビューアウインドウ92に表示される。その結果、ローカルストレージ8から再生信号S13Aとして再生されたイベントE0のビデオ信号が、ビューアウインドウに表示される。
【0319】
図37Bは、図37Aに示した状態よりさらにプレビューが進んだ状態を示し、イベントE0とイベントE1の間に設定されたトランジションエフェクト「Wipe」が実行され始めるタイミングを示している。
【0320】
このタイミングにおいて、コンピュータ2は、このイベントE0をバックグランドイベントとして処理し、イベントE1をフォアグランドイベントとして処理するように編集処理装置3を制御する。先ほどと同じように、このイベントE0の信号がローカルストレージからの出力信号S13Aとして編集処理装置3のマトリクススイチャ部3Bの入力端子IN4に供給され、イベントE1の信号がローカルストレージからの出力信号S13Bとして編集処理装置3のマトリクススイチャ部3Bの入力端子IN5に供給されている場合を例にあげて、この時の編集処理装置3の制御をより詳しく説明する。
【0321】
編集処理装置3のマトリクススイチャ部3Bは、イベントE0のビデオ信号を画像処理装置3Cに供給するために、クロスポイントの制御は行なわなくてよい。なぜなら、コンピュータ2によって、イベントE0は既にバックグランンドイベントとして処理されるように編集処理装置3が制御されているので、マトリックススイッチャ部3BのクロスポイントP49をアクティブにしておけば、入力端子IN4に供給されたイベントE0のビデオ信号S13Aは、出力端子OUT9から出力ビデオ信号S26として画像処理部3Cに出力されるからである。
【0322】
画像処理部3Cに出力信号S26として供給されたイベントE0のビデオ信号は、デマルチプレクサ51Dを介して、スイッチャブロック52のビデオ信号処理回路52Fに供給される。ビデオ信号処理回路52Eは、供給されたイベントE0のビデオ信号に対して、ワイプ信号発生回路52Bからのワイプ制御信号に基いて、ワイプ効果を施す処理を行なう。ワイプ処理されたイベントE0のビデオ信号は、ミキサ回路54Bに供給される。
【0323】
尚、イベントE0に関するキー信号は、イベントE0のビデオ信号に対するマトリックススイッチャ部3Bにおけるルーティング処理及びビデオ信号処理回路52Fにおけるワイプ処理と同じように、マトリックススイッチャ部3Bにおけるルーティング処理が行われ、さらに、キー信号処理回路52Dにおけるワイプ処理が行われる。
【0324】
一方、ローカルストレージ8から再生されたイベントE1のビデオ信号をコンピュータ2に供給するため、編集処理装置3のシステムコントロール部3Aは、まず、入力端子IN5と出力端子OUT7を接続するためのクロスポイントP57をアクティブにするようにマトリクススイチャ部3Bを制御する。その結果、入力端子IN5に供給されたイベントE1のビデオ信号S13Bは、出力端子OUT7から出力ビデオ信号S24として出力され、画像処理部3Cに供給される。出力端子OUT7から出力された出力信号S26は、画像処理部3Cのデマルチプレクサ51Bに供給される。デマルチプレクサ51Bから出力されたイベントE1のビデオ信号は、スイッチャブロック52のビデオ信号処理回路52Eに供給される。ビデオ信号処理回路52Eは、供給されたイベントE1のビデオ信号に対して、ワイプ信号発生回路52Aからのワイプ制御信号に基いて、ワイプ効果を施す処理を行なう。ワイプ処理されたイベントE1のビデオ信号は、ミキサ回路54Bに供給される。
【0325】
尚、イベントE1に関するキー信号は、イベントE1のビデオ信号に対するマトリックススイッチャ部3Bにおけるルーティング処理及びビデオ信号処理回路52Eにおけるワイプ処理と同じように、マトリックススイッチャ部3Bにおけるルーティング処理が行われ、さらに、キー信号処理回路52Cにおけるワイプ処理が行われる。
【0326】
ミキサ回路54Bは、ワイプ処理されたイベントE1のビデオ信号と、ワイプ処理されたイベントE0のビデオ信号とをミックスし、ミックスした信号を出力信号S32として出力する。
【0327】
画像処理部3Cから出力されたデジタルビデオ信号S32は、再びマトリックススイッチャ部3Bを介して、コンピュータ2に供給される。その結果、ローカルストレージ8から再生されたイベントE0の映像とイベントE1の映像とに基いて生成されたワイプ映像が、ビューアウインドウ92に表示される。
【0328】
図37Cは、図37Bに示した状態よりさらにプレビューが進んだ状態を示し、イベントE0とイベントE1の間に設定されたトランジションエフェクト「Wipe」が終了したタイミングを示している。
【0329】
ワイプ処理が行われていときには、コンピュータ2は、このイベントE0をバックグランドイベントとして処理し、イベントE1をフォアグランドイベントとして処理していたが、このワイプ処理が終了したタイミングにおいて、コンピュータ2は、イベントE0に代わって、イベントE1をバックグランドイベントとして処理するように編集処理装置3を制御する。この時の編集処理装置3の制御をより詳しく説明する。
【0330】
まず、編集処理装置3のマトリクススイチャ部3Bは、イベントE0のビデオ信号を画像処理装置3C及びコンピュータ2に供給する必要がないので、いままでアクティブであった入力端子IN4と出力端子OUT9を接続するためのクロスポイントP49を、インアクティブに変更する。その結果、入力端子IN4に供給されたイベントE0のビデオ信号S13Aは、出力端子OUT9から出力されなくなる。一方、イベントE0の代わりに、イベントE1をバックグランドビデオとして処理しなければいけないので、編集処理装置3のマトリクススイチャ部3Bは、イベントE1の信号が供給されている入力端子IN5と出力端子OUT9とを接続するためのクロスポイントP59をアクティブにする。その結果、入力端子IN5に供給されているイベントE1のビデオ信号S13Bは、出力端子OUT9から出力される。
【0331】
このように、エフェクトの実行タイミングに応じて、適切な信号が出力されるように編集処理装置3のマトリックススイッチャ部3Bのクロスポイントを自動的に制御しているので、編集オペレータはタイムライン95上に所望のプログラムを作成するだけで、作成したプログラムに対応したビデオプログラムを自動で作成することができる。
【0332】
このステップSP410におけるプレビュー処理の結果、満足のいくプログラムでなく、修正が必要であるのであれば次のステップSP411に進み、満足のいくプログラムであれば、次のステップSP412に進む。
【0333】
ステップSP411では、編集オペレータの操作に従って、CPU21は、タイムライン95に貼り付けられたイベント及びエフェクトを修正する。
【0334】
イベントを修正する場合には、まず、タイムライン95において修正を必要とするイベントをマウス2Dでダブルクリックする。CPU21は、ダブルクリックされたイベントをローカルストレージ8から再生し、ビューアウインドウ92に表示するように、ローカルストレージ8及び編集処理装置3を制御する。また、CPU21は、ローカルストレージ8から再生された映像をビューアウインドウ92のビューア106に表示すると共に、内部ハードディスクHDDに記憶されたイン点及びアウト点のスタンプピクチャをイン点画像表示部110及びアウト点画像表示部120にそれぞれ表示する。
【0335】
クリップを作成したときと同じ要領で、必要に応じて、イン点及びアウト点の再設定、ビデオ及びオーディオレベル等の各種パラメータの再調整を行なう。
【0336】
所望の修正処理が終了し、編集オペレータは、ADDボタン122Aをクリックすると、CPU21は、修正されたイベントに関する情報を、タイムライン95上の古いイベントの情報にオーバライトすると共に、タイムライン95の表示を、古いイベントから修正されたイベントに変更する。
【0337】
また、エフェクトを修正する場合には、まずタイムライン95において修正を必要とするエフェクトをマウス2Dでダブルクリックする。CPU21は、ダブルクリックされたエフェクトを設定したエフェクト設定ダイアログ190をオープンする。
【0338】
エフェクトを設定したときと同じ要領で、必要に応じて、エフェクト種類、トランジション時間及びモディファイパラメータ等の再設定を行なう。
【0339】
所望の修正が終了し、エフェクト設定ダイアログ190が閉じられると、CPU21は、修正されたエフェクトに関する情報を、古いエフェクトの情報にオーバライトすると共に、タイムライン95の表示を、古いエフェクトから修正されたエフェクトに変更する。
【0340】
ステップSP412では、CPU21は、タイムライン95上に作成されたプログラムに従ってプログラムリスト(EDL)を作成し、そのEDLを内部ハードディスクHDDに設けされたEDLフォルダにファイルとして記録する。
【0341】
ステップSP412では、CPU21は、編集オペレータの指示に従って、完成ビデオプログラムを作成する。編集オペレータが、RECボタン123Dをクリックすると、図38のようなRECダイアログがオープンする。まず、編集オペレータは、完成ビデオプログラムを記録するための記録デバイスを、ローカルストレージ8、VTR7及びオンエアサーバ9の中から選択し、適切なファイル名を入力する。編集オペレータが、エクシキュートボタン「Execute」をクリックすると、コンピュータ2は、プレビューのときと同じように、作成したプログラムリスト(EDL)又はタイムライン95上のプログラムに従って、ローカルストレージ8及び編集処理装置3を制御する。その結果、指定されたデバイス上に、完全ビデオプログラムが記録される。
【0342】
以上のように、本発明の編集システムは、ローカルストレージから再生されたソースデータをルーティングするためのスイッチャブロックと、スイッチャブロックから出力されたビデオ信号を処理するビデオ信号処理ブロックと、スイッチャブロックから出力されたオーディオ信号を処理するオーディオ処理ブロックとを備えた編集処理装置と、ローカルストレージに記録されたソース素材を編集するためのソフトウエアプログラムによってプログラムされ、編集用ソフトウエアプログラムを使用して作成した編集プログラムに対応するようにスイッチャブロック、ビデオ信号処置ブロック、オーディオ信号処理ブロック及びローカルストレージを制御するコンピュータとを備えたことを特徴とするものである。
【0343】
よって、この編集システムによれば、タイムライン上に作成したプログラムに応じて各処理ブロックを自動的に制御することができ、編集効率を向上させることができる。また、本発明の編集システムによれば、即時性の求められるニュース番組の制作時に、ノンリニアの特徴であるランダムアクセス性を生かした素早い編集作業が行なえる。また、ニュース番組制作や報道番組制作において、本発明の編集システムを使用することによって、モザイク効果の追加や話者の声色の変更、取材現場の周辺ノイズの除去機能などの編集を、自分一人で迅速に行なうことができる。
【0344】
また、本発明の編集システムは、ソース素材を供給するための複数のソースデバイスと、ソースデバイスから再生されたソース素材をランダムアクセス可能な記録するとともに、記録媒体からソース素材を再生するためのローカルストレージと、ローカルストレージから再生されたソースデータをルーティングするためのスイッチャブロックと、スイッチャブロックから出力されたビデオ信号を処理するビデオ信号処理ブロック、スイッチャブロックから出力されたオーディオ信号を処理するオーディオ処理ブロックとを備えた編集処理装置と、ソースデバイスに記録されたソース素材をローカルストレージにダウンロードするダウンロード処理と、ローカルストレージに記録されたソース素材を編集するための編集リストを作成する編集処理とを同時に行なうように、ソースデバイス及びローカルストレージの記録再生動作と、スイッチャブロック、ビデオ信号処理ブロック及びオーディオ信号処理ブロックの処理動作とを制御するコンピュータとを備えたことを特徴とするものである。
【0345】
従って、素材をサーバ等からダウンロードしている時間にも、ローカルストレージに記憶された他の素材の編集作業を行なうことができるので、編集作業時間を短縮することができる。また、本発明の編集システムは、ローカルハードディスクとして使用する単独システムと、ネットワーク上のサーバ素材を共有しながら、効率的に編集を行なうネットワーク型編集システムとしても使用できる。
【0346】
また本発明の編集システムは、ソースデバイスから供給されたソース素材をランダムアクセス可能な記録するとともに、記録媒体からソース素材を再生するためのローカルストレージと、ローカルストレージから再生された複数のソースビデオ信号をルーティングするためのスイッチャブロックと、スイッチャブロックから出力されたビデオ信号に対して所望のエフェクトを施すビデオ信号処理ブロックとを備えた編集処理装置と、ソースビデオデータに対して施されるエフェクトを設定するエフェクト設定手段と、エフェクト設定手段によって設定されたエフェクトに応じて、適切なソースビデオ信号をビデオ信号処理ブロックに供給するようにスイッチャブロックを制御すると共に、エフェクトに対応したエフェクトを実行するようにビデオ信号処理ブロックを制御するコンピュータとを備えたことを特徴としているものである。
【0347】
従って、エフェクトを実行するために、編集処理装置の処理タイミングや入力信号の設定などを自動で行なうことができるので、編集時間を短縮することができる。また、ニュース番組制作や報道番組制作において、本発明の編集システムを使用することによって、モザイク効果の追加や話者の声色の変更、取材現場の周辺ノイズの除去機能などの編集を、高速で行なうことができる。また、本発明の編集システムによれば、これらの多彩なエフェクトを実現するために、コンピュータによるソフト上の処理とハードウエアの両方を最適になるように使用して、リアルタイムでの高速デジタル画像編集及びオーディオ編集を実現できる。
【0348】
また、本発明の編集システムは、ソースデバイスから供給されたソース素材をランダムアクセス可能な記録するとともに、記録媒体からソース素材を再生するためのローカルストレージと、ローカルストレージから再生された複数のソースビデオ信号をルーティングするためのスイッチャブロックと、スイッチャブロックから出力されたビデオ信号を処理するためのビデオ信号処理ブロックと、スイッチャブロックから出力されたオーディオ信号を処理するためのオーディオ信号処理ブロックとを備えた編集処理装置と、ローカルストレージに記録されたソース素材を編集するための編集リストを生成し、編集リストに応じて、適切なソースビデオ信号をビデオ信号処理ブロックに供給するとともに、適切なソースオーディオ信号をビデオ信号処理ブロックに供給するようにスイッチャブロックを制御するコンピュータとを備えたことを特徴としているものである。
【0349】
従って、本発明の編集システムによれば、ビデオ信号とオーディオ信号のクロスポイントの切り換え制御を簡易化することができる。
【0350】
また、本発明の編集システムは、ソース素材を編集するための編集システムにおいて、ソースデバイスから供給された複数のソース素材をランダムアクセス可能な記録するとともに、記録媒体からソース素材を再生するためのローカルストレージと、ローカルストレージから再生された複数のソースビデオ信号をルーティングするためのスイッチャブロックと、スイッチャブロックから出力されたビデオ信号に対して所望のエフェクトを施すビデオ信号処理ブロックとを備えた編集処理装置と、複数のソース素材を編集するための編集リストを生成すると共に、編集リストに応じた完成ビデオプログラムを生成するようにストレージ装置及び編集処理装置を制御する制御手段を備え、完成ビデオプログラムに設定されたエフェクトの実行タイミングに応じて、適切なソースビデオ信号がビデオ信号処理ブロックに供給されるようにスイッチャブロックを制御するコンピュータとを備えたことを特徴とするものである。
【0351】
従って、本発明の編集システムによれば、エフェクトを実行するために、編集処理装置の処理タイミングや入力信号の設定などを自動で行なうことができるので、編集時間を短縮することができる。また、ニュース番組制作や報道番組制作において、本発明の編集システムを使用することによって、モザイク効果の追加や話者の声色の変更、取材現場の周辺ノイズの除去機能などの編集を、高速で行なうことができる。また、本発明の編集システムによれば、これらの多彩なエフェクトを実現するために、コンピュータによるソフト上の処理とハードウエアの両方を最適になるように使用して、リアルタイムでの高速デジタル画像編集及びオーディオ編集を実現できる。
【0352】
また、本発明の編集方法は、編集用ソフトウエアプログラムを使用して、ローカルストレージに記録されたソース素材を編集するための編集リストを作成し、編集リストに対応したビデオプログラムを生成するように、スイッチャブロック、ビデオ信号処置ブロック、オーディオ信号処理ブロック及びローカルストレージを制御することを特徴とするものである。
【0353】
よって、本発明の編集方法によれば、タイムライン上に作成したプログラムに応じて各処理ブロックを自動的に制御することができ、編集効率を向上させることができる。
【0354】
また、本発明の編集方法は、ソースデバイスに記録されたソース素材をローカルストレージにダウンロードするダウンロード処理と、ローカルストレージに記録されたソース素材を編集するための編集リストを作成する編集処理とを同時に実行することを特徴とするものである。
【0355】
従って、素材をサーバ等からダウンロードしている時間にも、ローカルストレージに記憶された他の素材の編集作業を行なうことができるので、編集作業時間を短縮することができる。
【0356】
また、本発明の編集方法は、記ローカルストレージから再生された複数のソースビデオ信号に対して所望のエフェクトを設定し、設定されたエフェクトに応じて、適切なソースビデオ信号をビデオ信号処理ブロックに供給するようにスイッチャブロックを制御することを特徴とするものである。
【0357】
従って、本発明の編集方法によれば、エフェクトを実行するために、編集処理装置の処理タイミングや入力信号の設定などを自動で行なうことができるので、編集時間を短縮することができる。また、ニュース番組制作や報道番組制作において、本発明の編集方法を使用することによって、モザイク効果の追加や話者の声色の変更、取材現場の周辺ノイズの除去機能などの編集を、高速で行なうことができる。
【図面の簡単な説明】
図1は、本発明を適用した編集装置を示すブロック図である。
図2は、編集装置を構成するコンピュータの内部構成を示すブロック図である。
図3は、編集装置を構成する編集処理装置の内部構成を示すブロック図である。
図4は、編集処理装置のシステムコントロール部の構成を示すブロック図である。
図5は、編集処理装置のマトリクススイッチャ部の構成を示すブロック図である。
図6は、編集処理装置の画像処理部の構成を示すブロック図である。
図7は、編集処理装置の音声処理部の構成を示すブロック図である。
図8は、編集装置に接続されるローカルストレージの構成を示すブロック図である。
図9は、ローカルストレージのディスクアレイブロックの構成を示すブロック図である。
図10は、ディスクアレイブロックにおける動作を説明するための図である。
図11は、ディスクアレイブロックにおける動作を説明するための図である。
図12は、編集用のグラフィックユーザインターフェース画面を説明するための図である。
図13は、ビューアウインドウを説明するための図である。
図14は、ログウインドウを説明するための図である。
図15は、ログウインドウにおけるクリップカードの表示形式を説明するための図である。
図16は、プログラムウインドウを説明するための略線図である。
図17は、プログラムウインドウを説明するための略線図である。
図18は、デバイスアイコンを説明するための略線図である。
図19は、ファイル情報を説明するための図である。
図20は、イベント登録処理の動作を説明するためのフローチャートである。
図21は、ファイル検索ダイアログを説明するための図である。
図22は、ファイルリスト表示ダイアログを説明するための図である。
図23は、ビデオレベル設定ダイアログを説明するための図である。
図24は、オーディオレベル設定ダイアログを説明するための図である。
図25は、ダウンロード設定ダイアログを説明するための図である。
図26は、シーン名設定ダイアログを説明するための図である。
図27は、プログラムリスト作成処理を説明するためのフローチャートである。
図28は、ミックスダウン設定用のダイアログを説明するための図である。
図29は、フェーダアサイン用のダイアログを説明するための図である。
図30は、エフェクト設定ダイアログを説明するための図である。
図31は、タイムライン上でのエフェクト設定作業を説明するための図である。
図32は、タイムライン上でのエフェクト設定作業を説明するための図である。
図33は、タイムライン上でのエフェクト設定作業を説明するための図である。
図34は、タイムライン上でのエフェクト設定作業を説明するための図である。
図35は、タイムライン上でのエフェクト設定作業を説明するための図である。
図36は、タイムライン上でのエフェクト設定作業を説明するための図である。
図37は、プレビュー実行時におけるタイムライン上のナウラインの状態を説明するための図である。
図38は、記録デバイスを設定するためのダイログを説明するための図である。
【符号の説明】
1 編集装置
2 コンピュータ
2B モニタ
3 編集処理装置
6 デイリーサーバ
7 VTR
8 ローカルストレージ
9 オンエアバッファ
90 編集用画面
92 ビューアウィンドウ
93 ログウィンドウ
94 プログラムウィンドウ
95 タイムライン
96 デバイスコントロール部
102A〜102E ソース選択ボタン
110 イン点画像表示部
112 アウト点画像表示部
135 エフェクトライン
139 ナウライン
165A〜165E デバイスアイコン
179 クリップ

Claims (4)

  1. ソース素材を編集するための編集システムにおいて、
    ソースデバイスから供給されたソース素材をランダムアクセス可能な記録媒体に記録するとともに、上記記録媒体から上記ソース素材を再生するためのデータストレージ装置と、
    上記データストレージ装置に記録されたソース素材を編集するためのプログラムリストに従って、上記データストレージ装置から再生された複数のビデオ信号およびオーディオ信号を処理する編集手段と、
    上記ソース素材のビデオイメージをビューイングしながら編集点を決定することによってイベントを生成するためのビューアウインドウと、
    上記ビューアウンドウにおいて設定されたイベントに関するクリップイメージを表示するログウインドウと、
    イベントに対する所望のエフェクトを選択するためのエフェクト設定ダイアログと、
    互いに時間的関係が同一とされた第1および第2のタイムラインを含み、上記複数のイベントを所望の順に上記第1のタイムライン上に並べることによってプログラムリストを作成するプログラムウインドウとをコンピュータディスプレイに表示する制御手段と、
    上記クリップイメージをクリックすることによって、上記イベントを選択し、選択されたイベントに対応するクリップイメージを上記ログウインドウから上記プログラムウインドウに移動させると共に、上記第1のタイムライン上の所望の位置においてドロップさせることによって上記選択されたイベントを上記第1のタイムライン上に配置し
    上記選択されたエフェクトに対応するアイコンを移動させ、上記第2のタイムライン上にドロップするための操作手段とを備え、
    上記制御手段は、
    上記ソースデバイスに記憶された複数のソース素材から、所望のソース素材を検索するソース素材検索処理と、
    上記検索されたソース素材を上記ビューアウインドウに表示して再生し複数のイベントを生成するイベント生成処理と、
    上記イベント生成処理によって生成された複数のイベントに対応するクリップイメージを、ユーザによる上記操作手段の操作に応じて上記第1のタイムライン上へドラッグすることによって上記イベントに対応するアイコンを表示させ、当該アイコンを上記第1のタイムライン上の所望の位置にドロップさせるようにして所望の順に並べることによって上記プログラムリストを生成するプログラムリスト生成処理と、
    上記選択されたエフェクトを、上記操作手段の操作に応じて上記第2のタイムライン上の所望の位置へドラッグすることによって、上記エフェクトに対応するアイコンを表示させ、上記アイコンを上記第2のタイムライン上の所望の位置にドロップさせることで、該エフェクトに対応するアイコンの位置に対応する期間のエフェクトを設定するエフェクト設定処理と、
    上記作成したプログラムリストに基いて、最終ビデオプログラムを作成する処理と
    を実行するように上記編集手段を制御することを特徴とする編集システム。
  2. 上記プログラムウインドウは、さらに、第1および第2のタイムラインと時間的関係が同一とされる第3のタイムラインを含み、
    上記制御手段は、
    上記クリップイメージが上記操作手段の操作に応じて上記第3のタイムライン上にドラッグされると、上記クリップイメージに対応するイベントのアイコンを表示させ、該アイコンを上記第3のタイムライン上の所望の位置にドロップさせることで、上記エフェクト設定ダイアログにて現在設定されているエフェクトを、該イベントに対応する期間のエフェクトとして設定するエフェクト自動設定処理を行う請求項1に記載の編集システム。
  3. ソース素材を編集するための編集方法において、
    上記ソース素材のビデオイメージをビューイングしながら編集点を決定することによってイベントを生成するためのビューアウインドウと、
    上記ビューアウンドウにおいて設定されたイベントに関するクリップイメージを表示するログウインドウと、
    イベントに対する所望のエフェクトを選択するためのエフェクト設定ダイアログと、
    互いに時間的関係が同一とされた第1および第2のタイムラインを含み、操作手段によって、上記クリップイメージをクリックすることによって、上記イベントを選択し、選択されたイベントに対応するクリップイメージを上記ログウインドウから上記プログラムウインドウに移動させると共に、上記第1のタイムライン上の所望の位置においてドロップさせることによって上記選択されたイベントを所望の順に上記第1のタイムライン上に並べることによってプログラムリストを作成するプログラムウインドウとをコンピュータディスプレイに表示し、
    上記ソースデバイスに記憶された複数のソース素材から、所望のソース素材を検索するソース素材検索処理と、
    上記検索されたソース素材を上記ビューアウインドウに表示して再生し複数のイベントを生成するイベント生成処理と、
    上記イベント生成処理によって生成された複数のイベントに対応するクリップイメージを、ユーザによる上記操作手段の操作に応じて上記第1のタイムライン上へドラッグすることによって上記イベントに対応するアイコンを表示させ、当該アイコンを上記第1のタイムライン上の所望の位置にドロップさせるようにして所望の順に並べることによって上記プログラムリストを生成するプログラムリスト生成処理と、
    上記選択されたエフェクトを、上記操作手段の操作に応じて上記第2のタイムライン上の所望の位置へドラッグすることによって、上記エフェクトに対応するアイコンを表示させ、上記アイコンを上記第2のタイムライン上の所望の位置にドロップさせることで、該エフェクトに対応するアイコンの位置に対応する期間のエフェクトを設定するエフェクト設定処理と、
    上記作成したプログラムリストに基いて、最終ビデオプログラムを作成する処理と
    を実行することを特徴とする編集方法。
  4. 上記プログラムウインドウは、さらに、第1および第2のタイムラインと時間的関係が同一とされる第3のタイムラインを含み、
    上記クリップイメージが上記操作手段の操作に応じて上記第3のタイムライン上にドラッグされると、上記クリップイメージに対応するイベントのアイコンを表示させ、該アイコンを上記第3のタイムライン上の所望の位置にドロップさせることで、上記エフェクト設定ダイアログにて現在設定されているエフェクトを、該イベントに対応する期間のエフェクトとして設定するエフェクト自動設定処理を実行する請求項3に記載の編集方法。
JP54372698A 1997-04-12 1998-04-13 編集システム及び編集方法 Expired - Fee Related JP4588126B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11031697 1997-04-12
PCT/JP1998/001684 WO1998047145A1 (fr) 1997-04-12 1998-04-13 Systeme d'edition et procede d'edition

Publications (1)

Publication Number Publication Date
JP4588126B2 true JP4588126B2 (ja) 2010-11-24

Family

ID=14532635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP54372698A Expired - Fee Related JP4588126B2 (ja) 1997-04-12 1998-04-13 編集システム及び編集方法

Country Status (4)

Country Link
EP (1) EP0911829A4 (ja)
JP (1) JP4588126B2 (ja)
CA (1) CA2257572A1 (ja)
WO (1) WO1998047145A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6744969B1 (en) 1998-11-10 2004-06-01 Sony Corporation Data recording and reproducing apparatus and data editing method
AU2001279304A1 (en) * 2000-07-13 2002-01-30 Christopher J. Feola System and method for associating historical information with sensory data and distribution thereof
US7330638B2 (en) * 2001-08-02 2008-02-12 Warner Bros. Home Entertainment Inc. Apparatus generating content codes for audiovisual programs
CN100505064C (zh) * 2004-04-06 2009-06-24 松下电器产业株式会社 声音再生装置
JP4123209B2 (ja) 2004-09-07 2008-07-23 ソニー株式会社 映像素材の管理装置及び方法,記録媒体並びにプログラム
FR2963471A1 (fr) * 2010-08-02 2012-02-03 Nevisto Sa Procede et dispositif automatique de production d'une bande son par combinaison de composantes sonores
GB2495289A (en) * 2011-10-04 2013-04-10 David John Thomas Multimedia editing by string manipulation

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05101118A (ja) * 1990-10-08 1993-04-23 Olympus Optical Co Ltd マルチメデイア・フアイリング・システム
US5359712A (en) * 1991-05-06 1994-10-25 Apple Computer, Inc. Method and apparatus for transitioning between sequences of digital information
JPH05137103A (ja) * 1991-11-15 1993-06-01 Hitachi Ltd プレゼンテーシヨン装置
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
EP0613145A2 (en) * 1993-02-26 1994-08-31 Sony Electronics Inc. Card file graphical user interface with visual representation of video data
JPH06276479A (ja) * 1993-03-24 1994-09-30 Kubota Corp 映像及び音声情報編集方法
US5930446A (en) * 1995-04-08 1999-07-27 Sony Corporation Edition system

Also Published As

Publication number Publication date
WO1998047145A1 (fr) 1998-10-22
EP0911829A4 (en) 2002-12-04
CA2257572A1 (en) 1998-10-22
EP0911829A1 (en) 1999-04-28

Similar Documents

Publication Publication Date Title
JP4536164B2 (ja) 編集装置及び編集方法
US20030091329A1 (en) Editing system and editing method
US6952221B1 (en) System and method for real time video production and distribution
US8560951B1 (en) System and method for real time video production and distribution
US5801685A (en) Automatic editing of recorded video elements sychronized with a script text read or displayed
US7024677B1 (en) System and method for real time video production and multicasting
US7903927B2 (en) Editing apparatus and control method thereof, and program and recording medium
JP4117616B2 (ja) 編集システム、その制御方法及び編集装置
US6670966B1 (en) Edit data creating device and edit data creating method
JP4168334B2 (ja) 編集装置及び編集方法
JP4229199B2 (ja) 編集装置及び編集方法
EP1262063B1 (en) System for real time video production and multicasting
JP4588126B2 (ja) 編集システム及び編集方法
JP4174718B2 (ja) 編集装置及び編集方法
KR100603173B1 (ko) 편집장치및편집방법
KR100603161B1 (ko) 편집시스템및편집방법
JP4172525B2 (ja) 編集装置及び編集方法
JP2007317352A (ja) 編集装置及び編集方法
JP3951196B2 (ja) 編集装置
JPH10283759A (ja) 編集装置
JPH10290419A (ja) 編集装置
JP4051648B2 (ja) 編集装置及び編集方法
JPH10290393A (ja) 編集装置
JPH10290417A (ja) 編集装置
JP3906922B2 (ja) 編集システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080515

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100908

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees