JP4281120B2 - Editing apparatus and method, and recording medium - Google Patents

Editing apparatus and method, and recording medium Download PDF

Info

Publication number
JP4281120B2
JP4281120B2 JP00633298A JP633298A JP4281120B2 JP 4281120 B2 JP4281120 B2 JP 4281120B2 JP 00633298 A JP00633298 A JP 00633298A JP 633298 A JP633298 A JP 633298A JP 4281120 B2 JP4281120 B2 JP 4281120B2
Authority
JP
Japan
Prior art keywords
button
data
image data
video
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00633298A
Other languages
Japanese (ja)
Other versions
JPH11205670A (en
Inventor
誠 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP00633298A priority Critical patent/JP4281120B2/en
Publication of JPH11205670A publication Critical patent/JPH11205670A/en
Application granted granted Critical
Publication of JP4281120B2 publication Critical patent/JP4281120B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、編集装置および方法、並びに記録媒体に関し、特に、例えばピクチャインピクチャの画像の表示位置を、簡単かつ確実に指定することができるようにした編集装置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】
従来、この種の編集システムとしては、編集対象の素材を記録する記録手段としてビデオテープレコーダ(以下、これを略してVTRと呼ぶ)を用いたものが提案されている。このような編集システムにおいては、スポーツやニュース等といったライブ映像を順次VTRで記録し、その記録された映像を編集素材として読み出して使用することにより、プログラム編集を行うようになされている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の編集システムにおいては、例えばピクチャインピクチャの形式で、子画面を親画面に対して所定の位置に配置するような場合、その位置を、迅速かつ簡単に指定することが困難である課題があった。
【0004】
本発明はこのような状況に鑑みてなされたものであり、ピクチャインピクチャの画像の表示位置などを迅速かつ簡単に指定することができるようにするものである。
【0005】
【課題を解決するための手段】
請求項1に記載の編集装置は、
画面上の所定の第1のボタンを操作することによりピクチャインピクチャの効果を画像に付与する編集装置であって、第1のボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御手段と、設定画面において設定されたパラメータを記憶部に記憶させる記憶制御手段と、ピクチャインピクチャの効果を画像に付与する場合に、パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、領域の角へのドラッグに対応して領域の大きさを変更し、領域の辺へのドラッグに対応して領域の枠の幅を変更し、領域の内部へのドラッグに対応して領域の位置を変更する領域表示制御手段とを備え、設定画面表示制御手段は、設定画面が表示されている場合、領域へのドラッグによる領域の表示位置または大きさの変更に伴い変更されるパラメータの値を設定画面のスライドボタンの表示に反映することを特徴とする。
【0006】
請求項に記載の編集方法は、画面上の所定のボタンを操作することによりピクチャインピクチャの効果を画像に付与する編集装置の編集方法であって、ボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御ステップと、設定画面において設定されたパラメータを記憶部に記憶させる記憶制御ステップと、ピクチャインピクチャの効果を画像に付与する場合に、パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、領域の角へのドラッグに対応して領域の大きさを変更し、領域の辺へのドラッグに対応して領域の枠の幅を変更し、領域の内部へのドラッグに対応して領域の位置を変更する領域表示制御ステップを含み、設定画面表示制御ステップにおいて、設定画面が表示されている場合、領域へのドラッグによる領域の表示位置または大きさの変更に伴い変更されるパラメータの値を設定画面のスライドボタンの表示に反映することを特徴とする。
【0007】
請求項に記載の記録媒体は、画面上の所定のボタンを操作することによりピクチャインピクチャの効果を画像に付与する編集装置のコンピュータに処理を実行させるプログラムであって、ボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御ステップと、設定画面において設定されたパラメータを記憶部に記憶させる記憶制御ステップと、ピクチャインピクチャの効果を画像に付与する場合に、パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、領域の角へのドラッグに対応して領域の大きさを変更し、領域の辺へのドラッグに対応して領域の枠の幅を変更し、領域の内部へのドラッグに対応して領域の位置を変更する領域表示制御ステップを含み、設定画面表示制御ステップにおいて、設定画面が表示されている場合、領域へのドラッグによる領域の表示位置または大きさの変更に伴い変更されるパラメータの値を設定画面のスライドボタンの表示に反映するプログラムが記録されていることを特徴とする。
【0008】
請求項1に記載の編集装置、請求項に記載の編集方法、および請求項に記載の記録媒体においては、ピクチャインピクチャの効果を画像に付与するための画面上のボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示が制御され、設定画面において設定されたパラメータが記憶部に記憶され、ピクチャインピクチャの効果を画像に付与する場合に、パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域が表示されるとともに、領域の角へのドラッグに対応して領域の大きさが変更され、領域の辺へのドラッグに対応して領域の枠の幅が変更され、領域の内部へのドラッグに対応して領域の位置が変更され、設定画面が表示されている場合、領域へのドラッグによる領域の表示位置または大きさの変更に伴い変更されるパラメータの値が設定画面のスライドボタンの表示に反映される。
【0009】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。
【0010】
請求項1に記載の編集装置は、画面上の所定の第1のボタン(例えば、図33のボタン25d)を操作することによりピクチャインピクチャの効果を画像に付与する編集装置であって、第1のボタンに対応する設定画面(例えば、図37のエフェクト詳細設定ダイアログ)であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタン(例えば、図37のスライドボタン771、773および775)を含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御手段(例えば、図41のステップS202、または、図41のステップS232)と、設定画面において設定されたパラメータを記憶部に記憶させる記憶制御手段(例えば、図41のステップS203、または、図41のステップS243)と、ピクチャインピクチャの効果を画像に付与する場合に、パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、領域の角(例えば、図42のBAR c )へのドラッグに対応して領域の大きさを変更し、領域の辺(例えば、図42のBAR L )へのドラッグに対応して領域の枠の幅を変更し、領域の内部(例えば、図42のBAR R )へのドラッグに対応して領域の位置を変更する領域表示制御手段(例えば、図41のステップS235乃至S241)とを備え、設定画面表示制御手段は、設定画面が表示されている場合、領域へのドラッグによる領域の表示位置または大きさの変更に伴い変更されるパラメータの値を設定画面のスライドボタンの表示に反映することを特徴とする。
【0011】
以下図面を参照して、本発明の一実施の形態を詳述する。なお、本明細書において、システムの用語は、複数の装置で構成される全体の装置を示すものとする。
【0012】
<編集システムの全体構成>
図1において、1は全体として本発明を適用した編集システムを示し、大きく分けてコンピュータ2、ハイブリッドレコーダ3、および映像効果装置(エフェクタ)6によって構成されている。コンピュータ2はCPUや各種処理回路、或いはフロッピーディスク2fを駆動するフロッピーディスクドライブ、ハードディスクドライブ等を有する本体2a、当該本体2aに接続されるモニタ2b、キーボード2c、マウス2d、および専用コントローラ2eによって構成される。このようなコンピュータ2は、映像データを編集するためのアプリケーションプログラムがハードディスクドライブに予めインストールされており、オペレーティングシステムの基で、当該アプリケーションプログラムを動作させることにより、編集システムとして起動するようになされている。
【0013】
なお、このアプリケーションプログラムは編集作業に使用される制御コマンドを生成するためのGUI(グラフィカル・ユーザ・インタフェース)を含んでおり、アプリケーションプログラムを起動させたときには、モニタ2b上に当該GUIのためのグラフィック表示が表示されるようになされている。
【0014】
一方、ハイブリッドレコーダ3(その詳細は図18を参照して後述する)は複数のハードディスクがアレイ状に連結されたハードディスクアレイと、当該ハードディスクアレイのバックアップ用として設けられたVTRとによって構成されており、外部から供給されるSDI(Serial Digital Interface)フォーマットのソースビデオ信号V1およびソースオーディオ信号A1を順次記録するようになされている。このハイブリッドレコーダ3は、見かけ上、記録と再生が同時に行われるようになされており、リアルタイムでビデオ信号V1およびオーディオ信号A1を記録しながら、リアルタイムでその記録されたビデオ信号V1およびオーディオ信号A1を再生し得るようになされている。
【0015】
なお、再生されたビデオ信号とオーディオ信号は、ビデオ信号V3およびオーディオ信号A3として、映像効果装置6に供給されるようになされている。またハイブリッドレコーダ3は入力された信号のうち、ビデオ信号V1を、ほぼそのままの状態で、ビデオ信号V2として出力するようになされており、その出力されたビデオ信号V2(信号としてはビデオ信号V1とほぼ同じ)はコンピュータ2の本体2aに供給されるようになっている。因みに、ここで入力されるビデオ信号V1とオーディオ信号A1は、ビデオカメラ等によって撮影されたコンポジットビデオ信号やVTRから送出されるコンポジットビデオ信号と、それに対応するオーディオ信号である。
【0016】
映像効果装置6(その詳細は、図4を参照して後述する)は、ハイブリッドレコーダ3より供給されたビデオ信号V3とオーディオ信号A3のうち、ビデオ信号V3に所定の特殊効果を施した後、ビデオ信号V5として、図示せぬ装置に出力する。このとき、対応するオーディオ信号は、ビデオ信号の処理時間に対応する分だけ遅延され、ビデオ信号V5に重畳して出力される。映像効果装置6はまた、特殊効果を付与したビデオ信号を、ビデオ信号V6として、コンポジットビデオ信号としてコンピュータ2の本体2aに供給している。
【0017】
コンピュータ2の本体2aとハイブリッドレコーダ3、並びに本体2aと映像効果装置6は、RS−422インタフェースの通信フォーマットに基づいた通信ケーブル4によって接続されており、当該通信ケーブル4を介して制御コマンドおよびそれに対する応答コマンドを伝送し得るようになされている。なお、RS−422インタフェースの通信フォーマットは、制御コマンドとそれに対する応答コマンドとを同時に送信/受信できる通信フォーマットである。
【0018】
ここでこの編集システム1の動作を簡単に説明する。まずビデオカメラ等によって撮影されたコンポジットのビデオ信号V1はハイブリッドレコーダ3に入力され、順次記録されて行く。またハイブリッドレコーダ3をスルーしてそのまま出力されるビデオ信号V2はコンピュータ2の本体2aに入力される。本体2aはそのビデオ信号V2に応じた縮小画像を生成し、モニタ2bに表示させる。一方、ハイブリッドレコーダ3は入力されるビデオ信号V1をリアルタイムで符号化し、ハードディスクアレイおよびVTRに記録する。
【0019】
コンピュータ2を操作するオペレータは、表示手段であるモニタ2bに表示されるビデオ信号V2を見ながら、コンピュータ2に接続されたマウス2d等のポインティングデバイスを操作することにより、イン点(編集開始点)やアウト点(編集終了点)等の編集点(所定の効果を付与するための編集点を含む)を指示すると共に、モニタ2bに表示されるGUIを使用して、編集のための制御コマンドを生成する。この制御コマンドはRS−422の制御コマンドとしてハイブリッドレコーダ3と映像効果装置6に伝送される。これによりハイブリッドレコーダ3の再生動作が制御され、再生されたビデオ信号V3は映像効果装置6で必要に応じて所定のエフェクトが付与された後、ビデオ信号V6として、コンピュータ2に供給され、そのモニタ2bに表示されると共に、ビデオ信号V5として外部に送出される。
【0020】
このようにしてこの編集システム1では、モニタ2bを見ながら、マウス2d等のポインティングデバイスを操作することにより、容易に編集作業を行うことができる。またこの編集システム1では、ほぼ同時に記録再生動作ができるハイブリッドレコーダ3と映像効果装置6を使用したことにより、リアルタイムで編集作業を行うことができ、リアルタイム性を損なうことなく、スポーツ中継やニュース報道等の素材にエフェクトを付与して編集することができる。
【0021】
図2は、編集システム1の他の構成例を表している。この構成例においては、ハイブリッドレコーダ3が、ハイブリッドレコーダ3a乃至3dとして4台設けられている。そのうちの1つは、メインチャンネルのハイブリッドレコーダ3aとされ、他の1つは、サブチャンネルのハイブリッドレコーダ3bとされる。メインのハイブリッドレコーダ3aの出力するビデオ信号V3と、オーディオ信号A3は、そのまま映像効果装置6に入力される。これに対して、ハイブリッドレコーダ3b乃至3dの出力するビデオ信号とオーディオ信号は、入出力選択装置7に入力され、そのうちの1つが選択されて、ビデオ信号V4およびオーディオA4として、映像効果装置6に入力される。その他の構成は、図1における場合と同様である。
【0022】
この場合においては、映像効果装置6において、メインチャンネルのビデオ信号とその他のビデオ信号のうち、入出力選択装置7で選択されたビデオ信号に対して、映像効果装置6で所定のエフェクトが付与された後、出力されることになる。
【0023】
この編集システムにおいては、最大4個所からの映像を同期して、記録することが可能である。映像効果装置6は、いわゆるAロールエフェクタとして機能し、2つのチャンネルの映像だけを、エフェクトを付与する処理対象の映像とすることができる。このため、メインチャンネルの映像と、入出力選択装置7で選択した映像を編集対象として、所定のエフェクトを付与することができる。ハイブリッドレコーダ3a乃至3dは、タイムコードが同期しており(それぞれのHDD上に記録されている映像のタイムコードと、記録アドレスが一致しており)、各ハイブリッドレコーダ3a乃至3dに供給するコマンドを同一とすることにより、4個所の映像を同期して記録することができる。そして、そのうちの2個所の映像を同期して再生し、所定のエフェクトを付与して出力することができる。
【0024】
<コンピュータの内部構成>
この項ではコンピュータ2の内部構成について具体的に説明する。図3に示すように、コンピュータ2は、コマンドデータやビデオデータを伝送するためのシステムバス5、コンピュータ全体の制御を行うCPU10、入力されるビデオ信号に対して画像処理等を行う第1および第2のビデオプロセッサ11,12、モニタ2bに表示されるビデオデータやGUIのためのグラフィック表示を管理する表示コントローラ13、ローカルハードディスクドライブ(ローカルHDD)15aを制御するためのHDDインタフェース15、フロッピーディスク2fを駆動するフロッピーディスクドライブ(FDD)16aを制御するためのFDDインタフェース16、マウス(カーソル制御デバイス)2d、専用コントローラ2eおよびキーボード2c等のポインティングデバイスからのコマンドに基づいて制御コマンドを生成するポインティングデバイスインタフェース17、ハイブリッドレコーダ3a乃至3d、映像効果装置6、および入出力選択装置7とRS−422の通信フォーマットに基づいてデータ通信を行うためのソフトウエアドライバを備えた外部インタフェース18を有している。
【0025】
システムバス5は、コンピュータ2の内部でビデオデータやコマンドデータ、或いはアドレスデータ等の通信を行うためのバスであり、ビデオデータを伝送するための画像データバス5aと、コマンドデータ等を伝送するためのコマンドデータバス5bとによって構成されている。
【0026】
画像データバス5aにはCPU10、第1および第2のビデオプロセッサ11,12、表示コントローラ13、HDDインタフェース15およびFDDインタフェース16がそれぞれ接続されており、当該第1および第2のビデオプロセッサ11,12、表示コントローラ13、HDDインタフェース15およびFDDインタフェース16は、この画像データバス5aを介してビデオデータの伝送を行うようになされている。
【0027】
一方、コマンドデータバス5bには、CPU10、第1および第2のビデオプロセッサ11,12、表示コントローラ13、HDDインタフェース15、FDDインタフェース16、ポインティングデバイスインタフェース17、および外部インタフェース18がそれぞれ接続されており(すなわちコンピュータ2内部の全てのブロックが接続されており)、当該コマンドデータバス5bを介してコマンドデータやアドレスデータの伝送を行うようになされている。
【0028】
CPU10はコンピュータ2全体の制御を行うためのブロックであり、コンピュータ2のオペレーティングシステムが格納してあるROM10aと、アップロードされたアプリケーションプログラム等が格納されるRAM10bとを備えている。コンピュータ2を起動する場合には、CPU10はROM10aに記憶されたオペレーティングシステムに基づいたソフトウエアプログラムを実行する。またアプリケーションプログラムをこの起動中のオペレーティングシステムの下で実行する場合には、CPU10はまず、ハードディスクドライブ15aのハードディスクに記録されているアプリケーションプログラムを読み出してRAM10bにアップロードし、その後、当該アプリケーションプログラムを実行する。
【0029】
第1のビデオプロセッサ11は、コンピュータ2に入力される第1のビデオ信号V2を受け取り、当該第1のビデオ信号V2に対してデータ変換を施すと共に、その変換されたビデオデータを一時的にバッファリングするためのブロックである。具体的には、第1のビデオプロセッサ11は、当該ビデオプロセッサ11の全体を制御するプロセッサコントローラ11a、受け取ったアナログのコンポジットビデオ信号V2を、ディジタルのコンポーネントビデオデータに変換するデータ変換部11b、および、データ変換部11bから送出される数フレーム分のビデオデータを一時的に記憶するフレームメモリ11cによって構成される。
【0030】
プロセッサコントローラ11aはデータ変換部11bに対して制御信号を送出することにより、当該データ変換部11bのデータ変換動作を制御すると共に、コンポジットビデオ信号V2からタイムコードを抽出させる。またプロセッサコントローラ11aはフレームメモリ11cに対して制御信号を送出することにより、当該フレームメモリ11cのリード/ライトタイミングおよびリード/ライトアドレスを制御する。因みに、リードタイミングに関しては、プロセッサコントローラ11aは、表示コントローラ13に送出するタイムコードとビデオデータ(フレームデータ)とが対応するようにフレームメモリ11cのリードタイミングを制御する。
【0031】
データ変換部11bはプロセッサコントローラ11aからの制御信号に基づいて、アナログのコンポジットビデオ信号V2をコンポーネントビデオ信号に変換し、その後、当該アナログのコンポーネントビデオ信号をディジタルビデオデータに変換する。なお、タイムコードはアナログのコンポーネントビデオ信号をディジタルビデオデータに変換する際に抽出される。ディジタルに変換されたビデオデータはフレームメモリ11cに送出され、抽出されたタイムコードはプロセッサコントローラ11aに送出される。
【0032】
ここでタイムコードはコンポジットビデオ信号V2の垂直ブランキング期間の14Hと16H、または12Hと14Hの2ラインにエンコードされて挿入されており、いわゆるVITC(Vertical Interval Time Code)と呼ばれるものである。従ってコンポジットビデオ信号V2からタイムコードを抽出する場合には、アナログ信号をディジタルデータに変換する際に、垂直同期期間のディジタル変換されたタイムコードのみをデコードすれば、容易に抽出することができる。因みに、このタイムコードはハイブリッドレコーダ3内において(図18の第2のタイムコード付加部312により)ビデオ信号V2を出力する際に付加されたものである。
【0033】
フレームメモリ11cはデータ変換部11bから供給されるビデオデータを一時的に記憶する。このフレームメモリ11cのリード/ライトタイミングは、上述したようにプロセッサコントローラ11aによって制御される。このフレームメモリ11cは2個のフレームメモリから構成され、合計4Mbyteの記憶容量を有している。このフレームメモリ11cに記憶されるビデオデータは、1フレームが1520画素×960画素からなるビデオデータであり、フレームメモリ11cはこのようなビデオデータを2フレーム分記憶し得るようになされている。
【0034】
フレームメモリ11cに記憶された1520画素×960画素のビデオデータは、プロセッサコントローラ11aの読出し制御に基づいて読み出される。フレームメモリ11cから読み出されるビデオデータは1520画素×960画素、すなわち全画素のビデオデータではなく、380画素×240画素となるように、データ量が間引かれたビデオデータである。ここでデータ量を間引くとは、単にフレームメモリ11cからのビデオデータの読出しのサンプリングレートを1/4にして、読み出されるビデオデータ量を減少させているだけのことである。このようにして読み出された380画素×240画素のビデオデータは、画像データバス5aを介して表示コントローラ13に送出される(この画像は、モニタ2bの後述する図5の記録ビデオ画面21aに表示される)。
【0035】
第2のビデオプロセッサ12は第1のビデオプロセッサと全く同様の構成を有している。すなわちビデオプロセッサ12は、当該ビデオプロセッサ12の全体をコントロールするプロセッサコントローラ12a、受け取ったアナログのコンポジットビデオ信号V6をディジタルのコンポーネントビデオデータに変換するデータ変換部12b、およびデータ変換部12bから送出された数フレーム分のビデオデータを一時的に記憶するフレームメモリ12cを備えている。なお、第1のビデオプロセッサ11と第2のビデオプロセッサ12の異なる点は、第1のビデオプロセッサ11にはハイブリッドレコーダ3が出力したコンポジットビデオ信号V2が入力されているのに対して、第2のビデオプロセッサ12には映像効果装置6が出力したコンポジットビデオ信号V6が入力されている点である。
【0036】
ここでコンポジットビデオ信号V2は、ハイブリッドレコーダ3の内部において入力ビデオ信号V1の垂直同期期間にタイムコードを重畳したビデオ信号であるので、リアルタイムに入力する入力ビデオ信号V1と時間的に同一のビデオ信号である。すなわちフレームメモリ11cに記憶されるビデオデータは、入力ビデオ信号V1をディジタル化したものと同一のビデオデータである。これに対してコンポジットビデオ信号V6は、コンピュータ2からの命令によってハイブリッドレコーダ3から再生され、映像効果装置6により必要に応じてエフェクトが付与されたビデオ信号である。従ってこのコンポジットビデオ信号V6は、入力ビデオ信号V1とは時間的にずれた(タイミングがずれた)ビデオ信号である。
【0037】
この点について以下に詳しく説明する。オペレータがコンピュータ2に対して所望のビデオデータの再生を指令すると、コンピュータ2はハイブリッドレコーダ3(以下、ハイブリッドレコーダ3a乃至3dを個々に区別する必要がない場合、単に、ハイブリッドレコーダ3と記述する。他の装置についても同様とする)に対してそのビデオデータの再生コマンドを送出する。ハイブリッドレコーダ3はコンピュータ2からの再生コマンドに応じてオペレータが指定したビデオデータを再生する。またハイブリッドレコーダ3はビデオデータに対してフレーム単位で対応するタイムコードを記憶しており、その対応関係に基づいてその再生したビデオデータのタイムコードを再生する。
【0038】
そしてハイブリッドレコーダ3は、再生したビデオデータの垂直同期期間にその再生したタイムコードを重畳し、その結果得られるビデオデータを映像効果装置6に伝送できるように、アナログのコンポジットビデオ信号V3に変換し、これを映像効果装置6に送出する。映像効果装置6は、このビデオ信号V3に対して、コンピュータ2からの指令に対応してエフェクトを付与し、コンポジットビデオ信号V6としてコンピュータ2に出力する。このようにしてコンポジットビデオ信号V6はオペレータからの指示によって再生されたビデオ信号であるので、入力ビデオ信号V1とは時間的に非同期な信号である。
【0039】
第2のビデオプロセッサ12に供給されたコンポジットビデオ信号V6は、第1のビデオプロセッサ11に供給されたコンポジットビデオ信号V2と同様に、データ変換部12bおよびフレームメモリ12cを介して所定の信号処理が施された後、380画素×240画素のディジタルビデオデータとして表示コントローラ13に伝送される(この画像は、モニタ2bの後述する図5の再生ビデオ画面23aに表示される)。
【0040】
表示コントローラ13は、モニタ2bに表示されるデータを制御するための制御ブロックである。表示コントローラ13はメモリコントローラ13aとVRAM(ビデオ・ランダム・アクセス・メモリ)13bとを有している。メモリコントローラ13aはコンピュータ2内部の内部同期に従って、VRAM13bのリード/ライトのタイミングを制御する。このVRAM13bには、第1のビデオプロセッサ11のフレームメモリ11cからのビデオデータ、第2のビデオプロセッサ12のフレームメモリ12cからのビデオデータ、およびCPU10からのイメージデータが、それぞれメモリコントローラ13aからのタイミング制御信号に基づいて記憶される。
【0041】
このVRAM13bに記憶されたイメージデータは、コンピュータ2の内部同期に基づいたメモリコントローラ13bからのタイミング制御信号に基づいてVRAM13bから読み出され、モニタ2bにグラフィック表示される。このようにしてモニタ2bに表示されたグラフィック表示が、GUIのためのグラフィック表示となる。ここでCPU10からVRAM13bに送出されるイメージデータは、例えばウインドウ、カーソル、スクロールバー等のイメージデータである。これらの複数種類のイメージデータをモニタ2bに表示させることによって、GUIのためのグラフィック表示を得ることができる。
【0042】
ハードディスクインタフェース15は、コンピュータ2内部に設けられたローカルハードディスクドライブ(HDD)15aと通信するためのインタフェースブロックである。このハードディスクインタフェース15とハードディスクドライブ15aとは、SCSI(Small Computer System Interface)の伝送フォーマットに基づいて通信が行われるようになされている。
【0043】
ハードディスクドライブ15aには、コンピュータ2で起動するためのアプリケーションプログラムがインストールされており、アプリケーションプログラムを実行する場合には、このハードディスクドライブ15aから読み出されてCPU10のRAM10bにアップロードされる。またこのアプリケーションプログラムを終了する際には、RAM10bに記憶されている編集オペレーションによって作成されたワークデータファイルは、このハードディスクドライブ15aを介してハードディスクにダウンロードされる。
【0044】
フロッピーディスクインタフェース16は、コンピュータ2内部に設けられたフロッピーディスクドライブ(FDD)16aと通信するためのインタフェースブロックである。このフロッピーディスクインタフェース16とフロッピーディスクドライブ16aとは、SCSIの伝送フォーマットに基づいて通信が行われるようになされている。なお、編集オペレーションの編集結果を示すEDL(エデイット・ディシジョン・リスト)等はこのフロッピーディスクドライブ16aを介してフロッピーディスク2fに記録される。
【0045】
ポインティングデバイスインタフェース17は、コンピュータ2に接続されたマウス2d、専用コントローラ2eおよびキーボード2cからの情報を受信するインタフェースブロックである。ポインティングデバイスインタフェース17は、例えばマウス2dに設けられた2次元ロータリエンコーダの検出情報と、マウス2dに設けられた左右のボタンのクリック情報とを当該マウス2dから受け取り、受け取ったそれらの情報をデコードしてCPU10に送出する。同様に、ポインティングデバイスインタフェース17は、専用コントローラ2eおよびキーボード2cからの情報を受け取り、受け取った情報をデコードしてCPU10に送出する。
【0046】
外部インタフェース18は、コンピュータ2の外部に接続されたハイブリッドレコーダ3、映像効果装置6、および入出力選択装置7と通信するためのブロックである。外部インタフェース18はCPU10で生成されたコマンドデータを、RS−422の通信プロトコルに変化するRS−422ドライバを有しており、当該RS−422ドライバを介してハイブリッドレコーダ3に再生コマンド等の制御コマンドを送出したり、入出力選択装置7に所定の信号を選択させる制御コマンドを送出したり、映像効果装置6に所定のエフェクトを付与する制御コマンドを送出したりする。
【0047】
図4は、Aロールエフェクタとして機能する映像効果装置6の内部の構成例を表している。端子704には、ハイブリッドレコーダ3aの出力するメインチャンネルのビデオ信号V3とオーディオ信号A3が入力され、端子703には、入出力選択装置7が選択したハイブリッドレコーダ3b乃至3dのいずれかが出力するビデオ信号V4とオーディオ信号A4が入力される。端子704に入力されたビデオ信号V3とオーディオ信号A3は、シリアルパラレル変換器710により、シリアルデータからパラレルデータに変換された後、タイムベースコレクタ714により、そのタイミングが調整される。タイムベースコレクタ714が出力した信号のうち、ビデオ信号は、フリーズメモリ718に供給され、記憶されるとともに、クロスポイントスイッチ717の端子DIN1に供給される。フリーズメモリ718に記憶された画像データは、そこから読み出され、クロスポイントスイッチ717の端子FMFZに供給されている。
【0048】
タイムベースコレクタ714が出力した信号のうち、オーディオ信号は、オーディオ伸長器743に入力され、伸長処理が施された後、1フレーム遅延回路744により、1フレーム分だけ遅延される。この遅延時間は、画像演算装置720における画像演算処理に必要な時間に対応している。1フレーム遅延回路744の出力は、オーディオ圧縮器745に入力され、圧縮された後、映像音声合成回路725に供給されている。
【0049】
端子703に入力されたビデオ信号V4とオーディオ信号A4は、シリアルパラレル変換器709により、シリアルデータからパラレルデータに変換された後、タイムベースコレクタ713に入力され、タイミング調整が行われ、そのうちの、ビデオ信号V4は、さらにクロスポイントスイッチ717の端子DIN2に入力されている。
【0050】
端子701と702には、外部(External)より供給されるDSK(ダウンストリームキーイング)フィル信号とDSKキー信号が入力されている。DSKフィル信号は、シリアルパラレル変換器707により、シリアルデータからパラレルデータに変換された後、タイムベースコレクタ711により、タイミングが調整され、クロスポイントスイッチ717の端子DSKFに入力されている。DSKキー信号は、シリアルパラレル変換器708により、シリアルデータからパラレルデータに変換された後、タイムベースコレクタ712により、タイミング調整が行われ、クロスポイントスイッチ717の端子DSKSに入力されている。
【0051】
フロッピーディスク742より読み出された内部(Internal)のDSK信号の元になる画像データは、FDDインタフェース741からCPUバス746を介してバッファとして機能するイメージメモリ737に供給され、記憶される。
【0052】
クロスポイントスイッチ717は、端子FMFZ、DIN1、またはDIN2より入力された映像信号の所定のものを選択し、画像演算装置720の端子FRGDまたはBKGDに供給する。端子BKGDには、切り替わる前の映像(バックグラウンドビデオ)が供給され、端子FRGDには、切り替わった後の映像(フォアグラウンドビデオ)が供給される。
【0053】
画像演算装置720の端子DSKSには、GUIの設定により選択されたキー信号(端子702からのキー信号、または、フロッピーディスク742からのキー信号)が供給され、端子DSKFには、GUIにより選択されたフィル信号(端子701からのフィル信号、または内部ジェネレータによるマットカラー信号)が供給される。画像演算装置720の端子EXTKには、端子702からのキー信号が入力される。
【0054】
画像演算装置720は、各端子より入力された画像データに対して、所定のエフェクトを付与し、エフェクトを付与した画像データを端子M/EまたはDFSから出力する。端子M/Eからは、DSKがない画像データが出力され、クロスポイントスイッチ717の端子M/Eに供給される。また、画像演算装置720の端子DFSからは、DSK処理を含む画像データが出力され、クロスポイントスイッチ717の端子DFSに入力される。
【0055】
例えば、メインチャンネルの映像をサブチャンネルの映像にエフェクトをかけて切り換える場合、クロスポイントスイッチ717は、画像演算装置720の端子BKGDに、端子FMFZに入力されるフリーズメモリ718の出力を供給し、画像演算装置720の端子FRGDにタイムベースコレクタ713からクロスポイントスイッチ717の端子DIN2に入力される画像データを供給する。画像演算装置720は、端子FRGDからの画像を、端子BKGDからの画像にエフェクトを付与した画像に切り替えて、端子M/EとDFSから出力し、クロスポイントスイッチ717の対応する端子にフィードバックする。
【0056】
クロスポイントスイッチ717は、端子M/EまたはDFSに入力された画像データのいずれかを選択し、端子MONまたはPGMに出力する。クロスポイントスイッチ717の端子MONから出力された画像データは、コンポジット信号変換器721により、コンポジットビデオ信号に変換され、バッファメモリ722を介して、端子723からビデオ信号V6としてコンピュータ2に出力される。このビデオ信号V6が、後述する図5の再生ビデオ画面23aに表示される。
【0057】
クロスポイントスイッチ717の端子PGMより出力されたビデオデータは、映像出力処理部724に入力され、所定の映像処理がなされた後、映像音声合成回路725に入力され、オーディオ圧縮器745より入力されるオーディオ信号と合成される。映像音声合成回路725より出力された信号は、パラレルシリアル変換器726により、パラレルデータからシリアルデータに変換され、端子727乃至730から図示せぬ装置に出力される。
【0058】
端子705には、所定のビデオ信号が入力される。このビデオ信号は、スルー出力として、そのまま端子706から、図示せぬ装置に出力されるとともに、タイムコード生成部715に入力される。タイムコード生成部715は、端子705より供給されたビデオ信号に同期して、タイムコードを生成する。このタイムコードは、シリアルインタフェース716、CPUバス746を介して、適宜CPU734に供給される。CPU734は、このタイムコードに同期して、各部を制御する。これにより、外部より入力されたビデオ信号に同期した映像効果処理が可能となる。
【0059】
フラッシュメモリ735には、CPU734が処理するプログラムが記憶され、スタティックRAM736には、CPU734が処理する各種のデータが、適宜記憶される。
【0060】
RS−422の端子731と732には、RS−422の通信ケーブル4を介して、パーソナルコンピュータ2が接続される。シリアル入出力コントローラ733は、RS−422の端子731と732を介して授受されるコマンドのインタフェース処理を実行する。
【0061】
CPU734はまた、GPI(ジェネラルパーパスインタフェース)の端子747乃至749から制御できるようになされている。端子747には、エフェクトのオンオフを制御する信号が入力され、端子748には、DSKをオンする信号が入力され、端子749には、DSKをオフする信号が入力されるようになされている。
【0062】
RS−232の端子739には、マウスが接続され、端子740には、ISR(Interactive Status Reporting)の装置、例えば映像効果装置6を監視、診断するソフトウェアを搭載したパーソナルコンピュータ(図示せず)が接続される。シリアルインタフェース738は、これらの端子739と740に接続される装置とのインタフェース処理を実行する。
【0063】
<GUIのためのグラフィック表示>
ピクチャモード
この編集システム1においては、GUIのためのグラフィック表示として2種類のモードが用意されている。その1つは、登録されたイベントのイン点やアウト点の画面を見ながら、イベントの並び換えを行ってプログラムを編集するようになされたピクチャモードであり、もう1つは、登録されたイベントの時間的長さを見ながら、プログラムの尺合わせを行えるようになされたタイムラインモードである。この2つのモードは、後述する図5のモードボタン22bをクリックすることにより、容易に切り換え得るようになされており、これによりオペレータは編集目的に応じて、使い易い方のGUIを選択することができ、編集作業における使い勝手を向上することができる。
【0064】
この項では、まずピクチャモードについて説明する。ピクチャモードの場合には、モニタ2b上に、図5に示すようなグラフィック表示が表示される。この図5に示すように、ピクチャモードのグラフィック表示は、記録ビデオ表示エリア21、タイミング表示エリア22、再生ビデオ表示エリア23、記録ビデオマーキングエリア24、映像効果設定エリア25、リサイクルボックスエリア26i、再生ビデオマーキングエリア27、クリップ表示エリア28、イベント表示エリア29、およびプログラム表示エリア30の10個のエリアに大別されている。
【0065】
記録ビデオ表示エリア21は記録ビデオ画面21a、記録開始点ボタン21b、ノーマルボタン21c、ボイスオーバボタン21d、およびドロップ表示部21eを有している。記録ビデオ画面21aに表示されるビデオ信号は、ハイブリッドレコーダ3aから出力されたコンポジットビデオ信号V2から得られるビデオ信号であって、コンピュータ2により、フレームメモリ11cからVRAM13bに供給される際に、間引き処理によって画像サイズが380画素×240画素に変更されたビデオ信号である。
【0066】
記録開始点ボタン21bは、デジタルビデオテープレコーダ(図18のVTR301)のハードディスク(図18のHDD300)上の記録開始点を、現在の再生位置またはハードディスクの先頭のいずれかに設定するとき操作される。ノーマルボタン21cと、ボイスオーバボタン21dは、択一的に、それぞれのモードを選択するとき操作される。ドロップ表示部21eには、デジタルビデオテープレコーダのフレームモード(NTSC方式のビデオ信号の場合、1秒間のフレーム数は、正確には30ではなく、29.XXXと、端数がでるので、この誤差を吸収するためのタイムコードのカウント方式としてのドロップまたはノンドロップ)が表示される。
【0067】
タイミング表示エリア22のタリー表示部22aには、オンエア設定時における外部信号によるオンエアタリーが表示される。モードボタン22bは、ピクチャモードとタイムラインモードの編集モードを変更するとき操作される。バックアップボタン22cは、HDD(図18のHDD300)のバックアップとしてVTR(図18のVTR301)を使用する場合、操作される。ダビングボタン22dは、ハイブリッドレコーダ3におけるHDDからVTRへのダビング、若しくは、その逆を行う場合に操作される。プリロールボタン22eは、プリロールモードを設定するとき操作される。ディレイボタン22fは、現在記録中の映像を遅延させて、再生ビデオ表示エリア23の再生ビデオ画面23aに表示させるとき操作される。DMC(ダイナミックモーションコントローラ)ボタン22gは、再生速度設定エリア25A(図19を参照して後述する)を表示させ、再生速度を設定するとき操作される。オプションボタン22hは、各種のオプションのメニューを表示させるとき操作される。セットボタン22iは、選択したプログラム、イベントまたはタイムラインを、再生待機状態(オンエアモード)にするとき操作される。
【0068】
時刻表示部22jには現在の時刻が表示される。記録ビデオ信号タイムコード表示部22kには、記録ビデオ表示エリア21に表示されているビデオ信号のタイムコードが表示される。このタイムコードは、第1のビデオプロセッサ11のプロセッサコントローラ11aがコンポジットビデオ信号V2の垂直同期期間から抽出したタイムコードである。再生ビデオ信号タイムコード表示部22mには、再生ビデオ表示エリア23に表示されているビデオ信号のタイムコードが表示される。このタイムコードは、第2のビデオプロセッサ12のプロセッサコントローラ12aがコンポジットビデオ信号V3の垂直同期期間から抽出したタイムコードである。
【0069】
記憶容量残量時間表示部22nには、ハイブリッドレコーダ3のハードディスクの記憶容量の残り時間が表示される。ここに表示される残り時間は、ハイブリッドレコーダ3の全記憶容量が予め分かっているので、現在の時刻から記録開始時刻を減算した値を、ハイブリッドレコーダ3の記録可能時間から減算することにより容易に求めることができる。
【0070】
なお、これらの表示部22j乃至22nの表示は、メニューからの設定に対応して変化する。
【0071】
表示部22oには、映像効果装置6の編集モード(フルエディットモード(FULL)、またはループ記録モード(LOOP))が表示され、表示部22pには、ハイブリッドレコーダ3の記録対象(図18のVTR301、もしくはハードディスク300、または両方)が表示される。表示部22qには、VTRの動作状態が表示される。
【0072】
さらに、表示部22rは、VTRからハードディスクへのダビング速度がハイスピードに設定されているとき表示され、表示部22sには、映像効果装置6がコンピュータ2に接続されているか否かが表示され、表示部22tには、複数のハイブリッドレコーダ3a乃至3dを同期動作させているか否か(後述する図67のシンクプレイボタン904がオンされているか否か)が表示される。
【0073】
オンエア表示部22aはオンエア中であるか否かを示す表示部であり、外部からオンエア中を示すタリー信号が供給されると、その表示色が赤色に変更されるようになっている。このオンエア中であることを示すタリー信号は、映像効果装置6から出力されたコンポジットビデオ信号V6がオンエアされている時に供給される信号である。このようにしてオンエア状態に応じてオンエア表示部22aの表示色を可変しているので、オペレータはオンエア中であることを視覚的に容易に把握することができる。
【0074】
モードボタン22bは、この図5によって示されるピクチャモードと後述するタイムラインモード(図6)とを切り換える際に使用するボタンである。このモードボタン22bをマウス2dを使ってクリックすると、モード切換を指定することができ、表示モードを、ピクチャモードとタイムラインモードとの間で切り換えることができる。
【0075】
プリロールボタン22eはプリロールモードを設定するときに使用するボタンである。またDMC(ダイナミックモーションコントローラ)ボタン22gは、選択したイベントの再生速度を設定するときに使用するボタンである。なお、この2つのボタンについては後で詳細に説明する。
【0076】
再生ビデオ表示エリア23は、再生ビデオ画面23a、メインボタン23b、サブボタン23cを有している。再生ビデオ画面23aに表示されるビデオ信号は、ハイブリッドレコーダ3によって再生され、映像効果装置6から出力されたコンポジットビデオ信号V6から得られるビデオ信号であって、フレームメモリ12cからVRAM13bに供給される際に、間引き処理によって画像サイズが380画素×240画素に変更されたビデオ信号である。
【0077】
メインボタン23bをオンした場合、メインチャンネルのハイブリッドレコーダ3aの出力が再生ビデオ画面23aに表示される。また、サブボタン23cをオンした場合、サブチャンネルのハイブリッドレコーダ3bの再生画像が、再生ビデオ画面23aに表示される。
【0078】
記録ビデオマーキングエリア24は、記録ビデオ画面21aに表示されるビデオデータから、イン点またはアウト点のクリップ画像データをマーキングする時に使用するエリアである。ここで言う「マーキング」の意味は、イン点またはアウト点を指定するという意味、或いはイン点またはアウト点を設定するという意味である。またここで言う「クリップ画像」とは「静止画像」のことである。この記録ビデオマーキングエリア24は、インクリップ表示エリア24a、イン点のタイムコード表示部24b、マークインボタン24c、アウトクリップ表示エリア24d、アウト点のタイムコード表示部24e、およびマークアウトボタン24fに分かれている。
【0079】
インクリップ表示エリア24aは、オペレータがマークインボタン24cをクリックして、イン点としてマーキングしたクリップ画像データを表示するためのエリアである。このインクリップ表示エリア24aに表示されるクリップ画像データは、ハイブリッドレコーダ3から出力されたコンポジットビデオ信号V2から得られる画像データであって、95画素×60画素の画像サイズに間引かれた画像データである。
【0080】
タイムコード表示部24bには、インクリップ表示エリア24aに表示されているクリップ画像データのタイムコードが表示される。このタイムコードは、オペレータがマークインボタン24cをクリックしてイン点をマーキングした時に、第1のビデオプロセッサ11のプロセッサコントローラ11aがコンポジットビデオ信号V2から抽出したタイムコードである。
【0081】
マークインボタン24cはイン点をマーキングするためのボタンである。オペレータは記録ビデオ画面21aに表示されるビデオ画像を見ながら、所望の画像が表示されたタイミングで、このマークインボタン24cをクリックする。マークインボタン24cがクリックされると、このときに記録ビデオ画面21aに表示されているビデオデータに対応したクリップ画像データ(95画素×60画素)が生成され、その生成されたクリップ画像データがインクリップ表示エリア24aに表示される。
【0082】
アウトクリップ表示エリア24dは、オペレータがマークアウトボタン24fをクリックしてマーキングしたアウト点のクリップ画像データを表示するためのエリアである。このアウトクリップ表示エリア24dに表示されるクリップ画像データは、ハイブリッドレコーダ3から出力されたコンポジットビデオ信号V2から得られる画像データであって、95画素×60画素の画像サイズに間引かれた画像データである。
【0083】
タイムコード表示部24eには、アウトクリップ表示エリア24dに表示されるクリップ画像データのタイムコードが表示される。このタイムコードは、オペレータがマークアウトボタン24fをクリックしてアウト点をマーキングした時に、第1のビデオプロセッサ11のプロセッサコントローラ11aがコンポジットビデオ信号V2から抽出したタイムコードである。
【0084】
マークアウトボタン24fはアウト点をマーキングするためのボタンである。オペレータは記録ビデオ画面21aに表示されるビデオ画像を見ながら、所望の画像が表示されたタイミングで、このマークアウトボタン24fをクリックする。マークアウトボタン24fがクリックされると、このときに記録ビデオ画面21aに表示されているビデオデータに対応したクリップ画像データ(95画素×60画素)が生成され、その生成されたクリップ画像データがアウトクリップ表示エリア24dに表示される。
【0085】
映像効果設定エリア25は、カット編集終了後、再生するプログラム順に、プログラム表示エリア30に、イベント表示エリア29からイベントのクリップ画像データをドラッグアンドドロップして、再生プログラムを作成した場合に、そのプログラムイベント列にエフェクトのクリップ画像データを挿入することで、各種映像効果の設定を行う際に用いられる設定ツールボタンが配置されているエリアである。この映像効果設定エリア25については、後で詳細に説明する。
【0086】
リサイクルボックス26iは、生成されたクリップ画像データを消去する時に使用するエリアである。クリップ画像データを消去する時には、マウス2dによってクリップ画像データを指定して、そのクリップ画像データをリサイクルボックス26iのエリアにドラッグアンドドロップすると、消去が実行される。消去したクリップ画像データを復活させる時には、このリサイクルボックス26iをクリックすると、リサイクルボックス26iの中に捨てられたクリップ画像データの全てが表示される。その中から復活させたいクリップ画像データを指定すると、指定されたクリップ画像データが復活する。クリックの結果表示された項目から、強制廃棄処理を選択すると、リサイクルボックス26iに入れた画像データがメモリから消去され、以後、復活することができなくなる。
【0087】
再生ビデオマーキングエリア27は、再生ビデオ画面23aに表示されるビデオ画像からイン点またはアウト点のクリップ画像データをマーキングする時に使用するエリアである。この再生ビデオマーキングエリア27は、インクリップ表示エリア27a、イン点のタイムコード表示部27b、マークインボタン27c、アウトクリップ表示エリア27d、アウト点のタイムコード表示部27e、マークアウトボタン27f、および無効ボタン27g,27hに分かれている。
【0088】
インクリップ表示エリア27aは、オペレータがマークインボタン27cをクリックして、イン点としてマーキングしたクリップ画像データを表示するためのエリアである。このインクリップ表示エリア27aに表示されるクリップ画像データは、映像効果装置6から出力されたコンポジットビデオ信号V6から得られる画像データであって、95画素×60画素の画像サイズに間引かれた画像データである。
【0089】
タイムコード表示部27bには、インクリップ表示エリア27aに表示されるクリップ画像データのタイムコードが表示される。このタイムコードは、オペレータがマークインボタン27cをクリックしてイン点をマーキングした時に、第2のビデオプロセッサ12のプロセッサコントローラ12aがコンポジットビデオ信号V6から抽出したタイムコードである。
【0090】
マークインボタン27cはイン点をマーキングするためのボタンである。オペレータは再生ビデオ画面23aに表示されるビデオ画像を見ながら、所望の画像が表示されたタイミングにおいて、このマークインボタン27cをクリックする。マークインボタン27cがクリックされると、このときに再生ビデオ画面23aに表示されているビデオデータに対応したクリップ画像データ(95画素×60画素)が生成され、その生成されたクリップ画像データがインクリップ表示エリア27aに表示される。
【0091】
アウトクリップ表示エリア27dは、オペレータがマークアウトボタン27fをクリックしてマーキングしたアウト点のクリップ画像データを表示するためのエリアである。このアウトクリップ表示エリア27dに表示されるクリップ画像データは、映像効果装置6から出力されたコンポジットビデオ信号V6から得られる画像データであって、95画素×60画素の画像サイズに間引かれた画像データである。
【0092】
タイムコード表示部27eには、アウトクリップ表示エリア27dに表示されているクリップ画像データのタイムコードが表示される。このタイムコードは、オペレータがマークアウトボタン27fをクリックしてアウト点をマーキングした時に、第2のビデオプロセッサ12のプロセッサコントローラ12aがコンポジットビデオ信号V6から抽出したタイムコードである。
【0093】
マークアウトボタン27fは、アウト点をマーキングするためのボタンである。オペレータは、再生ビデオ画面23aに表示されるビデオ画像を見ながら、所望の画像が表示されたタイミングにおいて、このマークアウトボタン27fをクリックする。マークアウトボタン27fがクリックされると、このときに再生ビデオ画面23aに表示されているビデオデータに対応したクリップ画像データ(95画素×60画素)が生成され、その生成されたクリップ画像データがアウトクリップ表示エリア27dに表示される。
【0094】
無効ボタン27gをクリックすると、インクリップ表示エリア27aに表示されているクリップ画像に対応するイン点が無効にされる。無効ボタン27hをクリックすると、アウトクリップ表示エリア27dに表示されているクリップ画像に対応するアウト点が無効にされる。
【0095】
表示部26aには、ワークファイルの名称が表示され、表示部26bには、ピクチャモード時においては、プログラム表示部30に表示されているプログラムファイルの名称が表示され、タイムラインモードの場合においては、タイムラインファイルの名称が表示される。
【0096】
変速再生メモリボタン26c,26eおよび26gは、変速再生速度を設定するとき、または設定された変速再生速度を読み出すとき操作される。表示部26d,26f,26hには、それぞれその左側の対応する変速再生メモリボタン26c,26e,26gで設定されている変速再生速度が表示される。表示部26jには、例えば、ボイスオーバ編集モードが設定されると、「VOICE OVER」の文字が表示される。スクラッチパッド26kは、後述するセットインボタン37、セットアウトボタン38、セットデュレーションボタン39を使用して、タイムコードを入力することにより、イン点またはアウト点を設定するとき操作される。
【0097】
クリップ表示エリア28は、記録ビデオマーキングエリア24に設けられたマークインボタン24cまたはマークアウトボタン24fを連続して(例えば、イン点を2回連続して、またはアウト点を2回連続して)クリックすることによってマーキングされたクリップ画像データ、および再生ビデオマーキングエリア27に設けられたマークインボタン27cまたはマークアウトボタン27fを連続して(例えば、イン点を2回連続して、またはアウト点を2回連続して)クリックすることによってマーキングされたクリップ画像データを表示するためのエリアである。このクリップ表示エリア28に表示されるクリップ画像データは、イベントのイン点またはアウト点として使用されていないクリップ画像データである。イン点とアウト点が対で指定された場合、その区間の画像はイベントとされ、その区間(イベント)のイン点またはアウト点として指定されたクリップ画像データは、イベント表示エリア29に表示される。クリップ表示エリア28は、クリップ画像データ表示エリア28a、タイムコード表示部28b、クリップタイプ表示部28c、クリップ番号表示部28d、クリップタイトル表示部28g、送りボタン28e、および戻しボタン28fを有している。
【0098】
クリップ画像データ表示エリア28aには、記録側のインクリップ表示エリア24a若しくはアウトクリップ表示エリア24d、または再生側のインクリップ表示エリア27a若しくはアウトクリップ表示エリア27dの何れかに表示された画像が移動表示される。その大きさは、95画素×60画素の画像サイズである。
【0099】
タイムコード表示部28bには、クリップ画像データ表示エリア28aに表示されるクリップ画像データのタイムコードが表示される。このタイムコードは、インクリップ表示エリア24a、アウトクリップ表示エリア24d、インクリップ表示エリア27aまたはアウトクリップ表示エリア27dの何れかの表示エリアから、クリップ画像データ表示エリア28aにクリップ画像データを移動する時に、対応するタイムコード表示部24b,24e,27bまたは27eのものが、同様に移動される。
【0100】
クリップタイプ表示部28cには、クリップ画像データ表示エリア28aに表示されているクリップ画像データがイン点またはアウト点のいずれのクリップ画像データであるのかを示す文字が表示される。例えば、クリップ画像データ表示エリア28aに表示されているクリップ画像データが、インクリップ表示エリア24aから得られたクリップ画像データであるのであれば、赤い色の「IN」の文字が表示される。またクリップ画像データ表示エリア28aに表示されているクリップ画像データがアウトクリップ表示エリア24dから得られたクリップ画像データであるのであれば、赤い色の「OUT」の文字が表示される。またクリップ画像データ表示エリア28aに表示されているクリップ画像データがインクリップ表示エリア27aから得られたクリップ画像データであるのであれば、緑色の「IN」の文字が表示される。またクリップ画像データ表示エリア28aに表示されているクリップ画像データがアウトクリップ表示エリア27dから得られたクリップ画像データであるのであれば、緑色の「OUT」の文字が表示される。
【0101】
クリップ番号表示部28dには、クリップ画像データ表示エリア28aに表示されているクリップ画像データに付されたクリップ番号が表示される。このクリップ番号は、クリップ画像データがマーキングされた順に自動的にクリップ画像データに付される番号である。クリップタイトル表示部28gには、そのクリップに付されたタイトルが表示される。
【0102】
送りボタン28eおよび戻しボタン28fは、クリップ表示エリア28内のクリップ画像データの表示を前に(図5において右方向に)進めるか、または後ろに(図5において左方向に)戻す時に使用するボタンである。多数のクリップ画像データを生成した場合には、クリップ表示エリア28の大きさは有限であるので、全てのクリップ画像データを同時に表示することができなくなる。そのような時に、この送りボタン28eおよび戻しボタン28fを操作してクリップ画像データを前に進めるか、または後ろに戻すことによって、全てのクリップ画像データをモニタ上に表示させることができる。
【0103】
イベント表示エリア29は、記録ビデオマーキングエリア24に設けられたマークインボタン24cとマークアウトボタン24fを順にまたはその逆に(対になるように)クリックすることによって生成されたイベントのクリップ画像データ、および再生ビデオマーキングエリア27に設けられたマークインボタン27cとマークアウトボタン27fを順にまたはその逆に(対になるように)クリックすることによって生成されたイベントのクリップ画像データを表示するためのエリアである。1つのイベントに対して、イン点のクリップ画像データまたはアウト点のクリップ画像データの何れかのクリップ画像データが表示される。イベント表示エリア29は、クリップ表示エリア28と同様に、クリップ画像データ表示エリア29a、タイムコード表示部29b、クリップタイプ表示部29c、イベント番号表示部29d、イベントタイトル表示部29g、送りボタン29e、および戻しボタン29fを有する。
【0104】
クリップタイプ表示部29cには、クリップ画像データ表示エリア29aに表示されているイベントのクリップ画像データがイン点またはアウト点のいずれのクリップ画像データであるのかを示す文字が表示される。イベントのクリップ画像データとしてイン点のクリップ画像データが表示されていると、このクリップタイプ表示部には「IN」の文字が表示される。イン点のクリップ画像データの代わりにアウト点のクリップ画像データを表示したい場合には、このクリップタイプ表示部29cをクリックすると、アウト点のクリップ画像データが表示される。その後は、クリップタイプ表示部29cをクリックする度に、イン点のクリップ画像データとアウト点のクリップ画像データの表示が交互に入れ替わる。
【0105】
イベント番号表示部29dには、生成されたイベントに対して付されたイベント番号が表示される。このイベント番号は、イベントが生成された順に自動的にイベントに付される番号であって、クリップ番号とは全く関係のない番号である。イベントタイトル表示部29gには、イベントに付されたタイトルがキャラクタ文字で表示される。なお、このタイトルはタイトルメニューによって登録することができ、イベント毎に登録することが可能である。
【0106】
プログラム表示エリア30はイベント表示エリア29に表示されているイベントをコピーしてプログラムを作成するのに使用されるエリアであり、イベント表示エリア29に表示されているイベントのクリップ画像データのコピーが表示されるようになされている。イベントを並び替えてプログラムを作成する場合には、まずイベント表示エリア29に表示されているイベントのクリップ画像データのうち、所望のものをドラッグアンドドロップして、プログラム表示エリア30にコピーする。これによりイベント表示エリア29に表示されているイベントを自由に並び替えてプログラムを作成することができる。このときプログラム表示エリア30に表示されているイベントのクリップ画像データをドラッグアンドドロップして、再びプログラム表示エリア30内の他の場所に移動することにより、当該プログラム表示エリア30内においてもイベントを自由に並び替えることもできる。この場合、イベントは移動されるのであって、コピーされるのではない。
【0107】
このようなプログラム表示エリア30は、イベント表示エリア29と同様に、クリップ画像データ表示エリア30a、タイムコード表示部30b、クリップタイプ表示部30c、イベント番号表示部30d、イベントタイトル表示部30g、送りボタン30e、および戻しボタン30fを有している。なお、これらについては、基本的に、イベント表示エリア29におけるものと同様であるため、ここでは説明を省略する。
【0108】
但し、このプログラム表示エリア30には、エフェクトクリップ画像データが表示される場合がある。この場合においては、エフェクト画像データ表示エリア30Aに、エフェクトを表す図形や文字が表示され、その右上のエフェクト番号表示部30Dには、エフェクト番号が表示される。エフェクト番号表示部30Dの左側のエフェクトタイトル表示部30Gには、PinP,Wipeなどのエフェクトのタイトルが表示される。エフェクト画像データ表示エリア30Aの右下のタイムコード表示部30Bには、エフェクトを挿入する位置のタイムコードが表示される。
【0109】
記録開始および終了ボタン31aは、ハイブリッドレコーダ3と映像効果装置6に対して記録開始(記録停止時)または記録終了(記録開始時)の制御コマンドを送出するためのボタンである。記録動作停止時に、記録開始および終了ボタン31aがクリックされると、CPU10は記録開始および終了ボタン31aが押されたことを検出し、外部インタフェース18に対して記録開始コマンドを出力するように命令する。外部インタフェース18はこの命令を受けてRS−422で定義されている記録開始コマンド(REC START コマンド)をハイブリッドレコーダ3に送出する。ハイブリッドレコーダ3は、受け取った記録開始コマンドに応じてビデオ信号V1のハードディスクおよびVTRへの記録を開始する。
【0110】
これに対して記録動作中に、記録開始および終了ボタン31aがクリックされると、CPU10は記録開始および終了ボタン31aが押されたことを検出し、外部インタフェース18に対して記録終了コマンドを出力するように命令する。外部インタフェース18はこの命令を受けてRS−422で定義されている記録終了コマンド(REC STOP コマンド)をハイブリッドレコーダ3に送出する。ハイブリッドレコーダ3は、受け取った記録終了コマンドに応じてビデオ信号V1のハードディスクおよびVTRへの記録を終了する。
【0111】
プレビューボタン32は、選択したイベントやプログラムをプレビュー(いわゆる内容確認)する時に使用するボタンである。イベントやプログラムを指定すると、指定されたイベントやプログラムのクリップ画像データが再生ビデオ画面23aに静止画(STILL)状態で表示される。この時にこのプレビューボタン32がクリックされると、CPU10はプレビューボタン32が押されたことを検出し、外部インタフェース18に対して再生開始コマンドを出力するように命令する。外部インタフェース18はこの命令を受けてRS−422で定義されている再生開始コマンド(PLAY START コマンド)をハイブリッドレコーダ3と映像効果装置6に送出する。ハイブリッドレコーダ3は、受け取った再生開始コマンドに応じてハードディスク(またはVTR)からコンポジットビデオ信号V3の再生を開始する。映像効果装置6はコンポジットビデオ信号V3に、指令に対応してエフェクトを付与したコンポジットビデオ信号V6を生成する。
【0112】
ニューイベントボタン33は、新たにイベントを作成するときに使用するボタンである。オペレータによって指定されたイベントに対して、イン点およびアウト点が変更されたイベントを別の新たなイベントとして登録する場合にこのニューイベントボタン33がクリックされる。プロテクトボタン34は、ループ記録時、データの上書きを禁止するとき操作される。リプレイスボタン35は、選択したイベントのイン点およびアウト点を変更したいときに使用するボタンである。オペレータによって指定されたイベントに対して、イン点およびアウト点が変更されたイベントを別の新たなイベントとしてではなく、指定されたそのイベントとして置き換える場合にこのリプレイスボタン35がクリックされる。デリートボタン36は、選択したイベントやプログラムを消去するときに使用するボタンである。消去されたイベントやプログラムはリサイクルボックス26iの中に捨てられる。
【0113】
セットインボタン37は、イン点を数値で設定するとき操作され、セットアウトボタンを38は、アウト点を数値で設定するとき操作される。セットデュレーションボタン39は、イン点からの期間を数値で指定してアウト点を指定したり、あるいは、アウト点からの期間を数値で指定してイン点を指定するとき操作される。
【0114】
VTR制御ボタン31bは、VTRを制御するVTR制御パネルをポップアップ表示させるとき操作される。ハードディスクコントロールボタン31cは、ハードディスクコントロールパネルをポップアップ表示させるとき操作される。ダビングボタン31dは、VTRとハードディスクの間においてダビングを行うとき、テープ/ディスクダビングセッティングパネルをポップアップ表示させるとき操作される。
【0115】
<タイムラインモード>
次にこの項では、タイムラインモードについて説明する。タイムラインモードの場合には、モニタ2b上に図6に示すようなグラフィック表示が表示される。この図6に示すように、タイムラインモードのグラフィック表示においては、図5のピクチャモード時のクリップ表示エリア28とイベント表示エリア29がタイムライン表示エリア40に変更されている。そして、図5のプログラム表示エリア30の位置に、イベント表示エリア29が表示されている。その他の表示は、図5に示したピクチャモードのときのものと同様である。
【0116】
タイムライン表示エリア40は、各イベントの時間的な長さを確認しながらプログラムを編集することができる表示エリアである。このタイムライン表示エリア40は、その一部を拡大して図7に示すように、タイムスケール表示部40a、GPI/DSKトラック40b、エフェクトトラック40c、ビデオトラック40d、第1乃至第4のオーディオトラック40e乃至40h、スクロールボタン40i,40j、サーチボタン40m、フレームボタン40n、およびエディットバー40kを有している。
【0117】
タイムスケール表示部40aには時間尺(以下、タイムスケールと呼ぶ)が表示されるようになっており、このタイムスケールを基準として各イベントの時間的な長さを明示するようになっている。このタイムスケールはフレーム単位のスケールであり、その目盛りの最小単位はユーザ設定により任意のフレーム数に設定される。
【0118】
GPI/DSKトラック40bは、GPI(ジェネラル・パーパス・インタフェース:編集装置から制御コマンドを出力して外部機器を制御するための汎用インタフェース)またはDSKの制御コマンドの出力点を指定するためのエリアである。GPIまたはDSKの出力点は、イン点やアウト点に関わりなく任意の位置に設定し得る。GPIはGPI設定ボタン46dn,46dp(後述する)を利用して設定することができる。GPIまたはDSKの出力点の位置には、マーク40baが表示されるようになされており、これによってオペレータは自分が指定した位置を容易に確認することができる。このようにしてGPI/DSKトラック40bにおいてGPIまたはDSKの出力点を指定することにより、その指定した出力点において制御コマンドを出力して外部機器を制御することができる。なお、GPI/DSKトラック40bによって指定されたGPIまたはDSKの出力点を有効にする場合には、GPI/DSKボタン40bcをクリックすれば良い。
【0119】
エフェクトトラック40cには、エフェクトを設定した位置に、マーク40caが表示される。これにより、オペレータは、自分がエフェクトを指定した位置を容易に確認することができる。エフェクトトラック40cにおいて指定されたエフェクトを有効にする場合には、エフェクトボタン40cbをクリックすればよい。
【0120】
ビデオトラック40dは、イベント表示エリア29からドラッグされたイベントを並び替える等してプログラムを編集するためのエリアである。このビデオトラック40dに表示されるイベントは、イベント表示エリア29からドラッグされたイベント、若しくは後述するプログラムビューエリア42のプログラムコールボタン42b(図6)によって呼び出されたピクチャモードのプログラム表示エリア30に並んでいるイベントである。
【0121】
またこのビデオトラック40d内においては、ピクチャモードのときのように、イベントのイン点やアウト点のクリップ画像データは表示されず、イベント番号およびそのイベントに付されたタイトルが表示される。但し、各イベントの表示領域の大きさは、そのイベントの長さに応じて異なるようになされており、これによってそのイベントの長さをタイムスケール表示部40aのタイムスケールと対比させながら視覚的に確認することができるようになっている。また各イベントの長さが視覚的に確認し得るので、編集したプログラム全体の長さも視覚的に確認し得る。従って編集したプログラムが所望の長さ内に収まっているか否かを容易に確認することができる。
【0122】
またこのビデオトラック40d内では、各イベントを任意の位置に移動したり、任意のイベントを他のイベント内に割り込ませることができるようになされており、これによりイベントを任意の順番に並び替えて所望の順序のプログラムを生成することができる。因みに、イベントを移動したり、割り込ませたときには、イベント間で隙間ができないように繋げられる。
【0123】
イベントの移動先や割り込み先は基準位置マークであるエデイットバー40kによって指定される。このエデイットバー40kは画面のほぼ中心位置に固定表示されており、移動先や割り込み先を指定する場合には、イベント表示をスクロールボタン40i,40jを操作してスクロールさせることにより、移動先や割り込み先の候補位置をエデイットバー40kのところに合わせる。これによりその位置が移動先や割り込み先として指定される。
【0124】
なお、このビデオトラック40dに対して操作を行う場合には、ビデオボタン40dbをクリックすれば、当該ビデオトラック40dを操作可能状態にすることができる。
【0125】
第1乃至第4のオーディオトラック40e乃至40hは、各イベントのオーディオデータを編集するためのエリアである。この第1乃至第4のオーディオトラック40e乃至40hにオーディオデータを取り込む場合には、オーディオボタン40ea乃至40haをクリックした上で、イベント表示エリア29からイベントをドラッグすれば、そのイベントに対応するオーディオデータを取り込むことができる。なお、取り込まれたオーディオデータに対してはイベント番号およびそのイベントに付されたタイトルが表示される。
【0126】
この第1乃至第4のオーディオトラック40e乃至40h内においても、ビデオトラック40dと同様に、各イベントのオーディオデータを任意の位置に移動したり、任意のイベントのオーディオデータを他のイベントのオーディオデータ内に割り込ませることができる。その際の位置指定は、ビデオ編集における場合と同様に、オーディオデータをスクロールボタン40i,40jを操作してスクロールすることにより、移動先や割り込み先の候補位置をエデイットバー40kのところに合わせれば良い。
【0127】
なお、第1乃至第4のオーディオトラック40e乃至40hにより、合計4チャンネル分のオーディオデータの編集が可能である。
【0128】
スクロールボタン40i,40jはGPI/DSKトラック40bから第4のオーディオトラック40hまでの区間を、全体的に、右または左方向にフレーム単位でスクロールさせるときに操作するボタンである。このスクロールボタン40i,40jのうち、送りたい方向のボタンをクリックすると、その方向にスクロールが実行される。
【0129】
サーチボタン40mは、タイムライン表示エリア40上で選択したイベント内の画像、あるいは、イベントとイベントの継ぎ目の画像を、再生ビデオ画面23aに表示させ、確認するとき操作される。スクロール単位表示部40nには、スクロールボタン40i,40jをクリックして、スクロールを行うときの単位が表示される。この表示部40nをクリックして、その表示を、フレーム(Frame)、秒(Second)、分(Minute)、イベント(Event)、トップ/エンド(Top/End)に変更することができる。トップ/エンドが選択されると、スクロールボタン40i,40jがクリックされたとき、イベントの先頭または末尾まで一気にスクロールが行われることになる。
【0130】
図6に示すように、タイムライン表示エリア40の右側には、タイムラインの全期間の長さ(フレーム数)を表示する表示部45aが設けられており、その下方には、プレビューを指示するとき操作されるプレビューボタン45bが設けられている。さらに、その下側には、ボイスオーバのためのチャンネルを指定するボタン45cが4チャンネル分設けられている。
【0131】
タイムライン表示エリア40の下方に表示されるエデイットツール表示部46dには、タイムライン表示エリア40におけるプログラム編集に使用するコマンドを指示するためのコマンドボタンが表示されている。イベントロックボタン46daは、同一イベントの複数のトラックを同時に移動させるとき、それらのトラックボタンをクリックしてからクリックされる。これにより、選択したトラックがリンクされ、一緒にドラッグすることができるようになる。イベント移動ボタン46dbは、選択したイベントから、末尾のイベントまでをまとめて移動する場合にクリックされる。マッチカットボタン46dcは、エディットバー40kの位置でイベントを分割するときクリックされる。このボタンは、イベントの一部を削除するようなときに使用される。アンドゥボタン46ddは、移動、修正、削除などの操作を取り消すとき操作される。
【0132】
オーバレイ編集ボタン46deをクリックした場合、イベント表示エリア29から、タイムライン表示エリア40上へイベントをドラッグすると、エディットバー40kの位置にイン点を合わせて、そのイベントがタイムライン上に挿入される。バックタイムドオーバレイ編集ボタン46dfをクリックした後、イベント表示エリア29からタイムライン表示エリア40上へイベントをドラッグすると、エディットバー40kの位置にアウト点を合わせて、そのイベントがタイムライン上に挿入される。インサート編集ボタン46dgをクリックした後、イベント表示エリア29からタイムライン表示エリア40上へイベントをドラッグすると、エディットバー40kの位置にイン点を合わせて、そのイベントがタイムライン上に挿入される。
【0133】
オーバレイ編集ボタン46deを操作した場合には、タイムライン上の挿入位置に既にイベントがあるとき、そのイベントは上書きされるが、このインサート編集ボタン46dgが操作された場合には、タイムライン上の挿入位置に既にイベントがあるとき、そのイベントが新しいイベントを中央にして左右に分割される。削除ボタン46dhは、タイムライン上のイベントを選択した後クリックすることで、選択されているイベントを削除することができる。削除されるイベントがロックされている場合には、ロックされている複数のイベントがまとめて削除される。
【0134】
リップルツールボタン46diは、タイムライン上でのイベントの挿入または削除に合わせて、挿入位置または削除位置以降の全てのイベントをスライドさせたいときにクリックされる。トリムツールボタン46djは、イベントのイン点やアウト点を修正したとき、修正量に応じて、プログラム全体のデュレーションを変化させるときクリックされる。イン点の修正時のアウト点は固定されたままで、イン点の左隣のイベントは、修正した方向に移動される。同様に、アウト点の修正時、イン点は固定されたままで、アウト点の右隣のイベントは、修正した方向に移動される。
【0135】
スライドツールボタン46dkは、タイムライン上のイベントのイン点またはアウト点を変更し、後続のイベントのイン点を同じ変更量だけスライドさせるときクリックされる。選択したイベントのイン点を変更して、そのイベントのデュレーションが短くなった場合、後続のイベントのイン点がスライドし、後続のイベントのデュレーションが長くなる。スリップツールボタン46dmは、選択したイベントのデュレーションを変えずに、イン点とアウト点を修正するときクリックされる。イン点とアウト点のいずれかを修正すると、もう一方が同じ方向に移動し、イベントのデュレーションは一定に保持される。
【0136】
GPIボタン46dn,46dpは、メニューから設定した2つの種類(系統)のGPI出力点を設定するとき操作される。
【0137】
表示部46eには、タイムスケール表示部40aに表示されるタイムスケールの1メモリが表すフレーム数が表示される。この表示は、+ボタン46fbまたは−ボタン46faをクリックすることで、増減させることができる。
【0138】
ポイントプレビューボタン46gaは、タイムライン表示エリア40上で選択したイベントと、その前のイベントのつなぎ目をプレビューしたいときクリックされる。ループボタン46gbは、タイムラインプログラムを何度も繰り返しプレビューしたいときクリックされる。
【0139】
次にタイムライン表示エリア40の下方に表示されるプログラムビューエリア42について説明する。タイムライン表示エリア40においては、基本的に各イベントの長さに応じてイベントの表示エリアの長さを変えており、これによって各イベントの長さを視覚的に分かり易くしている。但し、各イベントのクリップ画像データは表示されないので、各イベントがどのような画像のイベントであるのかが分かりずらくなるおそれがある。そこでこの編集システム1の場合には、プログラムビューエリア42を設けることによりタイムラインモードのときでも各イベントがどのような画像のものであるかを容易に分かるようにしている。
【0140】
プログラムビューエリア42は、ビューエリア42a、プログラムコールボタン42b、送りボタン42c、および戻しボタン42dを有している。ビューエリア42aは、各イベントのイン点またはアウト点のクリップ画像データを表示するエリアである。このビューエリア42aに表示されるクリップ画像データの並び順は、タイムライン表示エリア40で作成したプログラムのイベントの並び順に一致している。これによりタイムライン表示エリア40で作成したプログラムのイベントの並び順を、クリップ画像データによって容易に確認することができ、プログラムがどのような画像の並びであるかを容易に確認することができる。因みに、このビューエリア42aにおいて表示される各クリップ画像データは、イベント表示エリア29のクリップ画像データを間引くことによって生成された画像データであり、その画像サイズはイベント表示エリア29に表示されるクリップ画像データのほぼ半分の大きさのものである。
【0141】
プログラムコールボタン42bは、ピクチャモードのプログラム表示エリア30に表示されているイベントを、タイムライン表示エリア40およびビューエリア42aに呼び出すためのプログラム呼出指示を入力するときに使用するボタンである。このプログラムコールボタン42bをクリックすると、プログラムの呼び出しが指示され、プログラム表示エリア30に表示されているイベントを、並び順が変わらないまま、タイムライン表示エリア40に呼び出すことができる。また、同様に、ビューエリア42aにプログラム表示エリア30の並び順と同じクリップ画像データが呼び出され、表示される。このようにプログラムコールボタン42bを設けてプログラムの呼び出しを指示できるようにしたことにより、他のモード(ピクチャモード)で生成したプログラムをタイムラインモードに容易に呼び出すことができ、他のモードで生成したプログラムであっても、時間合わせの編集を容易に行うことができる。
【0142】
送りボタン42cおよび戻しボタン42dは、ビューエリア42a内のクリップ画像データの表示を前に進めるか、または後ろに戻すときに使用するボタンである。作成したプログラムが複数のイベントからなる場合には、ビューエリア42aに全てのクリップ画像データを表示することができない。そのようなとき、この送りボタン42cまたは戻しボタン42dを操作して、クリップ画像データを前に進めるか、または後ろに戻すことによって、全てのクリップ画像データを表示することができる。
【0143】
<クリップ画像データの管理方法>
次にクリップデータ、イベントデータ、プログラムデータの記憶方法について説明する。但し、ここで言うクリップデータとは、クリップ表示エリア28にクリップ画像データを表示するためのデータおよびクリップ画像データを記憶させるためのデータを含んでいる。イベントデータおよびプログラムデータに関しても同様である。
【0144】
まず図8を参照して、クリップデータ、イベントデータ、プログラムデータ、エフェクトデータおよびDSKデータ用の第1のマネージメントレコードデータを説明する。この第1のマネージメントレコードデータは、クリップデータ用、イベントデータ用、プログラムデータ用、エフェクトデータ用、およびDSKデータ用にそれぞれ1つずつ設けられている。つまり、クリップデータ用の第1のマネージメントレコードデータは、クリップ表示エリア28に表示される全てのクリップ画像データを管理するためのデータである。またイベントデータ用の第1のマネージメントレコードデータは、イベント表示エリア29に表示される全てのクリップ画像データを管理するためのデータである。さらにプログラムデータ用の第1のマネージメントレコードデータは、プログラム表示エリア30に表示される全てのクリップ画像データを管理するためのデータである。エフェクトデータ用またはDSK用の第1のマネージメントレコードデータは、プログラム表示エリア30に表示されるすべてのエフェクト画像データまたはDSK画像データを管理するためのデータである。この実施の形態においては、この第1のマネージメントレコードデータは、クリップデータ用、イベントデータ用、プログラムデータ用、エフェクトデータ用、またはDSKデータ用として、それぞれ1つの第1のマネージメントレコードデータが存在するだけである。
【0145】
第1のマネージメントレコードデータは、前にリンクされているデータへのポインタ、後にリンクされているデータへのポインタ、1ページ分の表示横サイズ、1ページ分の表示縦サイズ、画面上の表示位置、表示先頭位置、およびリンク総数に関するデータを有している。
【0146】
前にリンクされているデータへのポインタとは、この第1のマネージメントレコードデータの前にリンクされているマネージメントレコードデータのポインタを示すためのデータである。前にリンクされているマネージメントレコードデータが存在しないのであれば、ここには自分のポインタが記憶される。後にリンクされているデータへのポインタとは、この第1のマネージメントレコードデータの後にリンクされているマネージメントレコードデータのポインタを示すデータである。後にリンクされているマネージメントレコードデータが存在しないのであれば、ここには自分のポインタが記憶される。
【0147】
1ページ分の表示横サイズとは、クリップ表示エリア28、イベント表示エリア29またはプログラム表示エリア30の各表示エリアにおいて、横方向に表示されるクリップ画像データの最大表示数を示すデータである。この実施の形態では、クリップ表示エリア28、イベント表示エリア29およびプログラム表示エリア30の各表示エリアは、共に、10個のクリップ画像データを表示できるので、1ページ分の表示横サイズとしては「10個」を示すデータが、それぞれの第1のマネージメントレコードデータに記憶されている。
【0148】
1ページ分の表示縦サイズとは、クリップ表示エリア28、イベント表示エリア29またはプログラム表示エリア30の各表示エリアにおいて、縦方向に表示されるクリップ画像データの最大表示数を示すデータである。この実施の形態では、クリップ表示エリア28、イベント表示エリア29またはプログラム表示エリア30は、共に、1個のクリップ画像データだけを表示するので、1ページ分の表示縦サイズとして「1個」を示すデータがそれぞれの第1のマネージメントレコードデータに記憶されている。
【0149】
画面上の表示位置とは、クリップ画像データがどの表示エリアに表示されるのかを示すためのデータである。この実施の形態では、画面上の下段にクリップ表示エリア28を、画面上の中段にイベント表示エリア29を、画面上の上段にプログラム表示エリア30を、それぞれ設けている。そこでクリップデータ用の第1のマネージメントレコードデータであれば画面上の表示位置として「下段」を示すデータが記憶され、イベントデータ用の第1のマネージメントレコードデータであれば画面上の表示位置として「中段」を示すデータが記憶され、プログラムデータ用の第1のマネージメントレコードデータであれば画面上の表示位置として「上段」を示すデータが記憶される。
【0150】
表示先頭位置とは、クリップ表示エリア28、イベント表示エリア29またはプログラム表示エリア30の各表示エリアにおいて、どの位置からクリップ画像データの表示が開始されるのかを示すためのデータである。この実施の形態では、クリップ表示エリア28に10個のクリップ画像データ、イベント表示エリア29に10個のクリップ画像データ、プログラム表示エリア30に10個のクリップ画像データが、それぞれ表示されるので、合計30個のクリップ画像データが表示できることになる。その合計30個の表示位置を、画面上の上段から順に番号を付けて表示位置を管理している。
【0151】
例えばプログラム表示エリア30の表示位置は番号「1」乃至「10」の表示位置、イベント表示エリア29の表示位置は番号「11」乃至「20」の表示位置、クリップ表示エリア28の表示位置は番号「21」乃至「30」の表示位置、というように決められている。従ってクリップデータ用の第1のマネージメントレコードデータであれば表示位置先頭として「21」を示すデータが記憶され、イベントデータ用の第1のマネージメントレコードデータであれば表示先頭位置として「11」を示すデータが記憶され、プログラムデータ用の第1のマネージメントレコードデータであれば表示先頭位置として「1」を示すデータが記憶される。
【0152】
リンク総数とは、第1のマネージメントレコードデータの後にリンクされているマネージメントレコードデータの総数を示すデータである。
【0153】
次に図9を参照して、クリップデータ用の第2のマネージメントレコードデータを説明する。このクリップデータ用の第2のマネージメントレコードデータは、クリップ表示エリア28に表示されるクリップ画像データを、クリップ画像データ毎に管理するためのデータである。従ってクリップ表示エリア28に表示されるクリップ画像データの数と同じ数のクリップデータ用の第2のマネージメントレコードデータが存在することになる。
【0154】
クリップデータ用の第2のマネージメントレコードデータは、前にリンクされているデータへのポインタ、後にリンクされているデータへのポインタ、属性、クリップ画像データハンドル、クリップタイプ、タイムコードデータ、およびクリップ画像データのインデックス番号を有している。
【0155】
前にリンクされているデータへのポインタとは、この第2のマネージメントレコードデータの前にリンクされているマネージメントレコードデータのポインタを示すデータである。第2のマネージメントレコードデータは、必ず前に第1のマネージメントレコードデータまたは第2のマネージメントレコードデータが存在するので、必ず前にリンクされているデータのポインタが記憶される。後にリンクされているデータへのポインタとは、この第2のマネージメントレコードデータの後にリンクされているマネージメントレコードデータのポインタを示すデータである。後にリンクされているマネージメントレコードデータが存在しないのであれば、ここには自分のポインタが記憶される。
【0156】
属性とは、この第2のマネージメントレコードデータがクリップデータ用であるのか、イベントデータ用であるのか、またはプログラムデータ用であるのかを示すデータである。クリップ画像データハンドルとは、クリップ画像データが記憶されているアドレス(ハイブリッドレコーダ3のハードディスクのアドレス)を示すデータである。従って所望のクリップ画像データに対応する第2のマネージメントレコードデータ内のクリップ画像データハンドルを参照することによって、そのクリップ画像データが記憶されているアドレスを得ることができる。クリップタイプとは、第2のマネージメントレコードデータによって管理されているクリップ画像データがイン点のクリップ画像データであるのか、アウト点のクリップ画像データであるのかを示すデータである。
【0157】
タイムコードデータとは、第2のマネージメントレコードデータによって管理されているクリップ画像データのタイムコードを示すデータである。クリップ画像データのインデックス番号とは、クリップ画像データに付与されたインデックス番号のことである。このインデックス番号は、イン点、アウト点およびイベントの生成に関係無く、マーキングされた全てのクリップ画像データに順に付与される番号である。すなわちクリップ番号表示部28dに表示されるクリップ番号と同一の番号である。このインデックス番号によって全てのクリップ画像データが管理される。
【0158】
次に図10を参照して、イベントデータ用およびプログラムデータ用の第2のマネージメントレコードデータについて説明する。イベントデータ用の第2のマネージメントレコードデータは、イベント表示エリア29に表示されるクリップ画像データを、クリップ画像データ毎に管理するためのデータである。従ってイベント表示エリア29に表示されるクリップ画像データの数と同じ数のイベントデータ用の第2のマネージメントレコードデータが存在する。同様に、プログラムデータ用の第2のマネージメントレコードデータは、プログラム表示エリア30に表示されるクリップ画像データを、クリップ画像データ毎に管理するためのデータである。従ってプログラム表示エリア30に表示されるクリップ画像データの数と同じ数のプログラムデータ用の第2のマネージメントレコードデータが存在する。
【0159】
イベントデータ用およびプログラムデータ用の第2のマネージメントレコードデータは、前にリンクされているデータへのポインタ、後にリンクされているデータへのポインタ、属性、イベント番号、タイトル、サブタイトル、イン点のクリップ画像データハンドル、イン点のクリップタイプ、イン点のタイムコードデータ、イン点のクリップ画像データのインデックス番号、アウト点のクリップ画像データハンドル、アウト点のクリップタイプ、アウト点のタイムコードデータ、アウト点のクリップ画像データのインデックス番号、スロータイプ、シンボルタイプ、およびシンボルのタイムコードデータを有している。
【0160】
前にリンクされているデータへのポインタ、後にリンクされているデータへのポインタ、および属性に関しては、先に説明したクリップデータ用の第2のマネージメントレコードデータと同様であるのでここでは説明を省略する。イベント番号とは、イベントに対して生成された順に付与される番号である。このイベント番号はイベント番号表示部29dに表示される。タイトルおよびサブタイトルとは、登録したイベントに対して予め付与されたタイトルおよびサブタイトルであり、実際のキャラクタで記憶されている。このうちタイトルはタイトル表示部29gに表示される。
【0161】
イン点のクリップ画像データハンドルとは、イン点のクリップ画像データが記憶されているアドレスを示すデータである。従って所望のイン点のクリップ画像データに対応する第2のマネージメントレコードデータ内のイン点のクリップ画像データハンドルを参照することにより、そのイン点のクリップ画像データが記憶されているアドレスを得ることができる。イン点のクリップタイプとは、第2のマネージメントレコードデータによって管理されているイン点のクリップ画像データがイン点のクリップ画像データであるのか、アウト点のクリップ画像データであるのかを示すデータである。ここでは全てイン点のクリップ画像データであるので、イン点を示すデータが記憶される。
【0162】
イン点のタイムコードデータとは、第2のマネージメントレコードデータによって管理されているイン点のクリップ画像データのタイムコードを示すデータである。イン点のクリップ画像データのインデックス番号とは、イン点のクリップ画像データに付与されたインデックス番号である。先に説明したクリップデータ用の第2のマネージメントレコードデータ内のインデックス番号と同様に、このイン点のクリップ画像データのインデックス番号は、イン点、アウト点およびイベントの生成に関係無く、マーキングされた全てのクリップ画像データに順に付与される番号である。
【0163】
アウト点のクリップ画像データハンドルとは、アウト点のクリップ画像データが記憶されているアドレスを示すデータである。従って所望のアウト点のクリップ画像データに対応する第2のマネージメントレコードデータ内のアウト点のクリップ画像データハンドルを参照することにより、そのアウト点のクリップ画像データが記憶されているアドレスを得ることができる。アウト点のクリップタイプとは、第2のマネージメントレコードデータによって管理されているアウト点のクリップ画像データがイン点のクリップ画像データであるのか、アウト点のクリップ画像データであるのかを示すデータである。ここでは全てアウト点のクリップ画像データであるので、アウト点を示すデータが記憶される。
【0164】
アウト点のタイムコードデータとは、第2のマネージメントレコードデータによって管理されているアウト点のクリップ画像データのタイムコードを示すデータである。アウト点のクリップ画像データのインデックス番号とは、アウト点のクリップ画像データに付与されたインデックス番号である。先に説明したクリップデータ用の第2のマネージメントレコードデータ内のインデックス番号と同様に、このアウト点のクリップ画像データのインデックス番号は、イン点、アウト点およびイベントの生成に関係無く、マーキングされた全てのクリップ画像データに順に付与される番号である。
【0165】
スロータイプとは、第2のマネージメントレコードデータによって管理されるイベントまたはプログラムが再生速度設定エリア25A(図19を参照して後述する)を使用して再生速度が制御されているか、または通常の再生速度かを示すデータである。シンボルタイプとは、第2のマネージメントレコードデータによって管理されるイベントのイン点とアウト点の期間にシンボルとして定義されたクリップ画像データが在るか否かを示すデータである。ここで言うシンボルとは、そのイベントを表すための代表的なクリップ画像データのことを意味している。シンボルのタイムコードデータとは、シンボルとして設定されたクリップ画像データのタイムコードである。
【0166】
図11は、エフェクトデータ用の第2のマネージメントレコードデータの構成を表している。このエフェクトデータ用の第2のマネージメントレコードデータは、前にリンクされているデータのポインタ、後にリンクされているデータのポインタ、属性、効果映像選択データ、効果タイプ、効果番号、効果方向、効果時間、ボーダ指定、ボーダ幅、背景色有効フラグ、背景色、X−位置座標、Y−位置座標、Z−位置座標、効果補助パラメータ、フェーダ位置、および再設定可能フラグにより構成されている。
【0167】
前にリンクされているデータのポインタ、後ろにリンクされているデータのポインタ、および属性は、図10のイベントデータおよびプログラムデータ用の第2のマネージメントレコードデータにおける場合と同様である。属性は、この第2のマネージメントレコードデータがエフェクトデータ用であることを表している。先頭からここまでの9バイトのデータは、図9に示すクリップデータ用、または図10に示すイベントデータおよびプログラムデータ用の第2のマネージメントレコードデータと同様の構成とされている。これにより、新しいデータ構造が追加された場合においても、管理方法を変化させることなく、対応できるようになされている。
【0168】
効果映像選択データは、以降のデータを格納しているメモリのアドレスを表している。効果タイプは、ピクチャインピクチャ、ワイプなどのエフェクトパターンのタイプ(カテゴリ)を表している。効果番号は、エフェクトに対して付与されている番号である。この効果番号は、効果番号表示部30Dに表示される。効果方向は、エフェクトを作用させる方向が、時間的に前の方向であるのか、後ろの方向であるのかを表している。効果時間は、エフェクトを作用させる時間(トランジション)を表している。ボーダ指定は、ボーダの有無の指定を表し、ボーダ幅は、設定したボーダ幅を表している。
【0169】
背景色有効フラグは、背景色の有無の指定を表している。背景色は、背景色の指定を表している。X−位置座標、Y−位置座標、およびZ−位置座標は、それぞれエフェクトを作用させる位置座標を表している。
【0170】
効果補助パラメータは、各エフェクトパターン設定時に固有なパラメータの保持を表している。フェーダ位置は、フェーダ値(エフェクトの変化量)を表している。再設定可能フラグは、プログラムラインにおいて、再設定が可能であるか否かを表している。
【0171】
図12はDSKデータ用の第2のマネージメントレコードデータの構成を表している。このデータは、前にリンクされているデータのポインタ、後にリンクされているデータのポインタ、属性、効果映像選択データ、効果時間、フェーダ位置、フェーダ逆転有効フラグ、ボーダ指定、ボーダタイプ、ボーダ位置、ボーダ色、キー反転指定、クリップ値、ゲイン値、マスク指定、マスクインバート指定、マスク矩形領域、および塗りつぶしフラグにより構成されている。
【0172】
前にリンクされているデータのポインタと後にリンクされているデータのポインタは、上述した場合と同様である。属性は、DSKデータ用であることを表している。この場合においても、先頭から9バイトのデータは、図9乃至図11に示した第2のマネージメントレコードデータと同様の構成とされ、新しいデータ構造が追加された場合においても、管理方法の変更が不要となるようになされている。
【0173】
効果映像選択データは、以降のデータを格納しているメモリのアドレスを表している。効果時間は、DSKトランジション時間を表している。フェーダ位置は、フェーダ時(エフェクトの変化量)を表している。フェーダ逆転有効フラグは、次のDSK実行時に、自動的にトランジション方向を逆転させるか否かを表している。
【0174】
ボーダ指定は、ボーダ(枠)の指定を表している。ボーダタイプは、ボーダの種類を指定している。ボーダ位置は、ボーダの位置を指定している。ボーダ色は、ボーダの色を指定している。キー反転指定は、キーデータを反転させて使用するか否かを指定している。クリップ値は、クリップ値を指定している。ゲイン値は、ゲイン値を指定している。マスク指定は、マスク指定の有無を表している。マスクインバート指定は、マスク反転の有効無効を指定している。マスク矩形領域は、マスク矩形領域の座標を保持している。塗りつぶしフラグは、フィル信号の選択を指定している。
【0175】
次に上述した第1のマネージメントレコードデータおよび第2のマネージメントレコードデータを使用して、どのようにクリップ画像データを管理するかを、図13乃至図17に示す具体例を用いて説明する。まず図13に示される「マーキング」の行は、イン点またはアウト点のどちらでマーキングされたかを示している。この例では、左から順にIN、IN、OUT、IN、IN、IN、OUT、IN、OUT、IN、IN、OUTと12回マーキングしたことを意味している。「インデックス番号(INDEX NO.)」の行には、マーキングされたイン点およびアウト点のクリップ画像データに付与されたインデックス番号が示されている。このインデックス番号は、マーキングされた全てのクリップ画像データに対して、イン点およびアウト点に関係無く、順に付与される番号である。従って図13に示されるように、マーキングした各クリップ画像データに「1」乃至「12」のインデックス番号が順に付与される。
【0176】
「クリップ番号(CLIP NO.)」の行には、クリップ表示エリア28のクリップ番号表示エリア28dに表示されるクリップ番号が示されている。なお、クリップ番号表示エリア28dに表示されるクリップ番号は、インデックス番号とと同一の番号である。「イベント番号(EVENT NO.)」の行には、イベント表示エリア29のイベント番号表示エリア29dに表示されるイベント番号が示されている。このイベント番号は、インデックス番号およびクリップ番号とは全く関係無く、イベントの生成順に自動的に付与されて行く番号である。
【0177】
図14は、図13に示されるようにマーキングしたとき、クリップ表示エリア28、イベント表示エリア29およびプログラム表示エリア30に、どのクリップ画像データが表示されるのかを示した図である。クリップ表示エリア28には、インデックス番号「1」のクリップ画像データ、インデックス番号「4」のクリップ画像データ、インデックス番号「5」のクリップ画像データ、およびインデックス番号「10」のクリップ画像データが順に表示されている。
【0178】
イベント表示エリア29には、作成された4つのイベントが表示されている。すなわちイベント番号「1」のイベントとしてインデックス番号「2」のイン点のクリップ画像データが表示され、イベント番号「2」のイベントとしてインデックス番号「6」のイン点のクリップ画像データが表示され、イベント番号「3」のイベントとしてイン点のインデックス番号「8」のクリップ画像データが表示され、イベント番号「4」のイベントとしてイン点のインデックス番号「11」のクリップ画像データがそれぞれ順に表示される。各イベントのアウト点のクリップ画像データ(インデックス番号「3」のクリップ画像データ、インデックス番号「7」のクリップ画像データ、インデックス番号「9」のクリップ画像データ、およびインデックス番号「12」のクリップ画像データ)は、現在、対応するイン点のクリップ画像データが表示されているので、表示されていない。
【0179】
プログラム表示エリア30には、イン点およびアウト点を指定しただけではクリップ画像データは表示されない。この例では、イベント表示エリア29に表示された4個のイベントを入れ替えて、図14に示されるようなプログラムを作成したものとする。そのプログラムとは、イベント番号「2」のイベント、イベント番号「1」のイベント、およびイベント番号「3」のイベントの順に、連続したプログラムである。従ってプログラム表示エリア30には、イベント番号「2」のイベントとして登録されたインデックス番号「6」のクリップ画像データ、イベント番号「1」として登録されたインデックス番号「2」のクリップ画像データ、イベント番号「3」として登録されたインデックス番号「8」のクリップ画像データが表示される。
【0180】
但しこの例においては、さらに、イベント番号「2」のイベントと、イベント番号「1」のイベントの間に、「ワイプ」のエフェクトのクリップ画像データが挿入されている。さらに、イベント番号「1」のイベントと、イベント番号「3」のイベントの間に、「ワイプ」のエフェクトのクリップ画像データが挿入されている。このエフェクトのクリップ画像データの挿入は、映像効果設定エリア25から所望のエフェクトをドラッグアンドドロップすることで行われる。その詳細は、図34を参照して後述する。
【0181】
図15乃至図17は、第1のマネージメントレコードデータおよび第2のマネージメントレコードデータによってどのようにクリップ画像データが管理されているかを示す図である。
【0182】
図15は、クリップ表示エリア28に表示されるクリップ画像データを管理する様子を示している。マネージメントレコードデータ101は、クリップデータ用の第1のマネージメントレコードデータである。図8に示したように、このクリップデータ用の第1のマネージメントレコードデータ101は、クリップ表示エリア28のエリア全体と、クリップ表示エリア28に表示されるクリップ画像データの位置を管理するためのデータを有している。
【0183】
第1のマネージメントレコードデータ101の後にリンクされているマネージメントレコードデータ201は、クリップデータ用の第2のマネージメントレコードデータである。この第2のマネージメントレコードデータ201は、インデックス番号「1」のクリップ画像データを管理するためのデータである。図9に示したように、第2のマネージメントレコードデータ201は、インデックス番号「1」のクリップ画像データが記憶されているアドレスを示すクリップ画像データハンドルを有している。
【0184】
第2のマネージメントレコードデータ201の後にリンクされているマネージメントレコードデータ204は、クリップデータ用の第2のマネージメントレコードデータである。この第2のマネージメントレコードデータ204は、インデックス番号「4」のクリップ画像データを管理するためのデータであり、インデックス番号「4」のクリップ画像データが記憶されているアドレスを示すクリップ画像データハンドルを有している。
【0185】
同様に、第2のマネージメントレコードデータ204の後には、インデックス番号「5」のクリップ画像データを管理するための第2のマネージメントレコードデータ205がリンクされ、第2のマネージメントレコードデータ205の後には、インデックス番号「10」のクリップ画像データを管理するための第2のマネージメントレコードデータ210がリンクされている。
【0186】
図16は、イベント表示エリア29に表示されるクリップ画像データを管理する様子を示している。マネージメントレコードデータ102は、イベントデータ用の第1のマネージメントレコードデータである。図8に示したように、この第1のマネージメントレコードデータ102は、イベント表示エリア29のエリア全体と、イベント表示エリア29に表示されるクリップ画像データの位置を管理するためのデータを有している。
【0187】
第1のマネージメントレコードデータ102の後にリンクされているマネージメントレコードデータ202は、イベントデータ用の第2のマネージメントレコードデータである。図10に示したように、この第2のマネージメントレコードデータ202は、インデックス番号「2」で示されるイン点のクリップ画像データと、インデックス番号「3」で示されるアウト点のクリップ画像データとを管理するためのデータを有している。具体的には、この第2のマネージメントレコードデータ202は、インデックス番号「2」で示されるイン点のクリップ画像データが記憶されているアドレスを示すイン点のクリップ画像データハンドルと、インデックス番号「3」で示されるアウト点のクリップ画像データが記憶されているアドレスを示すアウト点のクリップ画像データハンドルとを有している。
【0188】
同様に、第2のマネージメントレコードデータ202の後には、インデックス番号「6」のイン点のクリップ画像データおよびインデックス番号「7」のアウト点のクリップ画像データを管理するための第2のマネージメントレコードデータ206がリンクされ、第2のマネージメントレコードデータ206の後には、インデックス番号「8」のイン点のクリップ画像データおよびインデックス番号「9」のアウト点のクリップ画像データを管理するための第2のマネージメントレコードデータ208がリンクされ、第2のマネージメントレコードデータ208の後には、インデックス番号「11」のイン点のクリップ画像データおよびインデックス番号「12」のアウト点のクリップ画像データを管理するための第2のマネージメントレコードデータ211がリンクされている。
【0189】
図17は、プログラム表示エリア30に表示されるクリップ画像データを管理する様子を示している。マネージメントレコードデータ103は、プログラムデータ用の第1のマネージメントレコードデータである。図8に示したように、この第1のマネージメントレコードデータ103は、プログラム表示エリア30のエリア全体と、プログラム表示エリア30に表示されるクリップ画像データの位置を管理するためのデータを有している。
【0190】
プログラムデータ用の第1のマネージメントレコードデータ103の後には、インデックス番号「6」のイン点のクリップ画像データおよびインデックス番号「7」のアウト点のクリップ画像データで構成される番号「2」のイベントを管理するための第2のマネージメントレコードデータ206がリンクされ、第2のマネージメントレコードデータ206の後には、エフェクト番号「1」のエフェクトを管理するための第2のマネージメントレコードデータ201Eが接続されている。図11に示したように、この第2のマネージメントレコードデータ201Eは、エフェクト番号「1」で示されるエフェクトデータを管理するためのデータを有している。この第2のマネージメントデコードデータ201Eの後ろには、インデックス番号「2」のイン点のクリップ画像データおよびインデックス番号「3」のアウト点のクリップ画像データで構成される番号「1」のイベントを管理するための第2のマネージメントレコードデータ202がリンクされ、第2のマネージメントレコードデータ202の後には、エフェクト番号「2」のエフェクトを管理するための第2のマネージメントレコードデータ202Eが接続されている。そして、この第2のマネージメントレコードデータ202Eの後には、インデックス番号「8」のイン点のクリップ画像データおよびインデックス番号「9」のアウト点のクリップ画像データで構成される番号「3」のイベントを管理するための第2のマネージメントレコードデータ208がリンクされている。
【0191】
ここでイベントデータの管理を表している図16と、プログラムデータの管理を表している図17とを比較して見る。インデックス番号「2」のクリップ画像データ、インデックス番号「6」のクリップ画像データ、およびインデックス番号「8」のクリップ画像データの記憶の順番は、エフェクトが挿入されている点を除き、図16と図17との間で全く変更されていない。つまり、これはクリップ画像データの記憶位置は全く変更されていないことを意味している。図16と図17との間で異なる点は、第2のマネージメントレコードデータのリンク順が変更されているということである。すなわちこの編集システム1では、イベントの表示順番を変更する際、イベントを表すクリップ画像データの記憶位置を変更するのではなく、クリップ画像データを直接管理している第2のマネージメントレコードデータのリンクの順番を変更するようにしている。これにより、この編集システム1では、イベントの表示順を高速に変更し得るといった格別な効果が得られる。
【0192】
またイベントの表示順の変更に限らず、クリップ表示エリア28に表示されているクリップ画像データの表示順の変更に関しても全く同じである。例えばクリップ画像データを削除したり、新たに追加したりして、クリップ画像データの表示順が変更されたとしても、実際にクリップ画像データの記憶位置を移動するのではなく、第2のマネージメントレコードデータのリンク情報(すなわち前および後にリンクされているデータへのポインタ部分)を修正してリンク順番を変更するだけで容易に表示順を変更し得る。
【0193】
以上のことは、エフェクトについても同様である。すなわち、この例の場合、映像効果データ(エフェクトデータ)もクリップ画像データと同様に取り扱われる(従って、映像効果データは、エフェクト設定クリップ画像データとも称する)。その結果、その順番の変更や削除は、対応する第2のマネージメントレコードデータのリンクの順番を変更するだけで処理される。これにより、高速にエフェクトを処理することが可能となる。
【0194】
次に図13における1回目のマーキングから12回目までのマーキング動作を、各回路ブロックの動きを含めて以下に具体的に説明する。まずマーキングを始める前に、RAM10bに確保されたワークデータを記憶するための領域の先頭アドレスには、クリップデータ用の第1のマネージメントレコードデータ101、イベントデータ用の第1のマネージメントレコードデータ102、およびプログラムデータ用の第1のマネージメントレコードデータ103が既に生成されている。但し、この状態では、いずれの第1のマネージメントレコードデータも、リンクしている第2のマネージメントレコードデータがまだ無いので、「後にリンクされているデータへのポインタ」には、自分のアドレスが記憶されている。
【0195】
〔1回目のマーキング(イン点)〕
1回目のマーキングが行われると、フレームメモリ11cからの読出しを制御することによって、95画素×60画素のクリップ画像データが形成される。形成されたクリップ画像データは、インデックス番号「1」のクリップ画像データとしてRAM10bの空きエリアに記憶される。この記憶と同時に、その形成されたクリップ画像データはインクリップ表示エリア24aに表示される。このときこのクリップ画像データを管理する第2のマネージメントレコードデータ201は、CPU10の中のレジスタに一時的に記憶されており、RAM10bには記憶されていない。その理由は、この時点では、この第2のマネージメントレコードデータ201は、どのマネージメントレコードデータにリンクするのかまだ不明であるからである。
【0196】
〔2回目のマーキング(イン点)〕
2回目のマーキングが行われると、同様にインデックス番号「2」のクリップ画像データが形成され、RAM10bの空きエリアに記憶される。このとき2回続けてイン点がマーキングされたので、インクリップ表示エリア24aに表示されていたインデックス番号「1」のクリップ画像データは、イベントとして使用されないことになる。従ってインクリップ表示エリア24aに表示されていたインデックス番号「1」のクリップ画像データは、クリップ表示エリア28に移動される。またこの2回目のマーキングにより、このインデックス番号「1」のクリップ画像データを管理する第2のマネージメントレコードデータ201は、クリップデータ用の第1のマネージメントレコードデータ101にリンクすると決定される。依って、図15に示すように、CPU10のレジスタに一時的に記憶されていた第2のマネージメントレコードデータ201は、第1のマネージメントレコードデータ101にリンクされるようにしてRAM10bに記憶される。
【0197】
一方、この2回目のマーキングで生成されたインデックス番号「2」のクリップ画像データは、インデックス番号「1」のクリップ画像データに代わって新たにインクリップ表示エリア24aに表示される。1回目のマーキングと同様に、このインデックス番号「2」のクリップ画像データを管理する第2のマネージメントレコードデータ202は、新たにCPU10の中のレジスタに一時的に記憶される。
【0198】
〔3回目のマーキング(アウト点)〕
3回目のマーキングが行われると、同様にインデックス番号「3」のクリップ画像データが形成され、RAM10bの空きエリアに記憶される。この3回目のマーキングはアウト点であるので、インデックス番号「2」のクリップ画像データをイン点とし、インデックス番号「3」のクリップ画像データをアウト点としたイベントが形成される。従ってインクリップ表示エリア24aに表示されていたインデックス番号「2」のクリップ画像データは、インクリップ表示エリア24aに表示されている状態で、イベント表示エリア29にコピーされる。またこの3回目のマーキングにより、レジスタに記憶されていたインデックス番号「2」のクリップ画像データを管理する第2のマネージメントレコードデータ202は、イベントデータ用の第1のマネージメントレコードデータ102にリンクすると決定される。依って図16に示すように、CPU10のレジスタに一時的に記憶されていた第2のマネージメントレコードデータ202は、第1のマネージメントレコードデータ102にリンクされるようにしてRAM10bに記憶される。
【0199】
一方、この3回目のマーキングで生成されたインデックス番号「3」のクリップ画像データは、アウトクリップ表示エリア24dに新たに表示される。なお、インデックス番号「3」のクリップ画像データを管理する第2のマネージメントレコードデータ202は、第1のマネージメントレコードデータ102にリンクすることが決定しているので、CPU10の中のレジスタには記憶されない。
【0200】
〔4回目のマーキング(イン点)〕
4回目のマーキングが行われると、同様にインデックス番号「4」のクリップ画像データが形成され、RAM10bの空きエリアに記憶される。この記憶と同時に、その形成されたクリップ画像データは、インクリップ表示エリア24aに表示される。また1回目のマーキングと同様に、このインデックス番号「4」のクリップ画像データを管理する第2のマネージメントレコードデータ204は、CPU10の中のレジスタに一時的に記憶される。なお、アウトクリップ表示エリア24dに表示されていたインデックス番号「3」のクリップ画像データは既に記憶されているので、アウトクリップ表示エリア24dからクリアされる。
【0201】
〔5回目のマーキング(イン点)〕
5回目のマーキングが行われると、同様にインデックス番号「5」のクリップ画像データが形成され、RAM10bの空きエリアに記憶される。この場合、2回続けてイン点がマーキングされたので、インクリップ表示エリア24aに表示されていたインデックス番号「4」のクリップ画像データは、クリップ表示エリア28に移動される。またこの5回目のマーキングにより、CPU10のレジスタに記憶されていた第2のマネージメントレコードデータ204は、図15に示すように、第2のマネージメントレコードデータ201にリンクされるようにしてRAM10bに記憶される。
【0202】
一方、その形成されたインデックス番号「5」のクリップ画像データは、インクリップ表示エリア24aに表示される。また4回目のマーキングと同様に、このインデックス番号「5」のクリップ画像データを管理する第2のマネージメントレコードデータ205は、CPU10の中のレジスタに一時的に記憶される。以下、それ以降のマーキングに関しても、同様の処理が行われるので、ここでは説明を省略する。
【0203】
なお、図14に示す例においては、プログラム表示エリア30に、イベント表示エリア29から、所定のイベントがコピーされ、さらに所定のイベントの間に、エフェクトが挿入されている。次に、この場合の動作を、図17を参照して説明する。
【0204】
すなわち、以上のようにしてマーキングを行うと、イベント表示エリア29には、イベント番号「1」のイベントを構成するインデックス番号「2」のクリップ画像データ、イベント番号「2」のイベントを構成するインデックス番号「6」のクリップ画像データ、インデックス番号「3」のイベントを構成するインデックス番号「8」のクリップ画像データ、およびイベント番号「4」のイベントを構成するインデックス番号「11」のクリップ画像データが、順番に表示される。
【0205】
この状態において、ユーザがマウス2dを操作して、インデックス番号「6」のクリップ画像データを、プログラム表示エリア30上にドラッグアンドドロップすると、図17に示すように、第1のマネージメントレコードデータ103に、インデックス番号「6」のイン点のクリップ画像データと、インデックス番号「7」のアウト点のクリップ画像データで構成されるイベントを管理する第2のマネージメントレコードデータ206が、第1のマネージメントレコードデータ103にリンクされる。
【0206】
以下同様に、イベント表示エリア29に表示されているインデックス番号「2」のイン点のクリップ画像データを、プログラム表示エリア30のインデックス番号「6」の後方の位置にドラッグアンドドロップすると、第2のマネージメントレコードデータ206に、インデックス番号「2」のイン点のクリップ画像データと、インデックス番号「3」のアウト点のクリップ画像データとで構成されるイベント番号「1」のイベントを管理する第2のマネージメントレコードデータ202がリンクされる。
【0207】
さらに同様にして、イベント表示エリア29上に表示されているインデックス番号「8」のイン点のクリップ画像データをマウス2dを操作して、プログラム表示エリア30上のインデックス番号「2」のクリップ画像データの後方にドラッグアンドドロップすると、インデックス番号「8」のイン点のクリップ画像データと、インデックス番号「9」のアウト点のクリップ画像データで構成されるイベント番号「3」のイベントを管理する第2のマネージメントレコードデータ208が、第2のマネージメントレコードデータ202にリンクされる。
【0208】
このような状態において、所定のエフェクトを映像効果設定エリア25から選択し、それをプログラム表示エリア30のインデックス番号「6」のクリップ画像データと、インデックス番号「2」のクリップ画像データの間にドラッグアンドドロップすると、第2のマネージメントレコードデータ206の後ろのリンク先は、それまでの第2のマネージメントレコーダ202から、エフェクト番号「1」の第2のマネージメントレコードデータ201Eに変更される。また、第2のマネージメントレコードデータ202の前のリンク先は、それまでの第2のマネージメントレコードデータ206から、第2のマネージメントレコードデータ201Eに変更される。
【0209】
同様にして、映像効果設定エリア25から、エフェクト番号「2」を選択し、それをプログラム表示エリア30上のインデックス番号「2」のクリップ画像データと、インデックス番号「8」のクリップ画像データの間にドラッグアンドドロップすると、第2のマネージメントレコードデータ202の後ろのリンク先が、それまでの第2のマネージメントレコードデータ208から、エフェクト番号「2」を管理する第2のマネージメントレコードデータ202Eに変更される。また、第2のマネージメントレコードデータ208の前のリンク先も、それまでの第2のマネージメントレコードデータ202から、第2のマネージメントレコードデータ202Eに変更される。
【0210】
以上のようにして、映像効果データ(エフェクト設定クリップ画像データ)は、通常のクリップ画像データと同様に処理される。
【0211】
<ハイブリッドレコーダの構成>
次に図18を参照してハイブリッドレコーダ3(3a乃至3d)について説明する。この図18に示すように、ハイブリッドレコーダ3は、入力されるビデオ信号V1の記録と再生を、見かけ上ほぼ同時に行うことができる複数のアレイ構造とされているハードディスクドライブ(HDD)300と、そのハードディスクドライブ300への記録および再生をバックアップするビデオテープレコーダ(VTR)301とを有しており、これにより、例えばスポーツ中継のときに映像を常に記録しながら決定的な瞬間の映像を再生することができると共に、ハードディスクドライブ300に記録または再生エラーが発生したとしても、ビデオテープレコーダ301のバックアップによってその決定的な瞬間の映像を逃さず、確実に記録および再生を行うことができるようになっている。
【0212】
このようなハイブリッドレコーダ3の構成について以下に具体的に説明する。まずハイブリッドレコーダ3には、RS−422の通信プロトコルに基づいたインタフェース部302が設けられており、このインタフェース部302によってコンピュータ2の外部インタフェース18から送られてくる記録開始、記録終了、再生開始、再生終了等といった制御コマンドを受け取るようになされている。このインタフェース部302はその受け取った制御コマンドをCPU303に渡す。
【0213】
CPU303はハイブリッドレコーダ3の全体動作を制御するものであり、インタフェース部302から受けた制御コマンドに応じて各部の動作を制御する。これによりハイブリッドレコーダ3は入力されるビデオ信号V1とオーディオ信号A1を記録したり、その記録したビデオ信号を再生して、再生ビデオ信号V3とオーディオ信号A3として出力したりする。
【0214】
まずビデオカメラ等のソース側から連続的に供給されたビデオ信号V1とオーディオ信号A1は、シリアルパラレル(S/P)変換器314で、シリアルデータからパラレルデータに変換された後、ビデオ信号V1は、第1のスイッチ304に入力される。この第1のスイッチ304にはこの他にも、デコーダ305から出力されるビデオ信号も入力される。この第1のスイッチ304は、CPU303からの制御信号に基づいて、ハードディスクドライブ300およびビデオテープレコーダ(VTR)301に記録するビデオ信号を選択するものであり、ビデオ信号V1、またはデコーダ305から出力されるビデオ信号のうちの、いずれか一方を選択してエンコーダ306に出力する。
【0215】
なお、通常は、ビデオ信号V1を記録するので、第1のスイッチ304としてはビデオ信号V1を選択する。因みに、デコーダ305から出力されたビデオ信号を選択する場合は、ハードディスクドライブ300に記録されているビデオ信号をビデオテープレコーダ301に転送して記録する場合である。
【0216】
エンコーダ306は、第1のスイッチ304から供給されるアナログのビデオ信号をディジタルのビデオ信号に変換すると共に、そのディジタル化されたビデオ信号をMPEG規格(Moving Picture Experts Group)に基づいてフレーム単位で圧縮符号化する。
【0217】
一方、シリアルパラレル変換器314から出力されたオーディオ信号A1は、オーディオデータ制御部317に入力される。オーディオデータ制御部317にはまた、スイッチ315がマイクロホン8より入力されたオーディオ信号、またはその他の装置から供給されたオーディオ信号の一方を選択し出力したオーディオ信号が、A/D変換器316によりA/D変換された後、供給されている。オーディオデータ制御部317は、CPU303の制御のもと、シリアルパラレル変換器314より入力されるオーディオ信号、またはA/D変換器316から入力されるオーディオ信号の一方を選択し、エンコーダ306に出力している。エンコーダ306は、オーディオデータ制御部317から入力されたオーディオデータもMPEG規格に基づいて圧縮し、ビデオデータに多重化して出力する。
【0218】
オーディオデータ制御部317にはまた、第3のスイッチ310が出力したHDD300またはVTR301からの再生オーディオデータが供給されている。オーディオデータ制御部317は、この再生オーディオデータを処理した後、デコーダ305に供給している。さらに、オーディオデータ制御部317は、HDD300またはVTR301からの再生オーディオデータをD/A変換器318に出力し、D/A変換させた後、オーディオアウトの端子319を介してスピーカ320に出力し、放音させるようになされている。
【0219】
第2のスイッチ307にはエンコーダ306から出力された符号化ビデオ信号とオーディオ信号の他に、ビデオテープレコーダ301から出力されたビデオ信号とオーディオ信号も入力されている。この第2のスイッチ307はCPU303からの制御信号に基づいて、ハードディスクドライブ300に供給するビデオ信号とオーディオ信号を選択するものであり、エンコーダ306から出力された符号化ビデオ信号とオーディオ信号、またはビデオテープレコーダ301から出力されたビデオ信号とオーディオ信号のうちいずれか一方の組を選択して出力する。なお、通常、ハードディスクドライブ300は符号化ビデオ信号とオーディオ信号を記録するので、第2のスイッチ307は符号化ビデオ信号とオーディオ信号を選択する。因みに、ビデオテープレコーダ301から出力されるビデオ信号とオーディオ信号を選択する場合は、ビデオテープレコーダ301に記録されているビデオ信号とオーディオ信号をハードディスクドライブ300に転送して記録する場合である。
【0220】
第2のスイッチ307によって選択されたビデオ信号とオーディオ信号は入力バッファメモリ308に入力される。この入力バッファメモリ308は、ビデオ信号とオーディオ信号を、例えば15フレーム分記憶できるだけの記憶容量を有しており、入力されるビデオ信号とオーディオ信号を一時的に記憶する。
【0221】
ハードディスクドライブ300は複数のハードディスク300A(図66を参照して後述する)をアレイ状に連結したハードディスクアレイを備えており、これによりビデオ信号とオーディオ信号に対して十分な記憶容量を有している。このハードディスクドライブ300はCPU303からの制御信号によって記録動作が指示されると、入力バッファメモリ308に記憶されているビデオ信号とオーディオ信号を逐次読み出して、フレーム単位でハードディスクアレイに記憶する。またハードディスクドライブ300はCPU303から制御信号によって再生動作が指示されると、CPU303から指示された箇所のビデオ信号とオーディオ信号をハードディスクアレイから読み出して再生する。その再生されたビデオ信号とオーディオ信号は例えば15フレーム分の記憶容量を有している出力バッファメモリ309に出力され、一時的に記憶される。この出力バッファメモリ309は、一時的に記憶したビデオ信号とオーディオ信号を逐次読み出して第3のスイッチ310に出力する。
【0222】
ここでこのハードディスクドライブ300の記録および再生動作について、以下に具体的に説明する。このハイブリッドレコーダ3においては、ハードディスクドライブ300の記録および再生動作は全てCPU303によって管理されている。CPU303はタイムコード生成部313から出力されるタイムコードを基に、記録するビデオ信号の各ビデオフレームに対してタイムコードを割り当てると共に、当該ビデオ信号の各ビデオフレームに対して記録アドレスを割り当てる。そしてCPU303はこの割り当てたタイムコードと記録アドレスを対応表として記憶する。
【0223】
記録動作時、CPU303はハードディスクドライブ300に対して記録アドレスと記録コマンドを指示する。これによりハードディスクドライブ300は指示された記録アドレスにビデオ信号を記録して行く。
【0224】
一方、再生動作時、コンピュータ2からタイムコードによって読み出すビデオ信号が指示されると、CPU303は、上述した対応表を参照して指示されたタイムコードのビデオフレームがどこに記録されているかを調べる(すなわち記録アドレスを調べる)。そしてCPU303は再生コマンドと共に、調べた記録アドレスをハードディスクドライブ300に指示する。これによりハードディスクドライブ300は指示されたアドレスからビデオ信号を再生する(コンピュータ2が要求するビデオ信号を再生する)。このようにしてCPU303はタイムコードと記録アドレスの対応関係を対応表として記憶することにより、コンピュータ2からタイムコードによって再生位置が指示された場合でも、速やかに指示された再生位置を再生することができる。なお、オーディオ信号も、対応するビデオ信号と同様に記録再生される。
【0225】
なお、上述したタイムコード生成部313は、外部から外部タイムコード(Ext.TC)が供給される場合には、その外部タイムコードをタイムコードとしてCPU303に供給し、外部タイムコードが供給されない場合には、自らタイムコードを生成してCPU303に供給するようになされている。
【0226】
次にハードディスクドライブ300の入力側および出力側に設けられている入力バッファメモリ308および出力バッファメモリ309の役割について説明する。2つのバッファメモリ308、309は、ハードディスクドライブ300の記録動作と再生動作を、見かけ上、並列的に行わせるための緩衝部として機能する。このハードディスクドライブ300は、入力バッファメモリ308がビデオ信号を取り込む速度よりも少なくとも2倍以上の速度で記録動作が行えるようになっていると共に、出力バッファメモリ309がビデオ信号を読み出す速度よりも少なくとも2倍以上の速度で再生動作が行えるようになっている。このため入力側と出力側にバッファメモリ308、309を設けておけば、入力バッファメモリ308がビデオ信号とオーディオ信号を取り込んでいる間に、ハードディスクドライブ300は再生動作を行って出力バッファメモリ309にビデオ信号とオーディオ信号を蓄えることができ、また出力バッファメモリ309がビデオ信号とオーディオ信号を読み出している間に、ハードディスクドライブ300は入力バッファメモリ308からビデオ信号とオーディオ信号を読み出して記録動作を行うことができる。従ってこのようにハードディスクドライブ300の入力側および出力側にバッファメモリ308、309を設けておけば、ハードディスクドライブ300の記録動作と再生動作を、見かけ上、同時にすることができる。
【0227】
ここで再び図18に戻って各部の説明を続ける。上述したようにエンコーダ306から出力される符号化ビデオ信号とオーディオ信号はビデオテープレコーダ301にも供給される。ビデオテープレコーダ301はハードディスクドライブ300のバックアップ用として設けられたものであり、CPU303からの制御信号に基づいて記録動作または再生動作を行う。例えばハードディスクドライブ300が記録動作を行っている場合には、記録バックアップ用として動作するので、ビデオテープレコーダ301はハードディスクドライブ300の記録動作と並行して入力されるビデオ信号とオーディオ信号をビデオテープに記録する。またハードディスクドライブ300がCPU303からの指示を受けて再生動作を行っている場合には、再生バックアップ用として動作するので、ハードディスクドライブ300が再生しているビデオ信号およびオーディオ信号と同じビデオフレームのビデオ信号およびオーディオ信号をビデオテープから再生して出力する。
【0228】
なお、このビデオテープレコーダ301の記録および再生動作も、ハードディスクドライブ300と同様にCPU303によって管理されているが、ビデオテープレコーダの場合にはハードディスクドライブのようにアドレスによって位置が指定できないので、CPU303はアドレス情報の代わりにタイムコードそのものを指示する。すなわちビデオテープレコーダ301は記録時にはCPU303から与えられるタイムコードを付加して記録し、再生時にはCPU303から指示されるタイムコードを基に読み出し位置を確定して再生動作を行う。
【0229】
ビデオテープレコーダ301から再生されたビデオ信号およびオーディオ信号は、ハードディスクドライブ300から再生されたビデオ信号およびオーディオ信号と同様に、第3のスイッチ310に入力される。この第3のスイッチ310はCPU303からの制御信号に基づいて、再生ビデオ信号V3として出力するビデオ信号を選択するものである。すなわちこの第3のスイッチ310は、ハードディスクドライブ300で再生されたビデオ信号と、ビデオテープレコーダ301で再生されたビデオ信号のうち、いずれか一方をCPU303からの制御信号に基づいて選択する。なお、通常は、ハードディスクドライブ300で再生されたビデオ信号が選択される。ビデオテープレコーダ301側のビデオ信号が選択される場合は、ハードディスクドライブ300側のビデオ信号にエラーが発生した場合である。
【0230】
第3のスイッチ310によって選択されたビデオ信号はデコーダ305に供給される。デコーダ305は、フレーム単位で圧縮符号化されているビデオ信号を復号するものであり、入力されるビデオ信号をMPEG規格に基づいて復号する。またデコーダ305は復号されたディジタルのビデオ信号をアナログのビデオ信号に変換し、これを第1のタイムコード付加部311に出力する。
【0231】
第3のスイッチ310は、選択したオーディオ信号をオーディオデータ制御部317に供給する。オーディオデータ制御部317は、入力されたオーディオ信号に所定の処理を施した後、デコーダ305に出力する。デコーダ305は、オーディオ信号をMPEG規格に基づいて復号し、アナログのオーディオ信号として、ビデオ信号に多重化して第1のタイムコード付加部311に出力する。
【0232】
第1のタイムコード付加部311は、CPU303から供給されるタイムコードに基づいて、デコーダ305から出力されるビデオ信号の垂直同期期間にタイムコードを付加する。但し、デコーダ305から出力されるビデオ信号がビデオテープレコーダ301によって再生されたビデオ信号の場合には、既にタイムコードが付加されているのでタイムコードを付加せず、ハードディスクドライブ300によって再生されたビデオ信号の場合のみタイムコードを付加する。なお、ビデオ信号に付加するタイムコードは、記録時に割り当てたタイムコードと一致したものである。この第1のタイムコード付加部311によってタイムコードが付加されたビデオ信号は、再生ビデオ信号V3としてオーディオ信号A3とともに、外部に出力されると共に、映像効果装置6に送出される。
【0233】
なお、このハイブリッドレコーダ3からは、再生ビデオ信号V3およびオーディオ信号A3の他にも、入力ビデオ信号V1とほぼ同じビデオ信号V2が出力される。このビデオ信号V2は、第2のタイムコード付加部312によって入力ビデオ信号V1に対してタイムコードを付加したビデオ信号である。この場合、第2のタイムコード付加部312は、CPU303から出力されるタイムコードに基づいて、入力ビデオ信号V1の垂直同期期間にタイムコードを付加し、これをビデオ信号V2として出力する。その際、第2のタイムコード付加部312は、タイムコードとそれが付加されるビデオフレームとの対応関係がビデオ信号V3と同じになるように、ビデオ信号V1にタイムコードを付加して行く。これは、例えば第1のタイムコード付加部311において、あるビデオフレームに「00:01:23:45」というタイムコードを付けたとすると、ビデオ信号V1のうちそのビデオフレームに対応するビデオフレームに、同じタイムコード「00:01:23:45」を付加するということである。
【0234】
このようにしてこのハイブリッドレコーダ3は、ハードディスクドライブ300にビデオ信号V1を記録しながら、当該ハードディスクドライブ300からビデオ信号V3を再生し得るようになされており、記録動作と再生動作をほぼ同時に行えるようになされている。またこのハイブリッドレコーダ3の場合には、ハードディスクドライブ300のバックアップ用としてビデオテープレコーダ301を備えており、ハードディスクドライブ300側に何らかの不具合が発生した場合でも、確実に記録および再生動作を行えるようになされている。
【0235】
さらに、オーディオデータ制御部317は、図53を参照して後述するように、ボイスオーバ編集時にプレビュー再生するとき、再生オーディオ信号を所定のレベルだけ減衰してD/A変換器318に供給し、スピーカ320から出力する。
【0236】
<再生速度設定>
〔再生速度設定エリア〕
次にイベントの再生速度設定について説明する。この編集システム1では、ピクチャモードまたはタイムラインモードのいずれにおいても、映像効果設定エリア25の表示を、再生速度設定エリア25Aの表示に変更させ、これを使用して、イベントの再生速度をフレーム単位で設定することができるようになっている。これにより、例えば野球中継において、ホームランを打った瞬間のイベントに対してスロー再生を設定することができ、そのホームランシーンのイベントをスロー再生して、バッターの動きやボールの行方を一段とリアルに表現した映像を視聴者に提供することができる。またフレーム単位で再生速度を設定できるので、例えばピッチャーがボールを投げるシーンでは比較的早めのスロー再生を行い、バッターがボールを打つ瞬間のシーンでは比較的遅めのスロー再生を設定することができ、イベント内で異なるスロー再生を設定して、一段と迫力のある映像を視聴者に提供することができる。
【0237】
ここで図19を参照しながら、この点について以下に具体的に説明する。まず図19に示す再生速度設定エリア25Aは、タイミング表示エリア22のオプションボタン22hをクリックすることによりプルダウンメニューを表示させ、その中からDMC(ダイナミックモーションコントロール)ボタンを操作することで、映像効果設定エリア25に代えて表示させることができる。この再生速度設定エリア25Aは、ラーンボタン25Aa、スピードフイットボタン25Ab、通常再生速度設定ボタン25Ac、イベント番号表示部25Ad、イベントデュレーション表示部25Ae、タイムラインスケール表示部25Af、タイムランナー表示部25Ag、ポイント表示部25Ah、イン点タイムコード表示部25Ai、アウト点タイムコード表示部25Aj、およびメモリ残量インジケータ部25Akを有している。
【0238】
ラーンボタン25Aaは、後述する専用コントローラ2eを使用して再生速度を設定するときに使用するボタンである。このラーン(LEARN)ボタン25Aaをクリックした後で、専用コントローラ2eを使用して再生速度情報を入力すると、その速度情報が記憶され、イベントの再生速度が設定される。スピードフイット(FIT)ボタン25Abは、イン点からアウト点までの長さ(いわゆるデュレーション)をキーボード2cから数値入力することにより再生速度を自動設定するときに使用するボタンである。このスピードフイットボタン25Abをクリックした後で、キーボード2cからデュレーション値を入力すれば、そのデュレーション値を基に最適な再生速度が自動設定される。
【0239】
通常再生速度設定(NORMAL)ボタン25Acは、再生速度の設定を取り消すときに使用するボタンである。再生速度が設定されているイベントを指定した後、この通常再生速度設定ボタン25Acをクリックすると、その設定されている再生速度が取り消され、通常の再生速度すなわち1倍速が設定される。イベント番号表示部25Adは指定されたイベントのイベント番号を表示するエリアである。表示されるイベント番号は、イベント表示エリア29のイベント番号表示部29dで表示されるイベント番号と同じものである。
【0240】
イベントデュレーション表示部25Aeは、指定されたイベントのイン点からアウト点までの長さ、すなわちデュレーションを表示するエリアである。このイベントデュレーション表示部25Aeはデュレーションをフレーム単位で表示する。タイムラインスケール表示部25Afは、指定されたイベントのデュレーションを視覚的に表すための目盛り、すなわちスケールを表すエリアである。このタイムラインスケール表示部25Afに表示されるスケールは、フレーム単位のものである。
【0241】
タイムランナー表示部25Agは、後述する専用コントローラ2eで再生速度を設定しているとき、または再生速度が設定されたイベントをプレビューしているとき、現在、イベント内のどの位置が設定または再生されているかを表示する位置表示部である。このタイムランナー表示部25Agには人間が走っている形をしたアイコン25gaが表示されるようになっており、タイムラインスケール表示部25Afのスケールを基準にした当該アイコン25gaの表示位置により、現在設定または再生されているイベント内の位置を明示し得るようになっている。従ってオペレータは、そのアイコン25gaの位置によって視覚的にどの位置の設定または再生が行われているかを容易に理解することができる。
【0242】
またこの場合には、アイコン25gaが設定または再生の進行に伴って、順次、スケールに沿ってイン点からアウト点に向かって移動するが、その際、設定されている再生速度に応じてアイコン25gaの移動速度が変化するので、イベント中のどの部分の再生速度が速く、どの部分の再生速度が遅いかといったことをオペレータは視覚的に容易に確認することができる。
【0243】
ポイント表示部25Ahは、指定されたイベントのイン点からアウト点までの間で、編集操作中に設定された他のイン点またはアウト点があるか否かを示すエリアである。このポイント表示部25Ahでは、そのような他のイン点またはアウト点が存在すると、その位置にポインタ25haを表示するようになされている。これによりそのポインタ25haの有無により、オペレータは他の編集点の存在を容易に把握することができる。イン点タイムコード表示部25Aiおよびアウト点タイムコード表示部25Ajは、それぞれ選択されたイベントのイン点およびアウト点のタイムコードを表示するエリアである。
【0244】
メモリ残量インジケータ部25Akは、ラーンボタン25Aaをクリックし、専用コントローラ2eを使用して再生速度を設定して、その再生速度をCPU10のRAM10bに記憶させるとき、最大ラーン継続時間に対する残量を示すエリアである。1つのイベントに対して再生速度の設定のために割り当てられている記憶領域は予め決められているので、その記憶領域の残り容量を調べれば、残量は容易に算出することができる。このようなメモリ残量インジケータ部25Akを設けることにより、視覚的にメモリの残量が分かるので、最大ラーン継続時間をオーバーするような再生速度設定を未然に回避することができる。
【0245】
<専用コントローラ>
次に図20を参照して、再生速度設定に使用される専用コントローラ2eについて説明する。図20に示すように、専用コントローラ2eは、複数の操作ボタンの他に、ロータリーエンコーダであるサーチダイアル400とスライドエンコーダであるモーションコントロールレバー401を有しており、この2つの操作部を使用して、マニュアル操作で、再生速度を自由に入力し得るようになされている。
【0246】
まずこの専用コントローラ2eの操作パネル面に設けられている操作ボタンの配置について説明する。操作パネル面の中央上部には、ラーン(LEARN)ボタン402、スタート(START)ボタン403、ストップ(STOP)ボタン404、記録側選択(R)ボタン405、再生側選択(P)ボタン406、プレイ(PLAY)ボタン407、スティル(STILL)ボタン408、マークイン(MARK IN)ボタン409、およびマークアウト(MARK OUT)ボタン410が設けられている。またこれらの操作ボタンの下方位置には、上述したサーチダイアル400と、シャトル(SHUTTL)ボタン411、ジョグ(JOG)ボタン412、バリアブル(VAR)ボタン413、およびバリアブルインジケータ414が設けられている。
【0247】
これに対して操作パネル面の右側には、上から順にプレビュー(PREVIEW)ボタン415、カーソルボタン416、およびエンター(ENTER)ボタン417が設けられている。一方、操作パネルの左側には、上述したモーションコントロールレバー401が操作パネルの上下に対してスライドし得るように設けられている。
【0248】
これらの操作ボタンのうちラーンボタン402は、モーションコントロールレバー401またはサーチダイアル400によって再生速度を設定し、それを記憶するときに使用するボタンである。このラーンボタン402を押した後、モーションコントロールレバー401またはサーチダイアル400を操作してからマークアウトボタン410を押すまでの間、再生速度の記憶が行われる。なお、このラーンボタン402は、機能的には再生速度設定エリア25Aに表示されているラーンボタン25Aaとほぼ同じである。
【0249】
スタートボタン403は、ハイブリッドレコーダ3に対して記録開始コマンドを出力して記録ビデオ表示エリア21に表示されているビデオ信号を記録するときに操作するボタンである。またストップボタン404はハイブリッドレコーダ3に対して記録停止コマンドを出力して、記録ビデオ表示エリア21に表示されているビデオ信号の記録動作を停止するときに操作するボタンである。なお、これらのボタン403、404は、機能的にはモニタ2bに表示されている記録開始および終了ボタン31aと同じである。
【0250】
記録側選択ボタン405および再生側選択ボタン406は、専用コントローラ2eによってコントロールする対象を選択するときに使用するボタンである。専用コントローラ2eによって記録側をコントロールする場合には記録側選択ボタン405を押し、再生側をコントロールする場合には再生側選択ボタン406を押す。
【0251】
プレイボタン407は、ハイブリッドレコーダ3に対して再生開始コマンドを出力して、再生ビデオ表示エリア23にビデオ信号を表示させるときに使用するボタンである。またスティルボタン408はハイブリッドレコーダ3に対して再生停止コマンドを出力して、再生ビデオ表示エリア23に表示されているビデオ信号の再生動作を停止するときに使用するボタンである。このスティルボタン408を押すと、再生ビデオ画面23aには静止画が表示される。
【0252】
マークインボタン409およびマークアウトボタン410は、それぞれイン点およびアウト点を設定するときに使用するボタンである。なお、これらのボタン409、410は、記録側選択ボタン405が押されているときには、記録ビデオマーキングエリア24のマークインボタン24cおよびマークアウトボタン24fと同じように動作し、再生側選択ボタン406が押されている場合には、再生ビデオマーキングエリア27のマークインボタン27cおよびマークアウトボタン27fと同じように動作する。
【0253】
シャトルボタン411はサーチダイアル400をシャトルモードで動作させたいときに押すボタンであり、ジョグボタン412はサーチダイアル400をジョグモードで動作させたいときに押すボタンである。またバリアブルボタン413はサーチダイアル400をバリアブルモードで動作させたいとき、またはモーションコントロールレバー401を動作させたいときに押すボタンである。なお、バリアブルボタン413を1回押すと、右側のバリアブルインジケータ414が点灯してサーチダイアル400がバリアブルモードに設定され、もう1回押すと、左側のバリアブルインジケータ414が点灯してモーションコントロールレバー401が使用可能状態になり、さらにもう1回押すと、左右のバリアブルインジケータ414が消灯してサーチダイアル400およびモーションコントロールレバー401が使用不可能状態になる。
【0254】
プレビューボタン415は、図6のプレビューボタン45b、および図5と図6のプレビューボタン32と同様の機能を有しており、選択したイベントやプログラムをプレビューしたいときに使用するボタンである。イベントやプログラムを選択した状態でこのプレビューボタン415を押すと、そのイベントまたはプログラムの再生開始コマンドがハイブリッドレコーダ3に出力され、再生ビデオ画面23aにそのイベントまたはプログラムのビデオ信号が表示される。
【0255】
カーソルボタン416は、上方向ボタン、下方向ボタン、左方向ボタンおよび右方向ボタンの4つのボタンで構成され、クリップ表示エリア28、イベント表示エリア29またはプログラム表示エリア30においてクリップ画像データを選択するときにカーソルを移動させるためのボタンである。
【0256】
エンターボタン417には2種類の機能が割り当てられている。1つは再生ビデオマーキングエリア27において設定したイン点からアウト点までを新たにイベントとして登録するときに登録指示を入力する機能であり(モニタ2bに表示されているニューイベントボタン33と同じ)、もう1つは選択したイベントやプログラムを送出するときに送出指示を入力する機能である。
【0257】
サーチダイアル400はオペレータの回転操作に応じた再生速度情報を入力するロータリーエンコーダである。このサーチダイアル400は上述したように、シャトルボタン411、ジョグボタン412およびバリアブルボタン413を押すことにより、シャトルモード、ジョグモードおよびバリアブルモードの3つのモードで動作する。
【0258】
まずシャトルモードのときは、このサーチダイアル400の回転位置によって、−100倍速から+100倍速までの再生速度情報を入力することができる。なお、このモードのときには、サーチダイアル400は静止画、+10倍速および−10倍速の位置でクリック状態になる。
【0259】
また、ジョグモードのときには、このサーチダイアル400の回転位置によって、−1倍速から+1倍速までの再生速度情報を入力することができる。さらに、バリアブルモードのときには、このサーチダイアル400の回転位置によって、−1倍速から+3倍速までの再生速度情報を入力することができる。なお、このモードのときには、サーチダイアル400は、静止画および+1倍速の位置でクリック状態になる。
【0260】
このようにコントロール範囲を狭めることによって細かい再生速度を設定し得るジョグモード、粗い再生速度設定によって広範囲の設定を行えるシャトルモード、または、プラス側の設定範囲を広げたバリアブルモードを選択し得るようにしたことにより、オペレータは自分の設定したい再生速度に応じてそれを切り換え、再生速度を自由自在に設定することができる。
【0261】
モーションコントロールレバー401はオペレータのスライド操作に応じた再生速度情報を入力するスライドエンコーダである。このモーションコントロールレバー401を上下にスライドさせることにより、静止画から+1倍速までの再生速度情報を入力することができる。なお、このモーションコントロールレバー401の両側部には、範囲拡張ボタン401aが設けられており、この範囲拡張ボタン401aを押すことにより、入力し得る再生速度情報を−1倍速から+3倍速までの範囲に拡張することができる。
【0262】
このようにモーションコントロールレバー401によって、静止画から+1倍速までの再生速度情報を入力し得るようにしたことにより、オペレータはその範囲内で再生速度を自由自在に設定することができる。また再生速度情報を入力する機構として、回転操作方式のサーチダイアル400と、スライド操作方式のモーションコントロールレバー401とを設けたことにより、オペレータは自分の使いやすい方を選択して再生速度情報を入力することができ、使い勝手を向上させることができる。
【0263】
なお、ここで説明した専用コントローラ2eの各種操作ボタンから入力された指示情報や、サーチダイアル400およびモーションコントロールレバー401から入力された再生速度情報は、ポインティングデバイスインタフェース17を介してCPU10に送出される。これによりCPU10はその指示情報に応じた動作制御を行うと共に、指定されたイベントに対してその再生速度情報に応じた再生動作を行う。なお、ラーンボタンが押されている場合には、CPU10はその再生速度情報を、指定されたイベントの再生速度としてRAM10bに記憶する。
【0264】
因みに、再生速度情報を記憶する際には、例えば図21に示すようなデータフォーマットで記憶する。すなわち指定されたイベントのイン点からアウト点までの各ビデオフレーム毎にスピードデータを記憶するようになされている。なお、スピードデータはサーチダイアル400またはモーションコントロールレバー401から出力され、ポインティングデバイスインタフェース17によってデコーダされたディジタルデータである。再生時には、CPU10はこのフォーマットで記憶されているスピードデータを読み出して再生速度を制御する。その際、CPU10は、スピードデータをN、再生速度をvとして、v=10(N/32−2)なる演算を行い、その結果得た値を再生速度とする。従って例えばスピードデータNが「64」のときには、再生速度は「1.0」となり、スピードデータNが「32」のときには、再生速度は「0.1」となる。
【0265】
<再生速度の設定方法>
次に再生速度設定エリア25Aを使用して再生速度を設定する際の設定手順を説明する。まず再生速度の設定方法としては、大きく分けて3つの方法がある。第1の方法は専用コントローラ2eを使用せずに再生速度情報(スピードデータ)をキーボード2cから入力する方法であり、第2の方法はイベントを指定した上で専用コントローラ2eを使用して再生速度情報(スピードデータ)を入力する方法であり、第3の方法はイベントを指定せずに専用コントローラ2eを使用して再生速度情報を入力する方法である。
【0266】
第1の方法の場合には、まずイベント表示エリア29から再生速度を設定したい所望のイベントをクリック操作を行って指定する。次にタイミング表示エリア22のオプションボタン22hをクリック操作して、再生速度設定エリア25Aを表示させる。その中には、指定したイベントの番号およびデュレーションが表示される。次に再生速度設定エリア25Aのスピードフイットボタン25Abをクリックする。これによりキーボードから再生速度情報を入力し得るようになるので、オペレータは再生速度情報を入力する。なお、この場合には、実際には再生速度情報(スピードデータ)そのものを入力するのではなく、デュレーション値を入力する。この操作により、そのデュレーション値に応じた最適な再生速度がそのイベントに対して自動設定される。
【0267】
なお、その後、そのイベントをプレビューするのであれば、プレビューボタン32をクリックすれば良い。またその設定された再生速度を保存するのであれば、ニューイベントボタン33またはリプレイスボタン35をクリックすれば良い。
【0268】
第2の方法の場合には、まずイベント表示エリア29から再生速度を設定したい所望のイベントをクリック操作を行って指定する。次にタイミング表示エリア22のオプションボタン22hをクリック操作する。これにより再生速度設定エリア25Aが表示され、その中には、指定したイベントの番号およびデュレーションが表示される。次に再生速度設定エリア25Aのラーンボタン25Aaをクリック操作する。これにより再生速度設定可能状態になるので、専用コントローラ2eのモーションコントロールレバー401またはサーチダイアル400を操作して再生速度情報を入力する。この入力された再生速度は、CPU10のRAM10bに順次記憶される。その後、再生速度の設定を終了させるのであれば、終了させたい位置で再生ビデオマーキングエリア27のマークアウトボタン27fまたは専用コントローラ2eのマークアウトボタン410を押せば、再生速度の設定が終了する。なお、この設定された再生速度を保存するのであれば、ニューイベントボタン33またはリプレイスボタン35をクリックすれば良い。
【0269】
第3の方法の場合には、まず再生ビデオ表示エリア23の再生ビデオ画面23aを見ながら所望の位置で専用コントローラ2eのラーンボタン402を押す。これによりイン点が設定されると共に、再生速度設定可能状態になるので、同様に、専用コントローラ2eのモーションコントロールレバー401またはサーチダイアル400を操作して再生速度情報を入力すれば良い。この入力された再生速度は、CPU10のRAM10bに順次記憶される。この後、再生速度の設定を終了させるのであれば、終了させたい位置で再生ビデオマーキングエリア27のマークアウトボタン27fまたは専用コントローラ2eのマークアウトボタン410を押せば、再生速度の設定が終了する。なお、この設定された再生速度を保存するのであれば、ニューイベントボタン33またはリプレイスボタン35をクリックすれば良い。
【0270】
<プリロールモード>
次にこの編集システム1に設けられているプリロールモードについて説明する。通常、イベントを生成する場合には、オペレータは、記録ビデオ画面21aに表示されるビデオデータを見ながら、記録ビデオマーキングエリア24のマークインボタン24cまたはマークアウトボタン24fをクリックしてイン点またはアウト点を指示する。これによりこの編集システム1では、その指示されたイン点からアウト点までのビデオデータがイベントとして登録される。この登録されたイベントを確認する場合には、オペレータは、イベント表示エリア29に表示されているそのイベントをクリックして指定した後、プレビューボタン32をクリックする。これによりそのイベントの再生動作が開始され、再生ビデオ画面23aには、そのイベントのイン点からアウト点までのビデオデータが表示される。
【0271】
ところでイベントのイン点を指示するとき、オペレータは記録ビデオ画面21aに表示されているビデオデータを見ながらマークインボタン24cを操作してイン点を指示するようになされているので、マークインボタン24cの操作遅れ等により、イベントとして登録したい場面の後にイン点を指示してしまうことがある。例えば野球中継においてホームランを打った場面をイベントとして登録する場合、一般には、ピッチャーがボールを投げてからバッターの打ったボールがスタンドインする迄の間をイベントとして登録することが所望されるが、ホームランの場面であるか否かはバッターの打ったボールがスタンドインする迄は分からないので、必然的にイン点を指示するのが遅れてしまう。このようにイン点が遅れたイベントでは、大事な場面が含まれていないので、そのイベントを修正しなければならない。
【0272】
そこでこの編集システム1の場合には、オペレータが指定したイン点の位置よりも所定時間前の位置から自動的に再生動作を開始し、マーキングポイントを容易に修正し得るようになされたプリロールモードが設けられている。このプリロールモードについて、以下に具体的に説明する。
【0273】
まずプリロールモードにおいて使用される時間、すなわちオペレータが指定したイン点から前に再生開始点をシフトするための時間(以下、これをキューアップ時間と呼ぶ)は、メニューの環境設定において自由に設定し得るようになされている。このキューアップ時間を設定する場合には、メニューとして用意されている環境設定を呼び出し、その中のキューアップ項目を選択する。このキューアップ項目の選択により、画面上には、図22に示すようなキューアップ設定画面が表示される。このキューアップ設定画面において、設定時間表示エリア500をクリックした後、キューアップ時間として設定する時間を秒単位でキーボード2cから入力すれば、その時間が設定時間表示エリア500に表示されて仮設定される。
【0274】
なお、設定時間表示エリア500の隣にあるジョグボタン501のうち所望方向のボタンをクリックすると、その方向に時間が秒単位でシフトして行くようになっているので、このジョグボタン501を使用してキューアップ時間を入力しても良い。
【0275】
このようにしてキューアップ時間を入力した後、設定ボタン502をクリックすると、設定時間表示エリア500に表示されている時間がキューアップ時間として正式に登録される。具体的には、入力されたキューアップ時間がRAM10bの環境設定データ用の記憶領域に格納される。なお、キャンセルボタン503をクリックすると、設定時間表示エリア500に表示されている時間がリセットされ、新たにキューアップ時間を入力し得る状態になる。因みに、設定ボタン502をクリックすると、このキューアップ設定画面は自動的に画面上から消えるようになっている。
【0276】
このようにしてキューアップ時間が設定されている状態で、タイミング表示エリア22のプリロールボタン22eをクリック操作すると、プリロールモードの起動が指示され、これにより当該プリロールボタン22eが点灯してプリロールモードが起動する。なお、プリロールモードを解除する場合には、再びプリロールボタン22eをクリック操作すると、プリロールモードの終了が指示され、これにより当該プリロールボタン22eが消灯してプリロールモードが解除される。
【0277】
プリロールモードが起動されている状態で、オペレータが記録ビデオマーキングエリア24のマークインボタン24cをクリックすると、イン点が指示されると共に、そのイン点として指示されたクリップ画像データがインクリップ表示エリア24aに表示される。またこれと同時に、設定されているキューアップ時間が読み出され、図23に示すように、イン点として指示された位置のタイムコードからそのキューアップ時間だけ前にシフトした位置のタイムコードが算出される。そしてこの算出されたタイムコードの位置を再生開始点として、ハイブリッドレコーダ3に再生コマンドを出力することにより、この編集システム1では、その再生開始点から再生動作が自動的に開始される。この再生されたビデオ信号V3は、映像効果装置6を介してビデオ信号V6として再生ビデオ画面23aに表示されるので、オペレータはこの再生ビデオ画面23aを見ながら、再生ビデオマーキングエリア27のマークインボタン27cをクリックすることにより、イン点を容易に修正することができる。なお、その後、マークアウトボタン27fをクリックしてアウト点を指示し、ニューイベントボタン33をクリックすれば、そのイン点からアウト点までの区間のビデオデータがイベントとして登録される。
【0278】
このようにしてプリロールモードを予め起動しておけば、例えば野球中継のときにバッターの打ったボールがスタンドインした時点でマークインボタン24cをクリックしてイン点を指示した場合でも、そのイン点から所定時間前の位置から自動的に再生動作が行われるので、その再生画面を見ながら再生側のマークインボタン27cをクリックしてイン点を指示するだけで、容易にイン点を修正することができる。例えばピッチャーがボールを投げた時点にイン点を修正すれば、バッターがボールを打った瞬間等、所望の場面を含むをイベントをリアルタイムで容易に作成することができる。
【0279】
<ワークデータフォルダ>
次にこの項では、ワークデータフォルダについて説明する。この編集システム1においては、編集オペレーションによって生成されたイベントやプログラム等に関するワークデータは、通常、RAM10bに格納されているが、アプリケーションプログラムを終了して編集オペレーションを終了するときには、それらのワークデータはコンピュータ2の内部に設けられたハードディスクドライブ15aにダウンロードされ、当該ハードディスクドライブ15a内のハードディスクに記憶される。その際、ワークデータはフォルダと呼ばれる階層構造で記憶される。
【0280】
ここで図24を用いて、この点について以下に具体的に説明する。図24に示すように、イベントやプログラム等に関するワークデータは、それぞれフォルダと呼ばれる階層構造で記憶される。このフォルダは、MS−DOS等におけるデイレクトリとほぼ同じであり、ワークデータフォルダ600を最上位の階層とし、そのワークデータフォルダ600の階層下に下位のフォルダ601乃至603を形成して、各データファイルを階層構造で管理しながら記憶するようになされている。なお、ワークデータフォルダ600は、この編集システム1を起動したときにコンピュータ2によってハードディスクドライブ15aに形成される。
【0281】
まずクリップ表示エリア28やイベント表示エリア29、或いはプログラム表示エリア30等に表示されるクリップ画像データは、ワークデータフォルダ600の下位に形成されたクリップフォルダ601の階層下にクリップ画ファイルとして、それぞれクリップ画像データ単位で記憶される。このクリップ画ファイルの中身はクリップ画像データそのものであり、クリップ画像を示すビデオデータが書き込まれる。またこのクリップ画ファイルのファイル名としては、括弧内に示すように、クリップ画像データ毎に付与されたインデックス番号に拡張子の「.pic」を付加した名前が使用される。
【0282】
またイベント内の代表的なクリップ画像として登録されたシンボル画像データは、ワークデータフォルダ600の下位に形成されたシンボルフォルダ602の階層下にシンボル画ファイルとして、それぞれシンボル画像データ単位で記憶される。このシンボル画ファイルの中身としてはシンボル画像を示すビデオデータが書き込まれる。またこのシンボル画ファイルのファイル名としては、括弧内に示すように、シンボル画像が含まれるイベント番号に拡張子の「.pic」を付加した名前が使用される。
【0283】
プログラムに関するワークデータは、下位フォルダが形成されず、直接、ワークデータフォルダ600の階層下にプログラムファイルとして記憶される。このプログラムファイルの中には、プログラムを構成するイベントのイベント番号が順番に書き込まれるようになっており、当該プログラムファイルを参照することによってプログラムがどのイベントによって形成されているかを知ることができるようになっている。またこのプログラムファイルのファイル名としては、プログラムファイルであることを示す「PROG」に拡張子の「.dat」を付加した名前が使用される。
【0284】
イベントに関するワークデータも、下位フォルダが形成されず、直接、ワークデータフォルダ600の階層下にイベントファイルとして記憶される。このイベントファイルの中には、イン点とアウト点のクリップ番号がイベント番号毎に順に書き込まれるようになっており、当該イベントファイルを参照することによって、各イベントを形成するイン点とアウト点のクリップ番号が分かるようになっている。またこのイベントファイルのファイル名としては、イベントファイルであることを示す「EVNT」に拡張子の「.dat」を付加した名前が使用される。
【0285】
クリップ画像データに関するワークデータも、下位フォルダが形成されず、直接、ワークデータフォルダ600の階層下にクリップファイルとして記憶される。このクリップファイルの中には、クリップ画像データのインデックス番号とタイムコードが、クリップ番号毎に順に書き込まれるようになっており、当該クリップファイルを参照することによって、各クリップ画像データがどのインデックス番号の画像データで形成されているかを知ることができるようになっている。またクリップファイルのファイル名としては、クリップファイルであることを示す「CLIP」に拡張子の「.dat」を付加した名前が使用される。
【0286】
また再生速度設定エリア25Aを使用して設定したイベントの再生速度を示すスピードデータ(図21参照)は、ワークデータフォルダ600の下位に形成されたスローデータフォルダ603の階層下にスローデータファイルとして、それぞれイベント単位で記憶される。このスローデータファイルの中には、図21に示したようなスピードデータがフレーム毎に書き込まれるようになっており、当該スローデータファイルを参照することによって、そのイベントに対して設定された再生速度を知ることができるようになっている。またこのスローデータファイルのファイル名としては、括弧内に示すように、イベント毎に付与されたイベント番号に拡張子の「.dat」を付加した名前が使用される。
【0287】
このようにしてこの編集システム1では、アプリケーションプログラムを終了するときには、編集オペレーションによって生成したイベントやプログラム等に関するワークデータを階層構造で、ハードディスクドライブ15aのハードディスクに記憶するようになされている。これによりアプリケーションプログラムを再起動したときには、ハードディスクに記憶されているこれらのワークデータを読み出してプログラム表示エリア30やイベント表示エリア29等に終了前と同じクリップ画像データを表示することができ、アプリケーションプログラム終了前の状態に復帰することができる。またこのようにしてワークデータを記憶することにより、後からそのワークデータを読み出してEDL(エデイット・ディシジョン・リスト)等の編集リストを出力することもできる。
【0288】
<コンピュータの動作説明>
この項では、フローチャートを用いて各処理におけるコンピュータ2の動作について説明する。なお、以降の説明で使用されるフローチャートは、基本的にCPU10の動作を説明しているものである。
【0289】
〔初期動作〕
まず図25を用いてコンピュータ2の初期動作について説明する。最初にステップS1において、オペレータによりアプリケーションプログラムの実行が指定されると、コンピュータ2のCPU10は動作を開始する。次のステップS2では、アプリケーションプログラムがハードディスクドライブ15aのハードディスクに記憶されているので、CPU10は当該CPU10内に設けられた動作用のRAM10bにアプリケーションプログラムをアップロードする。
【0290】
次のステップS3では、CPU10はRAM10bにアップロードしたアプリケーションプログラムを実行する。次のステップS4では、CPU10は、これから行われる編集作業によって生成される複数のクリップ画像データや編集データ等を記憶するためのメモリ領域をRAM10bに確保する。なお、このとき図15乃至図17に示したようなクリップデータ用、イベントデータ用およびプログラムデータ用の第1のマネージメントレコーダもRAM10bに生成される。
【0291】
次のステップS5では、CPU10は、これから行われる編集作業によって生成されるプログラムやイベントに関するワークデータを記憶するためのワークデータフォルダをハードディスクドライブ15aのハードディスクに生成する。
【0292】
次のステップS6では、GUIのためのグラフィック表示をモニタ2bに表示するため、CPU10はコンピュータ2の内部クロックに同期して、グラフィックデータをVRAM13bにリアルタイムで転送する。これにより次のステップS7において、VRAM13bに記憶されているグラフィックデータと同一のグラフィックがモニタ2bに表示される。
【0293】
次のステップS8では、CPU10はビデオ信号V2を記録ビデオ画面21aに表示するか否かの判定を行う。この判定はオペレータによるビデオ表示の指定に基づいて行われる。もし、ビデオ表示の指定が無いのであれば、編集オペレーションを行わないと判定してステップS16に進み、処理を終了する。通常の場合であれば、編集オペレーションを行うためビデオ表示の指定があるので、ステップS9に進んでビデオ信号V2の表示処理に移る。
【0294】
ステップS9では、CPU10は、ハイブリッドレコーダ3に対してRS−422の制御コマンドを出力することにより、当該ハイブリッドレコーダ3にビデオ信号V2の出力を指示する。これを受けたハイブリッドレコーダ3は、入力されるビデオ信号V1にタイムコードを付加してビデオ信号V2を生成し、コンピュータ2に送出する。
【0295】
次のステップS10では、データ変換部11bが、入力されるコンポジットビデオ信号V2からタイムコードを抽出すると共に、当該コンポジットビデオ信号V2をディジタルのコンポーネントビデオデータに変換する。変換されたビデオデータはフレームメモリ11cに入力され、フレーム単位で一時的に記憶される。また抽出されたタイムコードデータはプロセッサコントローラ11aに供給され、当該プロセッサコントローラ11aを介してCPU10に送出される。
【0296】
次のステップS11では、フレームメモリ11cに記憶されているビデオデータがVRAM13bに転送される。転送されるビデオデータは、フレームメモリ11cからの読み出しサンプル数が少なくなっているので、380画素×240画素に縮小されたビデオデータである。なお、このとき画像データバス5aの調停が行われることにより、ビデオデータの他にもGUIのためのイメージデータがCPU10からVRAM13bに転送されるようになされている。またこのときVRAM13bに記憶されるビデオデータをリアルタイムで更新することにより、モニタ2bにリアルタイムでビデオデータを表示することが可能となる。
【0297】
次のステップS12では、VRAM13bに記憶されたイメージデータとビデオデータがリアルタイムでモニタ2bに表示される。次のステップS13では、記録ビデオ画面21aに表示されているビデオデータをハイブリッドレコーダ3に記録するか否かをCPU10が判定する。この判定はオペレータによる記録開始および終了ボタン31aのクリック操作に基づいて行われる。すなわち記録開始および終了ボタン31aがクリックされれば、ビデオデータを記録すると判定して次のステップS14に進み、記録開始および終了ボタン31aがクリックされなければビデオデータを記録しないと判定してステップS16に進み、処理を終了する。
【0298】
ステップS14では、CPU10は記録開始コマンドを外部インタフェース18に送出する。これを受けた外部インタフェース18はその記録開始コマンドをRS−422規格の通信フォーマットに変換し、ハイブリッドレコーダ3に送出する。これによりハイブリッドレコーダ3は入力されるビデオ信号V1の記録動作を開始する。
【0299】
次のステップS15では、ハイブリッドレコーダ3によって記録動作が開始されたので、CPU10は全ての初期設定が終了したと判断してこのフローチャートに示されるような初期動作の手順を終了する。
【0300】
〔記録側におけるマーキング〕
次に記録ビデオマーキングエリア24を使用したマーキングについて、図26に示すフローチャートを用いて説明する。なお、このマーキングは、図13乃至図17の説明を参照すると、より理解しやすくなる。
【0301】
まず図25に示した初期動作の手順を終了すると、このマーキング動作が行える状態になり、ステップS20から入って処理を開始する。ステップS21では、CPU10は新たにマーキングがされたか否かを判断する。マーキングがされたか否かの判断は、記録ビデオマーキングエリア24のマークインボタン24cまたはマークアウトボタン24fのエリア内にカーソルが位置する状態でマウス2dがクリックされたか否かに基づいて行われる。その際、マウス2dのクリック操作により割り込みコマンドが発生するので、CPU10はこの割り込みコマンドの発生に応じてマーキングの判断を行う。その判断の結果、マークインボタン24cがクリックされたのであれば、イン点が指定されたと判断してステップS22に進み、マークアウトボタン24fがクリックされたのであれば、アウト点が指定されたと判断してステップS30に進む。
【0302】
ステップS22では、イン点のクリップ画像データを生成する。このイン点のクリップ画像データは、フレームメモリ11cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。その際、読出しのサンプル数を少なくすることによりデータ量を1/16に間引いているので、クリップ画像データとしては95画素×60画素の画像サイズのものが生成される。
【0303】
ステップS23では、VRAM13bのインクリップ表示エリア用の記憶領域に記憶されているイン点のクリップ画像データが読み出され、インクリップ表示エリア24aに表示される。
【0304】
ステップS24では、CPU10は、ステップS21におけるマーキングが最初のイン点のマーキングであるか否かを判断する。その結果、最初のマーキングであればステップS21に戻り、2回目以上のマーキングであればステップS25に進む。
【0305】
ステップS25では、CPU10は、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるか否かを判断する。その結果、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるのであればステップS26に進み、先にマーキングされたクリップ画像データがアウト点のクリップ画像データであるのであればステップS27に進む。
【0306】
ステップS26では、先にマーキングされたイン点のクリップ画像データをクリップ表示エリア28に移動する。つまりイン点が2回続けてマーキングされたため、先にマーキングされたクリップ画像データはイベントとしては使用されず、クリップ表示エリア28に移動される。なお、このとき図13乃至図17に示すように、クリップ表示エリア28に移動されたクリップ画像データについての第2のマネージメントレコードデータが生成される。
【0307】
一方、ステップS27では、CPU10は、先にマーキングされたアウト点のクリップ画像データによってイベントが生成されたか否かを判断する。その結果、先のマーキングによってイベントが生成されているのであればステップS29に進み、先のマーキングによってイベントが生成されていないのであればステップS28に進む。
【0308】
ステップS28では、先のマーキングによってアウトクリップ表示エリア24dに表示されていたアウト点のクリップ画像データをクリップ表示エリア28に移動する。これは、先のマーキングによって生成されたアウト点のクリップ画像データはイベントとして使用されなかったが、今後使用することもあり得るのでマーキング履歴として残しておくためである。
【0309】
これに対してステップS29では、アウトクリップ表示エリア24dに表示されていたアウト点のクリップ画像データをクリアする。この場合、アウトクリップ表示エリア24dに表示されているクリップ画像データは、既に、イベントのアウト点として使用されているので、これ以上表示する必要がないからである。
【0310】
一方、ステップS21における判断によってアウト点のマーキングが検出されたためステップS30に進んだ場合には、ここでアウト点のクリップ画像データを生成する。このアウト点のクリップ画像データも、フレームメモリ11cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。またこの場合にも、読出しの際に、データ量を1/16に間引くことによって95画素×60画素のクリップ画像データが生成される。
【0311】
ステップS31では、VRAM13bのアウトクリップ表示エリア用の記憶領域に記憶されているアウト点のクリップ画像データが読み出され、アウトクリップ表示エリア24dに表示される。
【0312】
次のステップS32では、CPU10は、ステップS21におけるマーキングが最初のアウト点のマーキングであるか否かを判断する。その結果、最初のマーキングであればステップS21に戻り、2回目以上のマーキングであればステップS33に進む。
【0313】
ステップS33では、CPU10は、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるか否かを判断する。その結果、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるのであればステップS34に進み、先にマーキングされたクリップ画像データがアウト点のクリップ画像データであるのであればステップS36に進む。
【0314】
ステップS34では、CPU10は、先にマーキングされたイン点と後からマーキングされたアウト点までの区間をイベントとして登録する。このようにこの編集システム1では、イン点の後にアウト点のマーキングが行われると、自動的にイベントとして登録される。なお、このときには、図13乃至図17に示したように、イベントに関しての第2のマネージメントレコードデータが生成される。
【0315】
次のステップS35では、生成されたイベントのイン点のクリップ画像データをイベント表示エリア29にコピーし、当該イベント表示エリア29にクリップ画像データを表示する。
【0316】
一方、ステップS36では、CPU10は、先にマーキングされたアウト点のクリップ画像データによってイベントが生成されたか否かを判断する。その結果、先のマーキングによってイベントが生成されているのであればステップS38に進み、先のマーキングによってイベントが生成されていないのであればステップS37に進む。
【0317】
ステップS37では、先のマーキングによって生成されたアウト点のクリップ画像データをクリップ表示エリア28に移動する。これは、先のマーキングによって生成されたアウト点のクリップ画像データはイベントとして使用されなかったが、今後使用することもあり得るのでマーキング履歴として残しておくためである。
【0318】
これに対してステップS38では、インクリップ表示エリア24aに表示されていたイン点のクリップ画像データをクリアする。これは、インクリップ表示エリア24aに表示されているクリップ画像データと、先にマーキングされたアウト点のクリップ画像データとによってイベントが生成されたため、インクリップ表示エリア24aに表示されているクリップ画像データは今後使用されることがないので、これ以上表示する必要がないからである。
【0319】
ステップS26、ステップS28、ステップS29、ステップS35、ステップS37またはステップS38の処理が終了すると、CPU10はステップS39に進み、ここでマーキング動作を終了するか否かを判断する。マーキング動作を継続するのであれば再びステップS20に戻って処理を繰り返し、マーキング動作を終了するのであればステップS40に進んで処理を終了する。
【0320】
〔再生側におけるマーキング〕
次にハイブリッドレコーダ3から再生されたビデオ信号V3に対して、映像効果装置6で必要に応じてエフェクトを付与したビデオ信号V6を見ながら、再生ビデオマーキングエリア27を使用してマーキングする場合について、図27および図28に示すフローチャートを用いて説明する。まずこのマーキングは、既にクリップ画像データが記憶されている状態からスタートする。ステップS50から入ったステップS51において、CPU10はクリップ表示エリア28のクリップ画像データが指定されたか否かを判断する。このときCPU10は、カーソルがクリップ画像データ表示エリア28aにある状態で、マウス2dがダブルクリック(2回連続したクリック操作)されると、そのクリップ画像データが指定されたと判断する。その結果、クリップ画像データの指定があった場合には、次のステップS52において、指定されたクリップ画像データが再生ビデオマーキングエリア27に表示される。すなわちイン点のクリップ画像データが指定されたのであればインクリップ表示エリア27aに表示され、アウト点のクリップ画像データが指定されたのであればアウトクリップ表示エリア27dに表示される。
【0321】
次のステップS53では、CPU10は、指定されたクリップ画像データのタイムコードを参照し、そのタイムコードのビデオデータをスチル再生させるための制御コマンドを外部インタフェース18に送出する。これを受けた外部インタフェース18は、そのスチル再生コマンドをRS−422規格の通信フォーマットに変換してハイブリッドレコーダ3に送出する。これによりハイブリッドレコーダ3は、受け取ったタイムコードを基にタイムコードと記録アドレスの対応表を参照して記録アドレスを調べ、その記録アドレスの位置からビデオデータを読み出すことにより、指示されたビデオデータを再生する。このビデオデータはビデオ信号V3として映像効果装置6に入力され、そこからさらにビデオ信号V6としてコンピュータ2内の第2のビデオプロセッサ12に送出される。
【0322】
ステップS54では、第2のビデオプロセッサ12においてビデオ信号V6からのタイムコードの抽出が行われると共に、ビデオ信号V6をディジタルのコンポーネントビデオデータに変換する画像処理が行われる。なお、この変換されたビデオデータは第2のビデオプロセッサ12内のフレームメモリ12cに一時的に記憶される。
【0323】
ステップS55では、フレームメモリ12cに記憶されているスチル再生ビデオデータを380画素×240画素となるように縮小した上でVRAM13bに転送する。
【0324】
次のステップS56では、そのVRAM13bに記憶されている再生ビデオデータを再生ビデオ画面23aに表示する。この場合、ハイブリッドレコーダ3からはリアルタイムのビデオデータでなく、指示されたクリップ画像データに対応したスチルビデオデータだけが送出されるので、再生ビデオ画面23aには静止画が表示される。
【0325】
ステップS57では、CPU10は、再生ビデオ画面23aに表示されているスチルビデオデータに対して再生が指示されたか否かを判断する。このときCPU10は、再生ビデオ画面23aにスチルビデオデータが表示されている状態でプレビューボタン32がクリックされると、再生が指示されたと判断する。
【0326】
再生指示があった場合には、次のステップS58において、CPU10は再生開始コマンドを外部インタフェース18に送出する。これを受けた外部インタフェース18は、その再生開始コマンドをRS−422規格の通信フォーマットに変換してハイブリッドレコーダ3に送出する。これによりハイブリッドレコーダ3は、再生ビデオ画面23aに表示されているビデオデータに対応する記録アドレスから順にビデオデータを読み出すことにより、その再生ビデオ画面23aに表示されているビデオデータに続く通常の再生ビデオデータを生成する。この再生ビデオデータはビデオ信号V3として映像効果装置6に入力され、そこからさらにビデオ信号V6としてコンピュータ2内の第2のビデオプロセッサ12に送出される。
【0327】
次のステップS59では、CPU10はマーキングがされたか否かを判断する。マーキングがされたか否かの判断は、再生ビデオマーキングエリア27のマークインボタン27cまたはマークアウトボタン27fのエリア内にカーソルが位置する状態でマウス2dがクリックされたか否かに基づいて行われる。その際、マウス2dのクリック操作により割り込みコマンドが発生するので、CPU10はこの割り込みコマンドの発生に応じてマーキングの判断を行う。その判断の結果、マークインボタン27cがクリックされたのであれば、イン点が指定されたと判断してステップS60に進み、マークアウトボタン27fがクリックされたのであれば、アウト点が指定されたと判断してステップS63に進む。
【0328】
ステップS60では、イン点のクリップ画像データを生成する。このイン点のクリップ画像データは、フレームメモリ12cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。その際、読出しのサンプル数を少なくすることによりデータ量を1/16に間引いているので、クリップ画像データとしては95画素×60画素の画像サイズのものが生成される。次のステップS61では、VRAM13bのインクリップ表示エリア用の記憶領域に記憶されているイン点のクリップ画像データが読み出され、インクリップ表示エリア27aに表示される。
【0329】
ステップS62では、先にマーキングされ、インクリップ表示エリア27aに表示されていたイン点のクリップ画像データをクリップ表示エリア28に移動する。なお、先にマーキングがされておらず、インクリップ表示エリア27aにクリップ画像データが表示されていなかった場合には、この処理は行われない。このステップS62の処理が終わると、CPU10はステップS70に進む。
【0330】
一方、アウト点のマーキングのためステップS63に進んだ場合には、ここでアウト点のクリップ画像データを生成する。このアウト点のクリップ画像データも、フレームメモリ12cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。またこの場合にも、読出しの際に、データ量を1/16に間引くことによって95画素×60画素のクリップ画像データが生成される。ステップS64では、VRAM13bのアウトクリップ表示エリア用の記憶領域に記憶されているアウト点のクリップ画像データが読み出され、アウトクリップ表示エリア27dに表示される。
【0331】
次のステップS65では、CPU10は、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるか否かを判断する。その結果、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるのであればステップS66に進み、先にマーキングされたクリップ画像データがアウト点のクリップ画像データであるのであればステップS67に進む。ステップS66では、CPU10はイベントとして新しく登録するか否かの判断を行う。この判断は、オペレータによるニューイベントボタン33のクリック操作に基づいて行われる。ニューイベントボタン33がクリックされ、イベント登録が指示された場合にはステップS68に進み、ニューイベントボタン33がクリックされず、イベント登録が指示されなかった場合にはステップS67に進む。
【0332】
ステップS68では、CPU10は、イン点からアウト点までの区間をイベントとして登録する。このようにこの編集システム1では、イン点の後にアウト点がマーキングされ、さらにニューイベントボタン33がクリックされると、そのイン点からアウト点までの区間が新たなイベントとして登録される。なお、このときには、図13乃至図17に示したように、イベントに関しての第2のマネージメントレコードデータが生成される。
【0333】
次のステップS69では、生成されたイベントのイン点のクリップ画像データをイベント表示エリア29にコピーし、当該イベント表示エリア29にクリップ画像データを表示する。この処理が終了すると、CPU10は次のステップS70に進む。
【0334】
一方、先のマーキングによって生成されたクリップ画像データがアウト点のクリップ画像データであったためステップS67に進んだ場合には、ここで先のマーキングによって生成されたアウト点のクリップ画像データをクリップ表示エリア28に移動する。なお、先にマーキングがされておらず、アウトクリップ表示エリア27dにクリップ画像データが表示されていなかった場合には、この処理は行われない。この処理が終わると、CPU10はステップS70に進む。
【0335】
ステップS70では、CPU10は、再生ビデオ画面23aに表示されているビデオデータの再生停止が指示されたか否かを判断する。この判断は、専用コントローラ2eのスティルボタン408が押されたか否かに基づいて判断する。再生停止が指示されなかった場合には、ステップS59に戻って処理を繰り返し、再生停止が指示された場合には、次のステップS71に進む。ステップS71では、CPU10は再生停止コマンドを外部インタフェース18に送出する。これを受けた外部インタフェース18はその再生停止コマンドをRS−422規格の通信フォーマットに変換してハイブリッドレコーダ3に送出する。これによりハイブリッドレコーダ3はビデオデータの読出し動作を停止して、再生動作を停止する。このステップS71の処理が終了すると、CPU10はステップS72に移ってマーキングの処理を終了する。
【0336】
〔トリミング〕
次に生成されているイベントを指定してイン点またはアウト点を変更する処理、いわゆるトリミングについて、図29に示すフローチャートを用いて説明する。なお、このフローチャートは既にイベントが生成されている状態からスタートするものとする。
【0337】
まずステップS80から入ったステップS81において、CPU10は、イベント表示エリア29のクリップ画像データが指定されたか否かを判断する。このときCPU10は、カーソルがクリップ画像データ表示エリア29aにある状態で、マウス2dがダブルクリック(2回連続したクリック操作)されると、そのクリップ画像データが指定されたと判断する。クリップ画像データの指定があった場合には、次のステップS82において、CPU10は指定されたクリップ画像データのタイムコードを参照し、そのタイムコードのビデオデータをスチル再生させるための再生コマンドを外部インタフェース18を介してハイブリッドレコーダ3に送出する。この再生コマンドに基づいてハイブリッドレコーダ3が指定されたビデオデータを再生して再生ビデオデータを生成することにより、再生ビデオ画面23aには指定されたクリップ画像データに対応した再生ビデオデータが表示される。
【0338】
次のステップS83では、CPU10は専用コントローラ2eのシャトルボタン411が押されたか否かを判断する。シャトルボタン411が押されたのであれば、次のステップS84に進み、ここでCPU10は専用コントローラ2eのサーチダイアル400が回転されたか否かを判断する。サーチダイアル400が回転されたのであれば、ステップS85に進み、ここでCPU10はサーチダイアル400の動いた方向と距離を演算する。そしてCPU10は、その求めた方向と距離および現在再生ビデオ画面23aに表示されているビデオデータのタイムコードに基づいて、指定されたビデオデータのタイムコードを算出する。具体的には、回転が右方向であれば、現在表示されているビデオデータのタイムコードに移動距離分のタイムコードを加えることにより指定されたビデオデータのタイムコードを算出し、回転が左方向であれば、現在表示されているビデオデータのタイムコードから移動距離分のタイムコードを引くことにより指定されたビデオデータのタイムコードを算出する。
【0339】
ステップS86では、CPU10はその求めたタイムコードのビデオデータを再生させるための再生コマンドを外部インタフェース18を介してハイブリッドレコーダ3に送出する。
【0340】
ステップS87では、この再生コマンドに基づいてハイブリッドレコーダ3が指定されたタイムコードのビデオデータを再生することにより、再生ビデオ画面23aには指定されたタイムコードの再生ビデオデータが表示される。
【0341】
次のステップS88では、CPU10はマーキングがされたか否かを判断する。マーキングがされたか否かの判断は、再生ビデオマーキングエリア27のマークインボタン27cまたはマークアウトボタン27fのエリア内にカーソルが位置する状態でマウス2dがクリックされたか否かに基づいて行われる。その判断の結果、マークインボタン27cまたはマークアウトボタン27fのいずれかがクリックされたのであればステップS89に進み、いずれもクリックされなければステップS83に戻って処理を繰り返す。
【0342】
ステップS89では、マーキングされたクリップ画像データを生成する。このクリップ画像データは、フレームメモリ12cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。その際、読出しのサンプル数を少なくすることによりデータ量を1/16に間引いているので、クリップ画像データとしては95画素×60画素の画像サイズのものが生成される。
【0343】
ステップS90では、そのVRAM13bに記憶されているクリップ画像データが読み出され、再生ビデオマーキングエリア27のインクリップ表示エリア27aまたはアウトクリップ表示エリア27dに表示される。具体的には、イン点としてマーキングされたのであれば、クリップ画像データはインクリップ表示エリア27aに表示され、アウト点としてマーキングされたのであれば、クリップ画像データはアウトクリップ表示エリア27dに表示される。
【0344】
ステップS91では、CPU10はニューイベントボタン33が押されたか否かを判断する。この判断は、ニューイベントボタン33の位置にカーソルがある状態でマウス2dがクリックされたか否かに基づいて行われる。その結果、ニューイベントボタン33が押されたのであればステップS92に進み、ニューイベントボタン33が押されなかったのであればステップS94に進む。
【0345】
ステップS92では、イン点またはアウト点をステップS88でマーキングされたクリップ画像データに置き換え、それを新たなイベントとして登録する。例えばステップS88においてイン点がマーキングされたと判定されたのであれば、その新たなイン点と既に登録されているアウト点までの区間を新たなイベントして登録し、ステップS88においてアウト点がマーキングされたと判定されたのであれば、既に登録されているイン点とその新たなアウト点までの区間を新たなイベントして登録する。なお、このときには、図13乃至図17に示したように、イベントに関しての第2のマネージメントレコードデータが新たに生成される。
【0346】
次のステップS93では、その新たなイベントのイン点のクリップ画像データがイベント表示エリア29に表示される。この処理が終了すると、CPU10は次のステップS97に移ってトリミングの処理を終了する。
【0347】
一方、ニューイベントボタン33が押されなかったためステップS94に進んだ場合には、CPU10は、リプレイスボタン35が押されたか否かを判断する。この判断は、リプレイスボタン35の位置にカーソルがある状態でマウス2dがクリックされたか否かに基づいて行われる。その結果、リプレイスボタン35が押されたのであればステップS95に進み、リプレイスボタン35が押されなかったのであればステップS83に戻って処理を繰り返す。
【0348】
ステップS95では、CPU10は、イン点またはアウト点をステップS88でマーキングされたと判定されたクリップ画像データに置き換える。すなわちこの場合には、イベントに関する第2のマネージメントレコードデータの内容をマーキングされたイン点またはアウト点のクリップ画像データに置き換えるだけであり、新たにイベントを登録するのではなく、元のイベントの内容を更新するだけである。
【0349】
次のステップS96では、その更新されたイベントのイン点のクリップ画像データをイベント表示エリア29の元のイベントの位置に表示する。この処理が終了すると、CPU10は次のステップS97に移ってトリミングの処理を終了する。
【0350】
〔プリロール〕
次に指定されたマーキングポイントよりも所定時間前の位置から自動的に再生動作を開始してマーキングポイントを修正するプリロール動作について、図30および図31に示すフローチャートを用いて説明する。なお、このフローチャートは、ハイブリッドレコーダ3がビデオ信号V1の記録動作を開始している状態であって、かつ記録ビデオ画面21aにビデオ信号V2が表示されている状態からスタートするものとする。
【0351】
まずステップS100から入ったステップS101において、CPU10は、プリロールモードの起動が設定されているか否かを判断する。この判断は、タイミング表示エリア22にあるプリロールボタン22eが既にクリックされてプリロールモードの起動が指定されているか否かに基づいて行われる。
【0352】
次のステップS102では、CPU10は、環境設定においてプリロール時間として上述したキューアップ時間が既に設定されているか否かを判断する。この判断は、RAM10b内の環境設定データ用の記憶領域にキューアップ時間が格納されているか否かに基づいて行われる。これらの判断の結果、プリロールモードの起動が指示され、かつプリロール時間が設定されているのであれば、CPU10は次のステップS103に進む。
【0353】
ステップS103では、CPU10は、記録ビデオマーキングエリア24のマークインボタン24cがクリックされて、イン点のマーキングが行われたか否かを判断する。その結果、イン点のマーキングが行われたのであれば、ステップS104に移り、ここでそのイン点のクリップ画像データを生成する。なお、このクリップ画像データは、フレームメモリ11cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。その際、読出しのサンプル数を少なくすることによりデータ量を1/16に間引いているので、クリップ画像データとしては95画素×60画素の画像サイズのものが生成される。
【0354】
ステップS105では、そのVRAM13bに記憶されているクリップ画像データが読み出され、記録ビデオマーキングエリア24のインクリップ表示エリア24aに表示される。次のステップS106では、CPU10はキューアップのためのタイムコードを演算する。具体的には、指定されたイン点のクリップ画像データのタイムコードを参照すると共に、設定されているキューアップ時間を参照し、指定されたイン点からキューアップ時間分だけ前にシフトした位置(すなわち再生開始点)のタイムコードを算出する。
【0355】
次のステップS107では、CPU10は、その算出したタイムコードの位置からリアルタイムでビデオデータを再生させるための再生コマンドを外部インタフェース18に送出する。これを受けた外部インタフェース18は、その再生コマンドをRS−422規格の通信フォーマットに変換してハイブリッドレコーダ3に送出する。これによりハイブリッドレコーダ3は、指示されたタイムコードに対応する記録アドレスからビデオデータを順に読み出して行くことにより、指示されたタイムコードの位置から始まる再生ビデオデータを生成する。このビデオデータはビデオ信号V3として映像効果装置6に入力され、そこからビデオ信号V6としてコンピュータ2内の第2のビデオプロセッサ12に送出される。
【0356】
ステップS108では、第2のビデオプロセッサ12においてビデオ信号V6からのタイムコードの抽出が行われると共に、ビデオ信号V6をディジタルのコンポーネントビデオデータに変換する画像処理が行われる。なお、この変換されたビデオデータは、第2のビデオプロセッサ12内のフレームメモリ12cに一時的に記憶される。
【0357】
ステップS109では、フレームメモリ12cに記憶されている再生ビデオデータを380画素×240画素となるように縮小した上で、VRAM13bに転送する。
【0358】
ステップS110では、そのVRAM13bに記憶されている再生ビデオデータを、再生ビデオ画面23aに表示する。これによりオペレータが指定したイン点よりもキューアップ時間分だけ前の位置から始まるリアルタイムのビデオデータが再生ビデオ画面23aに表示されることになる。
【0359】
次のステップS111では、CPU10はマーキングがされたか否かを判断する。マーキングされたか否かの判断は、再生ビデオマーキングエリア27のマークインボタン27cまたはマークアウトボタン27fのエリア内にカーソルが位置する状態でマウス2dがクリックされたか否かに基づいて行われる。その結果、マークインボタン27cがクリックされたのであれば、イン点が指定されたと判断してステップS112に進み、マークアウトボタン27fがクリックされたのであれば、アウト点が指定されたと判断してステップS115に進む。
【0360】
ステップS112では、イン点のクリップ画像データを生成する。このイン点のクリップ画像データは、フレームメモリ12cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。その際、読出しのサンプル数を少なくすることによりデータ量を1/16に間引いているので、クリップ画像データとしては95画素×60画素の画像サイズのものが生成される。ステップS113では、VRAM13bに記憶されているイン点のクリップ画像データが読み出され、インクリップ表示エリア27aに表示される。ステップS114では、先にマーキングされ、インクリップ表示エリア27aに表示されていたイン点のクリップ画像データをクリップ表示エリア28に移動する。なお、先にマーキングがされておらず、インクリップ表示エリア27aにクリップ画像データが表示されていなかった場合には、この処理は行われない。このステップS114の処理が終えると、CPU10はステップS122に進む。
【0361】
一方、アウト点のマーキングのためステップS115に進んだ場合には、ここでアウト点のクリップ画像データを生成する。このアウト点のクリップ画像データも、フレームメモリ12cに記憶されているビデオデータをVRAM13bに読み出すことにより生成される。またこの場合にも、読出しの際に、データ量を1/16に間引くことによって95画素×60画素のクリップ画像データが生成される。ステップS116では、VRAM13bに記憶されているアウト点のクリップ画像データが読み出され、アウトクリップ表示エリア27dに表示される。
【0362】
ステップS117では、CPU10は、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるか否かを判断する。その結果、先にマーキングされたクリップ画像データがイン点のクリップ画像データであるのであればステップS118に進み、先にマーキングされたクリップ画像データがアウト点のクリップ画像データであるのであればステップS119に進む。
【0363】
ステップS118では、CPU10はイベントとして新しく登録するか否かの判断を行う。この判断は、オペレータによるニューイベントボタン33のクリック操作に基づいて行われる。ニューイベントボタン33がクリックされ、イベント登録が指示された場合にはステップS120に進み、ニューイベントボタン33がクリックされず、イベント登録が指示されなかった場合にはステップS119に進む。
【0364】
ステップS120では、CPU10は、イン点からアウト点までの区間をイベントとして登録する。なお、このときには、図13乃至図17に示したように、イベントに関しての第2のマネージメントレコードデータが生成される。ステップS121では、生成されたイベントのイン点のクリップ画像データをイベント表示エリア29にコピーし、当該イベント表示エリア29にクリップ画像データを表示する。この処理が終了すると、CPU10は次のステップS122に進む。
【0365】
一方、先のマーキングによって生成されたクリップ画像データがアウト点のクリップ画像データであったためステップS119に進んだ場合には、ここで先のマーキングによって生成されたアウト点のクリップ画像データをクリップ表示エリア28に移動する。なお、先にマーキングがされておらず、アウトクリップ表示エリア27dにクリップ画像データが表示されていなかった場合には、この処理は行われない。このステップS119の処理が終わると、CPU10はステップS122に進む。
【0366】
ステップS122では、CPU10は、再生ビデオ画面23aに表示されているビデオデータの再生停止が指示されたか否かを判断する。その結果、再生停止が指示されなかった場合には、ステップS111に戻って処理を繰り返し、再生停止が指示された場合には、次のステップS123に進む。
【0367】
ステップS123では、CPU10は再生停止コマンドを外部インタフェース18を介してハイブリッドレコーダ3に送出する。これによりハイブリッドレコーダ3はビデオデータの読出し動作を停止して、再生動作を停止する。このステップS123の処理が終了すると、CPU10はステップS124に移ってプリロールの処理を終了する。
【0368】
〔プログラム作成〕
次に生成されたイベントを使用してプログラムを作成するときの処理について、図32に示すフローチャートを用いて説明する。なお、このフローチャートは、既にイベントが生成されている状態からスタートするものとする。まずステップS130から入ったステップS131において、CPU10はイベントが指定されたか否かを判断する。このときCPU10は、カーソルがイベント表示エリア29のクリップ画像データ表示エリア29aにある状態で、マウス2dがダブルクリック(2回連続したクリック操作)されると、そのイベントが指定されたと判断する。
【0369】
その結果、イベントの指定があった場合には、次のステップS132において、CPU10はその指定されたイベントをアクテイブ状態、すなわち移動可能状態にする。
【0370】
次のステップS133では、CPU10は、マウス2dがクリックされたままの状態でカーソルが移動されたか否か、すなわちドラッグされたか否かを判断する。その結果、ドラッグされたのであれば次のステップS134において、カーソルの動いた方向と距離を演算する。次のステップS135では、CPU10は、その演算した方向と距離に基づいて、指定されたイベントのクリップ画像データの表示位置を変更する。なお、このステップS133からステップS135までの処理は速やかに行われるため、モニタ2bの画面上においてはカーソルと共にイベントのクリップ画像データが動いて行くように見える。
【0371】
ステップS136では、CPU10は、マウス2dのクリックボタンが離されたか否か、すなわちクリックが解除されたか否かを判断する。その判断の結果、クリックが解除されていなければステップS133に戻って処理を繰り返し、クリックが解除されたのであれば次のステップS137に移り、そこでクリックが解除されたときのカーソルの位置を演算する。
【0372】
ステップS138では、CPU10は、算出したカーソル位置に基づき、当該カーソル位置によって指定されるイベントの表示位置よりも右側に他のイベントが表示されているか否かを判断する。その結果、右側に他のイベントが表示されているのであればステップS139に移り、右側に他のイベントが表示されていないのであればステップS140に移る。
【0373】
ステップS139では、CPU10は、その右側に表示されている他のイベントの表示位置をさらに右側に移動し、指定されたイベントを挿入し得るようにする。これが終わると、CPU10はステップS140に移る。
【0374】
ステップS140では、CPU10は、カーソルによって指定されたプログラム表示エリア30上の位置に、指定されているイベントのクリップ画像データを表示する。ステップS141では、CPU10は、ステップS140によるイベント挿入に合わせて、プログラムに関する第2のマネージメントレコードデータのデータ内容を更新する。具体的には、第2のマネージメントレコードデータ内の前または後ろにリンクしているデータへのポインタ部分を修正する。なお、新たに挿入したイベントに関しては第2のマネージメントレコードデータがないので、これについては新たに生成する。
【0375】
この処理が終了すると、CPU10は次のステップS142に移って編集リストを作成し、さらに次のステップS143に進み、プログラム作成処理を継続するか否かを判断し、継続するのであればステップS131に戻って処理を繰り返し、プログラム作成処理を終了するのであればステップS144に移って処理を終了する。
【0376】
以上のようにして、プログラム表示エリア30に所定のイベントを配列したとき、図14を参照して上述したように、映像効果設定エリア25から、所定のエフェクトを選択し、所定の位置に挿入配置することで、所定のイベントに対して、エフェクトを作用させることができる。
【0377】
ここで、図33を参照して、映像効果設定エリア25について説明する。映像効果設定エリア25は、図33、並びに図5および図6に示すように、ボタン25a乃至25m、ボタン25n−1乃至25n−10、およびボタン25pを有している。ボタン25a乃至25mは、予め用意されている所定のエフェクトを設定するとき操作されるボタンである。この例においては、ボタン25aはワイプ(Wipe)、ボタン25bはミックス(Mix)、ボタン25cはモザイク(Mosaic)、ボタン25dはピクチャインピクチャ(P in P)、ボタン25eはページターン(Page Turn)、ボタン25fはDSK、ボタン25gはモディファイ(Modify)、ボタン25hはカット(Cut)、ボタン25iはスライド(Slide)、ボタン25jはフリップ/タンブル(Flip/Tumble)、ボタン25kは2D、ボタン25mは3D、の各エフェクトが対応されている。
【0378】
ワイプは、選択したワイプパターンに従って、古い画像をぬぐいさるように消しながら、新しい画像を挿入するエフェクトである。ミックスは、古い画像をフェードアウトさせながら、新しい画像をフェードインさせるエフェクトである。モザイクは、画像をモザイク状にするエフェクトである。ピクチャインピクチャは、1つの画像の中に、他の1つの画像を縮小して表示するエフェクトである。ページターンは、ページをめくるようにして、古い画像から新しい画像に切り替えるエフェクトである。DSKは、既にエフェクトをかけた画像に、さらに、文字や図形を挿入するエフェクトである。
【0379】
モディファイは、画面を縦横、上下などに区切り、鏡に写したような画像としたり、画像の一部分を画面一杯に拡大したり、スポットライトを当てたような画像にするエフェクトである。カットは、古い画像を新しい画像に瞬時に切り換えるエフェクトである。スライドは、新しい画像が画面の端から表れて、画面上を滑るようにして、古い画像と切り替わるエフェクトである。2Dは、2次元回転するエフェクトであり、3Dは、3次元回転するエフェクトである。
【0380】
また、ボタン25n−1乃至25n−10は、ユーザが予め各パラメータを所定の値に設定したエフェクトを登録したボタンである。従って、このボタン25n−iを操作すると、予め設定した所定のエフェクトを読み出すことができる。
【0381】
ボタン25pは、ダイレクトボタンとされ、このボタンを押したとき、ダイレクトエフェクト操作ウインドウ(図46を参照して後述する)がプルダウン表示される。
【0382】
ここで、図34のフローチャートを参照して、ユーザが、設定した所定のエフェクトを、ボタン25n−1乃至25n−10に割り付ける処理について説明する。ユーザは、所定のエフェクトをボタン25n−1乃至25n−10のいずれかに割り付けるとき、映像効果設定エリア25内のエフェクトが設定されているボタンを選択し、これをドラッグする。例えば、ワイプのボタン25aをオンして、後述するようにして、所定のパラメータを設定することができる。設定されたパラメータに基づくワイプのエフェクトを使用する場合には、ボタン25aを、以後用いるようにすればよいが、パラメータの値を他の値に設定したワイプのエフェクトも利用したいような場合(すなわち、2種類以上のワイプを、必要に応じて使い分ける場合)、パラメータの値が所定の値に設定された第1のワイプのエフェクトを、例えば、ボタン25n−1に割り付けることができる。このようにすれば、以後、パラメータをその値に設定した第1のワイプを利用したい場合、ワイプのボタン25aの代わりに、ボタン25n−1を用いることができる。そして、ボタン25aは、パラメータを他の値に設定した第2のワイプの場合に利用することができる。
【0383】
このようなために、ボタン25aに設定したエフェクトを、ボタン25n−1に割り付ける場合、ユーザは、ボタン25aをマウス2dを操作してドラッグし、ボタン25n−1上でドロップする。このため、ステップS161において、CPU10は、エフェクトが設定されているボタンがドラッグされるまで待機し、ドラッグされた場合には、ステップS162に進み、マウス2dのボタンが離されたか否かを判定する。マウス2dのボタンが離された場合には、ステップS163に進み、マウス2dのボタンが離された位置は、ユーザエフェクト割り付け可能なボタン、すなわち、ボタン25n−1乃至25n−10のいずれかの上であるか否かが判定される。これらのボタン25n−1乃至25n−10以外の位置で、マウス2dのボタンが離された場合には、割り付け処理を行うことができないので、ステップS161に戻る。
【0384】
ステップS163において、マウス2dのボタンがボタン25n−1乃至25n−10のいずれかの上で離された(ドロップされた)と判定された場合には、ステップS164に進み、そのボタンに、ドラッグされたボタンに設定されているエフェクトを割り付ける処理を実行する。例えば、ボタン25aをボタン25n−1上にドラッグアンドドロップすると、ボタン25aに設定されているエフェクトが、ボタン25n−1に割り付けられることになる。
【0385】
次に、図35のフローチャートを参照して、プログラム表示エリア30上に、所定のエフェクト設定クリップ画像データをドラッグアンドドロップして、所定のイベントに対してエフェクトを付加させる場合の設定処理について説明する。
【0386】
最初に、ステップS201において、映像効果設定エリア25内のボタン25a乃至25p、またはボタン25n−1乃至25n−10のいずれかが押されるまで待機する。ステップS201において、映像効果設定エリア25の所定のボタンが操作されたと判定された場合、ステップS202に進み、CPU10は、このとき操作されたボタンに対応するダイアログなどを表示させる。例えば、ワイプのボタン25aが操作された場合、図36に示すようなエフェクト設定ダイアログがプルダウン表示される。このダイアログの表示部701には、このエフェクト設定ダイアログが対応しているエフェクトの名称が表示される。いまの場合、ワイプのボタン25aを操作したので、ここには、「Wipe」の文字が表示される。例えば、ミックスのボタン25b、またはモザイクのボタン25cを操作した場合には、この表示部701には、「Mix」または「Mosaic」の文字が、それぞれ表示される。
【0387】
表示部702には、エフェクトを作用させる方向が表示されている。ノーマル(Normal)を選択すると、時間が経過する方向にエフェクトが作用し、リバース(Reverse)を選択すると、時間をさかのぼる方向にエフェクトが作用する。表示部703には、表示部704に表示されているエフェクトパターンの中から選択したパターンの番号が表示される。表示部704には、この例の場合、12種類のワイプのパターンが表示されている。スライドボタン705を操作することで、ここに表示されていないパターンを表示部704に表示させることができる。ユーザは、所定のパターンをマウス2dでクリックすることで、そのパターンを選択することができる。選択されたパターンの番号が表示部703に表示される。
【0388】
表示部76には、エフェクトの作用する時間(実行開始から終了までの時間)をフレーム数で設定するための表示がなされている。10,15,30,45または60のいずれかを選択することで、その数字に対応するフレームを直接的に設定することができる。あるいは、スライドボタン708、クイックボタン709,710を操作することで、表示部707に任意のフレーム数を表示、設定させることができる。プレビューボタン711は、各種のパラメータを設定し、そのエフェクトの実際の変化を確認するとき操作される。
【0389】
キャンセルボタン713は、設定したパラメータをキャンセルするとき操作され、OKボタン714は、パラメータの設定を完了したとき操作される。ディテールボタン712は、より詳細なエフェクトのパラメータを設定するとき操作される。このディテールボタン712が操作されると、図37に示すようなエフェクト詳細設定ダイアログがプルダウン表示される。
【0390】
図37に示すエフェクト詳細設定ダイアログにおいては、表示部721に、エッジに関するパラメータが表示されている。その表示部722には、エッジのタイプが表示されている。このエッジのタイプとしては、ボーダ、またはソフトエッジを選択することができる。表示部722の下方には、スライドボタン723とスクロールボタン724が設けられており、これらをマウス2dで操作し、スライドボタン723を所定の位置に配置することで、エッジの幅を所定の値に設定することができる。チェックボックス725は、ボーダのカラーを選択するとき操作される。このチェックボックス725をクリックすると、カラーピッカー(Color Picker)ダイアログ(図示せず)が表示され、それを用いてボーダの色を選択することができる。チェックボタン721aは、表示部721における表示設定を有効にするとき操作される。
【0391】
表示部731には、エフェクト実行時のバックグラウンドまたはフォアグラウンドとは別の背景パターンと背景色のマットに関するパラメータが表示されている。表示部732には、背景(バックグラウンド)のパラメータが表示され、表示部733には、マットパターンの番号が表示される。
【0392】
表示部741には、エフェクトコントロールのパラメータが表示されている。この例では、表示部744に、エフェクトのパラメータの名称が表示され、その名称のパラメータを、スライドボタン742またはスクロールボタン743を操作することで、所定の値に設定することができるようになされている。この例では、4つのパラメータが表示されるようになされている。これにより、選択したエフェクトパターンに固有なパラメータの設定が行われる。
【0393】
表示部751においては、エフェクト実行時に画像の一部分だけが見えるように画枠を小さくするクロップのパラメータが表示、設定される。表示部752には、クロップ領域を反転する(ON)かしない(OFF)かを設定することができる。スライドボタン753とスクロールボタン754でクロップ領域の左端、スライドボタン758とスクロールボタン759でクロップ領域の右端、スライドボタン755とスクロールボタン756でクロップ領域の上端、そして、スライドボタン760とスクロールボタン761でクロップ領域の下端を、それぞれ指定することができる。チェックボタン751aは、表示部751における表示設定を有効にするとき操作される。
【0394】
表示部770には、XYZの座標を入力するボタンが表示されている。スライドボタン771とスクロールボタン772によりX座標が、スライドボタン773とスクロールボタン774によりY座標が、そしてスライドボタン775とスクロールボタン776によりZ座標(大きさ)が、それぞれ入力されるようになされている。この入力は、選択したエフェクトパターンが座標系の設定を必要とする場合に行われる。
【0395】
さらに、OKボタン783は、設定したエフェクトを確定するとき操作され、キャンセルボタン782は、設定したパラメータをキャンセルするとき操作され、プレビューボタン781は、設定したパラメータを確認するとき操作される。
【0396】
図35の説明に戻って、以上のように、図36と図37に示すエフェクト設定ダイアログあるいはエフェクト詳細設定ダイアログを用いて、所定のエフェクトのパラメータを設定すると、ステップS203で、設定したパラメータがCPU10のRAM10bに記憶される。
【0397】
また、上述したように、例えばワイプのボタン25aをオンして、図36に示すエフェクト設定ダイアログを表示させ、さらに必要に応じて、ディテールボタン712を操作して、図37に示すエフェクト詳細設定ダイアログを表示させ、所定のパラメータを設定した後、ボタン25aをボタン25n−1にドラッグアンドドロップすることで、設定したパラメータに対応するエフェクトを、ボタン25n−1に対応させることができる。このようにすると、以後、このボタン25n−1を、ボタン25a乃至25mと同様に、プログラム表示エリア30の所定の位置にドラッグアンドドロップすることで、そのエフェクトをプログラム上に設定することが可能となる。
【0398】
そこで、以上のような設定が行われた後、ステップS204において、映像効果設定エリア25のボタンがドラッグされるまで待機し、所定のボタンが操作されたとき、ステップS205に進み、カーソルの動いた方向と距離がCPU10により演算される。ステップS206では、CPU10は、指定されたエフェクト設定クリップ画像データの表示位置を移動する。
【0399】
例えば、図33に示すように、カーソルをボタン25n−1(数字1が表示されているボタン)に配置し、そこでマウス2dをクリックし、ドラッグすると、カーソルの周囲にエフェクト設定クリップ画像データの枠30E−1が表示され、その枠30E−1がドラッグに対応して枠30E−2,枠30E−3のように移動する。
【0400】
ステップS207においては、カーソルの現在位置が計算され、その現在位置がプログラム表示エリア30の領域内に位置する場合には、カーソルを、図38に示すように、プログラム表示エリア30上のクリップ画像データのいずれの間に挿入するかを示す形状に変化させる。
【0401】
すなわち、例えば、図39(A)に示すように、ドラッグしたエフェクトに対応するエフェクト設定クリップ画像データの枠30Eの中心が、クリップ画像データ30a2と30a3の間に最も近い位置に配置されている場合には、その中心から、そのクリップ画像データ30a2とクリップ画像データ30a3の境界部の方向に指向するカーソルとされる。これに対して、同図(B)に示すように、枠30Eの中心がクリップ画像データ30a1とクリップ画像データ30a2の境界部に近い場合には、その中心から、その境界部の方向に指向するカーソル形状とされる。
【0402】
以上の原理をまとめると、図40に示すようになる。すなわち、枠30Eの中心が、近い方向の境界部に指向するカーソル形状となるように、カーソル形状が変化される。これにより、ユーザは、その時点でドラッグを解除して、枠30Eをドロップしたとき、そのエフェクト設定クリップ画像データは、クリップ画像データ30a2とクリップ画像データ30a3の間に挿入されるのか、あるいは、クリップ画像データ30a1とクリップ画像データ30a2の間に挿入されるのかを容易に判定することができる。
【0403】
次に、図35のステップS208に進み、マウス2dのボタンが離されたか否かが判定され、離されていなければ、ステップS204に戻り、それ以降の処理が繰り返し実行される。ステップS208において、マウス2dのボタンが離されたと判定された場合、ステップS209に進み、その離されたときのカーソルの位置が計算され、ステップS210では、エフェクト設定クリップ画像データに対応する枠30Eの中心が、その中心が位置するクリップ画像データ(例えば、図39のクリップ画像データ30a2)の右側の境界部に近いか否かが判定される。
【0404】
枠30Eの中心が、図39(A)に示すように、クリップ画像データの右側の境界部に近い場合には、ステップS211に進み、そのクリップ画像データ30a2の右側に表示されているクリップ画像データ30a3を1クリップ画像データ分だけ右側に移動し、そのクリップ画像データが、それまで位置していた位置に枠30Eに対応するエフェクト設定クリップ画像データを挿入配置する。これに対して、図39(B)に示すように、枠30Eの中心が、それが位置するクリップ画像データの左側の境界部に近いと判定された場合、ステップS212に進み、そのクリップ画像データ30a2を1クリップ画像データ分だけ右側に移動し、クリップ画像データ30a2がそれまで位置していた位置に、枠30Eに対応するエフェクト設定クリップ画像データを挿入配置する。
【0405】
次に、ステップS213に進み、マネージメントレコードデータを更新する処理が実行される。すなわち、図39(A)の場合には、クリップ画像データ30a2の第2のマネージメントレコードデータにエフェクト設定クリップ画像データ30A1の第2のマネージメントレコードデータをリンクし、それにさらに、クリップ画像データ30a3の第2のマネージメントレコードデータをリンクする。
【0406】
これに対して、図39(B)に示す例においては、クリップ画像データ30a1に対応する第2のマネージメントレコードデータに、エフェクト設定クリップ画像データ30A1の第2のマネージメントレコードデータがリンクされ、それにさらに、クリップ画像データ30a2の第2のマネージメントレコードデータがリンクされる。
【0407】
さらに、ステップS214に進み、プログラム作成処理を継続するか否かを判定し、継続する場合には、ステップS201に戻り、それ以降の処理が繰り返し実行される。プログラム作成処理を継続しない場合には、処理が終了される。
【0408】
次に、図41のフローチャートを参照して、ピクチャインピクチャ設定時のサブ画面領域調整処理、すなわち、図41に示すように、再生ビデオ画面23aにおいて、親画面として、大きく表示されている画面中の所定の位置に表示される子画面(サブ画面)の表示位置を調整する処理について説明する。
【0409】
最初に、ステップS231において、ユーザは、映像効果設定エリア25のピクチャインピクチャボタン25dをクリックし、図36に示すようなエフェクト設定ダイアログを表示させる。但し、いまの場合、ピクチャインピクチャボタン25dがクリックされたので、その表示部701には、P in Pの文字が表示される。次に、ステップS232において、ユーザは、エフェクト設定ダイアログのディテールボタン712を操作し、図37に示すようなエフェクト詳細設定ダイアログを表示させる。
【0410】
さらに、ステップS233において、設定するエフェクトがピクチャインピクチャであるか否かを判定し、ピクチャインピクチャ以外のエフェクトを設定する場合には、ステップS245に進み、その対応するエフェクトの設定処理を実行する。
【0411】
これに対して、設定するエフェクトがピクチャインピクチャである場合には、ユーザは、上述したように、例えば、ロケーションの表示部770において、ピクチャインピクチャの表示座標を設定するなどの所定の設定処理を行った後、OKボタン783をオンする。このとき、CPU10は、ステップS234において、図42に示すように、再生ビデオ画面23a上に、ピクチャインピクチャサブ画面領域設定バーBAR1を、設定に対応する位置にオーバーレイ表示させる。
【0412】
次に、ステップS235に進み、バーBAR1の内部のピクチャインピクチャサブ画面領域がドラッグされるまで待機し、ドラッグされた場合には、ステップS236,S238,S240において、領域の角BARCがドラッグされたのか(ステップS236)、辺BARLがドラッグされたのか(ステップS238)、または領域の内部BARRがドラッグされたのか(ステップS240)が、それぞれ判定される。
【0413】
ステップS236において、角BARCがドラッグされたと判定された場合、ステップS237に進み、ドラッグされたマウスカーソルの座標を計算し、その計算結果に対応して、ピクチャインピクチャの領域の大きさを変更する(バーBAR1の大きさを変更する)。ステップS238において、辺BARLがドラッグされたと判定された場合には、ステップS239に進み、バーBAR1のボーダ幅の大きさが、ドラッグしたカーソルの座標の計算結果に対応して変更される。ステップS240において、領域の内部BARRがドラッグされたと判定された場合には、ステップS241に進み、領域の中心点がドラッグ位置に対応して移動される。ドラッグされたのが、角BARC、辺BARLまたは領域の内部BARRのいずれでもない場合には、ステップS240からステップS236に戻る。すなわち、この場合には、操作ミスとして、特別の処理を行わない。
【0414】
なお、バーBAR1をマウス2dで直接操作することで入力された値は、図37のエフェクト詳細設定ダイアログの表示部770の表示にも反映される。
【0415】
以上のようにして、エフェクト詳細設定ダイアログを操作することで、ピクチャインピクチャのサブ画面領域設定を変更することができるが、再生ビデオ画面13a上において、カーソルを操作することで、サブ画面領域設定を直接修正変更することもできる。従って、ユーザは、親画面を見ながら、最適な子画面(サブ画面)の位置を適宜設定することが可能となる。
【0416】
ステップS237,S239,S241の処理の後、ステップS242に進み、エフェクト設定ダイアログのOKボタン714がクリックされたか否かを判定し、クリックされていない場合には、ステップS235に戻り、それ以降の処理を繰り返し実行する。ステップS242において、OKボタン714がクリックされたと判定された場合には、ステップS243に進み、ピクチャインピクチャのパラメータの設定状態を保存する処理が実行される。すなわち、これらのパラメータの値は、CPU10のRAM10bに保存される。
【0417】
なお、この処理は、図47を参照して後述するスプリットの割合を調整する場合にも、適用することができる。
【0418】
図42において、メインボタン23bまたはサブボタン23cを操作することで、再生ビデオ画面23aの親画面の画像を、メインのハイブリッドレコーダ3aの出力する画像、またはサブのハイブリッドレコーダ3bの出力する画像に、それぞれ切り替えることができる。M/Eボタン23dが操作された場合には、DSK映像を含まない映像効果処理後の画像が親画面に表示される。DFSボタン23eが操作された場合には、DSKを含む全ての映像効果処理後の画像が表示される。GSM(Good Shot Marker)ボタン23fは、グッドショットマーカーを書き込んだ画像データを検索し、表示させる場合に操作される。すなわち、ユーザが、GSMボタン23fを操作した後、スクロールボタン23faを操作すると、ハイブリッドレコーダ3のハードディスクに予め記録されている所定の画像データのグッドショットマーカーが検索され、そのグッドショットマーカーの記録位置からキューアップ時間だけさかのぼった位置から画像が表示されることになる。
【0419】
次に、図43のフローチャートを参照して、DSK設定時のマスク領域調整処理について説明する。最初に、ステップS261において、ユーザは、映像効果表示エリア25のDSKボタン25f(図33)を操作し、図44に示すようなDSK設定ダイアログを表示させる。同図に示すように、このDSK設定ダイアログにおいては、DSKスイッチ表示部851において、ダウンストリームキーモードの設定をオンまたはオフすることができる。ダウンストリームキー(DSK)モードを設定した場合には、エフェクトをかけた画像に対して、さらに文字や図形を挿入することができる。
【0420】
ボーダの表示部852においては、チェックボタン852aが設けられており、このチェックボタン852aをチェックすることで、ボーダの表示部852に設定したパラメータを有効とすることができる。表示部853には、ボーダのタイプを表示設定させることができる。ボーダのタイプは、幅の広いボーダ(ワイドボーダ)、幅の狭いボーダ(ナローボーダ)、背後の陰のようなボーダ(ドロップボーダ)、またはナローボーダとドロップボーダを組み合わせたダブルボーダのいずれかとすることができる。
【0421】
表示部855においては、ドロップボーダまたはダブルボーダを選択したときのボーダの位置を選択表示することができる。この位置としては、左上、右上、右下、または左下のいずれかを選択することができる。
【0422】
チェックボックス854は、ボーダカラーを設定するとき、クリックされる。このチェックボックス854がクリックされると、各種の色を設定するためのカラーピッカーダイアログが表示される。ユーザは、必要に応じて、このカラーピッカーダイアログを用いて、ボーダの色を設定する。
【0423】
キーの表示部860では、挿入する文字や図形の形をクリックキー操作信号やキーソース信号でくりぬいた部分を埋めるキーフィル信号に関する設定を行うことができる。表示部861では、キーソース信号として、内部信号(internal)を用いるか、または外部信号(external)を用いるかを指定することができる。表示部862では、キーソース信号が黒か白か(信号の極性)に応じて、黒い背景から白い文字を抜き取って挿入する場合には、noneが選択され、白い背景から黒い文字を抜き取って挿入する場合には、invertが選択される。表示部863では、使用するキーフィル信号を指定する。このキーフィル信号としては、DSK VIDEO(図4のDSK FILL INの端子701から入力されるフィル信号、DSK MAT(内部発生DSKマット)、SELF(図4のフロッピーディスク742から読み込んだ画像データ)、またはnone(フィル信号なし。すなわち、文字や図形のボーダのみが挿入される)のいずれかを選択指定することができる。
【0424】
チェックボックス864は、表示部863でDSK MATを指定した場合、カラーピッカーダイアログを表示して、マットを選択するとき操作される。
【0425】
クリップスライドボタン865またはクリップスクロールボタン866は、挿入した文字や図形の輪郭がはっきりしない場合、クリップスライドボタン865を所定の位置に配置することで、クリップレベルを調整するとき操作される。
【0426】
ゲインスライドボタン867とゲインスクロールボタン868は、挿入した文字や図形の濃さを調整するとき操作される。
【0427】
デンシティースライドボタン869とデンシティースクロールボタン870は、挿入した文字や図形の透明度を調整するとき操作される。
【0428】
表示部871は、コンピュータに別のフロッピーディスクを挿入して、キーフィル信号用画像データを変更したいとき操作され、表示設定される。
【0429】
マスクの表示部890においては、挿入する文字や図形の不要な部分を隠す(マスクする)場合の設定が行われる。設定したマスクを有効にする場合、チェックボタン890aがチェックされる。表示部891においては、マスクする領域(矩形の領域)の外側をマスクする(NORMAL)のか、または、内側をマスクする(INVERT)のかが選択される。スライドボタン892,894,896,898、並びに、スクロールボックス893,895,897,899は、マスクする領域の左端、右端、上端、または下端を指定するとき操作される。
【0430】
トランジションの表示部900においては、ダウンストリームキーエフェクトを開始してから終了するまでの時間をフレーム数で指定することができる。表示部901では、10,15,30,45または60の所定のフレーム数を設定することができる。また、(User)を選択した場合には、表示部902に任意の値のフレーム数を設定することができる。プレビューボタン905は、このダイアログの設定に基づくストリームキー設定エフェクト実行の様子をプレビューしたいときクリックされる。プレビュー画面は、再生ビデオ画面23aに表示される。
【0431】
フェーダのスライドボタン903またはスクロールボタン904を操作することで、所定のトランジション位置のプレビュー画面を確認することができる。
【0432】
キャンセルボタン911は、このDSK設定ダイアログで設定したパラメータをキャンセルするとき操作され、OKボタン912は、設定を有効とするとき操作される。
【0433】
ユーザは、以上に説明したDSK設定ダイアログを用いて、所定のパラメータを設定する。
【0434】
次に、ステップS262に進み、DSK設定ダイアログのマスクのチェックボックス890aがチェックされ、マスク設定がオンされているか否かが判定される。ステップS262において、マスク設定がオンされていないと判定された場合には、ステップS263に進み、DSK設定ダイアログを用いてその他の設定処理が行われる。
【0435】
ステップS262において、マスク設定がオンされていると判定された場合には、ステップS264に進み、CPU10は、図45に示すように、再生ビデオ画面23a上に、DSK設定ダイアログのマスクの表示部890において設定された左右上下の端部の位置に対応して、DSKマスク領域バーBAR2L,BAR2R,BAR2T,BAR2Bを表示させる。
【0436】
ステップS265においては、バーBAR2L乃至BAR2Bがマウス2dによりドラッグされるまで待機し、ドラッグされた場合には、ステップS266に進み、マウスポインタの座標から、そのバーの新たな位置を計算し、その計算された位置にバーを移動表示させる。例えば、バーBAR2Lが現在の表示位置より右または左にドラッグされた場合、そのドラッグされた位置に移動表示される。また、例えばバーBAR2Tが現在の表示位置より上または下方向にドラッグされた場合には、そのドラッグ後の位置に移動表示される。このようにして、ユーザは、DSK設定ダイアログを用いて、マスク領域を設定することができるだけでなく、実際の表示画面を見ながら、マウス2dを操作することで、マスク領域を設定することができる。従って、より適切な設定が可能となる。
【0437】
なお、ステップS266で、画面を見ながら、バーBAR2L乃至BAR2Bを直接操作して、マスク領域が設定された場合にも、その設定位置がDSK設定ダイアログのマスクの表示部890に反映される。
【0438】
次に、ステップS267に進み、DSK設定ダイアログのOKボタン912がオンされたか否かが判定され、オンされていない場合には、ステップS265に戻り、それ以降の処理が繰り返し実行される。OKボタン912がオンされたと判定された場合には、ステップS268に進み、DSK設定ダイアログを用いて設定されたパラメータがRAM10bに保存される。
【0439】
このシステムは、ライブ映像を扱うことを得意としており、ライブ映像に対しても、リアルタイムでエフェクトを付与する(今、起きている映像に、クリックのみで、所定のエフェクトを付与する)ことができるようになされている。但し、ライブ映像に付与することができるエフェクトは、DSK処理の他は、ピクチャインピクチャまたはスプリット処理のうちの、ライブで使用される頻度の高いものだけに限定されている。
【0440】
ライブ映像に対してエフェクトを付与する場合、映像効果設定エリア25のダイレクトボタン25pが操作される。このダイレクトボタン25pが操作されると、図46に示すダイレクトエフェクト操作ウインドウが表示される。DSKインターナルオンボタン801は、図4の映像効果装置6のフロッピーディスク742から読み込まれたキー信号またはフィル信号によるDSK処理を開始または終了させるとき操作される。DSKエクスターナルボタン802は、図4のDSK FILL IN端子701から入力されるDSKフィル信号、またはDSK KEY IN端子702から入力されるDSKキー信号によるDSK処理を開始または終了させるとき操作される。
【0441】
DSKセットアップボタン803は、上記したDSK処理実行時におけるセットアップを行うための、上述した図44に示すDSK設定ダイアログを表示させるときオンされるボタンである。
【0442】
ダイレクトアウトセットアップボタン805は、図47に示すダイレクトエフェクト設定ダイアログを表示させるとき操作されるボタンであり、ダイレクトアウトオンボタン804は、ダイレクトアウトセットアップボタン805を操作して、ダイレクトエフェクト設定ダイアログを表示させ、設定されたパラメータに基づく画面表示を開始または終了させるとき操作されるボタンである。例えば、上述したようにして、ピクチャインピクチャにおける子画面の位置を所定の位置に調整した後、このダイレクトアウトオンボタン804を操作することで、調整された位置に子画面が表示された画像を出力することができる。
【0443】
図47に示すように、ダイレクトエフェクト設定ダイアログにおいては、表示部811において、新たにエフェクトを設定するとき、あるいは既存のエフェクトを呼び出すとき、そこにパターン番号を指定することができるようになされている。
【0444】
アウトプットスタイルの表示部812においては、2種類のピクチャインピクチャと4種類のスプリットの合計6種類のダイレクトエフェクトパターンの中のいずれか1つを選択することができるようになされている。メインインサブ表示部813を選択すると、サブ画像の中にメイン画像を挿入するピクチャインピクチャが実行される。サブインメイン表示部814を選択すると、メイン画像の中にサブ画像を挿入するピクチャインピクチャが実現される。V−M/S表示部815を選択すると、画面を左右に2分割し、左側にメイン画像を、右側にサブ画像を、それぞれ表示するスプリット画像を実現することができる。V−S/M表示部816を選択すると、画面を左右に2分割し、左側にサブ画像、右側にメイン画像を、それぞれ表示するスプリットを実現することができる。H−M/S表示部817を選択すると、画面を上下に2分割し、上にメイン画像を、下にサブ画像を、それぞれ表示するスプリット画像を実現することができる。H−S/M表示部818を選択すると、画面を上下に2分割し、上にサブ画像を、下にメイン画像を、それぞれ表示するスプリット画像を実現することができる。
【0445】
エッジの表示部821においては、アウトプットスタイルの表示部812で選択したエフェクトパターンのエッジの設定が行われる。エフェクトパターンにエッジを付ける場合には、チェックボタン821aがチェックされる。表示部822においては、エッジとしてボーダまたはソフトエッジのいずれか一方を選択することができる。チェックボックス823をチェックすることで、ボーダまたはソフトエッジのいずれか一方を選択することができる。WIDTH/SOFTの表示部のスライドボタン824またはスクロールボタン825を操作することで、ボーダエッジまたはソフトエッジの幅を選択することができる。
【0446】
インナーピクチャロケーションの表示部831においては、アウトプットスタイルの表示部812でピクチャインピクチャを選択した場合、挿入する画面(子画面)のサイズと位置を指定することができる。Xは、子画面の中心点のX座標を表し、Yは、子画面の中心点のY座標を表す。また、Sizeは、スライドボタン836またはスクロールボタン837を操作することで、スライドボタン836を所定の位置に配置させ、子画面の大きさを設定することができる。
【0447】
キャンセルボタン838は、このダイレクトエフェクト設定ダイアログにおいて設定したパラメータをキャンセルするとき操作され、OKボタン839は、これを有効とするとき操作される。
【0448】
このシステムにおいてはまた、オーディオ信号を他のオーディオ信号に変えて出力するボイスオーバー機能を有している。次に、このボイスオーバー機能について、図48のフローチャートを参照して説明する。
【0449】
最初に、ステップS281において、ユーザは、タイミング表示エリア22のモードボタン22bを操作して、タイムラインモードを設定させる。そして、ボイスオーバーボタン21dをオンする。このとき、CPU10は、ステップS282に進み、ボイスオーバー編集モードを設定する。そして、CPU10は、ステップS283において、図6のステータス表示エリアとしての表示部26jに「VOICE OVER」の文字を表示させる。
【0450】
次に、ステップS284において、ユーザは、タイムライン表示エリア40のビデオトラック40dにイベントを並べる処理を実行する。この処理は、例えばプログラム表示エリア30に表示された所定のクリップ画像データを、マウス2dを操作してドラッグアンドドロップすることで行うことができる。
【0451】
次に、ステップS285に進み、ユーザは、図6に示すボイスオーバーチャンネル指定ボタン45cを操作して、4つのチャンネルの中からボイスオーバーチャンネルを指定する。図49は、4つのチャンネルのうち、第4チャンネルをボイスオーバーチャンネルとして指定した場合のタイムライン表示エリア40を示している。同図に示すように、この場合においては、第4番目のチャンネルのみがボイスオーバーチャンネルとされ、そこに新たなオーディオ信号が記録されることになる。
【0452】
次に、ステップS286に進み、ユーザは、タイムライン表示エリア40のエディットバー40kを基準にして、ボイスオーバーのイン点とアウト点を指定する。この指定は、図7に示すタイムライン表示エリア40のサーチボタン40m、あるいは、スクロールボタン40i,40jをオンして、再生ビデオ画面23aにフレーム単位で表示されている画像を見ながら、マークインボタン27cまたはマークアウトボタン27fを操作することで行われる。
【0453】
図50は、イン点を先に指定した場合のタイムライン表示エリア40の表示例を表している。同図に示すように、イン点が指定されると、それより時間的に後のオーディオトラック40hの範囲が網掛け表示される。これに対して、アウト点が先に指定されると、図51に示すように、エディットバー40kより時間的に前方の範囲が網掛け表示される。イン点とアウト点の両方が設定されると、図52に示すように、イン点とアウト点の間の範囲が網掛け表示される。ユーザは、これにより、ボイスオーバーする範囲を視覚的に確認することができる。
【0454】
以上のようにして、ボイスオーバーする範囲を設定したとき、次に、ユーザは、プレビューして、その設定した範囲を確認することができる。この場合の処理について、図53のフローチャートを参照して説明する。
【0455】
プレビューを開始するとき、最初にステップS301において、ユーザは、図6のプレビューボタン45bをオンする。このとき、CPU10は、ステップS302において、RS−422を介して、ハイブリッドレコーダ3を制御し、プレビュー再生を実行させる。このとき、CPU10は、図54に示すように、ボイスオーバーのイン点より所定の時間(例えば、5秒間)だけ前の位置から再生を開始して、ボイスオーバーのアウト点より所定の時間(例えば、5秒間)分だけ後の位置まで再生を行う。この例の場合、ボイスオーバーのイン点とアウト点より5秒間だけ前後の範囲を実際に再生させる範囲としているが、この5秒間という時間は、任意の値に設定することが可能である。
【0456】
また、CPU10は、ステップS303において、ハイブリッドレコーダ3のCPU303にコマンドを出力してオーディオデータ制御部317(図18)を制御させ、図55に示すように、ボイスオーバーのイン点より前の5秒間の間は、HDD300から再生出力され、第3のスイッチ310から入力されるボイスオーバのチャンネル(いまの場合、第4チャンネル)のオーディオ信号を通常のレベルでスピーカ320から出力させるが、ボイスオーバーのイン点とアウト点の区間においては、10dB分だけ減衰させる。そして、ボイスオーバーのアウト点から後の5秒間の間は、再び通常のレベルでオーディオ信号を出力させる。従って、ユーザは、聴覚的に、ボイスオーバーの範囲を確認することが可能となる。
【0457】
なお、プレビュー再生時、対応するビデオ画像が再生ビデオ画面23aに表示されるのはもとよりである。
【0458】
以上のようにして、プレビュー再生を行った後、ユーザは、ボイスオーバーの範囲を修正する必要があるか否かをステップS304で判定する。修正する必要があると判定した場合には、ステップS305に進み、ボイスオーバー入力処理を実行する。そして、図48に示したボイスオーバー入力処理を行った後、ステップS301に戻り、それ以降の処理を繰り返す。
【0459】
ステップS304において、ボイスオーバーの範囲を修正する必要がないと判定された場合、ステップS306に進み、ユーザは、一旦設定したボイスオーバーの範囲を削除する必要があるか否かを判定する。削除する必要がある場合には、ステップS307に進み、ユーザは、デリートボタン36を操作する。このとき、CPU10は、ステップS308に進み、一旦設定されたボイスオーバーの範囲を削除する処理を実行する。ステップS306において、設定したボイスオーバーの範囲を削除する必要がないと判定された場合には、プレビュー処理が終了される。
【0460】
以上のようにして、設定したボイスオーバーの範囲をプレビューにより確認した後、実際にボイスオーバーを実行して、第4チャンネルに新たな音声信号を記録することができる。次に、図56のフローチャートを参照して、この場合のボイスオーバー記録処理について説明する。
【0461】
最初にステップS321において、ユーザは、記録開始および終了ボタン31aをオンする。このボタン31aがオンされたとき、ステップS322に進み、CPU10は、RS−422を介して、ハイブリッドレコーダ3を制御し、再生と記録動作を開始させる。このとき、ハイブリッドレコーダ3のCPU303は、HDD300を制御し、図55に示したように、プレビューした範囲と同一の範囲を再生させる。但し、ボイスオーバするオーディオ信号の記録は、図57に示したように、予め設定したマージンの分だけイン点より前の位置から開始させる。そして、ステップS323に進み、CPU10は、イン点合図出力処理を実行する。このイン点合図出力処理の詳細は、図58に示されている。
【0462】
すなわち、イン点合図出力処理においては、最初にステップS341において、ボイスオーバーのイン点より3秒前に達するまで待機し、達した場合には、ステップS342に進み、イン点より3秒前であることを表すキャラクタを表示させるとともに、音声信号を出力させる。すなわち、CPU10は、再生ビデオ画面23aに、例えば図59に示すように、手の指で3を表す図形(図60(A))を表示させる。また、CPU10は、図61に示すように、イン点より3秒前であることを表す音声信号「ピッ」を、CPU303を介してオーディオデータ制御部317を制御して、スピーカ320から出力させる。
【0463】
次に、ステップS343において、イン点まで2秒前に達するまで待機し、イン点まで2秒前に達したとき、ステップS344に進み、合図のキャラクタ表示と音声出力を実行する。すなわち、このとき、CPU10は、再生ビデオ画面23aに、図60(B)に示すような指で数字2を示す図形を表示させる。また、図61に示すように、2秒前であることを表す音声「ピッ」を、スピーカ320から出力させる。
【0464】
さらに、ステップS345に進み、イン点より1秒前に達するまで待機した後、イン点より1秒前に達したとき、ステップS346に進み、合図のキャラクタ表示と音声の出力処理を実行する。この場合、再生ビデオ画面23aに、図60(C)に示すような指で1の数字を表す図形が表示されるとともに、図61に示すように、イン点より1秒前であることを表す「ピッ」が出力される。
【0465】
次に、ステップS347においては、イン点に達するまで待機し、イン点に達したとき、ステップS348に進み、合図のキャラクタ表示を実行する。すなわち、この場合、再生ビデオ画面23aに、図60(D)に示すボイスオーバーの開始を示す手の図形を表示させる。これにより、アナウンサは、ボイスオーバする音声の発生のタイミングを図ることができる。
【0466】
以上のようにして、ボイスオーバーのイン点に達すると、CPU10は、ステップS324において、ハイブリッドレコーダ3のCPU303を制御し、再生音声信号のレベルを減衰させる。このコマンドに対応して、CPU303は、オーディオデータ制御部317を制御し、オーディオ信号のレベルを10dB分だけ減衰して、スピーカ320から出力させる。
【0467】
また、ボイスオーバーの音声信号を入力するアナウンサは、再生ビデオ画面23aに、図60(D)に示す図形が表示されたタイミングにおいて、マイクロホン8からボイスオーバーする音声信号の入力を開始する。この音声信号は、スイッチ315、A/D変換器316を介してオーディオデータ制御部317に入力され、オーディオデータ制御部317において、HDD300から再生されたオーディオ信号に合成される。いまの場合、HDD300から再生されたオーディオ信号を10dBだけ減衰して、マイクロホン8から入力されたオーディオ信号と合成するようにしたが、HDD300から再生されたオーディオ信号を完全に減衰させれば、実質的に、HDD300から再生されたオーディオ信号を、マイクロホン8から入力されたオーディオ信号に差し替えることができる。
【0468】
オーディオデータ制御部317から出力されたオーディオ信号は、デコーダ305、第1のスイッチ304、エンコーダ306を介して、ビデオテープレコーダ301に入力され、記録されるとともに、第2のスイッチ307、バッファ308を介して、HDD300に入力され、ハードディスクのオーディオ専用のAA領域(図66を参照して後述する)に記録される。
【0469】
次に、図56のステップS325に進み、アウト点合図出力処理を実行する。このアウト点合図出力処理の詳細は、図62に示されている。そのステップS361乃至ステップS368における処理は、図58に示したイン点合図出力処理のステップS341乃至ステップS348における処理と基本的に同様の処理である。すなわち、この場合においては、再生ビデオ画面23aに、アウト点に達する3秒前に図60(A)に示す図形が表示され、2秒前に同図(B)に示す図形が表示され、1秒前に同図(C)に示す図形が表示され、そして、アウト点に達したとき、同図(D)に示す図形が表示される。また、図61に示したように、アウト点に達する3秒前、2秒前、または1秒前に、それぞれ「ピッ」の音声信号が出力される。
【0470】
これにより、アナウンサは、ボイスオーバーする音声信号を締めくくるタイミングを図ることができる。
【0471】
図56に戻って、以上のようにして、アウト点合図出力処理が終了した後、ステップS326に進み、記録が完了するまで待機する。この記録も、図57に示したように、ボイスオーバーのアウト点の終了後、マージンの分の時間が経過するまで継続される。ステップS326において、アウト点からマージンの分の時間が経過したと判定された場合、ステップS327に進み、記録処理が終了される。但し、再生は、図55に示したプレビューの範囲と同一の範囲にわたって行われる。このようにして、記録処理が完了すると、図63に示すように、タイムライン表示エリア40の第4チャンネルのボイスオーバーの設定範囲の先頭に、記録完了を表すマイクロホンの図形が表示されるとともに、「VOICE OVER」の文字がボイスオーバーの区間に表示される。
【0472】
このようにして、ボイスオーバーによって記録される範囲は、図57に示すように、ボイスオーバーの範囲として指定されたイン点より、プロテクトマージンで設定された範囲だけ前の位置から、アウト点からプロテクトマージンで設定された時間だけ後の位置までとされる。このプロテクトマージンも、所定の値に予め設定することが可能である。なお、このプロテクトマージンは、プレビュー再生時における5秒間の期間とは別途定義されるものである。
【0473】
以上のようにして、ボイスオーバーの記録が完了したら、再びプレビューを行い、仕上がりを確認することができる。そして、仕上がりが確認できたとき、タイムラインファイルとして、ボイスオーバの各種パラメータを保存する処理を実行する。図64は、この場合の保存処理を表している。
【0474】
すなわち、最初に、ステップS391において、ユーザは、メニューバー20(図6)のタイムライン(Time Line)ボタンをオンする。このとき、ステップS392において、プルダウンメニューが表示されるので、ユーザは、そのプルダウンメニューの中から、ステップS393において、保存ボタンを選択し、オンする。このとき、ステップS394において、CPU10は、ボイスオーバのパラメータをRAM10bに保存する。次に、ステップS395に進み、CPU10は、図65に示すように、第4のオーディオチャンネルのボイスオーバー区間の網掛け表示を消去し、ユーザに保存処理が終了したことを認識させる。さらに、ステップS396に進み、CPU10は、ボイスオーバー編集モードを終了させ、ノーマルモードに移行する処理を実行する。
【0475】
図66は、以上のようなボイスオーバー処理を実行するハイブリッドレコーダ3のHDD300で駆動されるハードディスク300Aの記録領域を模式的に表している。同図に示すように、ハードディスク300Aは、ゾーン1乃至ゾーン7に区分されている。このうちのシリンダ番号またはセクタ番号が若い領域にファイルシステム領域が形成され、その次にビデオデータとオーディオデータを記録するCA(Continuous Area)領域1が形成され、その次にオーディオデータだけを記録するAA(Audio Area)領域が形成されている。上述したボイスオーバのオーディオデータは、このAA領域に記録される。AA領域の次には、オーディオデータとビデオデータの両方を記録するCA領域2が形成されている。その次のRA領域には、エディットデシジョンリスト(EDL)のデータ、ハイブリッドレコーダ3のパネルのボタンの処理に関するプログラムなどが記録されている。さらに、その次の整理モード用領域は、一時的にデータを退避する場合などのために使用される。最後の自己診断領域には、初期化動作を行うときのプログラムやデータなどが記録されている。
【0476】
上述したように、図2に示した編集システムにおいては、コンピュータ2に対して、最大5台の装置を接続することが可能である。そして、コンピュータ2は、この5台の装置を同期して動作させることができるようになされている。この同期動作のための操作について、以下に説明する。
【0477】
接続されている装置の同期動作を制御するとき、ユーザは、タイミング表示エリア22のオプションボタン22hをオンし、プルダウンメニューを表示させる。そして、そのプルダウンメニューの中から、マルチコントロールパネルを選択すると、CPU10は、図67に示すようなマルチコントロールパネルを表示させる。このマルチコントロールパネルの表示部901には、5台の装置のビデオテープレコーダの状態が表示される。
【0478】
この例の場合、メインレコーダとサブレコーダは、停止状態とされているので、対応する表示部901には、STOPが表示されている。
【0479】
また、表示部902には、パーソナルコンピュータ2の5つのポートに接続された各装置に関する情報が表示される。この例の場合、最も番号が小さいコントロールポートに接続されたレコーダがメインレコーダとされ、MAINと表示される。そして、番号が2番目に小さいコントロールポートに接続されたレコーダがサブレコーダとされ、SUBと表示される。メインレコーダとサブレコーダ以外のレコーダは、SYNCと表示される。装置が接続されていないポートには、DISCONNECTと表示される。映像効果装置6が接続されているポートには、EFFECTERと表示される。
【0480】
表示部903には、5つのコントロールポートボタン903A乃至903Eが表示されている。シンクプレイボタン904は、各ポートに接続された複数の装置に対する同期制御設定をロックするとき、またはアンロックするとき操作される。シンクプレイボタン904をロック状態にすると、5つのコントロールボタン903A乃至903Eのインジケータ903a乃至903eが緑色に点灯する。このとき、5つの装置は全て同期して動作する。
【0481】
図68は、図67に示したマルチコントロールパネルを操作して、マルチ同期処理を行う場合の処理例を表している。
【0482】
最初にステップS411において、デフォルトとして、CPU10は、同期モードを設定する。すなわち、シンクプレイボタン904がオンされた状態をデフォルトとして設定する。この場合、ステップS412において、接続されている装置のうち、同期処理可能な装置のコントロールポートボタン903A乃至903Eのインジケータ903a乃至903eが緑色に発光される。
【0483】
次に、ステップS413において、シンクプレイボタン904がオンされたか否かが判定され、オンされた場合には、ステップS415に進み、現在同期モードが設定されているか否かが判定される。同期モードが設定されていない場合には、ステップS411に戻り、同期モードを設定し、ステップS412で、同期処理可能な装置のコントロールポートボタンのインジケータを緑色に発光させる。
【0484】
ステップS415において、現在同期モードではないと判定された場合には、ステップS416に進み、同期モードを解除する処理が実行される。そして、ステップS417において、同期処理可能な装置のコントロールボタンのインジケータを消灯させる。その後、ステップS413に戻る。
【0485】
ステップS413において、シンクプレイボタン904がオンされていないと判定された場合には、ステップS414に進み、コントロールポートボタン903A乃至903Eがオンされたか否かが判定される。コントロールポートボタン903A乃至903Eがオンされていない場合には、ステップS413に戻り、それ以降の処理が繰り返し実行される。
【0486】
ステップS414において、コントロールポートボタン903A乃至903Eがオンされたと判定された場合、ステップS418に進み、そのコントロールポートボタンに対応して同期モードが設定されているか否かが、ステップS418で判定される。操作されたコントロールポートボタンが同期モードに設定されている場合には、ステップS419に進み、そのコントロールポートボタンは、メインチャンネルのコントロールポートボタン903Aであるか否かが判定される。メインチャンネルのコントロールポートボタン903Aである場合には、同期モードを解除することができないので、ステップS413に戻り、それ以降の処理が繰り返し実行される。
【0487】
ステップS418において、いま操作されたコントロールポートボタンに対応するチャンネルが、同期モードに設定されていないと判定された場合、並びに、ステップS419において、いま操作されたコントロールポートボタンのチャンネルが、メインチャンネルではないと判定された場合、ステップS420に進む。ステップS420においては、操作されたコントロールポートボタンに対応する装置が、同期動作しているか否かが判定される。対応する装置が同期動作していると判定された場合には、ステップS421に進み、その装置の同期動作を解除する。そして、ステップS422において、そのインジケータを消灯する。ステップS420において、対応する装置が同期動作していないと判定された場合には、ステップS423に進み、その装置を同期動作させる。そして、ステップS424に進み、そのインジケータを緑色に発光させる。ステップS422とステップS424の処理の後、ステップS413に戻る。
【0488】
このように、同期制御の対象から外したい機器がある場合には、対応する番号のコントロールポートボタンをクリックし、そのボタンのインジケータを消灯させる。但し、コントロールボタンをクリックすることでは、メインチャンネルのメインレコーダを同期制御から外すことはできない。メインチャンネルを同期制御から外すには、シンクプレイボタン904をクリックして、同期制御設定をアンロックの状態にした後、メインチャンネルのコントロールポートボタンをクリックしてインジケータを消灯させる。
【0489】
次に、複数の装置(ハイブリッドレコーダ3)を同期して、動作させる場合の処理について、以下に説明する。いま、例えば、マークインボタン27cが操作された場合において、そのとき再生ビデオ画面23aに表示されている画像を特定するための処理について説明する。最初に、図69のフローチャートを参照して、マークインボタン27cが操作された場合に対応して、生成されるマークデータ生成処理について説明する。
【0490】
ステップS441において、マークインボタン27cが操作されると、ステップS442において、CPU10は、第1のビデオプロセッサ11に対して、画像取り込みを指示する。また、CPU10は、ステップS443に進み、マークインボタン27cが操作されたタイミングにおける画像の圧縮処理を行い、ステップS444で、その画像圧縮処理を完了すると、ステップS445において、その画像データ取り込み処理を実行する。
【0491】
一方、CPU10は、ステップS442で画像取り込みを指示した後、ステップS446で圧縮した画像のタイムコードを読み取る。そして、さらに、ステップS447において、タイムコードに対応するハイブリッドレコーダ3のハードディスクのアドレスを内蔵する対応表から求める。
【0492】
このように、ステップS445で圧縮画像を取り込むとともに、ステップS447で、その圧縮画像に対応する画像が記録されているアドレスを求めることで、ステップS448において、マークポイントデータを確定する処理が実行される。すなわち、CPU10は、以後、マークインボタン27cを操作して、指定した画像を、このマークポイントデータから、必要に応じて、適宜求めることができる。
【0493】
以上のようにして、所定のタイミングで、例えば、メインチャンネルの画像を指定することができるが、同じタイミングの、例えばサブチャンネルの画像も、上述したようにして、ピクチャインピクチャの画像として、同時に表示させることが可能である。このため、CPU10が、図70に示すように、第1のタイミングで外部インタフェース18に対して指令を出力すると、この指令は、所定のリファレンス信号に同期して、第2のタイミングで、外部インタフェース18からハイブリッドレコーダ3aとハイブリッドレコーダ3bに、RS−422のケーブル4を介して、同時に送信される。
【0494】
すなわち、図71に示すように、例えば、フレームF2のタイミングで指令が発生されたとすると、この指令は、その直後のリファレンス信号に同期して、第2のタイミングでハイブリッドレコーダ3aと3bの両方に、同時に出力される。ハイブリッドレコーダ3aと3bは、いずれもリファレンス信号に同期して動作している。従って、2台のハイブリッドレコーダ3aと3bの両方から、同じタイミングの画像信号を得ることが可能となる。
【0495】
以上の構成において、この編集システム1の場合には、GUIのためのグラフック表示として2種類のモードが用意されている。その1つは登録されたイベントのイン点やアウト点のクリップ画像データを見ながらイベントを並び換えてプログラムを編集するピクチャモードであり、もう1つは登録されたイベントの時間的な長さを視覚的に見ながらイベントを並び換えてプログラムを編集するタイムラインモードである。この編集システム1では、この2つのモードはモードボタン22bをクリックすることにより容易に切り換えられるようになっており、これによりオペレータは編集目的に応じて使いやすい方のGUIを選択することができる。従ってこの編集システム1の場合には、従来の編集システムに比して、編集作業における使い勝手が向上している。
【0496】
例えばプログラムに時間的な制約がないような場合には、ピクチャモードを選択すれば、各イベントのイン点またはアウト点のクリップ画像データを見ながら編集することができ、生成されるプログラムがどのような内容のイベントで構成されているかを確認しながら編集作業を行うことができる。またプログラムに時間的な制約があるような場合には、タイムラインモードを選択すれば、各イベントの表示領域がイベントの長さに応じて変わるので、それを見ながらイベントを割り込ませたり、イベントを上書きしたりして、所望の長さのプログラムを容易に生成することができる。
【0497】
またこの編集システム1の場合には、タイムラインモードにおいてプログラムビューエリア42を設け、当該プログラムビューエリア42によってプログラムを構成する各イベントのイン点のクリップ画像データを表示するようにしている。これによりタイムラインモードであっても、生成したプログラムがどのような内容のイベントで構成されているかを容易に確認することができる。
【0498】
またこの編集システム1の場合には、マークインボタン24cを操作してイン点を指定したとき、そのイン点の位置よりも所定時間前の位置から自動的に再生動作を行うプリロールモードが設けられている。従って、このようなプリロールモードを予め起動しておけば、例えば野球中継のときにバッターの打ったボールがスタンドインした時点でマークインボタン24cをクリックしてイン点を指定した場合でも、そのイン点から所定時間前の位置から自動的に再生動作が行われるので、その再生画面を見ながら再生側のマークインボタン27cをクリックすれば容易にイン点を修正することができ、例えばバッターがボールを打った瞬間等、所望の場面を含むイベントをリアルタイムで容易に作成することができる。
【0499】
またこの編集システム1の場合には、再生速度設定エリア25Aを使用してイベントの再生速度を任意の速度に設定し得るようになされている。これにより例えば野球中継においてホームランを打った瞬間のイベントに対してスロー再生を設定することができ、そのホームランシーンのイベントをスロー再生して、バッターの動きやボールの行方を一段とリアルに表現したイベントを生成して視聴者に提供することができる。
【0500】
またこの編集システム1の場合には、記録と再生が同時に行えるハイブリッドレコーダ3を用いるようにしたことにより、記録と再生を同時に行ってリアルタイム編集を行うことができる。さらにこの編集システム1の場合には、ソース側のビデオ信号V2や、編集したイベントやプログラムを再生して得られるビデオ信号V6、或いはイベントやプログラム等を示すクリップ画像データを1つのモニタ2bに表示するようにしたことにより、従来のように複数のモニタを設ける必要がなくなるので、現場での限られた環境の中でも十分に編集作業を行うことができると共に、編集システム全体の構成を簡易にすることができる。
【0501】
以上の構成によれば、生成したプログラムの各イベントの時間的な長さを表示領域の大きさによって示すタイムライン表示エリア40と共に、プログラムを構成する各イベントのイン点またはアウト点のクリップ画像データを示すプログラムビューエリア42をモニタ2bに表示するようにしたことにより、プログラムビューエリア42を見れば、生成したプログラムがどのような内容のイベントで構成されているかを容易に確認することができる。また記録と再生が同時に行えるハイブリッドレコーダ3を用いるようにしたことにより、記録と再生を同時に行ってリアルタイム編集を行うことができる。かくするにつき高速なリアルタイム編集を実現できる使い勝手の向上した編集システム1を実現することができる。
【0502】
なお上述の実施の形態においては、記録再生装置として、ハードディスクドライブ300とビデオテープレコーダ301とからなるハイブリッドレコーダ3を用いた場合について述べたが、単にハードディスクドライブからなる記録再生装置を用いるようにしても良い。要は、ソースビデオデータを記録媒体に記録する記録手段と、ソースビデオデータを記録媒体に記録しながら当該記録媒体に記録されているソースビデオデータを再生する再生手段と、その記録されるソースビデオデータと再生されるソースビデオデータとを出力する出力手段とを有し、記録と再生が同時に行えるような記録再生装置であれば、上述の実施の形態と同様の効果を得ることができる。
【0503】
また上述の実施の形態においては、キーボード2cやマウス2d、或いは専用コントローラ2eを用いて編集システム1に対する各種指示や各種情報を入力した場合について述べたが、その他の入力デバイスを用いて各種指示や各種情報を入力しても良く、要は、オペレータからの各種指示や各種情報を編集システム1に対して入力するようなユーザインタフェース手段を設けるようにすれば良い。
【0504】
さらに上述の実施の形態においては、CPU10および表示コントローラ13によってタイムライン表示エリア40およびプログラムビューエリア42のモニタ2bへの表示を制御した場合について述べたが、これら2つの制御手段を1つにまとめた制御手段によって、タイムライン表示エリアおよびプログラム表示エリアの表示手段への表示を制御するようにしても良い。
【0505】
なお、上記したような処理を行うコンピュータプログラムをユーザに提供する提供媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0506】
【発明の効果】
以上の如く、請求項1に記載の編集装置、請求項に記載の編集方法、および請求項に記載の記録媒体によれば、迅速かつ簡単に、例えばピクチャインピクチャの表示位置などを指定することが可能となる。
【図面の簡単な説明】
【図1】本発明の一実施の形態による編集システムの構成例を示すブロック図である。
【図2】本発明の一実施の形態による編集システムの他の構成例を示すブロック図である。
【図3】図1または図2の編集システムを構成するコンピュータの内部構成を示すブロック図である。
【図4】図1または図2の映像効果装置6の構成例を示すブロック図である。
【図5】ピクチャモードのときのGUIの例を示す図である。
【図6】タイムラインモードのときのGUIの例を示す図である。
【図7】タイムライン表示エリアの構成を示す図である。
【図8】第1のマネージメントレコードデータを説明する図である。
【図9】クリップデータ用の第2のマネージメントレコードデータを説明する図である。
【図10】イベントデータおよびプログラムデータ用の第2のマネージメントレコードデータを説明する図である。
【図11】エフェクトデータ用の第2のマネージメントレコードデータを説明する図である。
【図12】DSKデータ用の第2のマネージメントレコードデータを説明する図である。
【図13】インデックス番号、クリップ番号およびイベント番号を説明する図である。
【図14】各表示エリアの表示例を示す図である。
【図15】クリップ表示エリアの管理方法を説明する図である。
【図16】イベント表示エリアの管理方法を説明する図である。
【図17】プログラム表示エリアの管理方法を説明する図である。
【図18】図1または図2のハイブリッドレコーダの構成を示すブロック図である。
【図19】再生速度設定エリアの構成を示す図である。
【図20】図1または図2の専用コントローラの外観構成を示す図である。
【図21】スピードデータの記憶フォーマットを説明する図である。
【図22】キューアップ設定画面の表示例を示す図である。
【図23】プリロールモードを説明する図である。
【図24】ワークデータを記憶するための階層構造を説明する図である。
【図25】初期動作を説明するフローチャートである。
【図26】記録側のマーキング動作を説明するフローチャートである。
【図27】再生側のマーキング動作を説明するフローチャートである。
【図28】再生側のマーキング動作を説明するフローチャートである。
【図29】トリミング動作を説明するフローチャートである。
【図30】プリロール動作を説明するフローチャートである。
【図31】プリロール動作を説明するフローチャートである。
【図32】プログラム作成動作を説明するフローチャートである。
【図33】映像効果設定エリアの表示例を示す図である。
【図34】エフェクト割り付け処理を説明するフローチャートである。
【図35】プログラム作成時のエフェクト設定処理を説明するフローチャートである。
【図36】エフェクト設定ダイアログの表示例を示す図である。
【図37】エフェクト詳細設定ダイアログの表示例を示す図である。
【図38】カーソルの変化を説明する図である。
【図39】エフェクト設定クリップ画像データの挿入位置を説明する図である。
【図40】カーソルの変化の原理を説明する図である。
【図41】ピクチャインピクチャ設定時のサブ画面領域調整処理を説明するフローチャートである。
【図42】ピクチャインピクチャ領域設定画面の表示例を示す図である。
【図43】DSK設定時のマスク領域調整処理を説明するフローチャートである。
【図44】DSK設定ダイアログの表示例示す図である。
【図45】マスク領域設定画面の表示例を示す図である。
【図46】ダイレクトエフェクト操作ウインドウの表示例を示す図である。
【図47】ダイレクトエフェクト設定ダイアログの表示例を示す図である。
【図48】ボイスオーバ入力処理を説明するフローチャートである。
【図49】ボイスオーバチャンネルを説明する図である。
【図50】ボイスオーバのイン点を説明する図である。
【図51】ボイスオーバのアウト点を説明する図である。
【図52】ボイスオーバの範囲を説明する図である。
【図53】プレビュー処理を説明するフローチャートである。
【図54】プレビュー動作時における再生範囲を説明する図である。
【図55】プレビュー動作時におけるオーディオ信号の減衰を説明する図である。
【図56】ボイスオーバ記録処理を説明するフローチャートである。
【図57】ボイスオーバ記録時の記録範囲を説明する図である。
【図58】イン点合図出力処理を説明するフローチャートである。
【図59】図58のステップS342における表示例を示す図である。
【図60】図58のステップS342,S344,S346,S348における表示例を示す図である。
【図61】図58のステップS342,S344,S346における音声の出力例を説明する図である。
【図62】アウト点の合図出力処理を説明するフローチャートである。
【図63】ボイスオーバの記録完了時の表示例を示す図である。
【図64】保存処理を説明するフローチャートである。
【図65】保存処理終了後の表示例を示す図である。
【図66】図18のHDDで駆動されるハードディスクの記録領域を説明する図である。
【図67】マルチコントロールパネルの表示例を示す図である。
【図68】マルチ同期処理を説明するフローチャートである。
【図69】マークデータ生成処理を説明するフローチャートである。
【図70】同期処理を説明する図である。
【図71】信号の出力のタイミングを説明する図である。
【符号の説明】
1 編集システム, 2 コンピュータ, 2a 本体, 2b モニタ, 2c キーボード, 2d マウス, 2e 専用コントローラ, 2f フロッピーディスク, 3,3a乃至3d ハイブリッドレコーダ, 6 映像効果装置, 7 入出力選択装置, 8,8a乃至8d マイクロホン, 10 CPU, 11 第1のビデオプロセッサ, 12 第2のビデオプロセッサ, 13 表示コントローラ, 19 オーディオプロセッサ, 21 記録ビデオ表示エリア, 22 タイミング表示エリア, 23 再生ビデオ表示エリア,24 記録ビデオマーキングエリア, 25 映像効果設定エリア, 25A再生速度設定エリア, 26i リサイクルボックスエリア, 27 再生ビデオマーキングエリア, 28 クリップ表示エリア, 29 イベント表示エリア, 30 プログラム表示エリア, 40 タイムライン表示エリア, 300 ハードディスクドライブ, 301 ビデオテープレコーダ, 314 映像音声合成回路, 317 オーディオデータ制御部, 717 クロスポイントスイッチ, 720 画像演算装置
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an editing apparatus and method, andrecoding mediaIn particular, for example, an editing apparatus and method capable of easily and surely specifying the display position of a picture-in-picture image, andrecoding mediaAbout.
[0002]
[Prior art]
Conventionally, as this kind of editing system, a system using a video tape recorder (hereinafter abbreviated as VTR) as recording means for recording a material to be edited has been proposed. In such an editing system, live videos such as sports and news are sequentially recorded by a VTR, and the recorded video is read and used as an editing material for program editing.
[0003]
[Problems to be solved by the invention]
However, in the conventional editing system, for example, when the child screen is arranged at a predetermined position with respect to the parent screen in the form of picture-in-picture, it is difficult to specify the position quickly and easily. There was a problem.
[0004]
The present invention has been made in view of such a situation, and makes it possible to quickly and easily specify the display position of a picture-in-picture image.
[0005]
[Means for Solving the Problems]
  An editing apparatus according to claim 1 is provided.
An editing apparatus that adds a picture-in-picture effect to an image by operating a predetermined first button on the screen, the setting screen corresponding to the first button, and a display position of the picture-in-pictureAnd includes a slide button to set the size,A setting screen display control means for controlling display of a setting screen for setting parameters relating to the effect of the picture-in-picture, a storage control means for storing the parameters set in the setting screen in the storage section,When adding a picture-in-picture effect to an image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameters, and dragging to the corner of the area is supported. An area display control means for changing the size of the area, changing the width of the area frame in response to dragging to the side of the area, and changing the position of the area in response to dragging to the inside of the area; When the setting screen is displayed, the setting screen display control means reflects the value of the parameter that is changed when the display position or size of the region is changed by dragging the region to the display of the slide button on the setting screen.It is characterized by that.
[0006]
  Claim3The editing method described in the above is an editing method of an editing apparatus that gives a picture-in-picture effect to an image by operating a predetermined button on the screen, and is a setting screen corresponding to the button, and includes a picture-in-picture Display positionAnd includes a slide button to set the size,A setting screen display control step for controlling display of a setting screen for setting parameters relating to the effect of picture-in-picture, and a storage control step for storing parameters set on the setting screen in the storage unit;When adding a picture-in-picture effect to an image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameters, and dragging to the corner of the area is supported. Including an area display control step of changing the size of the area, changing the width of the area frame in response to dragging to the side of the area, and changing the position of the area in response to dragging to the inside of the area, When the setting screen is displayed in the setting screen display control step, the value of the parameter that is changed when the display position or size of the area is changed by dragging the area is reflected in the display of the slide button on the setting screen.It is characterized by that.
[0007]
  Claim4The recording medium described in the above is a program for causing a computer of an editing apparatus to execute a process by giving a picture-in-picture effect to an image by operating a predetermined button on the screen, and is a setting screen corresponding to the button. Display position of picture-in-pictureAnd includes a slide button to set the size,A setting screen display control step for controlling display of a setting screen for setting parameters relating to the effect of picture-in-picture, and a storage control step for storing parameters set on the setting screen in the storage unit;When adding a picture-in-picture effect to an image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameters, and dragging to the corner of the area is supported. Including an area display control step of changing the size of the area, changing the width of the area frame in response to dragging to the side of the area, and changing the position of the area in response to dragging to the inside of the area, When the setting screen is displayed in the setting screen display control step, the value of the parameter that is changed when the display position or size of the area is changed by dragging the area is reflected in the display of the slide button on the setting screen.The program is recorded.
[0008]
  The editing apparatus according to claim 1,3Editing method described in claim and claim4Is a setting screen corresponding to a button on the screen for giving a picture-in-picture effect to an image, and the display position of the picture-in-pictureAnd includes a slide button to set the size,The display of a setting screen for setting parameters relating to the effect of picture-in-picture is controlled, and the parameters set in the setting screen are stored in the storage unit,When a picture-in-picture effect is added to an image, an area indicating the display position of the picture-in-picture is displayed on the image that is to be edited based on the parameters, and dragging to the corner of the area is supported. The size of the area is changed, the width of the area frame is changed in response to dragging to the side of the area, the position of the area is changed in response to dragging to the inside of the area, and the setting screen is displayed. The parameter value that is changed when the display position or size of the area is changed by dragging the area is reflected in the slide button display on the setting screen.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but in order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, in parentheses after each means, The features of the present invention will be described with the corresponding embodiment (however, an example) added. However, of course, this description does not mean that each means is limited to the description.
[0010]
  The editing apparatus according to claim 1 is an editing apparatus that gives a picture-in-picture effect to an image by operating a predetermined first button (for example, button 25d in FIG. 33) on the screen. 1 is a setting screen corresponding to the button 1 (for example, the effect detailed setting dialog in FIG. 37), and the display position of the picture-in-pictureAnd slide buttons for setting the size (for example, slide buttons 771, 773 and 775 in FIG. 37),Setting screen display control means (for example, step S202 of FIG. 41 or step S232 of FIG. 41) for controlling display of a setting screen for setting parameters relating to the effect of picture-in-picture, and parameters set on the setting screen Storage control means (for example, step S203 in FIG. 41 or step S243 in FIG. 41)When the picture-in-picture effect is added to the image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameter, and the corner of the area (for example, the BAR in FIG. 42). c The size of the area is changed in response to dragging to the edge of the area (for example, the BAR in FIG. L Change the width of the area frame in response to dragging to the inside of the area (for example, the BAR in FIG. R ) Is provided with area display control means (for example, steps S235 to S241 in FIG. 41) that changes the position of the area in response to dragging to the setting screen, and the setting screen display control means displays the area when the setting screen is displayed. Reflect the value of the parameter that is changed when the display position or size of the area is changed by dragging to the slide button on the setting screenIt is characterized by that.
[0011]
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the present specification, the term “system” refers to an entire apparatus including a plurality of apparatuses.
[0012]
<Overall configuration of editing system>
In FIG. 1, reference numeral 1 denotes an editing system to which the present invention is applied as a whole. The editing system is roughly composed of a computer 2, a hybrid recorder 3, and a video effect device (effector) 6. The computer 2 includes a main body 2a having a CPU, various processing circuits, a floppy disk drive for driving a floppy disk 2f, a hard disk drive, etc., a monitor 2b connected to the main body 2a, a keyboard 2c, a mouse 2d, and a dedicated controller 2e. Is done. In such a computer 2, an application program for editing video data is installed in the hard disk drive in advance, and the application program is operated on the basis of the operating system to start up as an editing system. Yes.
[0013]
The application program includes a GUI (graphical user interface) for generating a control command used for editing work. When the application program is started, a graphic for the GUI is displayed on the monitor 2b. The display is made to be displayed.
[0014]
On the other hand, the hybrid recorder 3 (details of which will be described later with reference to FIG. 18) is composed of a hard disk array in which a plurality of hard disks are connected in an array, and a VTR provided for backup of the hard disk array. The source video signal V1 and the source audio signal A1 in the SDI (Serial Digital Interface) format supplied from the outside are sequentially recorded. The hybrid recorder 3 apparently performs recording and reproduction at the same time, and records the recorded video signal V1 and audio signal A1 in real time while recording the video signal V1 and audio signal A1 in real time. It is designed to be replayable.
[0015]
The reproduced video signal and audio signal are supplied to the video effect device 6 as a video signal V3 and an audio signal A3. The hybrid recorder 3 outputs the video signal V1 out of the input signals as the video signal V2 in a substantially unchanged state, and the output video signal V2 (the video signal V1 as the signal) (Substantially the same) is supplied to the main body 2a of the computer 2. Incidentally, the video signal V1 and the audio signal A1 input here are a composite video signal photographed by a video camera or the like, a composite video signal transmitted from the VTR, and an audio signal corresponding thereto.
[0016]
The video effect device 6 (details will be described later with reference to FIG. 4), after applying a predetermined special effect to the video signal V3 out of the video signal V3 and the audio signal A3 supplied from the hybrid recorder 3, The video signal V5 is output to a device (not shown). At this time, the corresponding audio signal is delayed by an amount corresponding to the processing time of the video signal, and is superimposed on the video signal V5 and output. The video effect device 6 also supplies a video signal to which a special effect is given as a video signal V6 to the main body 2a of the computer 2 as a composite video signal.
[0017]
The main body 2a of the computer 2 and the hybrid recorder 3, and the main body 2a and the video effect device 6 are connected by a communication cable 4 based on the communication format of the RS-422 interface. A response command to can be transmitted. The communication format of the RS-422 interface is a communication format that can simultaneously transmit / receive a control command and a response command to the control command.
[0018]
Here, the operation of the editing system 1 will be briefly described. First, a composite video signal V1 photographed by a video camera or the like is input to the hybrid recorder 3 and sequentially recorded. The video signal V2 that is output as it is through the hybrid recorder 3 is input to the main body 2a of the computer 2. The main body 2a generates a reduced image corresponding to the video signal V2 and displays it on the monitor 2b. On the other hand, the hybrid recorder 3 encodes the input video signal V1 in real time and records it in the hard disk array and the VTR.
[0019]
An operator who operates the computer 2 operates a pointing device such as a mouse 2d connected to the computer 2 while watching the video signal V2 displayed on the monitor 2b which is a display means, so that the IN point (editing start point). Instruct the editing point (including the editing point for giving a predetermined effect) such as the out point (editing end point), etc., and use the GUI displayed on the monitor 2b to send a control command for editing. Generate. This control command is transmitted to the hybrid recorder 3 and the video effect device 6 as an RS-422 control command. As a result, the playback operation of the hybrid recorder 3 is controlled, and the reproduced video signal V3 is supplied to the computer 2 as the video signal V6 after being given a predetermined effect by the video effect device 6 as necessary. 2b and sent to the outside as a video signal V5.
[0020]
In this way, in the editing system 1, editing operations can be easily performed by operating a pointing device such as the mouse 2d while looking at the monitor 2b. In addition, the editing system 1 allows the editing operation to be performed in real time by using the hybrid recorder 3 and the video effect device 6 capable of recording / reproducing operation almost simultaneously, and sports coverage and news reporting can be performed without impairing real-time performance. You can edit the material with effects.
[0021]
FIG. 2 shows another configuration example of the editing system 1. In this configuration example, four hybrid recorders 3 are provided as hybrid recorders 3a to 3d. One of them is a main-channel hybrid recorder 3a, and the other is a sub-channel hybrid recorder 3b. The video signal V3 and the audio signal A3 output from the main hybrid recorder 3a are input to the video effect device 6 as they are. On the other hand, the video signal and the audio signal output from the hybrid recorders 3b to 3d are input to the input / output selection device 7, and one of them is selected to be sent to the video effect device 6 as the video signal V4 and the audio A4. Entered. Other configurations are the same as those in FIG.
[0022]
In this case, in the video effect device 6, a predetermined effect is given by the video effect device 6 to the video signal selected by the input / output selection device 7 among the video signal of the main channel and other video signals. After that, it will be output.
[0023]
In this editing system, it is possible to record video from up to four locations in synchronization. The video effect device 6 functions as a so-called A-roll effector, and only the video of the two channels can be set as the processing target video to which the effect is applied. For this reason, a predetermined effect can be applied to the video of the main channel and the video selected by the input / output selection device 7 as an editing target. The hybrid recorders 3a to 3d have synchronized time codes (the video time code recorded on each HDD matches the recording address), and commands to be supplied to the respective hybrid recorders 3a to 3d are provided. By making them the same, it is possible to record four video images in synchronization. Then, two of the images can be reproduced in synchronism, and can be output with a predetermined effect.
[0024]
<Internal configuration of computer>
In this section, the internal configuration of the computer 2 will be specifically described. As shown in FIG. 3, the computer 2 includes a system bus 5 for transmitting command data and video data, a CPU 10 for controlling the entire computer, and first and second image processing and the like for input video signals. 2 video processors 11 and 12, a display controller 13 for managing video data displayed on the monitor 2b and graphic display for GUI, an HDD interface 15 for controlling a local hard disk drive (local HDD) 15a, and a floppy disk 2f. Control commands based on commands from a pointing device such as an FDD interface 16, a mouse (cursor control device) 2d, a dedicated controller 2e, and a keyboard 2c for controlling a floppy disk drive (FDD) 16a that drives the computer. External interface provided with a software device for performing data communication based on the communication format of the pointing device interface 17, the hybrid recorders 3a to 3d, the video effect device 6, and the input / output selection device 7 and the RS-422. 18.
[0025]
The system bus 5 is a bus for communicating video data, command data, address data, and the like inside the computer 2, and is used for transmitting command data and the image data bus 5a for transmitting video data. Command data bus 5b.
[0026]
A CPU 10, first and second video processors 11, 12, a display controller 13, an HDD interface 15, and an FDD interface 16 are connected to the image data bus 5a. The first and second video processors 11, 12 are connected to the image data bus 5a. The display controller 13, the HDD interface 15 and the FDD interface 16 transmit video data via the image data bus 5a.
[0027]
On the other hand, a CPU 10, first and second video processors 11, 12, a display controller 13, an HDD interface 15, an FDD interface 16, a pointing device interface 17, and an external interface 18 are connected to the command data bus 5b. (In other words, all the blocks inside the computer 2 are connected), and command data and address data are transmitted via the command data bus 5b.
[0028]
The CPU 10 is a block for controlling the entire computer 2, and includes a ROM 10a in which the operating system of the computer 2 is stored and a RAM 10b in which uploaded application programs and the like are stored. When starting up the computer 2, the CPU 10 executes a software program based on the operating system stored in the ROM 10a. When the application program is executed under this operating system, the CPU 10 first reads the application program recorded on the hard disk of the hard disk drive 15a, uploads it to the RAM 10b, and then executes the application program. To do.
[0029]
The first video processor 11 receives the first video signal V2 input to the computer 2, performs data conversion on the first video signal V2, and temporarily buffers the converted video data. This is a block for ringing. Specifically, the first video processor 11 includes a processor controller 11a that controls the entire video processor 11, a data converter 11b that converts the received analog composite video signal V2 into digital component video data, and The frame memory 11c temporarily stores video data for several frames sent from the data converter 11b.
[0030]
The processor controller 11a sends a control signal to the data converter 11b, thereby controlling the data conversion operation of the data converter 11b and extracting a time code from the composite video signal V2. The processor controller 11a controls the read / write timing and read / write address of the frame memory 11c by sending a control signal to the frame memory 11c. Incidentally, regarding the read timing, the processor controller 11a controls the read timing of the frame memory 11c so that the time code sent to the display controller 13 and the video data (frame data) correspond to each other.
[0031]
The data converter 11b converts the analog composite video signal V2 into a component video signal based on a control signal from the processor controller 11a, and then converts the analog component video signal into digital video data. The time code is extracted when an analog component video signal is converted into digital video data. The digitally converted video data is sent to the frame memory 11c, and the extracted time code is sent to the processor controller 11a.
[0032]
Here, the time code is encoded and inserted into two lines of 14H and 16H or 12H and 14H in the vertical blanking period of the composite video signal V2, and is called a so-called VITC (Vertical Interval Time Code). Therefore, when extracting the time code from the composite video signal V2, it is possible to easily extract it by decoding only the digitally converted time code in the vertical synchronization period when converting the analog signal to digital data. Incidentally, this time code is added when the video signal V2 is output in the hybrid recorder 3 (by the second time code adding unit 312 in FIG. 18).
[0033]
The frame memory 11c temporarily stores video data supplied from the data converter 11b. The read / write timing of the frame memory 11c is controlled by the processor controller 11a as described above. The frame memory 11c is composed of two frame memories, and has a total storage capacity of 4 Mbytes. The video data stored in the frame memory 11c is video data in which one frame is composed of 1520 pixels × 960 pixels, and the frame memory 11c can store such video data for two frames.
[0034]
The video data of 1520 pixels × 960 pixels stored in the frame memory 11c is read based on the read control of the processor controller 11a. The video data read out from the frame memory 11c is not video data of 1520 pixels × 960 pixels, that is, video data in which the data amount is thinned out so as to be 380 pixels × 240 pixels. Here, thinning out the data amount simply means that the sampling rate for reading video data from the frame memory 11c is set to ¼ to reduce the amount of video data to be read. The video data of 380 pixels × 240 pixels read out in this way is sent to the display controller 13 via the image data bus 5a (this image is displayed on a recording video screen 21a of FIG. 5 described later on the monitor 2b. Is displayed).
[0035]
The second video processor 12 has the same configuration as the first video processor. That is, the video processor 12 is sent from the processor controller 12a that controls the entire video processor 12, the data converter 12b that converts the received analog composite video signal V6 into digital component video data, and the data converter 12b. A frame memory 12c for temporarily storing video data for several frames is provided. The difference between the first video processor 11 and the second video processor 12 is that the composite video signal V2 output from the hybrid recorder 3 is input to the first video processor 11, while the second video processor 11 is different from the second video processor 12. The video processor 12 receives the composite video signal V6 output from the video effect device 6.
[0036]
Here, since the composite video signal V2 is a video signal in which the time code is superimposed in the vertical synchronization period of the input video signal V1 in the hybrid recorder 3, the video signal temporally identical to the input video signal V1 input in real time. It is. That is, the video data stored in the frame memory 11c is the same video data as that obtained by digitizing the input video signal V1. On the other hand, the composite video signal V6 is a video signal that is reproduced from the hybrid recorder 3 according to a command from the computer 2 and to which an effect is given by the video effect device 6 as necessary. Therefore, the composite video signal V6 is a video signal that is shifted in time (shifted in timing) from the input video signal V1.
[0037]
This point will be described in detail below. When the operator instructs the computer 2 to reproduce desired video data, the computer 2 is simply described as the hybrid recorder 3 (hereinafter, it is not necessary to distinguish between the hybrid recorders 3a to 3d). The same applies to other devices), and the playback command of the video data is transmitted. The hybrid recorder 3 reproduces video data designated by the operator in response to a reproduction command from the computer 2. The hybrid recorder 3 stores a time code corresponding to the video data in units of frames, and reproduces the time code of the reproduced video data based on the correspondence relationship.
[0038]
The hybrid recorder 3 superimposes the reproduced time code in the vertical synchronization period of the reproduced video data, and converts the resulting video data into an analog composite video signal V3 so that it can be transmitted to the video effect device 6. This is sent to the video effect device 6. The video effect device 6 gives an effect to the video signal V3 in response to a command from the computer 2 and outputs it to the computer 2 as a composite video signal V6. Since the composite video signal V6 is a video signal reproduced in accordance with an instruction from the operator in this way, it is a signal that is temporally asynchronous with the input video signal V1.
[0039]
Similar to the composite video signal V2 supplied to the first video processor 11, the composite video signal V6 supplied to the second video processor 12 is subjected to predetermined signal processing via the data converter 12b and the frame memory 12c. After being applied, it is transmitted to the display controller 13 as digital video data of 380 pixels × 240 pixels (this image is displayed on a playback video screen 23a of FIG. 5 described later) of the monitor 2b.
[0040]
The display controller 13 is a control block for controlling data displayed on the monitor 2b. The display controller 13 includes a memory controller 13a and a VRAM (Video Random Access Memory) 13b. The memory controller 13a controls the read / write timing of the VRAM 13b according to the internal synchronization inside the computer 2. In the VRAM 13b, video data from the frame memory 11c of the first video processor 11, video data from the frame memory 12c of the second video processor 12, and image data from the CPU 10 are supplied from the memory controller 13a. It is stored based on the control signal.
[0041]
The image data stored in the VRAM 13b is read from the VRAM 13b based on a timing control signal from the memory controller 13b based on the internal synchronization of the computer 2, and is displayed on the monitor 2b as a graphic. The graphic display displayed on the monitor 2b in this way becomes a graphic display for the GUI. Here, the image data sent from the CPU 10 to the VRAM 13b is image data such as a window, a cursor, and a scroll bar. By displaying these plural types of image data on the monitor 2b, a graphic display for the GUI can be obtained.
[0042]
The hard disk interface 15 is an interface block for communicating with a local hard disk drive (HDD) 15 a provided in the computer 2. The hard disk interface 15 and the hard disk drive 15a communicate with each other based on a SCSI (Small Computer System Interface) transmission format.
[0043]
The hard disk drive 15a is installed with an application program for starting on the computer 2. When the application program is executed, the hard disk drive 15a is read from the hard disk drive 15a and uploaded to the RAM 10b of the CPU 10. When the application program is terminated, the work data file created by the editing operation stored in the RAM 10b is downloaded to the hard disk via the hard disk drive 15a.
[0044]
The floppy disk interface 16 is an interface block for communicating with a floppy disk drive (FDD) 16 a provided in the computer 2. The floppy disk interface 16 and the floppy disk drive 16a communicate with each other based on the SCSI transmission format. An EDL (Edit Decision List) indicating the editing result of the editing operation is recorded on the floppy disk 2f via the floppy disk drive 16a.
[0045]
The pointing device interface 17 is an interface block that receives information from the mouse 2d, the dedicated controller 2e, and the keyboard 2c connected to the computer 2. The pointing device interface 17 receives, for example, detection information of a two-dimensional rotary encoder provided on the mouse 2d and click information on left and right buttons provided on the mouse 2d from the mouse 2d, and decodes the received information. To the CPU 10. Similarly, the pointing device interface 17 receives information from the dedicated controller 2e and the keyboard 2c, decodes the received information, and sends it to the CPU 10.
[0046]
The external interface 18 is a block for communicating with the hybrid recorder 3, the video effect device 6, and the input / output selection device 7 connected to the outside of the computer 2. The external interface 18 has an RS-422 driver that changes command data generated by the CPU 10 into an RS-422 communication protocol, and control commands such as a playback command to the hybrid recorder 3 via the RS-422 driver. , A control command for causing the input / output selection device 7 to select a predetermined signal, or a control command for applying a predetermined effect to the video effect device 6 is transmitted.
[0047]
FIG. 4 shows an example of the internal configuration of the video effect device 6 that functions as an A-roll effector. A video signal V3 and an audio signal A3 of the main channel output from the hybrid recorder 3a are input to the terminal 704, and a video output from any of the hybrid recorders 3b to 3d selected by the input / output selection device 7 is input to the terminal 703. The signal V4 and the audio signal A4 are input. The video signal V3 and the audio signal A3 input to the terminal 704 are converted from serial data to parallel data by the serial / parallel converter 710, and then the timing is adjusted by the time base collector 714. Of the signals output from the time base collector 714, the video signal is supplied to the freeze memory 718, stored, and supplied to the terminal DIN 1 of the crosspoint switch 717. The image data stored in the freeze memory 718 is read therefrom and supplied to the terminal FMFZ of the crosspoint switch 717.
[0048]
Of the signals output from the time base corrector 714, the audio signal is input to the audio expander 743, subjected to expansion processing, and then delayed by one frame by the one frame delay circuit 744. This delay time corresponds to the time required for image calculation processing in the image calculation device 720. The output of the 1-frame delay circuit 744 is input to the audio compressor 745, compressed, and then supplied to the video / audio synthesis circuit 725.
[0049]
The video signal V4 and the audio signal A4 input to the terminal 703 are converted from serial data to parallel data by the serial / parallel converter 709, and then input to the time base corrector 713 for timing adjustment. The video signal V4 is further input to the terminal DIN2 of the crosspoint switch 717.
[0050]
The terminals 701 and 702 are supplied with a DSK (downstream keying) fill signal and a DSK key signal supplied from the outside. The DSK fill signal is converted from serial data to parallel data by the serial / parallel converter 707, and then the timing is adjusted by the time base collector 711 and input to the terminal DSKF of the crosspoint switch 717. The DSK key signal is converted from serial data to parallel data by the serial / parallel converter 708, then the timing is adjusted by the time base collector 712, and input to the terminal DSKS of the crosspoint switch 717.
[0051]
The image data that is the source of the internal DSK signal read from the floppy disk 742 is supplied from the FDD interface 741 to the image memory 737 that functions as a buffer via the CPU bus 746 and stored therein.
[0052]
The cross point switch 717 selects a predetermined video signal input from the terminal FMFZ, DIN1, or DIN2, and supplies the selected video signal to the terminal FRGD or BKGD of the image arithmetic device 720. The video before switching (background video) is supplied to the terminal BKGD, and the video after switching (foreground video) is supplied to the terminal FRGD.
[0053]
The key signal (key signal from the terminal 702 or key signal from the floppy disk 742) selected by the GUI setting is supplied to the terminal DSKS of the image arithmetic device 720, and the terminal DSKF is selected by the GUI. The fill signal (the fill signal from the terminal 701 or the matte color signal by the internal generator) is supplied. The key signal from the terminal 702 is input to the terminal EXTK of the image arithmetic device 720.
[0054]
The image arithmetic device 720 gives a predetermined effect to the image data inputted from each terminal, and outputs the image data to which the effect is given from the terminal M / E or DFS. Image data without DSK is output from the terminal M / E and supplied to the terminal M / E of the crosspoint switch 717. Further, image data including DSK processing is output from the terminal DFS of the image arithmetic device 720 and input to the terminal DFS of the crosspoint switch 717.
[0055]
For example, when switching the video of the main channel to the video of the sub-channel by applying an effect, the crosspoint switch 717 supplies the output of the freeze memory 718 input to the terminal FMFZ to the terminal BKGD of the image arithmetic device 720, and the image Image data input from the time base collector 713 to the terminal DIN2 of the crosspoint switch 717 is supplied to the terminal FRGD of the arithmetic unit 720. The image arithmetic device 720 switches the image from the terminal FRGD to an image obtained by adding an effect to the image from the terminal BKGD, outputs the image from the terminals M / E and DFS, and feeds back to the corresponding terminal of the crosspoint switch 717.
[0056]
The cross point switch 717 selects either the image data input to the terminal M / E or DFS and outputs it to the terminal MON or PGM. The image data output from the terminal MON of the crosspoint switch 717 is converted into a composite video signal by the composite signal converter 721 and output to the computer 2 from the terminal 723 as the video signal V6 via the buffer memory 722. This video signal V6 is displayed on a reproduction video screen 23a of FIG.
[0057]
The video data output from the terminal PGM of the crosspoint switch 717 is input to the video output processing unit 724, subjected to predetermined video processing, input to the video / audio synthesis circuit 725, and input from the audio compressor 745. Synthesized with the audio signal. The signal output from the video / audio synthesizing circuit 725 is converted from parallel data to serial data by the parallel-serial converter 726, and output from terminals 727 to 730 to a device (not shown).
[0058]
A predetermined video signal is input to the terminal 705. This video signal is directly output from the terminal 706 to a device (not shown) as a through output and also input to the time code generation unit 715. The time code generation unit 715 generates a time code in synchronization with the video signal supplied from the terminal 705. This time code is appropriately supplied to the CPU 734 via the serial interface 716 and the CPU bus 746. The CPU 734 controls each unit in synchronization with this time code. Thereby, video effect processing synchronized with the video signal input from the outside can be performed.
[0059]
A program to be processed by the CPU 734 is stored in the flash memory 735, and various data to be processed by the CPU 734 are appropriately stored in the static RAM 736.
[0060]
The personal computer 2 is connected to the terminals 731 and 732 of the RS-422 via the communication cable 4 of the RS-422. The serial input / output controller 733 executes interface processing of commands exchanged via the terminals 731 and 732 of the RS-422.
[0061]
The CPU 734 can also be controlled from GPI (General Purpose Interface) terminals 747 to 749. A signal for controlling on / off of the effect is inputted to the terminal 747, a signal for turning on DSK is inputted to the terminal 748, and a signal for turning off DSK is inputted to the terminal 749.
[0062]
A mouse is connected to the terminal 739 of RS-232, and a personal computer (not shown) equipped with software for monitoring and diagnosing an ISR (Interactive Status Reporting) device, for example, the video effect device 6, is connected to the terminal 740. Connected. The serial interface 738 executes interface processing with devices connected to these terminals 739 and 740.
[0063]
<Graphic display for GUI>
Picture mode
In the editing system 1, two types of modes are prepared as graphic displays for the GUI. One is a picture mode in which events are rearranged and the program is edited while viewing the screen of the in and out points of registered events, and the other is a registered event. This is a timeline mode that allows you to adjust the program while looking at the time length. These two modes can be easily switched by clicking a mode button 22b shown in FIG. 5 to be described later, so that the operator can select the GUI that is easier to use according to the editing purpose. It is possible to improve usability in editing work.
[0064]
In this section, the picture mode will be described first. In the picture mode, a graphic display as shown in FIG. 5 is displayed on the monitor 2b. As shown in FIG. 5, the graphic display in the picture mode includes a recording video display area 21, a timing display area 22, a reproduction video display area 23, a recording video marking area 24, a video effect setting area 25, a recycle box area 26i, and a reproduction. The area is roughly divided into 10 areas: a video marking area 27, a clip display area 28, an event display area 29, and a program display area 30.
[0065]
The recording video display area 21 has a recording video screen 21a, a recording start point button 21b, a normal button 21c, a voice over button 21d, and a drop display portion 21e. The video signal displayed on the recording video screen 21a is a video signal obtained from the composite video signal V2 output from the hybrid recorder 3a, and is thinned out when supplied from the frame memory 11c to the VRAM 13b by the computer 2. This is a video signal whose image size has been changed to 380 pixels × 240 pixels.
[0066]
The recording start point button 21b is operated to set the recording start point on the hard disk (HDD 300 in FIG. 18) of the digital video tape recorder (VTR 301 in FIG. 18) to either the current playback position or the top of the hard disk. . The normal button 21c and the voice over button 21d are alternatively operated when selecting each mode. In the drop display portion 21e, the frame mode of the digital video tape recorder (in the case of an NTSC video signal, the number of frames per second is not 30 exactly, but a fraction of 29.XXX. "Drop or non-drop" as a time code counting method for absorption is displayed.
[0067]
On the tally display portion 22a of the timing display area 22, an on-air tally by an external signal at the time of on-air setting is displayed. The mode button 22b is operated when changing the editing mode between the picture mode and the timeline mode. The backup button 22c is operated when the VTR (VTR 301 in FIG. 18) is used as a backup for the HDD (HDD 300 in FIG. 18). The dubbing button 22d is operated when dubbing from the HDD to the VTR in the hybrid recorder 3 or vice versa. The pre-roll button 22e is operated when setting the pre-roll mode. The delay button 22 f is operated when the currently recorded video is delayed and displayed on the playback video screen 23 a in the playback video display area 23. A DMC (Dynamic Motion Controller) button 22g is operated when displaying a playback speed setting area 25A (described later with reference to FIG. 19) and setting the playback speed. The option button 22h is operated when displaying a menu of various options. The set button 22i is operated when the selected program, event or timeline is put into a reproduction standby state (on-air mode).
[0068]
The time display unit 22j displays the current time. In the recording video signal time code display section 22k, the time code of the video signal displayed in the recording video display area 21 is displayed. This time code is a time code extracted from the vertical synchronization period of the composite video signal V2 by the processor controller 11a of the first video processor 11. In the playback video signal time code display section 22m, the time code of the video signal displayed in the playback video display area 23 is displayed. This time code is a time code extracted from the vertical synchronization period of the composite video signal V3 by the processor controller 12a of the second video processor 12.
[0069]
In the storage capacity remaining time display section 22n, the remaining time of the storage capacity of the hard disk of the hybrid recorder 3 is displayed. Since the total storage capacity of the hybrid recorder 3 is known in advance, the remaining time displayed here can be easily obtained by subtracting the value obtained by subtracting the recording start time from the current time from the recordable time of the hybrid recorder 3. Can be sought.
[0070]
In addition, the display of these display parts 22j thru | or 22n changes corresponding to the setting from a menu.
[0071]
The display unit 22o displays the editing mode (full edit mode (FULL) or loop recording mode (LOOP)) of the video effect device 6, and the display unit 22p displays the recording target of the hybrid recorder 3 (VTR 301 in FIG. 18). Or hard disk 300 or both) is displayed. The display unit 22q displays the operating state of the VTR.
[0072]
Further, the display unit 22r is displayed when the dubbing speed from the VTR to the hard disk is set to a high speed, and the display unit 22s displays whether or not the video effect device 6 is connected to the computer 2. The display unit 22t displays whether or not the plurality of hybrid recorders 3a to 3d are operated synchronously (whether or not a sync play button 904 in FIG. 67 described later is turned on).
[0073]
The on-air display unit 22a is a display unit that indicates whether or not the vehicle is on-air. When a tally signal indicating that the vehicle is on-air is supplied from the outside, the display color is changed to red. The tally signal indicating the on-air is a signal supplied when the composite video signal V6 output from the video effect device 6 is on-air. Thus, since the display color of the on-air display part 22a is varied according to the on-air state, the operator can easily visually grasp that the air is on-air.
[0074]
The mode button 22b is a button used when switching between the picture mode shown in FIG. 5 and a timeline mode (FIG. 6) described later. When this mode button 22b is clicked using the mouse 2d, mode switching can be designated, and the display mode can be switched between the picture mode and the timeline mode.
[0075]
The pre-roll button 22e is a button used when setting the pre-roll mode. The DMC (Dynamic Motion Controller) button 22g is a button used when setting the playback speed of the selected event. The two buttons will be described in detail later.
[0076]
The playback video display area 23 has a playback video screen 23a, a main button 23b, and a sub button 23c. The video signal displayed on the playback video screen 23a is a video signal that is reproduced by the hybrid recorder 3 and obtained from the composite video signal V6 output from the video effect device 6, and is supplied from the frame memory 12c to the VRAM 13b. Furthermore, the video signal has an image size changed to 380 pixels × 240 pixels by thinning processing.
[0077]
When the main button 23b is turned on, the output of the hybrid recorder 3a of the main channel is displayed on the playback video screen 23a. When the sub button 23c is turned on, the playback image of the sub-channel hybrid recorder 3b is displayed on the playback video screen 23a.
[0078]
The recording video marking area 24 is an area used when marking clip image data at the In point or Out point from the video data displayed on the recording video screen 21a. The meaning of “marking” here means that an In point or an Out point is designated, or that an In point or an Out point is set. Further, the “clip image” here is a “still image”. The recording video marking area 24 is divided into an in-clip display area 24a, an in-point time code display section 24b, a mark-in button 24c, an out-clip display area 24d, an out-point time code display section 24e, and a mark-out button 24f. ing.
[0079]
The in-clip display area 24a is an area for displaying clip image data marked as an In point when the operator clicks the mark-in button 24c. The clip image data displayed in the in-clip display area 24a is image data obtained from the composite video signal V2 output from the hybrid recorder 3, and is thinned to an image size of 95 pixels × 60 pixels. It is.
[0080]
The time code display unit 24b displays the time code of the clip image data displayed in the in-clip display area 24a. This time code is a time code extracted from the composite video signal V2 by the processor controller 11a of the first video processor 11 when the operator clicks the mark-in button 24c to mark the in-point.
[0081]
The mark-in button 24c is a button for marking the IN point. The operator clicks the mark-in button 24c at the timing when a desired image is displayed while viewing the video image displayed on the recording video screen 21a. When the mark-in button 24c is clicked, clip image data (95 pixels × 60 pixels) corresponding to the video data displayed on the recording video screen 21a at this time is generated, and the generated clip image data is input to the mark-in button 24c. It is displayed in the clip display area 24a.
[0082]
The out clip display area 24d is an area for displaying clip image data of the out point marked by the operator clicking the mark out button 24f. The clip image data displayed in the out clip display area 24d is image data obtained from the composite video signal V2 output from the hybrid recorder 3, and is thinned out to an image size of 95 pixels × 60 pixels. It is.
[0083]
The time code display unit 24e displays the time code of the clip image data displayed in the out clip display area 24d. This time code is a time code extracted from the composite video signal V2 by the processor controller 11a of the first video processor 11 when the operator clicks the markout button 24f to mark the out point.
[0084]
The markout button 24f is a button for marking an out point. The operator clicks the markout button 24f at the timing when a desired image is displayed while viewing the video image displayed on the recording video screen 21a. When the markout button 24f is clicked, clip image data (95 pixels × 60 pixels) corresponding to the video data displayed on the recording video screen 21a at this time is generated, and the generated clip image data is out. It is displayed in the clip display area 24d.
[0085]
The video effect setting area 25 is used when a playback program is created by dragging and dropping event clip image data from the event display area 29 to the program display area 30 in the program order to be played after the cut editing is completed. This is an area where setting tool buttons used for setting various video effects by inserting effect clip image data into the event sequence are arranged. The video effect setting area 25 will be described later in detail.
[0086]
The recycle box 26i is an area used when deleting the generated clip image data. When deleting the clip image data, the clip image data is designated by the mouse 2d, and the clip image data is dragged and dropped to the area of the recycle box 26i, and the deletion is executed. When the deleted clip image data is restored, when the recycle box 26i is clicked, all the clip image data discarded in the recycle box 26i is displayed. When the clip image data to be restored is designated from among them, the designated clip image data is restored. If forced discard processing is selected from the items displayed as a result of the click, the image data put in the recycle box 26i is erased from the memory and cannot be restored thereafter.
[0087]
The playback video marking area 27 is an area used when marking in-point or out-point clip image data from a video image displayed on the playback video screen 23a. The playback video marking area 27 includes an in-clip display area 27a, an in-point time code display portion 27b, a mark-in button 27c, an out-clip display area 27d, an out-point time code display portion 27e, a mark-out button 27f, and an invalidity. It is divided into buttons 27g and 27h.
[0088]
The in-clip display area 27a is an area for displaying clip image data marked as an IN point by the operator clicking the mark-in button 27c. The clip image data displayed in the in-clip display area 27a is image data obtained from the composite video signal V6 output from the video effect device 6, and is an image thinned out to an image size of 95 pixels × 60 pixels. It is data.
[0089]
The time code display unit 27b displays the time code of the clip image data displayed in the in-clip display area 27a. This time code is a time code extracted from the composite video signal V6 by the processor controller 12a of the second video processor 12 when the operator clicks the mark-in button 27c to mark the in-point.
[0090]
The mark-in button 27c is a button for marking the IN point. The operator clicks the mark-in button 27c at the timing when a desired image is displayed while watching the video image displayed on the playback video screen 23a. When the mark-in button 27c is clicked, clip image data (95 pixels × 60 pixels) corresponding to the video data displayed on the playback video screen 23a at this time is generated, and the generated clip image data is input to the mark-in button 27c. It is displayed in the clip display area 27a.
[0091]
The out clip display area 27d is an area for displaying clip image data of the out point marked by the operator by clicking the mark out button 27f. The clip image data displayed in the out-clip display area 27d is image data obtained from the composite video signal V6 output from the video effect device 6, and is an image thinned out to an image size of 95 pixels × 60 pixels. It is data.
[0092]
The time code display unit 27e displays the time code of the clip image data displayed in the out clip display area 27d. This time code is a time code extracted from the composite video signal V6 by the processor controller 12a of the second video processor 12 when the operator clicks the markout button 27f to mark the out point.
[0093]
The markout button 27f is a button for marking an out point. The operator clicks the markout button 27f at the timing when a desired image is displayed while viewing the video image displayed on the playback video screen 23a. When the markout button 27f is clicked, clip image data (95 pixels × 60 pixels) corresponding to the video data displayed on the playback video screen 23a at this time is generated, and the generated clip image data is out. It is displayed in the clip display area 27d.
[0094]
When the invalid button 27g is clicked, the IN point corresponding to the clip image displayed in the in clip display area 27a is invalidated. When the invalid button 27h is clicked, the out point corresponding to the clip image displayed in the out clip display area 27d is invalidated.
[0095]
The name of the work file is displayed on the display unit 26a, the name of the program file displayed on the program display unit 30 is displayed on the display unit 26b in the picture mode, and on the timeline mode. The name of the timeline file is displayed.
[0096]
The variable speed reproduction memory buttons 26c, 26e, and 26g are operated when setting the variable speed reproduction speed or reading the set variable speed reproduction speed. The display units 26d, 26f, and 26h display the variable speed reproduction speeds set by the corresponding variable speed reproduction memory buttons 26c, 26e, and 26g on the left side thereof. For example, when the voice over editing mode is set, the characters “VOICE OVER” are displayed on the display unit 26j. The scratch pad 26k is operated when an in point or an out point is set by inputting a time code using a set-in button 37, a set-out button 38, and a set duration button 39, which will be described later.
[0097]
In the clip display area 28, the mark-in button 24c or the mark-out button 24f provided in the recording video marking area 24 is continuously provided (for example, the IN point is continuous twice or the OUT point is continuous twice). The clip image data marked by clicking and the mark-in button 27c or the mark-out button 27f provided in the playback video marking area 27 are continuously displayed (for example, the IN point is continuously performed twice or the OUT point is determined). This is an area for displaying clip image data marked by clicking (continuously twice). The clip image data displayed in the clip display area 28 is clip image data that is not used as an in point or out point of an event. When the In point and Out point are specified as a pair, the image in that section is an event, and the clip image data specified as the In point or Out point of that section (event) is displayed in the event display area 29. . The clip display area 28 includes a clip image data display area 28a, a time code display unit 28b, a clip type display unit 28c, a clip number display unit 28d, a clip title display unit 28g, a forward button 28e, and a return button 28f. .
[0098]
In the clip image data display area 28a, an image displayed in either the recording-side in-clip display area 24a or out-clip display area 24d, or the playback-side in-clip display area 27a or out-clip display area 27d is moved and displayed. Is done. The size is an image size of 95 pixels × 60 pixels.
[0099]
The time code display unit 28b displays the time code of the clip image data displayed in the clip image data display area 28a. This time code is used when moving clip image data from one of the in-clip display area 24a, out-clip display area 24d, in-clip display area 27a, or out-clip display area 27d to the clip image data display area 28a. The corresponding time code display part 24b, 24e, 27b or 27e is moved in the same manner.
[0100]
The clip type display portion 28c displays characters indicating whether the clip image data displayed in the clip image data display area 28a is the In point or the Out point clip image data. For example, if the clip image data displayed in the clip image data display area 28a is clip image data obtained from the in-clip display area 24a, a red “IN” character is displayed. If the clip image data displayed in the clip image data display area 28a is clip image data obtained from the out-clip display area 24d, the red “OUT” character is displayed. If the clip image data displayed in the clip image data display area 28a is clip image data obtained from the in-clip display area 27a, a green “IN” character is displayed. If the clip image data displayed in the clip image data display area 28a is clip image data obtained from the out clip display area 27d, the green “OUT” character is displayed.
[0101]
The clip number display portion 28d displays a clip number assigned to the clip image data displayed in the clip image data display area 28a. This clip number is a number automatically assigned to clip image data in the order in which the clip image data is marked. The clip title display portion 28g displays the title attached to the clip.
[0102]
The forward button 28e and the return button 28f are buttons used to advance the display of clip image data in the clip display area 28 forward (to the right in FIG. 5) or return backward (to the left in FIG. 5). It is. When a large number of clip image data is generated, the size of the clip display area 28 is finite, so that all the clip image data cannot be displayed simultaneously. In such a case, all the clip image data can be displayed on the monitor by operating the feed button 28e and the return button 28f to advance the clip image data forward or back.
[0103]
The event display area 29 is clip image data of an event generated by clicking the mark-in button 24c and the mark-out button 24f provided in the recording video marking area 24 in order or vice versa (in a pair). And an area for displaying clip image data of an event generated by clicking the mark-in button 27c and the mark-out button 27f provided in the reproduction video marking area 27 in order or vice versa (to be paired). It is. For one event, clip image data of either the in-point clip image data or the out-point clip image data is displayed. Similar to the clip display area 28, the event display area 29 includes a clip image data display area 29a, a time code display unit 29b, a clip type display unit 29c, an event number display unit 29d, an event title display unit 29g, a feed button 29e, A return button 29f is provided.
[0104]
In the clip type display portion 29c, characters indicating whether the clip image data of the event displayed in the clip image data display area 29a is the IN point or the OUT point of clip image data are displayed. When IN-point clip image data is displayed as the clip image data of the event, the characters “IN” are displayed in the clip type display portion. When it is desired to display the clip image data of the out point instead of the clip image data of the in point, clicking the clip type display portion 29c displays the clip image data of the out point. After that, every time the clip type display portion 29c is clicked, the display of the clip image data at the in point and the clip image data at the out point is alternately switched.
[0105]
In the event number display section 29d, an event number assigned to the generated event is displayed. This event number is a number that is automatically assigned to the event in the order in which the event was generated, and has nothing to do with the clip number. In the event title display section 29g, the title attached to the event is displayed as character characters. This title can be registered by the title menu, and can be registered for each event.
[0106]
The program display area 30 is an area used to create a program by copying the event displayed in the event display area 29. A copy of the clip image data of the event displayed in the event display area 29 is displayed. It is made to be done. When creating a program by rearranging events, first, the desired clip image data displayed in the event display area 29 is dragged and dropped and copied to the program display area 30. As a result, it is possible to create a program by freely rearranging the events displayed in the event display area 29. At this time, by dragging and dropping the clip image data of the event displayed in the program display area 30 and moving it again to another place in the program display area 30, the event can be freely moved in the program display area 30. It can also be rearranged. In this case, the event is moved, not copied.
[0107]
Similar to the event display area 29, the program display area 30 has a clip image data display area 30a, a time code display unit 30b, a clip type display unit 30c, an event number display unit 30d, an event title display unit 30g, and a feed button. 30e and a return button 30f. Since these are basically the same as those in the event display area 29, description thereof is omitted here.
[0108]
However, the effect clip image data may be displayed in the program display area 30. In this case, graphics and characters representing the effect are displayed in the effect image data display area 30A, and the effect number is displayed in the effect number display section 30D at the upper right. The effect title display section 30G on the left side of the effect number display section 30D displays effect titles such as PinP and Wipe. In the time code display section 30B at the lower right of the effect image data display area 30A, the time code at the position where the effect is inserted is displayed.
[0109]
The recording start and end button 31a is a button for sending a control command to start recording (when recording is stopped) or recording is ended (when recording is started) to the hybrid recorder 3 and the video effect device 6. When the recording start / end button 31a is clicked when the recording operation is stopped, the CPU 10 detects that the recording start / end button 31a has been pressed, and instructs the external interface 18 to output a recording start command. . In response to this command, the external interface 18 sends a recording start command (REC START command) defined by RS-422 to the hybrid recorder 3. The hybrid recorder 3 starts recording the video signal V1 on the hard disk and the VTR in response to the received recording start command.
[0110]
On the other hand, when the recording start and end button 31a is clicked during the recording operation, the CPU 10 detects that the recording start and end button 31a is pressed, and outputs a recording end command to the external interface 18. To order. In response to this command, the external interface 18 sends a recording end command (REC STOP command) defined by RS-422 to the hybrid recorder 3. The hybrid recorder 3 ends the recording of the video signal V1 on the hard disk and the VTR in response to the received recording end command.
[0111]
The preview button 32 is a button used when previewing a selected event or program (so-called content confirmation). When an event or program is specified, clip image data of the specified event or program is displayed on the playback video screen 23a in a still image (STILL) state. If the preview button 32 is clicked at this time, the CPU 10 detects that the preview button 32 has been pressed, and instructs the external interface 18 to output a reproduction start command. In response to this command, the external interface 18 sends a playback start command (PLAY START command) defined by RS-422 to the hybrid recorder 3 and the video effect device 6. The hybrid recorder 3 starts playback of the composite video signal V3 from the hard disk (or VTR) in response to the received playback start command. The video effect device 6 generates a composite video signal V6 obtained by applying an effect to the composite video signal V3 in accordance with the command.
[0112]
The new event button 33 is a button used when creating a new event. The new event button 33 is clicked when an event whose IN point and OUT point have been changed is registered as another new event with respect to the event designated by the operator. The protect button 34 is operated to prohibit overwriting of data during loop recording. The replace button 35 is a button used when it is desired to change the In point and Out point of the selected event. The replace button 35 is clicked to replace an event in which the In point and the Out point have been changed with respect to the event designated by the operator, not as another new event but as the designated event. The delete button 36 is a button used when deleting a selected event or program. The deleted event or program is discarded in the recycle box 26i.
[0113]
The set-in button 37 is operated when setting the In point numerically, and the set-out button 38 is operated when setting the Out point numerically. The set duration button 39 is operated when a period from the In point is designated by a numerical value and an out point is designated, or when a period from the Out point is designated by a numerical value and an In point is designated.
[0114]
The VTR control button 31b is operated to pop up a VTR control panel that controls the VTR. The hard disk control button 31c is operated when popping up the hard disk control panel. The dubbing button 31d is operated when popping up the tape / disk dubbing setting panel when dubbing between the VTR and the hard disk.
[0115]
<Timeline mode>
Next, in this section, the timeline mode will be described. In the timeline mode, a graphic display as shown in FIG. 6 is displayed on the monitor 2b. As shown in FIG. 6, in the graphic display in the timeline mode, the clip display area 28 and the event display area 29 in the picture mode in FIG. 5 are changed to the timeline display area 40. An event display area 29 is displayed at the position of the program display area 30 in FIG. Other displays are the same as those in the picture mode shown in FIG.
[0116]
The timeline display area 40 is a display area where the program can be edited while checking the time length of each event. As shown in FIG. 7, the timeline display area 40 is enlarged and a time scale display unit 40a, a GPI / DSK track 40b, an effect track 40c, a video track 40d, and first to fourth audio tracks. 40e to 40h, scroll buttons 40i and 40j, a search button 40m, a frame button 40n, and an edit bar 40k.
[0117]
A time scale (hereinafter referred to as a time scale) is displayed on the time scale display section 40a, and the time length of each event is clearly shown on the basis of this time scale. This time scale is a frame unit scale, and the minimum unit of the scale is set to an arbitrary number of frames by user setting.
[0118]
The GPI / DSK track 40b is an area for designating an output point of a GPI (General Purpose Interface: a general-purpose interface for outputting a control command from an editing apparatus to control an external device) or a DSK control command. . The output point of GPI or DSK can be set at an arbitrary position regardless of the IN point or OUT point. GPI can be set using GPI setting buttons 46dn and 46dp (described later). A mark 40ba is displayed at the position of the output point of GPI or DSK, so that the operator can easily confirm the position designated by the operator. Thus, by specifying the GPI or DSK output point in the GPI / DSK track 40b, it is possible to output a control command at the specified output point to control the external device. In order to validate the GPI or DSK output point specified by the GPI / DSK track 40b, the GPI / DSK button 40bc may be clicked.
[0119]
On the effect track 40c, a mark 40ca is displayed at the position where the effect is set. As a result, the operator can easily confirm the position where he / she specified the effect. In order to validate the effect designated in the effect track 40c, the effect button 40cb may be clicked.
[0120]
The video track 40d is an area for editing the program by rearranging the events dragged from the event display area 29. The events displayed on the video track 40d are arranged in the program display area 30 in the picture mode called by the event dragged from the event display area 29 or the program call button 42b (FIG. 6) in the program view area 42 described later. It is an event.
[0121]
In the video track 40d, the clip image data of the event In point and the Out point is not displayed as in the picture mode, and the event number and the title attached to the event are displayed. However, the size of the display area of each event is made different depending on the length of the event, thereby visually comparing the length of the event with the time scale of the time scale display unit 40a. It can be confirmed. In addition, since the length of each event can be visually confirmed, the length of the entire edited program can also be visually confirmed. Therefore, it can be easily confirmed whether or not the edited program is within the desired length.
[0122]
In the video track 40d, each event can be moved to an arbitrary position, and an arbitrary event can be interrupted in another event. This allows the events to be rearranged in an arbitrary order. A program in a desired order can be generated. By the way, when an event is moved or interrupted, it is connected so that there is no gap between events.
[0123]
The event move destination and interrupt destination are specified by an edit bar 40k which is a reference position mark. The edit bar 40k is fixedly displayed at substantially the center position of the screen. When a movement destination or an interruption destination is designated, the event display is scrolled by operating the scroll buttons 40i and 40j, thereby moving the movement destination or interruption. The previous candidate position is adjusted to the edit bar 40k. As a result, the position is designated as a movement destination or an interruption destination.
[0124]
When an operation is performed on the video track 40d, the video track 40d can be made operable by clicking the video button 40db.
[0125]
The first to fourth audio tracks 40e to 40h are areas for editing the audio data of each event. When audio data is taken into the first to fourth audio tracks 40e to 40h, if an event is dragged from the event display area 29 after the audio buttons 40ea to 40ha are clicked, the audio data corresponding to the event is recorded. Can be imported. For captured audio data, an event number and a title attached to the event are displayed.
[0126]
Also in the first to fourth audio tracks 40e to 40h, as in the video track 40d, the audio data of each event is moved to an arbitrary position, or the audio data of an arbitrary event is changed to the audio data of another event. Can be interrupted. As in the case of video editing, the position designation at that time may be performed by scrolling the audio data by operating the scroll buttons 40i and 40j so that the candidate position of the movement destination or interrupt destination is matched with the edit bar 40k. .
[0127]
Note that a total of four channels of audio data can be edited using the first to fourth audio tracks 40e to 40h.
[0128]
The scroll buttons 40i and 40j are buttons that are operated to scroll the section from the GPI / DSK track 40b to the fourth audio track 40h in the frame unit in the right or left direction as a whole. When one of the scroll buttons 40i, 40j is clicked in the direction to be sent, scrolling is executed in that direction.
[0129]
The search button 40m is operated when an image in the event selected on the timeline display area 40 or an image of an event and a joint of the event is displayed on the playback video screen 23a for confirmation. In the scroll unit display section 40n, units for scrolling by clicking the scroll buttons 40i, 40j are displayed. By clicking on the display unit 40n, the display can be changed to Frame, Second, Minute, Event, Top / End. When the top / end is selected, when the scroll buttons 40i, 40j are clicked, scrolling is performed all at once to the beginning or end of the event.
[0130]
As shown in FIG. 6, on the right side of the timeline display area 40, a display unit 45a for displaying the length (number of frames) of the entire period of the timeline is provided, and below that, a preview is instructed. A preview button 45b is provided that is operated at times. Further, on the lower side, four channels 45c for designating a channel for voice over are provided.
[0131]
In the editing tool display section 46d displayed below the timeline display area 40, command buttons for instructing commands used for program editing in the timeline display area 40 are displayed. The event lock button 46da is clicked after clicking the track buttons when simultaneously moving a plurality of tracks of the same event. This links the selected tracks so that they can be dragged together. The event move button 46db is clicked when moving from the selected event to the last event in a lump. The match cut button 46dc is clicked when the event is divided at the position of the edit bar 40k. This button is used when deleting a part of an event. The undo button 46dd is operated when canceling operations such as movement, correction, and deletion.
[0132]
When the overlay edit button 46de is clicked, when an event is dragged from the event display area 29 onto the timeline display area 40, the event is inserted on the timeline with the In point aligned with the position of the edit bar 40k. After clicking the backtimed overlay edit button 46 df and dragging an event from the event display area 29 onto the timeline display area 40, the out point is aligned with the position of the edit bar 40 k and the event is inserted on the timeline. The When an event is dragged from the event display area 29 onto the timeline display area 40 after the insert edit button 46dg is clicked, the in point is aligned with the position of the edit bar 40k, and the event is inserted on the timeline.
[0133]
When the overlay edit button 46de is operated, if an event already exists at the insertion position on the timeline, the event is overwritten. However, when the insert edit button 46dg is operated, the insertion on the timeline is performed. When there is already an event at a position, the event is split into left and right with the new event at the center. The delete button 46dh can be clicked after selecting an event on the timeline to delete the selected event. When the event to be deleted is locked, a plurality of locked events are deleted together.
[0134]
The ripple tool button 46di is clicked when all events after the insertion position or the deletion position are to be slid in accordance with the insertion or deletion of the event on the timeline. The trim tool button 46dj is clicked when the duration of the entire program is changed according to the correction amount when the in point or out point of the event is corrected. The out point when the In point is corrected remains fixed, and the event to the left of the In point is moved in the corrected direction. Similarly, when the out point is corrected, the in point remains fixed, and the event to the right of the out point is moved in the corrected direction.
[0135]
The slide tool button 46dk is clicked when the In point or Out point of an event on the timeline is changed and the In point of the subsequent event is slid by the same change amount. If the In point of the selected event is changed and the duration of the event becomes shorter, the In point of the subsequent event slides and the duration of the subsequent event becomes longer. The slip tool button 46dm is clicked when correcting the in and out points without changing the duration of the selected event. If you modify either the In point or the Out point, the other moves in the same direction, keeping the event duration constant.
[0136]
The GPI buttons 46dn and 46dp are operated when setting two types (systems) of GPI output points set from the menu.
[0137]
The display unit 46e displays the number of frames represented by one memory of the time scale displayed on the time scale display unit 40a. This display can be increased or decreased by clicking the + button 46fb or the-button 46fa.
[0138]
The point preview button 46ga is clicked when it is desired to preview the joint between the event selected on the timeline display area 40 and the previous event. The loop button 46gb is clicked when it is desired to preview the timeline program over and over again.
[0139]
Next, the program view area 42 displayed below the timeline display area 40 will be described. In the timeline display area 40, the length of the event display area is basically changed according to the length of each event, thereby making it easy to visually understand the length of each event. However, since the clip image data of each event is not displayed, it may be difficult to understand what kind of image the event is. Therefore, in the case of the editing system 1, by providing the program view area 42, it is possible to easily understand what kind of image each event is even in the timeline mode.
[0140]
The program view area 42 includes a view area 42a, a program call button 42b, a feed button 42c, and a return button 42d. The view area 42a is an area for displaying clip image data at the IN point or OUT point of each event. The arrangement order of the clip image data displayed in the view area 42a matches the arrangement order of the events of the program created in the timeline display area 40. As a result, the sequence of events of the program created in the timeline display area 40 can be easily confirmed based on the clip image data, and the image sequence of the program can be easily confirmed. Incidentally, each clip image data displayed in the view area 42 a is image data generated by thinning out the clip image data in the event display area 29, and the image size is the clip image displayed in the event display area 29. It is about half the size of the data.
[0141]
The program call button 42b is used to input a program call instruction for calling an event displayed in the program display area 30 in the picture mode to the timeline display area 40 and the view area 42a. When the program call button 42b is clicked, a program call is instructed, and the events displayed in the program display area 30 can be called in the timeline display area 40 without changing the arrangement order. Similarly, the same clip image data as the arrangement order of the program display area 30 is called and displayed in the view area 42a. By providing the program call button 42b in this way so that the program can be called, it is possible to easily call the program generated in another mode (picture mode) to the timeline mode and generate it in another mode. Even with this program, it is possible to easily edit the time.
[0142]
The feed button 42c and the return button 42d are buttons used when the display of the clip image data in the view area 42a is advanced or returned backward. When the created program consists of a plurality of events, all clip image data cannot be displayed in the view area 42a. In such a case, all the clip image data can be displayed by operating the forward button 42c or the return button 42d to move the clip image data forward or backward.
[0143]
<Clip image data management method>
Next, a method for storing clip data, event data, and program data will be described. However, the clip data mentioned here includes data for displaying the clip image data in the clip display area 28 and data for storing the clip image data. The same applies to event data and program data.
[0144]
First, the first management record data for clip data, event data, program data, effect data, and DSK data will be described with reference to FIG. One first management record data is provided for each of clip data, event data, program data, effect data, and DSK data. That is, the first management record data for clip data is data for managing all clip image data displayed in the clip display area 28. The first management record data for event data is data for managing all clip image data displayed in the event display area 29. Further, the first management record data for program data is data for managing all clip image data displayed in the program display area 30. The first management record data for effect data or DSK is data for managing all effect image data or DSK image data displayed in the program display area 30. In this embodiment, the first management record data includes one first management record data for clip data, event data, program data, effect data, or DSK data. Only.
[0145]
The first management record data includes a pointer to the previously linked data, a pointer to the linked data, a display horizontal size for one page, a display vertical size for one page, and a display position on the screen. , Display head position, and data regarding the total number of links.
[0146]
The pointer to previously linked data is data for indicating a pointer of management record data linked before the first management record data. If there is no previously linked management record data, its own pointer is stored here. The pointer to data linked later is data indicating the pointer of management record data linked after the first management record data. If there is no management record data linked later, its own pointer is stored here.
[0147]
The display horizontal size for one page is data indicating the maximum display number of clip image data displayed in the horizontal direction in each display area of the clip display area 28, the event display area 29, or the program display area 30. In this embodiment, since each clip display area 28, event display area 29, and program display area 30 can display 10 clip image data, the display horizontal size for one page is “10”. Data indicating “number” is stored in each first management record data.
[0148]
The display vertical size for one page is data indicating the maximum display number of clip image data displayed in the vertical direction in each display area of the clip display area 28, the event display area 29, or the program display area 30. In this embodiment, since the clip display area 28, the event display area 29, or the program display area 30 displays only one clip image data, “1” is displayed as the display vertical size for one page. Data is stored in each first management record data.
[0149]
The display position on the screen is data for indicating in which display area the clip image data is displayed. In this embodiment, a clip display area 28 is provided in the lower part of the screen, an event display area 29 is provided in the middle part of the screen, and a program display area 30 is provided in the upper part of the screen. Therefore, if the first management record data for clip data, data indicating “lower” is stored as the display position on the screen, and if the first management record data for event data, the display position “ Data indicating “middle stage” is stored, and if it is the first management record data for program data, data indicating “upper stage” is stored as a display position on the screen.
[0150]
The display head position is data for indicating from which position the display of the clip image data is started in each display area of the clip display area 28, the event display area 29 or the program display area 30. In this embodiment, ten clip image data are displayed in the clip display area 28, ten clip image data are displayed in the event display area 29, and ten clip image data are displayed in the program display area 30, respectively. Thirty clip image data can be displayed. A total of 30 display positions are numbered sequentially from the upper stage on the screen to manage the display positions.
[0151]
For example, the display position of the program display area 30 is the display position of numbers “1” to “10”, the display position of the event display area 29 is the display position of numbers “11” to “20”, and the display position of the clip display area 28 is the number. Display positions “21” to “30” are determined. Therefore, if the first management record data for clip data, data indicating “21” is stored as the display position head, and if the first management record data for event data, “11” is indicated as the display head position. Data is stored, and if it is the first management record data for program data, data indicating “1” is stored as the display head position.
[0152]
The total number of links is data indicating the total number of management record data linked after the first management record data.
[0153]
Next, the second management record data for clip data will be described with reference to FIG. The second management record data for clip data is data for managing the clip image data displayed in the clip display area 28 for each clip image data. Therefore, the same number of second management record data for clip data as the number of clip image data displayed in the clip display area 28 exists.
[0154]
The second management record data for clip data includes a pointer to previously linked data, a pointer to linked data, attributes, clip image data handle, clip type, time code data, and clip image. It has the index number of the data.
[0155]
The pointer to previously linked data is data indicating a pointer of management record data linked before the second management record data. Since the first management record data or the second management record data always exists in the second management record data, the pointer of the data linked before is always stored. The pointer to the data linked later is data indicating the pointer of the management record data linked after the second management record data. If there is no management record data linked later, its own pointer is stored here.
[0156]
The attribute is data indicating whether the second management record data is for clip data, event data, or program data. The clip image data handle is data indicating an address (address of the hard disk of the hybrid recorder 3) where the clip image data is stored. Therefore, by referring to the clip image data handle in the second management record data corresponding to the desired clip image data, the address where the clip image data is stored can be obtained. The clip type is data indicating whether the clip image data managed by the second management record data is in-point clip image data or out-point clip image data.
[0157]
The time code data is data indicating the time code of the clip image data managed by the second management record data. The index number of clip image data is an index number assigned to clip image data. This index number is a number that is sequentially assigned to all marked clip image data regardless of the generation of the IN point, OUT point, and event. That is, it is the same number as the clip number displayed on the clip number display portion 28d. All the clip image data are managed by this index number.
[0158]
Next, the second management record data for event data and program data will be described with reference to FIG. The second management record data for event data is data for managing the clip image data displayed in the event display area 29 for each clip image data. Therefore, the same number of second management record data for event data as the number of clip image data displayed in the event display area 29 exists. Similarly, the second management record data for program data is data for managing the clip image data displayed in the program display area 30 for each clip image data. Therefore, the same number of second management record data for program data as the number of clip image data displayed in the program display area 30 exists.
[0159]
The second management record data for event data and program data is a pointer to previously linked data, a pointer to later linked data, attributes, event number, title, subtitle, and in-point clip. Image data handle, In point clip type, In point timecode data, In point clip image data index number, Out point clip image data handle, Out point clip type, Out point timecode data, Out point Clip image data index number, slow type, symbol type, and symbol time code data.
[0160]
The pointer to the data linked before, the pointer to the data linked later, and the attribute are the same as the second management record data for the clip data described above, so the description is omitted here. To do. The event number is a number assigned to the event in the order of generation. This event number is displayed in the event number display part 29d. A title and a subtitle are a title and a subtitle given in advance to a registered event, and are stored as actual characters. Of these, the title is displayed in the title display section 29g.
[0161]
The in-point clip image data handle is data indicating an address where the in-point clip image data is stored. Therefore, by referring to the clip image data handle of the in-point in the second management record data corresponding to the clip image data of the desired in-point, it is possible to obtain the address where the clip image data of the in-point is stored. it can. The In-point clip type is data indicating whether the In-point clip image data managed by the second management record data is In-point clip image data or Out-point clip image data. . Here, since all the clip image data is the IN point, data indicating the IN point is stored.
[0162]
The in-point time code data is data indicating the time code of the in-point clip image data managed by the second management record data. The index number of the IN-point clip image data is an index number assigned to the IN-point clip image data. Similar to the index number in the second management record data for clip data described above, the index number of the clip image data at the in point is marked regardless of the generation of the in point, the out point, and the event. It is a number assigned to all clip image data in order.
[0163]
The out-point clip image data handle is data indicating an address where the out-point clip image data is stored. Accordingly, by referring to the clip image data handle of the out point in the second management record data corresponding to the clip image data of the desired out point, the address where the clip image data of the out point is stored can be obtained. it can. The out-point clip type is data indicating whether the out-point clip image data managed by the second management record data is in-point clip image data or out-point clip image data. . Here, since all clip image data is out points, data indicating the out points is stored.
[0164]
The out point time code data is data indicating the time code of the out point clip image data managed by the second management record data. The index number of the out-point clip image data is an index number assigned to the out-point clip image data. Similar to the index number in the second management record data for clip data described above, the index number of the clip image data at the out point is marked regardless of the generation of the in point, the out point, and the event. It is a number assigned to all clip image data in order.
[0165]
The slow type means that an event or program managed by the second management record data has its playback speed controlled using a playback speed setting area 25A (described later with reference to FIG. 19), or normal playback. It is data indicating the speed. The symbol type is data indicating whether or not there is clip image data defined as a symbol in the period of the in point and out point of the event managed by the second management record data. The symbol referred to here means representative clip image data for representing the event. The symbol time code data is a time code of clip image data set as a symbol.
[0166]
FIG. 11 shows the structure of the second management record data for effect data. The second management record data for the effect data includes a previously linked data pointer, a later linked data pointer, an attribute, an effect video selection data, an effect type, an effect number, an effect direction, and an effect time. , Border designation, border width, background color valid flag, background color, X-position coordinates, Y-position coordinates, Z-position coordinates, effect auxiliary parameter, fader position, and resettable flag.
[0167]
The pointer of the data linked before, the pointer of the data linked backward, and the attributes are the same as those in the second management record data for event data and program data in FIG. The attribute indicates that the second management record data is for effect data. The 9-byte data from the beginning to this point has the same configuration as the second management record data for the clip data shown in FIG. 9 or the event data and program data shown in FIG. Thereby, even when a new data structure is added, it is possible to cope with it without changing the management method.
[0168]
The effect video selection data represents an address of a memory storing subsequent data. The effect type represents the type (category) of an effect pattern such as picture-in-picture or wipe. The effect number is a number assigned to the effect. This effect number is displayed on the effect number display section 30D. The effect direction indicates whether the direction in which the effect is applied is the front direction in time or the back direction. The effect time represents the time (transition) during which the effect is applied. The border designation represents designation of the presence or absence of a border, and the border width represents a set border width.
[0169]
The background color valid flag indicates the presence / absence of the background color. The background color represents designation of the background color. X-position coordinates, Y-position coordinates, and Z-position coordinates respectively represent position coordinates at which the effect is applied.
[0170]
The effect auxiliary parameter represents retention of a unique parameter when setting each effect pattern. The fader position represents a fader value (effect change amount). The resettable flag indicates whether or not resetting is possible in the program line.
[0171]
FIG. 12 shows the configuration of second management record data for DSK data. This data includes the pointer of the data linked before, the pointer of the data linked after, the attribute, the effect video selection data, the effect time, the fader position, the fader reverse valid flag, the border designation, the border type, the border position, It consists of border color, key inversion designation, clip value, gain value, mask designation, mask invert designation, mask rectangular area, and fill flag.
[0172]
The previously linked data pointer and the later linked data pointer are the same as described above. The attribute indicates that it is for DSK data. Even in this case, the 9-byte data from the head has the same configuration as the second management record data shown in FIGS. 9 to 11, and the management method can be changed even when a new data structure is added. It is made unnecessary.
[0173]
The effect video selection data represents an address of a memory storing subsequent data. The effect time represents the DSK transition time. The fader position represents the fader time (effect change amount). The fader reverse rotation valid flag indicates whether or not the transition direction is automatically reversed when the next DSK is executed.
[0174]
The border designation represents designation of a border (frame). The border type designates the border type. The border position designates the border position. The border color specifies the color of the border. The key inversion designation designates whether or not to use the key data by inverting it. The clip value specifies the clip value. The gain value specifies the gain value. The mask designation indicates the presence / absence of mask designation. The mask invert designation designates whether mask inversion is valid or invalid. The mask rectangular area holds the coordinates of the mask rectangular area. The fill flag designates selection of a fill signal.
[0175]
Next, how the clip image data is managed using the first management record data and the second management record data described above will be described with reference to specific examples shown in FIGS. First, the “marking” line shown in FIG. 13 indicates whether the marking is performed at the IN point or the OUT point. In this example, it means that marking is performed 12 times in order from left to IN, IN, OUT, IN, IN, IN, OUT, IN, OUT, IN, IN, OUT. The “index number (INDEX NO.)” Line indicates the index number assigned to the clipped image data of the marked in and out points. This index number is a number assigned to all the clipped image data marked in order regardless of the IN point and OUT point. Accordingly, as shown in FIG. 13, index numbers “1” to “12” are sequentially assigned to the marked clip image data.
[0176]
The “clip number (CLIP NO.)” Line indicates the clip number displayed in the clip number display area 28 d of the clip display area 28. The clip number displayed in the clip number display area 28d is the same number as the index number. In the row of “EVENT NO. (EVENT NO.)”, Event numbers displayed in the event number display area 29d of the event display area 29 are shown. This event number is a number that is automatically assigned in the order of event generation, regardless of the index number and clip number.
[0177]
FIG. 14 is a diagram showing which clip image data is displayed in the clip display area 28, the event display area 29, and the program display area 30 when marking is performed as shown in FIG. In the clip display area 28, clip image data with an index number “1”, clip image data with an index number “4”, clip image data with an index number “5”, and clip image data with an index number “10” are sequentially displayed. Has been.
[0178]
In the event display area 29, the four created events are displayed. That is, the in-point clip image data with the index number “2” is displayed as the event with the event number “1”, the in-point clip image data with the index number “6” is displayed as the event with the event number “2”, and the event The clip image data with the index number “8” at the in-point is displayed as the event with the number “3”, and the clip image data with the index number “11” at the in-point is sequentially displayed as the event with the event number “4”. Clip image data at the out point of each event (clip image data with index number “3”, clip image data with index number “7”, clip image data with index number “9”, and clip image data with index number “12”) ) Is currently not displayed because the corresponding IN-point clip image data is displayed.
[0179]
In the program display area 30, clip image data is not displayed only by specifying the IN point and OUT point. In this example, it is assumed that the four events displayed in the event display area 29 are replaced to create a program as shown in FIG. The program is a sequential program in the order of event number “2”, event number “1”, and event number “3”. Accordingly, in the program display area 30, the clip image data with the index number “6” registered as the event with the event number “2”, the clip image data with the index number “2” registered with the event number “1”, and the event number Clip image data with index number “8” registered as “3” is displayed.
[0180]
However, in this example, clip image data of the “wipe” effect is inserted between the event with the event number “2” and the event with the event number “1”. Further, clip image data of the “wipe” effect is inserted between the event with the event number “1” and the event with the event number “3”. The clip image data of this effect is inserted by dragging and dropping a desired effect from the video effect setting area 25. Details thereof will be described later with reference to FIG.
[0181]
FIGS. 15 to 17 are diagrams showing how clip image data is managed by the first management record data and the second management record data.
[0182]
FIG. 15 shows how the clip image data displayed in the clip display area 28 is managed. Management record data 101 is first management record data for clip data. As shown in FIG. 8, the first management record data 101 for clip data is data for managing the entire area of the clip display area 28 and the position of the clip image data displayed in the clip display area 28. have.
[0183]
Management record data 201 linked after the first management record data 101 is second management record data for clip data. The second management record data 201 is data for managing the clip image data with the index number “1”. As shown in FIG. 9, the second management record data 201 has a clip image data handle indicating the address where the clip image data with the index number “1” is stored.
[0184]
Management record data 204 linked after the second management record data 201 is second management record data for clip data. The second management record data 204 is data for managing the clip image data with the index number “4”, and a clip image data handle indicating the address where the clip image data with the index number “4” is stored. Have.
[0185]
Similarly, after the second management record data 204, the second management record data 205 for managing the clip image data with the index number “5” is linked, and after the second management record data 205, The second management record data 210 for managing the clip image data with the index number “10” is linked.
[0186]
FIG. 16 shows how clip image data displayed in the event display area 29 is managed. The management record data 102 is first management record data for event data. As shown in FIG. 8, the first management record data 102 includes data for managing the entire area of the event display area 29 and the position of the clip image data displayed in the event display area 29. Yes.
[0187]
Management record data 202 linked after the first management record data 102 is second management record data for event data. As shown in FIG. 10, the second management record data 202 includes an IN-point clip image data indicated by an index number “2” and an OUT-point clip image data indicated by an index number “3”. Has data to manage. Specifically, the second management record data 202 includes an in-point clip image data handle indicating an address where the in-point clip image data indicated by the index number “2” is stored, and an index number “3”. And an out-point clip image data handle indicating an address at which the out-point clip image data is stored.
[0188]
Similarly, after the second management record data 202, second management record data for managing in-point clip image data with index number “6” and out-point clip image data with index number “7”. 206 is linked, and the second management record data 206 is followed by the second management for managing the clip image data at the index point “8” and the clip image data at the index point “9”. The record data 208 is linked, and the second management record data 208 is followed by the second management image data for managing the clip image data at the index point “11” and the clip image data at the index point “12”. Management record Dodeta 211 is linked.
[0189]
FIG. 17 shows how clip image data displayed in the program display area 30 is managed. The management record data 103 is first management record data for program data. As shown in FIG. 8, the first management record data 103 includes data for managing the entire area of the program display area 30 and the position of clip image data displayed in the program display area 30. Yes.
[0190]
After the first management record data 103 for program data, an event with the number “2” composed of the in-point clip image data with the index number “6” and the out-point clip image data with the index number “7”. The second management record data 206 for managing the effect is linked, and the second management record data 201E for managing the effect of the effect number “1” is connected after the second management record data 206. Yes. As shown in FIG. 11, the second management record data 201E has data for managing the effect data indicated by the effect number “1”. After the second management decode data 201E, an event of number “1” composed of in-point clip image data with index number “2” and out-point clip image data with index number “3” is managed. The second management record data 202 is linked to the second management record data 202, and the second management record data 202E for managing the effect of the effect number “2” is connected to the second management record data 202. After the second management record data 202E, an event with a number “3” composed of an IN-point clip image data with an index number “8” and an OUT-point clip image data with an index number “9” is displayed. Second management record data 208 for management is linked.
[0191]
Here, FIG. 16 showing the management of event data is compared with FIG. 17 showing the management of program data. The order of storing the clip image data with the index number “2”, the clip image data with the index number “6”, and the clip image data with the index number “8” is the same as in FIG. 16 and FIG. No change has been made between 17 and 17. That is, this means that the storage position of the clip image data is not changed at all. The difference between FIG. 16 and FIG. 17 is that the link order of the second management record data is changed. That is, in this editing system 1, when changing the event display order, the storage position of the clip image data representing the event is not changed, but the link of the second management record data directly managing the clip image data is changed. The order is changed. Thereby, in this editing system 1, the special effect that the display order of an event can be changed at high speed is acquired.
[0192]
Further, not only the change of the event display order but also the change of the display order of the clip image data displayed in the clip display area 28 is exactly the same. For example, even if the clip image data is deleted or newly added and the display order of the clip image data is changed, the second management record is not actually moved to the clip image data storage position. The display order can be easily changed simply by modifying the link order by modifying the link information of the data (that is, the pointer portion to the data linked before and after).
[0193]
The same applies to effects. That is, in this example, video effect data (effect data) is handled in the same manner as clip image data (thus, video effect data is also referred to as effect setting clip image data). As a result, the change or deletion of the order is processed only by changing the link order of the corresponding second management record data. As a result, the effect can be processed at high speed.
[0194]
Next, the marking operation from the first marking to the twelfth marking in FIG. 13 will be specifically described below including the movement of each circuit block. First, before starting marking, the start address of the area for storing work data secured in the RAM 10b includes the first management record data 101 for clip data, the first management record data 102 for event data, The first management record data 103 for program data has already been generated. However, in this state, there is no second management record data linked to any of the first management record data, so that the own address is stored in the “pointer to the data linked later”. Has been.
[0195]
[First marking (In point)]
When the first marking is performed, the clip image data of 95 pixels × 60 pixels is formed by controlling reading from the frame memory 11c. The formed clip image data is stored in the empty area of the RAM 10b as clip image data with the index number “1”. Simultaneously with this storage, the formed clip image data is displayed in the in-clip display area 24a. At this time, the second management record data 201 for managing the clip image data is temporarily stored in a register in the CPU 10 and is not stored in the RAM 10b. The reason is that at this time, it is still unclear which management record data the second management record data 201 is linked to.
[0196]
[Second marking (In point)]
When the second marking is performed, the clip image data with the index number “2” is similarly formed and stored in the empty area of the RAM 10b. At this time, since the In point is marked twice, the clip image data with the index number “1” displayed in the in clip display area 24a is not used as an event. Therefore, the clip image data with the index number “1” displayed in the in-clip display area 24 a is moved to the clip display area 28. Further, by this second marking, it is determined that the second management record data 201 for managing the clip image data with the index number “1” is linked to the first management record data 101 for clip data. Accordingly, as shown in FIG. 15, the second management record data 201 temporarily stored in the register of the CPU 10 is stored in the RAM 10 b so as to be linked to the first management record data 101.
[0197]
On the other hand, the clip image data with the index number “2” generated by the second marking is newly displayed in the in-clip display area 24a in place of the clip image data with the index number “1”. Similar to the first marking, the second management record data 202 for managing the clip image data of the index number “2” is newly temporarily stored in a register in the CPU 10.
[0198]
[3rd marking (out point)]
When the third marking is performed, similarly, the clip image data with the index number “3” is formed and stored in the empty area of the RAM 10b. Since this third marking is the out point, an event is formed in which the clip image data with the index number “2” is the in point and the clip image data with the index number “3” is the out point. Therefore, the clip image data with the index number “2” displayed in the in-clip display area 24a is copied to the event display area 29 while being displayed in the in-clip display area 24a. Also, by this third marking, it is determined that the second management record data 202 for managing the clip image data with the index number “2” stored in the register is linked to the first management record data 102 for event data. Is done. Therefore, as shown in FIG. 16, the second management record data 202 temporarily stored in the register of the CPU 10 is stored in the RAM 10 b so as to be linked to the first management record data 102.
[0199]
On the other hand, the clip image data with the index number “3” generated by the third marking is newly displayed in the out clip display area 24d. The second management record data 202 for managing the clip image data with the index number “3” is not stored in the register in the CPU 10 because it is determined to link to the first management record data 102. .
[0200]
[Fourth marking (in point)]
When the fourth marking is performed, similarly, clip image data with the index number “4” is formed and stored in the empty area of the RAM 10b. Simultaneously with this storage, the formed clip image data is displayed in the in-clip display area 24a. Similarly to the first marking, the second management record data 204 for managing the clip image data with the index number “4” is temporarily stored in a register in the CPU 10. Note that the clip image data of the index number “3” displayed in the out clip display area 24d is already stored, and thus is cleared from the out clip display area 24d.
[0201]
[Fifth marking (in point)]
When the fifth marking is performed, similarly, clip image data with the index number “5” is formed and stored in the empty area of the RAM 10b. In this case, since the IN point is marked twice in succession, the clip image data with the index number “4” displayed in the in clip display area 24 a is moved to the clip display area 28. As a result of the fifth marking, the second management record data 204 stored in the register of the CPU 10 is stored in the RAM 10b so as to be linked to the second management record data 201 as shown in FIG. The
[0202]
On the other hand, the formed clip image data with the index number “5” is displayed in the in-clip display area 24a. Similarly to the fourth marking, the second management record data 205 for managing the clip image data with the index number “5” is temporarily stored in a register in the CPU 10. Hereinafter, since the same processing is performed for the subsequent markings, the description is omitted here.
[0203]
In the example shown in FIG. 14, a predetermined event is copied from the event display area 29 to the program display area 30, and an effect is inserted between the predetermined events. Next, the operation in this case will be described with reference to FIG.
[0204]
That is, when marking is performed as described above, in the event display area 29, the clip image data with the index number “2” constituting the event with the event number “1” and the index constituting the event with the event number “2” are displayed. The clip image data of the number “6”, the clip image data of the index number “8” constituting the event of the index number “3”, and the clip image data of the index number “11” constituting the event of the event number “4” are included. Are displayed in order.
[0205]
In this state, when the user operates the mouse 2d to drag and drop the clip image data with the index number “6” onto the program display area 30, the first management record data 103 is displayed as shown in FIG. , Second management record data 206 for managing an event composed of the IN-point clip image data with the index number “6” and the OUT-point clip image data with the index number “7” is the first management record data. 103 linked.
[0206]
Similarly, when the in-point clip image data with the index number “2” displayed in the event display area 29 is dragged and dropped to the position behind the index number “6” in the program display area 30, the second point is displayed. In the management record data 206, a second event for managing an event with an event number “1” composed of an IN-point clip image data with an index number “2” and an OUT-point clip image data with an index number “3”. Management record data 202 is linked.
[0207]
Similarly, the clip image data of the index number “2” on the program display area 30 is operated by operating the mouse 2d on the clip image data of the index number “8” displayed on the event display area 29. When dragging and dropping to the back of the second, the second event that manages the event with event number “3” composed of the clip image data with the index number “8” and the clip image data with the index number “9” and the out point. Management record data 208 is linked to the second management record data 202.
[0208]
In this state, a predetermined effect is selected from the video effect setting area 25 and dragged between the clip image data with the index number “6” and the clip image data with the index number “2” in the program display area 30. When the AND drop is performed, the link destination after the second management record data 206 is changed from the second management recorder 202 so far to the second management record data 201E of the effect number “1”. Further, the link destination before the second management record data 202 is changed from the second management record data 206 so far to the second management record data 201E.
[0209]
Similarly, the effect number “2” is selected from the video effect setting area 25, and is selected between the clip image data with the index number “2” and the clip image data with the index number “8” on the program display area 30. When the user drags and drops, the link destination after the second management record data 202 is changed from the second management record data 208 so far to the second management record data 202E for managing the effect number “2”. The The link destination before the second management record data 208 is also changed from the second management record data 202 so far to the second management record data 202E.
[0210]
As described above, the video effect data (effect setting clip image data) is processed in the same manner as normal clip image data.
[0211]
<Configuration of hybrid recorder>
Next, the hybrid recorder 3 (3a to 3d) will be described with reference to FIG. As shown in FIG. 18, the hybrid recorder 3 includes a hard disk drive (HDD) 300 having a plurality of array structures that can record and reproduce an input video signal V1 almost simultaneously, and its A video tape recorder (VTR) 301 that backs up recording and reproduction to the hard disk drive 300 is provided, and thereby, for example, video at a decisive moment is reproduced while constantly recording video during sports broadcasting. In addition, even if a recording or playback error occurs in the hard disk drive 300, the video tape recorder 301 can be backed up and recorded and played back reliably without missing the video at the decisive moment. Yes.
[0212]
The configuration of the hybrid recorder 3 will be specifically described below. First, the hybrid recorder 3 is provided with an interface unit 302 based on a communication protocol of RS-422, and recording start, recording end, and playback start sent from the external interface 18 of the computer 2 by the interface unit 302, A control command such as playback end is received. The interface unit 302 passes the received control command to the CPU 303.
[0213]
The CPU 303 controls the overall operation of the hybrid recorder 3 and controls the operation of each unit according to the control command received from the interface unit 302. As a result, the hybrid recorder 3 records the input video signal V1 and audio signal A1, reproduces the recorded video signal, and outputs it as a reproduced video signal V3 and audio signal A3.
[0214]
First, a video signal V1 and an audio signal A1 continuously supplied from the source side of a video camera or the like are converted from serial data to parallel data by a serial / parallel (S / P) converter 314. , Input to the first switch 304. In addition to this, the video signal output from the decoder 305 is also input to the first switch 304. The first switch 304 selects a video signal to be recorded on the hard disk drive 300 and the video tape recorder (VTR) 301 based on a control signal from the CPU 303, and is output from the video signal V 1 or the decoder 305. One of the video signals is selected and output to the encoder 306.
[0215]
Since the video signal V1 is normally recorded, the video signal V1 is selected as the first switch 304. Incidentally, when the video signal output from the decoder 305 is selected, the video signal recorded on the hard disk drive 300 is transferred to the video tape recorder 301 for recording.
[0216]
The encoder 306 converts the analog video signal supplied from the first switch 304 into a digital video signal and compresses the digitized video signal in units of frames based on the MPEG standard (Moving Picture Experts Group). Encode.
[0217]
On the other hand, the audio signal A 1 output from the serial / parallel converter 314 is input to the audio data control unit 317. The audio data control unit 317 also receives an audio signal from the switch 315 that selects one of the audio signal input from the microphone 8 or the audio signal supplied from another device, and outputs an A signal by the A / D converter 316. Supplied after / D conversion. The audio data control unit 317 selects one of the audio signal input from the serial / parallel converter 314 or the audio signal input from the A / D converter 316 under the control of the CPU 303 and outputs the selected audio signal to the encoder 306. ing. The encoder 306 also compresses the audio data input from the audio data control unit 317 based on the MPEG standard, multiplexes it with video data, and outputs it.
[0218]
The audio data control unit 317 is also supplied with playback audio data from the HDD 300 or VTR 301 output from the third switch 310. The audio data control unit 317 processes the reproduced audio data and then supplies it to the decoder 305. Further, the audio data control unit 317 outputs the playback audio data from the HDD 300 or the VTR 301 to the D / A converter 318, performs D / A conversion, and then outputs the audio data to the speaker 320 via the audio out terminal 319. It is made to emit sound.
[0219]
In addition to the encoded video signal and audio signal output from the encoder 306, the video signal and audio signal output from the video tape recorder 301 are also input to the second switch 307. The second switch 307 selects a video signal and an audio signal to be supplied to the hard disk drive 300 based on a control signal from the CPU 303. The encoded video signal and audio signal output from the encoder 306, or video Either one of the video signal and the audio signal output from the tape recorder 301 is selected and output. Since the hard disk drive 300 normally records the encoded video signal and the audio signal, the second switch 307 selects the encoded video signal and the audio signal. Incidentally, when the video signal and the audio signal output from the video tape recorder 301 are selected, the video signal and the audio signal recorded on the video tape recorder 301 are transferred to the hard disk drive 300 for recording.
[0220]
The video signal and audio signal selected by the second switch 307 are input to the input buffer memory 308. The input buffer memory 308 has a storage capacity sufficient to store, for example, 15 frames of video signals and audio signals, and temporarily stores input video signals and audio signals.
[0221]
The hard disk drive 300 includes a hard disk array in which a plurality of hard disks 300A (described later with reference to FIG. 66) are connected in an array, thereby having a sufficient storage capacity for video signals and audio signals. . When a recording operation is instructed by a control signal from the CPU 303, the hard disk drive 300 sequentially reads out the video signal and audio signal stored in the input buffer memory 308 and stores them in the hard disk array in units of frames. Further, when a reproduction operation is instructed by the control signal from the CPU 303, the hard disk drive 300 reads out and reproduces the video signal and the audio signal at the location designated by the CPU 303 from the hard disk array. The reproduced video signal and audio signal are output to an output buffer memory 309 having a storage capacity for 15 frames, for example, and temporarily stored. The output buffer memory 309 sequentially reads out the temporarily stored video signal and audio signal and outputs them to the third switch 310.
[0222]
Here, the recording and reproducing operations of the hard disk drive 300 will be specifically described below. In the hybrid recorder 3, all recording and reproduction operations of the hard disk drive 300 are managed by the CPU 303. Based on the time code output from the time code generator 313, the CPU 303 assigns a time code to each video frame of the video signal to be recorded and assigns a recording address to each video frame of the video signal. The CPU 303 stores the allocated time code and recording address as a correspondence table.
[0223]
During the recording operation, the CPU 303 instructs the hard disk drive 300 about a recording address and a recording command. As a result, the hard disk drive 300 records the video signal at the designated recording address.
[0224]
On the other hand, when a video signal to be read by the time code is instructed from the computer 2 during the reproducing operation, the CPU 303 refers to the correspondence table described above to check where the video frame of the instructed time code is recorded (ie, Check the recording address). Then, the CPU 303 instructs the hard disk drive 300 with the recorded address together with the reproduction command. As a result, the hard disk drive 300 reproduces the video signal from the instructed address (reproduces the video signal requested by the computer 2). In this way, the CPU 303 stores the correspondence relationship between the time code and the recording address as a correspondence table, so that even when the reproduction position is designated by the time code from the computer 2, the designated reproduction position can be reproduced quickly. it can. Note that the audio signal is recorded and reproduced in the same manner as the corresponding video signal.
[0225]
When the external time code (Ext.TC) is supplied from the outside, the time code generation unit 313 described above supplies the external time code as the time code to the CPU 303, and when the external time code is not supplied. Is configured to generate its own time code and supply it to the CPU 303.
[0226]
Next, the roles of the input buffer memory 308 and the output buffer memory 309 provided on the input side and output side of the hard disk drive 300 will be described. The two buffer memories 308 and 309 function as a buffer unit that apparently performs the recording operation and the reproducing operation of the hard disk drive 300 in parallel. The hard disk drive 300 can perform a recording operation at a speed at least twice as fast as the input buffer memory 308 takes in the video signal, and at least 2 times faster than the output buffer memory 309 reads out the video signal. Playback operation can be performed at a speed more than double. For this reason, if the buffer memories 308 and 309 are provided on the input side and the output side, the hard disk drive 300 performs a reproduction operation while the input buffer memory 308 captures the video signal and the audio signal, and stores it in the output buffer memory 309. While the video signal and the audio signal can be stored, and the output buffer memory 309 reads the video signal and the audio signal, the hard disk drive 300 reads the video signal and the audio signal from the input buffer memory 308 and performs a recording operation. be able to. Therefore, if the buffer memories 308 and 309 are provided on the input side and the output side of the hard disk drive 300 in this way, the recording operation and the reproduction operation of the hard disk drive 300 can be apparently performed simultaneously.
[0227]
Here, returning to FIG. 18 again, description of each part will be continued. As described above, the encoded video signal and audio signal output from the encoder 306 are also supplied to the video tape recorder 301. The video tape recorder 301 is provided as a backup for the hard disk drive 300 and performs a recording operation or a reproducing operation based on a control signal from the CPU 303. For example, when the hard disk drive 300 is performing a recording operation, the video tape recorder 301 operates as a recording backup. Therefore, the video tape recorder 301 converts video signals and audio signals input in parallel with the recording operation of the hard disk drive 300 to a video tape. Record. When the hard disk drive 300 receives a command from the CPU 303 and performs a playback operation, the hard disk drive 300 operates as a backup for playback. Therefore, the video signal being reproduced by the hard disk drive 300 and the video signal of the same video frame as the audio signal are operated. The audio signal is reproduced from the video tape and output.
[0228]
The recording and reproducing operations of the video tape recorder 301 are also managed by the CPU 303 as in the hard disk drive 300. However, in the case of a video tape recorder, the position cannot be specified by an address as in the hard disk drive. The time code itself is indicated instead of the address information. That is, the video tape recorder 301 adds and records the time code given from the CPU 303 at the time of recording, and determines the read position based on the time code instructed by the CPU 303 at the time of reproduction to perform the reproducing operation.
[0229]
The video signal and audio signal reproduced from the video tape recorder 301 are input to the third switch 310 in the same manner as the video signal and audio signal reproduced from the hard disk drive 300. The third switch 310 selects a video signal to be output as the reproduction video signal V3 based on a control signal from the CPU 303. That is, the third switch 310 selects one of the video signal reproduced by the hard disk drive 300 and the video signal reproduced by the video tape recorder 301 based on a control signal from the CPU 303. Normally, a video signal reproduced by the hard disk drive 300 is selected. The video signal on the video tape recorder 301 side is selected when an error occurs in the video signal on the hard disk drive 300 side.
[0230]
The video signal selected by the third switch 310 is supplied to the decoder 305. The decoder 305 decodes a video signal that has been compression-encoded in units of frames, and decodes an input video signal based on the MPEG standard. The decoder 305 converts the decoded digital video signal into an analog video signal and outputs it to the first time code adding unit 311.
[0231]
The third switch 310 supplies the selected audio signal to the audio data control unit 317. The audio data control unit 317 performs predetermined processing on the input audio signal and then outputs it to the decoder 305. The decoder 305 decodes the audio signal based on the MPEG standard, multiplexes it with the video signal as an analog audio signal, and outputs it to the first time code adding unit 311.
[0232]
The first time code adding unit 311 adds a time code to the vertical synchronization period of the video signal output from the decoder 305 based on the time code supplied from the CPU 303. However, when the video signal output from the decoder 305 is a video signal reproduced by the video tape recorder 301, since the time code is already added, the video reproduced by the hard disk drive 300 without adding the time code. A time code is added only for signals. Note that the time code added to the video signal is the same as the time code assigned at the time of recording. The video signal to which the time code is added by the first time code adding unit 311 is output to the video effect device 6 as well as the audio signal A3 as a reproduction video signal V3.
[0233]
The hybrid recorder 3 outputs a video signal V2 that is substantially the same as the input video signal V1 in addition to the reproduced video signal V3 and the audio signal A3. The video signal V2 is a video signal obtained by adding a time code to the input video signal V1 by the second time code adding unit 312. In this case, the second time code adding unit 312 adds a time code to the vertical synchronization period of the input video signal V1 based on the time code output from the CPU 303, and outputs this as a video signal V2. At that time, the second time code adding unit 312 adds the time code to the video signal V1 so that the correspondence between the time code and the video frame to which the time code is added becomes the same as that of the video signal V3. For example, if the time code “00: 01: 23: 45” is added to a certain video frame in the first time code adding unit 311, for example, the video frame corresponding to the video frame in the video signal V 1 is The same time code “00: 01: 23: 45” is added.
[0234]
In this way, the hybrid recorder 3 can reproduce the video signal V3 from the hard disk drive 300 while recording the video signal V1 on the hard disk drive 300, so that the recording operation and the reproducing operation can be performed almost simultaneously. Has been made. In the case of the hybrid recorder 3, a video tape recorder 301 is provided as a backup for the hard disk drive 300, so that even if a problem occurs on the hard disk drive 300 side, recording and reproduction operations can be performed reliably. ing.
[0235]
Further, as will be described later with reference to FIG. 53, the audio data control unit 317 attenuates the playback audio signal by a predetermined level and supplies it to the D / A converter 318 when preview playback is performed during voice over editing. Output from the speaker 320.
[0236]
<Playback speed setting>
[Playback speed setting area]
Next, event playback speed setting will be described. In the editing system 1, in either the picture mode or the timeline mode, the display of the video effect setting area 25 is changed to the display of the playback speed setting area 25A, and this is used to change the playback speed of the event in units of frames. It can be set with. This makes it possible to set slow playback for an event at the moment of hitting a home run, for example, in a baseball broadcast, and to slow-play the event of the home run scene to express batter movement and the whereabouts of the ball more realistically Can be provided to the viewer. In addition, since the playback speed can be set in units of frames, for example, a scene with a pitcher throwing a ball performs a relatively early slow playback, and a scene with a batter hitting the ball can set a relatively slow slow playback. By setting different slow playback within the event, it is possible to provide viewers with more powerful video.
[0237]
This point will be specifically described below with reference to FIG. First, the playback speed setting area 25A shown in FIG. 19 displays a pull-down menu by clicking the option button 22h in the timing display area 22, and operates a DMC (Dynamic Motion Control) button to set the video effect. Instead of the area 25, it can be displayed. The playback speed setting area 25A includes a learn button 25Aa, a speed fit button 25Ab, a normal playback speed setting button 25Ac, an event number display unit 25Ad, an event duration display unit 25Ae, a timeline scale display unit 25Af, a time runner display unit 25Ag, and points. It has a display unit 25Ah, an in-point time code display unit 25Ai, an out-point time code display unit 25Aj, and a remaining memory indicator unit 25Ak.
[0238]
The learn button 25Aa is a button used when setting the playback speed using a dedicated controller 2e described later. After clicking the LEARN button 25Aa, when the playback speed information is input using the dedicated controller 2e, the speed information is stored and the event playback speed is set. The speed fit (FIT) button 25Ab is a button used when the playback speed is automatically set by numerically inputting the length from the In point to the Out point (so-called duration) from the keyboard 2c. If the duration value is input from the keyboard 2c after this speed fit button 25Ab is clicked, the optimum playback speed is automatically set based on the duration value.
[0239]
The normal playback speed setting (NORMAL) button 25Ac is a button used to cancel the playback speed setting. When the normal playback speed setting button 25Ac is clicked after designating an event for which the playback speed is set, the set playback speed is canceled and the normal playback speed, that is, the normal speed is set. The event number display section 25Ad is an area for displaying the event number of the designated event. The displayed event number is the same as the event number displayed in the event number display part 29d of the event display area 29.
[0240]
The event duration display section 25Ae is an area for displaying the length from the In point to the Out point of the designated event, that is, the duration. The event duration display unit 25Ae displays the duration in units of frames. The timeline scale display unit 25Af is a scale for visually representing the duration of a designated event, that is, an area representing a scale. The scale displayed on the timeline scale display section 25Af is in frame units.
[0241]
When the playback speed is set by the dedicated controller 2e described later or when an event for which the playback speed is set is previewed, the time runner display unit 25Ag is currently set or played back in the event. It is a position display unit that displays whether or not. In this time runner display section 25Ag, an icon 25ga in the form of a person running is displayed. Depending on the display position of the icon 25ga based on the scale of the timeline scale display section 25Af, the current setting is made. Alternatively, the position within the event being played can be specified. Therefore, the operator can easily understand which position is set or reproduced visually by the position of the icon 25ga.
[0242]
In this case, the icon 25ga moves sequentially from the In point to the Out point along the scale as the setting or reproduction progresses. At this time, the icon 25ga depends on the set reproduction speed. Therefore, the operator can easily visually confirm which part in the event has a high playback speed and which part has a slow playback speed.
[0243]
The point display portion 25Ah is an area that indicates whether there is another in point or out point set during the editing operation between the in point and the out point of the specified event. In the point display section 25Ah, when such another in point or out point exists, the pointer 25ha is displayed at the position. Thus, the operator can easily grasp the existence of other editing points based on the presence or absence of the pointer 25ha. The in-point time code display unit 25Ai and the out-point time code display unit 25Aj are areas for displaying the time code of the in-point and out-point of the selected event, respectively.
[0244]
The memory remaining amount indicator 25Ak indicates the remaining amount with respect to the maximum learn duration when the learn button 25Aa is clicked, the reproduction speed is set using the dedicated controller 2e, and the reproduction speed is stored in the RAM 10b of the CPU 10. It is an area. Since the storage area allocated for setting the playback speed for one event is determined in advance, the remaining amount can be easily calculated by examining the remaining capacity of the storage area. By providing such a memory remaining amount indicator 25Ak, the remaining amount of memory can be visually recognized, so that it is possible to avoid a reproduction speed setting that exceeds the maximum learn duration.
[0245]
<Dedicated controller>
Next, the dedicated controller 2e used for setting the playback speed will be described with reference to FIG. As shown in FIG. 20, the dedicated controller 2e has a search dial 400 that is a rotary encoder and a motion control lever 401 that is a slide encoder in addition to a plurality of operation buttons. Thus, the playback speed can be freely input by manual operation.
[0246]
First, the arrangement of operation buttons provided on the operation panel surface of the dedicated controller 2e will be described. In the upper center of the operation panel, there are a LEARN button 402, a START button 403, a STOP button 404, a recording side selection (R) button 405, a playback side selection (P) button 406, a play ( A PLAY button 407, a STILL button 408, a mark in button 409, and a mark out button 410 are provided. Further, the above-described search dial 400, a shuttle (SHUTTL) button 411, a jog (JOG) button 412, a variable (VAR) button 413, and a variable indicator 414 are provided below the operation buttons.
[0247]
On the other hand, on the right side of the operation panel, a preview button 415, a cursor button 416, and an enter button 417 are provided in order from the top. On the other hand, the above-described motion control lever 401 is provided on the left side of the operation panel so as to be slidable with respect to the upper and lower sides of the operation panel.
[0248]
Of these operation buttons, the learn button 402 is a button used for setting the playback speed by the motion control lever 401 or the search dial 400 and storing it. After the learn button 402 is pressed, the playback speed is stored from when the motion control lever 401 or the search dial 400 is operated until the markout button 410 is pressed. The Learn button 402 is functionally substantially the same as the Learn button 25Aa displayed in the playback speed setting area 25A.
[0249]
The start button 403 is a button operated when outputting a recording start command to the hybrid recorder 3 and recording a video signal displayed in the recording video display area 21. The stop button 404 is a button operated when outputting a recording stop command to the hybrid recorder 3 and stopping the recording operation of the video signal displayed in the recording video display area 21. These buttons 403 and 404 are functionally the same as the recording start and end buttons 31a displayed on the monitor 2b.
[0250]
The recording side selection button 405 and the reproduction side selection button 406 are buttons used when selecting an object to be controlled by the dedicated controller 2e. When the recording side is controlled by the dedicated controller 2e, the recording side selection button 405 is pressed, and when the playback side is controlled, the playback side selection button 406 is pressed.
[0251]
The play button 407 is a button used when a playback start command is output to the hybrid recorder 3 and a video signal is displayed in the playback video display area 23. The still button 408 is a button used when a playback stop command is output to the hybrid recorder 3 to stop the playback operation of the video signal displayed in the playback video display area 23. When the still button 408 is pressed, a still image is displayed on the playback video screen 23a.
[0252]
A mark-in button 409 and a mark-out button 410 are buttons used when setting an in point and an out point, respectively. These buttons 409 and 410 operate in the same manner as the mark-in button 24c and the mark-out button 24f of the recording video marking area 24 when the recording-side selection button 405 is pressed, and the reproduction-side selection button 406 is selected. When pressed, it operates in the same manner as the mark-in button 27c and the mark-out button 27f in the playback video marking area 27.
[0253]
The shuttle button 411 is a button that is pressed when the search dial 400 is to be operated in the shuttle mode, and the jog button 412 is a button that is pressed when the search dial 400 is to be operated in the jog mode. The variable button 413 is a button that is pressed when the search dial 400 is to be operated in the variable mode or when the motion control lever 401 is to be operated. When the variable button 413 is pressed once, the variable indicator 414 on the right side is lit and the search dial 400 is set to the variable mode. When the button is pressed again, the variable indicator 414 on the left side is lit and the motion control lever 401 is turned on. When the state becomes usable and is pressed once more, the left and right variable indicators 414 are turned off and the search dial 400 and the motion control lever 401 become unusable.
[0254]
The preview button 415 has the same function as the preview button 45b of FIG. 6 and the preview button 32 of FIGS. 5 and 6, and is a button used when it is desired to preview the selected event or program. When the preview button 415 is pressed while an event or program is selected, a playback start command for the event or program is output to the hybrid recorder 3, and the video signal of the event or program is displayed on the playback video screen 23a.
[0255]
The cursor button 416 includes four buttons, an up button, a down button, a left button, and a right button. When the clip image data is selected in the clip display area 28, the event display area 29, or the program display area 30, This is a button for moving the cursor to.
[0256]
Two types of functions are assigned to the enter button 417. One is a function of inputting a registration instruction when newly registering an event from an IN point to an OUT point set in the playback video marking area 27 (the same as the new event button 33 displayed on the monitor 2b). The other is a function for inputting a transmission instruction when a selected event or program is transmitted.
[0257]
The search dial 400 is a rotary encoder that inputs reproduction speed information according to the rotation operation of the operator. As described above, the search dial 400 operates in the three modes of the shuttle mode, the jog mode, and the variable mode by pressing the shuttle button 411, the jog button 412, and the variable button 413.
[0258]
First, in the shuttle mode, playback speed information from -100 times speed to +100 times speed can be input depending on the rotational position of the search dial 400. In this mode, the search dial 400 is in a click state at the still image, + 10 × speed and −10 × speed positions.
[0259]
In the jog mode, playback speed information from -1 times speed to +1 times speed can be input according to the rotational position of the search dial 400. Furthermore, in the variable mode, playback speed information from -1 × speed to + 3 × speed can be input depending on the rotational position of the search dial 400. In this mode, the search dial 400 is in a clicked state at a still image and + 1 × speed position.
[0260]
In this way, the jog mode that can set the fine playback speed by narrowing the control range, the shuttle mode that can set a wide range by setting the coarse playback speed, or the variable mode that widens the setting range on the plus side can be selected. As a result, the operator can switch the playback speed according to his / her desired playback speed and freely set the playback speed.
[0261]
The motion control lever 401 is a slide encoder that inputs reproduction speed information according to an operator's slide operation. By sliding the motion control lever 401 up and down, it is possible to input reproduction speed information from a still image to + 1 × speed. A range expansion button 401a is provided on both sides of the motion control lever 401. By pressing the range expansion button 401a, the reproduction speed information that can be input is changed to a range from -1 to +3 times speed. Can be extended.
[0262]
As described above, by allowing the motion control lever 401 to input the reproduction speed information from the still image to the + 1 × speed, the operator can freely set the reproduction speed within the range. As a mechanism for inputting playback speed information, a rotary operation type search dial 400 and a slide operation type motion control lever 401 are provided, so that an operator can select the user's easy-to-use one and input the playback speed information. Can improve usability.
[0263]
Note that the instruction information input from the various operation buttons of the dedicated controller 2e described here and the playback speed information input from the search dial 400 and the motion control lever 401 are sent to the CPU 10 via the pointing device interface 17. . Thus, the CPU 10 performs operation control according to the instruction information and performs a reproduction operation according to the reproduction speed information for the designated event. When the learn button is pressed, the CPU 10 stores the reproduction speed information in the RAM 10b as the reproduction speed of the designated event.
[0264]
Incidentally, when storing the reproduction speed information, for example, it is stored in a data format as shown in FIG. That is, the speed data is stored for each video frame from the In point to the Out point of the designated event. The speed data is digital data output from the search dial 400 or the motion control lever 401 and decoded by the pointing device interface 17. During playback, the CPU 10 reads the speed data stored in this format and controls the playback speed. At this time, the CPU 10 performs an operation of v = 10 (N / 32−2), where N is the speed data and v is the reproduction speed, and the obtained value is set as the reproduction speed. Therefore, for example, when the speed data N is “64”, the reproduction speed is “1.0”, and when the speed data N is “32”, the reproduction speed is “0.1”.
[0265]
<How to set the playback speed>
Next, a setting procedure for setting the playback speed using the playback speed setting area 25A will be described. First, there are roughly three methods for setting the playback speed. The first method is a method of inputting playback speed information (speed data) from the keyboard 2c without using the dedicated controller 2e. The second method is to specify the event and use the dedicated controller 2e to play back the playback speed. This is a method for inputting information (speed data). The third method is a method for inputting reproduction speed information using the dedicated controller 2e without designating an event.
[0266]
In the case of the first method, first, from the event display area 29, a desired event for which a playback speed is desired is clicked and specified. Next, an option button 22h in the timing display area 22 is clicked to display the reproduction speed setting area 25A. The number and duration of the specified event are displayed in it. Next, the speed fit button 25Ab in the reproduction speed setting area 25A is clicked. As a result, the playback speed information can be input from the keyboard, so the operator inputs the playback speed information. In this case, the playback speed information (speed data) itself is not actually input, but a duration value is input. By this operation, the optimum reproduction speed corresponding to the duration value is automatically set for the event.
[0267]
Thereafter, if the event is to be previewed, the preview button 32 may be clicked. If the set playback speed is to be saved, the new event button 33 or the replace button 35 may be clicked.
[0268]
In the case of the second method, first, a desired event whose playback speed is desired to be set is clicked from the event display area 29 and designated. Next, the option button 22h in the timing display area 22 is clicked. As a result, a playback speed setting area 25A is displayed, in which the number and duration of the designated event are displayed. Next, the learn button 25Aa in the reproduction speed setting area 25A is clicked. As a result, the playback speed can be set, and the motion control lever 401 or the search dial 400 of the dedicated controller 2e is operated to input playback speed information. The input reproduction speed is sequentially stored in the RAM 10b of the CPU 10. Thereafter, if the setting of the playback speed is to be ended, the setting of the playback speed is ended by pressing the markout button 27f of the playback video marking area 27 or the markout button 410 of the dedicated controller 2e at the position to be ended. If the set playback speed is to be saved, the new event button 33 or the replace button 35 may be clicked.
[0269]
In the case of the third method, first, the learn button 402 of the dedicated controller 2e is pushed at a desired position while viewing the playback video screen 23a in the playback video display area 23. Thus, the IN point is set and the playback speed can be set. Similarly, the playback speed information may be input by operating the motion control lever 401 or the search dial 400 of the dedicated controller 2e. The input reproduction speed is sequentially stored in the RAM 10b of the CPU 10. Thereafter, if the setting of the playback speed is to be ended, the setting of the playback speed is ended by pressing the markout button 27f of the playback video marking area 27 or the markout button 410 of the dedicated controller 2e at the position to be ended. If the set playback speed is to be saved, the new event button 33 or the replace button 35 may be clicked.
[0270]
<Pre-roll mode>
Next, the pre-roll mode provided in the editing system 1 will be described. In general, when generating an event, the operator clicks the mark-in button 24c or the mark-out button 24f in the recording video marking area 24 while watching the video data displayed on the recording video screen 21a, and selects the in-point or out-point. Point to the point. Thereby, in the editing system 1, video data from the designated in point to out point is registered as an event. When confirming the registered event, the operator clicks and designates the event displayed in the event display area 29 and then clicks the preview button 32. Thereby, the playback operation of the event is started, and the video data from the IN point to the OUT point of the event is displayed on the playback video screen 23a.
[0271]
By the way, when instructing the in point of the event, the operator operates the mark in button 24c while viewing the video data displayed on the recording video screen 21a, so that the in point is instructed. Due to the operational delay, etc., the IN point may be instructed after the scene to be registered as an event. For example, when registering a scene of hitting a home run in a baseball broadcast as an event, it is generally desirable to register as an event from when the pitcher throws the ball until the batter hits the ball. Whether the ball is a home run or not is not known until the ball hit by the batter stands in, so inevitably it will be delayed to indicate the in point. In such an event where the IN point is delayed, since an important scene is not included, the event must be corrected.
[0272]
Therefore, in the case of the editing system 1, there is a pre-roll mode in which the reproduction operation is automatically started from a position before a predetermined time from the position of the in point designated by the operator and the marking point can be easily corrected. Is provided. This pre-roll mode will be specifically described below.
[0273]
First, the time used in the pre-roll mode, that is, the time for shifting the playback start point before the IN point specified by the operator (hereinafter referred to as the cue-up time) can be freely set in the menu environment settings. Has been made to get. When setting this cue-up time, an environment setting prepared as a menu is called and a cue-up item is selected. By selecting this cue-up item, a cue-up setting screen as shown in FIG. 22 is displayed on the screen. In this cue-up setting screen, after clicking the set time display area 500 and inputting the time to be set as the cue-up time from the keyboard 2c in seconds, the time is displayed in the set time display area 500 and temporarily set. The
[0274]
When a button in a desired direction is clicked among the jog buttons 501 adjacent to the set time display area 500, the time is shifted in the direction in seconds. Therefore, the jog button 501 is used. You may enter the queue up time.
[0275]
When the set button 502 is clicked after inputting the cue-up time in this way, the time displayed in the set-time display area 500 is formally registered as the cue-up time. Specifically, the input cue-up time is stored in the environment setting data storage area of the RAM 10b. Note that when the cancel button 503 is clicked, the time displayed in the set time display area 500 is reset, and the cue-up time can be newly input. Incidentally, when the setting button 502 is clicked, this cue-up setting screen automatically disappears from the screen.
[0276]
When the pre-roll button 22e in the timing display area 22 is clicked with the cue-up time set in this manner, the pre-roll mode is instructed to be activated, and the pre-roll button 22e is lit to activate the pre-roll mode. To do. In order to cancel the pre-roll mode, clicking the pre-roll button 22e again will instruct the end of the pre-roll mode, thereby turning off the pre-roll button 22e and releasing the pre-roll mode.
[0277]
When the operator clicks the mark-in button 24c in the recording video marking area 24 while the pre-roll mode is activated, the in-point is instructed and the clip image data instructed as the in-point is displayed in the in-clip display area 24a. Is displayed. At the same time, the set cue-up time is read out, and as shown in FIG. 23, the time code at the position shifted by the cue-up time is calculated from the time code at the position designated as the IN point. Is done. Then, by outputting a playback command to the hybrid recorder 3 using the calculated time code position as a playback start point, the editing system 1 automatically starts a playback operation from the playback start point. The reproduced video signal V3 is displayed on the reproduced video screen 23a as the video signal V6 via the video effect device 6, so that the operator can view the reproduced video screen 23a while viewing the reproduced video screen 23a. By clicking 27c, the IN point can be easily corrected. After that, when the mark-out button 27f is clicked to indicate the out point and the new event button 33 is clicked, the video data of the section from the in point to the out point is registered as an event.
[0278]
In this way, if the pre-roll mode is activated in advance, for example, when the ball hit by a batter at the time of baseball relaying stands in, even if the mark-in button 24c is clicked to indicate the in-point, the in-point Since the playback operation is automatically performed from a position before a predetermined time from the start, it is possible to easily correct the In point by simply clicking the playback side mark-in button 27c and instructing the In point while viewing the playback screen Can do. For example, if the IN point is corrected when the pitcher throws the ball, an event including a desired scene such as the moment when the batter hits the ball can be easily created in real time.
[0279]
<Work data folder>
Next, in this section, the work data folder will be described. In the editing system 1, work data related to events, programs, and the like generated by the editing operation is normally stored in the RAM 10b. However, when the application program is terminated and the editing operation is terminated, the work data is stored in the editing system 1. It is downloaded to a hard disk drive 15a provided inside the computer 2 and stored in the hard disk in the hard disk drive 15a. At this time, the work data is stored in a hierarchical structure called a folder.
[0280]
Here, this point will be specifically described below with reference to FIG. As shown in FIG. 24, work data related to events, programs, and the like are stored in a hierarchical structure called folders. This folder is almost the same as a directory in MS-DOS or the like. The work data folder 600 is set as the highest hierarchy, and lower folders 601 to 603 are formed under the hierarchy of the work data folder 600. It is designed to memorize while managing with the structure. The work data folder 600 is formed on the hard disk drive 15a by the computer 2 when the editing system 1 is activated.
[0281]
First, clip image data displayed in the clip display area 28, the event display area 29, the program display area 30, or the like is clipped as a clip image file below the clip folder 601 formed under the work data folder 600, respectively. Stored in data units. The contents of the clip image file are clip image data itself, and video data indicating the clip image is written therein. As the file name of the clip image file, as shown in parentheses, a name obtained by adding an extension “.pic” to the index number assigned to each clip image data is used.
[0282]
Symbol image data registered as a representative clip image in the event is stored in symbol image data units as symbol image files under the symbol folder 602 formed under the work data folder 600. As the contents of the symbol image file, video data indicating a symbol image is written. As the file name of the symbol image file, as shown in parentheses, a name obtained by adding the extension “.pic” to the event number including the symbol image is used.
[0283]
Work data relating to the program is stored as a program file directly under the work data folder 600 without forming a lower folder. In this program file, event numbers of events constituting the program are written in order, so that it is possible to know which event the program is formed by referring to the program file. It has become. As the file name of the program file, a name obtained by adding “.dat” to the extension to “PROG” indicating the program file is used.
[0284]
Work data related to events is also stored as event files directly under the work data folder 600 without forming a lower folder. In this event file, the clip numbers of the In and Out points are written in order for each event number. By referring to the event file, the In and Out points that form each event are written. You can see the clip number. As the file name of the event file, a name obtained by adding “.dat” to the extension “EVNT” indicating the event file is used.
[0285]
Work data related to clip image data is also stored as a clip file directly under the hierarchy of the work data folder 600 without forming a lower folder. In this clip file, the index number and time code of the clip image data are written in order for each clip number. By referring to the clip file, each clip image data is assigned to which index number. It is possible to know whether the image data is formed. As the file name of the clip file, a name obtained by adding “.dat” to the extension “CLIP” indicating that the file is a clip file is used.
[0286]
Further, the speed data (see FIG. 21) indicating the playback speed of the event set using the playback speed setting area 25A is stored as a slow data file under the hierarchy of the slow data folder 603 formed under the work data folder 600. Stored in units. In this slow data file, speed data as shown in FIG. 21 is written for each frame. By referring to the slow data file, the playback speed set for the event is set. You can know. As the file name of the slow data file, as shown in parentheses, a name obtained by adding an extension “.dat” to the event number assigned to each event is used.
[0287]
In this way, in the editing system 1, when the application program is terminated, work data relating to events, programs, and the like generated by the editing operation is stored in the hard disk of the hard disk drive 15a in a hierarchical structure. As a result, when the application program is restarted, these work data stored in the hard disk can be read and the same clip image data as before can be displayed in the program display area 30, the event display area 29, etc. It is possible to return to the state before the end. Further, by storing the work data in this way, the work data can be read out later and an edit list such as an EDL (Edit Decision List) can be output.
[0288]
<Description of computer operation>
In this section, the operation of the computer 2 in each process will be described using a flowchart. Note that the flowcharts used in the following description basically describe the operation of the CPU 10.
[0289]
(Initial operation)
First, the initial operation of the computer 2 will be described with reference to FIG. First, when execution of an application program is designated by the operator in step S1, the CPU 10 of the computer 2 starts operation. In the next step S2, since the application program is stored in the hard disk of the hard disk drive 15a, the CPU 10 uploads the application program to the operation RAM 10b provided in the CPU 10.
[0290]
In the next step S3, the CPU 10 executes the application program uploaded to the RAM 10b. In the next step S4, the CPU 10 secures a memory area in the RAM 10b for storing a plurality of clip image data, editing data, and the like generated by editing work to be performed. At this time, the first management recorder for clip data, event data, and program data as shown in FIGS. 15 to 17 is also generated in the RAM 10b.
[0291]
In the next step S5, the CPU 10 generates a work data folder for storing work data related to programs and events generated by editing work to be performed on the hard disk of the hard disk drive 15a.
[0292]
In the next step S6, in order to display a graphic display for GUI on the monitor 2b, the CPU 10 transfers the graphic data to the VRAM 13b in real time in synchronization with the internal clock of the computer 2. As a result, in the next step S7, the same graphic as the graphic data stored in the VRAM 13b is displayed on the monitor 2b.
[0293]
In the next step S8, the CPU 10 determines whether or not to display the video signal V2 on the recording video screen 21a. This determination is made based on the designation of video display by the operator. If the video display is not designated, it is determined that the editing operation is not performed, the process proceeds to step S16, and the process is terminated. In a normal case, since video display is designated for performing an editing operation, the process proceeds to step S9 to proceed to display processing of the video signal V2.
[0294]
In step S9, the CPU 10 outputs an RS-422 control command to the hybrid recorder 3, thereby instructing the hybrid recorder 3 to output the video signal V2. Receiving this, the hybrid recorder 3 adds a time code to the input video signal V 1 to generate a video signal V 2 and sends it to the computer 2.
[0295]
In the next step S10, the data converter 11b extracts a time code from the input composite video signal V2, and converts the composite video signal V2 into digital component video data. The converted video data is input to the frame memory 11c and temporarily stored in units of frames. The extracted time code data is supplied to the processor controller 11a and sent to the CPU 10 via the processor controller 11a.
[0296]
In the next step S11, the video data stored in the frame memory 11c is transferred to the VRAM 13b. The video data to be transferred is video data reduced to 380 pixels × 240 pixels because the number of read samples from the frame memory 11c is small. At this time, by arbitrating the image data bus 5a, image data for the GUI is transferred from the CPU 10 to the VRAM 13b in addition to the video data. At this time, by updating the video data stored in the VRAM 13b in real time, the video data can be displayed on the monitor 2b in real time.
[0297]
In the next step S12, the image data and video data stored in the VRAM 13b are displayed on the monitor 2b in real time. In the next step S13, the CPU 10 determines whether or not the video data displayed on the recording video screen 21a is to be recorded on the hybrid recorder 3. This determination is made based on the recording start and the click operation of the end button 31a by the operator. That is, if the recording start and end button 31a is clicked, it is determined that video data is to be recorded, and the process proceeds to the next step S14. If the recording start and end button 31a is not clicked, it is determined that no video data is recorded, and step S16 is performed. Proceed to ending the process.
[0298]
In step S <b> 14, the CPU 10 sends a recording start command to the external interface 18. Receiving this, the external interface 18 converts the recording start command into a communication format of the RS-422 standard and sends it to the hybrid recorder 3. Thereby, the hybrid recorder 3 starts the recording operation of the input video signal V1.
[0299]
In the next step S15, since the recording operation is started by the hybrid recorder 3, the CPU 10 determines that all the initial settings have been completed and ends the procedure of the initial operation as shown in this flowchart.
[0300]
[Marking on the recording side]
Next, marking using the recording video marking area 24 will be described with reference to a flowchart shown in FIG. This marking can be understood more easily by referring to the description of FIGS.
[0301]
First, when the procedure of the initial operation shown in FIG. 25 is completed, the marking operation can be performed, and the process starts from step S20. In step S21, the CPU 10 determines whether or not new marking has been performed. The determination of whether or not marking has been performed is made based on whether or not the mouse 2d has been clicked with the cursor positioned within the area of the mark-in button 24c or mark-out button 24f of the recording video marking area 24. At that time, since an interrupt command is generated by a click operation of the mouse 2d, the CPU 10 determines marking according to the generation of the interrupt command. As a result of the determination, if the mark-in button 24c is clicked, it is determined that an in-point has been specified, and the process proceeds to step S22. If the mark-out button 24f has been clicked, it is determined that an out-point has been specified. Then, the process proceeds to step S30.
[0302]
In step S22, IN-point clip image data is generated. This IN-point clip image data is generated by reading the video data stored in the frame memory 11c into the VRAM 13b. At this time, since the data amount is thinned out to 1/16 by reducing the number of read samples, clip image data having an image size of 95 pixels × 60 pixels is generated.
[0303]
In step S23, the IN-point clip image data stored in the storage area for the in-clip display area of the VRAM 13b is read and displayed in the in-clip display area 24a.
[0304]
In step S24, the CPU 10 determines whether or not the marking in step S21 is the first in-point marking. As a result, if it is the first marking, the process returns to step S21, and if it is the second or more marking, the process proceeds to step S25.
[0305]
In step S25, the CPU 10 determines whether or not the previously marked clip image data is IN-point clip image data. As a result, if the previously marked clip image data is the IN-point clip image data, the process proceeds to step S26. If the previously marked clip image data is the OUT-point clip image data, the process proceeds to step S27. Proceed to
[0306]
In step S <b> 26, the in-point clip image data marked earlier is moved to the clip display area 28. That is, since the IN point is marked twice in succession, the clip image data marked earlier is not used as an event but moved to the clip display area 28. At this time, as shown in FIGS. 13 to 17, second management record data for the clip image data moved to the clip display area 28 is generated.
[0307]
On the other hand, in step S27, the CPU 10 determines whether or not an event has been generated based on the clip image data of the out point marked previously. As a result, if an event has been generated by the previous marking, the process proceeds to step S29, and if an event has not been generated by the previous marking, the process proceeds to step S28.
[0308]
In step S28, the clip image data of the out point that has been displayed in the out clip display area 24d by the previous marking is moved to the clip display area 28. This is because the out-point clipped image data generated by the previous marking is not used as an event, but may be used in the future and is therefore left as a marking history.
[0309]
On the other hand, in step S29, the clip image data of the out point displayed in the out clip display area 24d is cleared. In this case, the clip image data displayed in the out clip display area 24d has already been used as an out point of the event, so it is not necessary to display any more.
[0310]
On the other hand, if out-point marking has been detected in the determination in step S21, the process proceeds to step S30 to generate clip image data of the out-point here. This out-point clipped image data is also generated by reading the video data stored in the frame memory 11c into the VRAM 13b. Also in this case, at the time of reading, clip image data of 95 pixels × 60 pixels is generated by thinning the data amount to 1/16.
[0311]
In step S31, the out-point clip image data stored in the storage area for the out-clip display area of the VRAM 13b is read and displayed in the out-clip display area 24d.
[0312]
In the next step S32, the CPU 10 determines whether or not the marking in step S21 is the first out-point marking. As a result, if it is the first marking, the process returns to step S21, and if it is the second or more marking, the process proceeds to step S33.
[0313]
In step S33, the CPU 10 determines whether or not the previously marked clip image data is IN-point clip image data. As a result, if the previously marked clip image data is the IN-point clip image data, the process proceeds to step S34, and if the previously marked clip image data is the OUT-point clip image data, the process proceeds to step S36. Proceed to
[0314]
In step S <b> 34, the CPU 10 registers the section from the previously marked in point and the later marked out point as an event. As described above, in the editing system 1, when the out point is marked after the in point, it is automatically registered as an event. At this time, as shown in FIGS. 13 to 17, second management record data relating to the event is generated.
[0315]
In the next step S 35, the clip image data at the in-point of the generated event is copied to the event display area 29, and the clip image data is displayed in the event display area 29.
[0316]
On the other hand, in step S36, the CPU 10 determines whether or not an event has been generated by the clip image data of the out point marked previously. As a result, if an event has been generated by the previous marking, the process proceeds to step S38, and if an event has not been generated by the previous marking, the process proceeds to step S37.
[0317]
In step S <b> 37, the out-point clip image data generated by the previous marking is moved to the clip display area 28. This is because the out-point clipped image data generated by the previous marking is not used as an event, but may be used in the future and is therefore left as a marking history.
[0318]
On the other hand, in step S38, the in-point clip image data displayed in the in-clip display area 24a is cleared. This is because the event is generated by the clip image data displayed in the in-clip display area 24a and the clip image data of the out point previously marked, and therefore the clip image data displayed in the in-clip display area 24a. Is no longer used, so there is no need to display any more.
[0319]
When the processing of step S26, step S28, step S29, step S35, step S37 or step S38 is completed, the CPU 10 proceeds to step S39, where it is determined whether or not the marking operation is terminated. If the marking operation is to be continued, the process returns to step S20 again to repeat the process. If the marking operation is to be ended, the process proceeds to step S40 and the process is terminated.
[0320]
[Marking on playback side]
Next, when the video signal V3 reproduced from the hybrid recorder 3 is marked using the reproduced video marking area 27 while viewing the video signal V6 to which an effect is given by the video effect device 6 as necessary. This will be described with reference to the flowcharts shown in FIGS. First, this marking starts from a state where clip image data is already stored. In step S51 entered from step S50, the CPU 10 determines whether or not clip image data in the clip display area 28 has been designated. At this time, the CPU 10 determines that the clip image data is designated when the mouse 2d is double-clicked (two consecutive click operations) while the cursor is in the clip image data display area 28a. As a result, when the clip image data is designated, the designated clip image data is displayed in the reproduction video marking area 27 in the next step S52. That is, if in-point clip image data is designated, it is displayed in the in-clip display area 27a, and if out-point clip image data is designated, it is displayed in the out-clip display area 27d.
[0321]
In the next step S53, the CPU 10 refers to the time code of the designated clip image data, and sends a control command for still reproduction of the video data of the time code to the external interface 18. Receiving this, the external interface 18 converts the still playback command into a communication format of the RS-422 standard and sends it to the hybrid recorder 3. As a result, the hybrid recorder 3 refers to the correspondence table between the time code and the recording address based on the received time code, checks the recording address, and reads the video data from the position of the recording address. Reproduce. The video data is input to the video effect device 6 as a video signal V3, and is further sent to the second video processor 12 in the computer 2 as a video signal V6.
[0322]
In step S54, the second video processor 12 extracts a time code from the video signal V6 and performs image processing for converting the video signal V6 into digital component video data. The converted video data is temporarily stored in the frame memory 12c in the second video processor 12.
[0323]
In step S55, the still playback video data stored in the frame memory 12c is reduced to 380 pixels × 240 pixels and then transferred to the VRAM 13b.
[0324]
In the next step S56, the reproduced video data stored in the VRAM 13b is displayed on the reproduced video screen 23a. In this case, since only the still video data corresponding to the instructed clip image data is transmitted from the hybrid recorder 3 instead of the real-time video data, a still image is displayed on the playback video screen 23a.
[0325]
In step S57, the CPU 10 determines whether or not reproduction is instructed for the still video data displayed on the reproduction video screen 23a. At this time, when the preview button 32 is clicked while still video data is displayed on the playback video screen 23a, the CPU 10 determines that playback has been instructed.
[0326]
If there is a reproduction instruction, the CPU 10 sends a reproduction start command to the external interface 18 in the next step S58. Receiving this, the external interface 18 converts the reproduction start command into a communication format of the RS-422 standard and sends it to the hybrid recorder 3. As a result, the hybrid recorder 3 reads out the video data in order from the recording address corresponding to the video data displayed on the playback video screen 23a, thereby normal playback video following the video data displayed on the playback video screen 23a. Generate data. The reproduced video data is input to the video effect device 6 as a video signal V3, and is further transmitted as a video signal V6 to the second video processor 12 in the computer 2.
[0327]
In the next step S59, the CPU 10 determines whether or not marking has been performed. The determination as to whether or not marking has been performed is made based on whether or not the mouse 2d has been clicked with the cursor positioned within the area of the mark-in button 27c or mark-out button 27f of the playback video marking area 27. At that time, since an interrupt command is generated by a click operation of the mouse 2d, the CPU 10 determines marking according to the generation of the interrupt command. As a result of the determination, if the mark-in button 27c is clicked, it is determined that an in-point has been specified, and the process proceeds to step S60. If the mark-out button 27f has been clicked, it is determined that an out-point has been specified. Then, the process proceeds to step S63.
[0328]
In step S60, in-point clip image data is generated. This IN-point clip image data is generated by reading video data stored in the frame memory 12c into the VRAM 13b. At this time, since the data amount is thinned out to 1/16 by reducing the number of read samples, clip image data having an image size of 95 pixels × 60 pixels is generated. In the next step S61, the IN-point clip image data stored in the storage area for the in-clip display area of the VRAM 13b is read and displayed in the in-clip display area 27a.
[0329]
In step S62, the IN-point clip image data that was previously marked and displayed in the in-clip display area 27a is moved to the clip display area 28. It should be noted that this process is not performed when the marking is not performed first and the clip image data is not displayed in the in-clip display area 27a. When the process of step S62 ends, the CPU 10 proceeds to step S70.
[0330]
On the other hand, when the process proceeds to step S63 for marking the out point, the clip image data of the out point is generated here. The out-point clipped image data is also generated by reading the video data stored in the frame memory 12c into the VRAM 13b. Also in this case, at the time of reading, clip image data of 95 pixels × 60 pixels is generated by thinning the data amount to 1/16. In step S64, the out-point clip image data stored in the storage area for the out-clip display area of the VRAM 13b is read and displayed in the out-clip display area 27d.
[0331]
In the next step S65, the CPU 10 determines whether or not the previously marked clip image data is IN-point clip image data. As a result, if the previously marked clip image data is the IN-point clip image data, the process proceeds to step S66. If the previously marked clip image data is the OUT-point clip image data, the process proceeds to step S67. Proceed to In step S66, the CPU 10 determines whether or not to newly register as an event. This determination is made based on a click operation of the new event button 33 by the operator. If the new event button 33 is clicked and an event registration is instructed, the process proceeds to step S68. If the new event button 33 is not clicked and the event registration is not instructed, the process proceeds to step S67.
[0332]
In step S68, the CPU 10 registers the section from the in point to the out point as an event. Thus, in this editing system 1, when the out point is marked after the in point and the new event button 33 is clicked, the section from the in point to the out point is registered as a new event. At this time, as shown in FIGS. 13 to 17, second management record data relating to the event is generated.
[0333]
In the next step S 69, the clip image data at the in-point of the generated event is copied to the event display area 29, and the clip image data is displayed in the event display area 29. When this process ends, the CPU 10 proceeds to the next step S70.
[0334]
On the other hand, if the clip image data generated by the previous marking is the out-point clip image data and the process proceeds to step S67, the out-point clip image data generated by the previous marking is stored in the clip display area. Move to 28. It should be noted that this process is not performed when the marking is not performed first and the clip image data is not displayed in the out clip display area 27d. When this process ends, the CPU 10 proceeds to step S70.
[0335]
In step S70, the CPU 10 determines whether or not an instruction to stop playback of the video data displayed on the playback video screen 23a has been issued. This determination is made based on whether or not the still button 408 of the dedicated controller 2e has been pressed. If the playback stop is not instructed, the process returns to step S59 to repeat the process. If the playback stop is instructed, the process proceeds to the next step S71. In step S <b> 71, the CPU 10 sends a playback stop command to the external interface 18. Receiving this, the external interface 18 converts the playback stop command into a communication format of the RS-422 standard and sends it to the hybrid recorder 3. As a result, the hybrid recorder 3 stops the video data reading operation and stops the reproduction operation. When the process of step S71 ends, the CPU 10 moves to step S72 and ends the marking process.
[0336]
〔trimming〕
Next, a process for changing the IN point or OUT point by designating the generated event, so-called trimming, will be described with reference to the flowchart shown in FIG. Note that this flowchart starts from a state where an event has already been generated.
[0337]
First, in step S81 entered from step S80, the CPU 10 determines whether or not the clip image data in the event display area 29 has been designated. At this time, the CPU 10 determines that the clip image data is designated when the mouse 2d is double-clicked (two consecutive click operations) with the cursor being in the clip image data display area 29a. When the clip image data is designated, in the next step S82, the CPU 10 refers to the time code of the designated clip image data, and sends a reproduction command for still reproduction of the video data of the time code to the external interface. 18 to the hybrid recorder 3. Based on this playback command, the hybrid recorder 3 plays back the specified video data to generate playback video data, whereby playback video data corresponding to the specified clip image data is displayed on the playback video screen 23a. .
[0338]
In the next step S83, the CPU 10 determines whether or not the shuttle button 411 of the dedicated controller 2e has been pressed. If the shuttle button 411 has been pressed, the process proceeds to the next step S84, where the CPU 10 determines whether or not the search dial 400 of the dedicated controller 2e has been rotated. If the search dial 400 has been rotated, the process proceeds to step S85, where the CPU 10 calculates the direction and distance that the search dial 400 has moved. Then, the CPU 10 calculates the time code of the designated video data based on the obtained direction and distance and the time code of the video data currently displayed on the playback video screen 23a. Specifically, if the rotation is in the right direction, the time code of the specified video data is calculated by adding the time code for the moving distance to the time code of the currently displayed video data, and the rotation is in the left direction. If so, the time code of the designated video data is calculated by subtracting the time code for the moving distance from the time code of the currently displayed video data.
[0339]
In step S86, the CPU 10 sends a playback command for playing back the video data of the determined time code to the hybrid recorder 3 via the external interface 18.
[0340]
In step S87, the hybrid recorder 3 reproduces the video data of the designated time code based on this reproduction command, whereby the reproduced video data of the designated time code is displayed on the reproduction video screen 23a.
[0341]
In the next step S88, the CPU 10 determines whether or not marking has been performed. The determination as to whether or not marking has been performed is made based on whether or not the mouse 2d has been clicked with the cursor positioned within the area of the mark-in button 27c or mark-out button 27f of the playback video marking area 27. As a result of the determination, if either the mark-in button 27c or the mark-out button 27f is clicked, the process proceeds to step S89, and if neither is clicked, the process returns to step S83 to repeat the process.
[0342]
In step S89, marked clip image data is generated. The clip image data is generated by reading the video data stored in the frame memory 12c into the VRAM 13b. At this time, since the data amount is thinned out to 1/16 by reducing the number of read samples, clip image data having an image size of 95 pixels × 60 pixels is generated.
[0343]
In step S90, the clip image data stored in the VRAM 13b is read and displayed in the in-clip display area 27a or the out-clip display area 27d of the playback video marking area 27. Specifically, if it is marked as an in point, the clip image data is displayed in the in clip display area 27a. If it is marked as an out point, the clip image data is displayed in the out clip display area 27d. The
[0344]
In step S91, the CPU 10 determines whether or not the new event button 33 has been pressed. This determination is made based on whether or not the mouse 2d is clicked with the cursor at the position of the new event button 33. As a result, if the new event button 33 has been pressed, the process proceeds to step S92. If the new event button 33 has not been pressed, the process proceeds to step S94.
[0345]
In step S92, the IN point or OUT point is replaced with the clip image data marked in step S88, and this is registered as a new event. For example, if it is determined in step S88 that the in point has been marked, the new in point and the interval up to the already registered out point are registered as new events, and the out point is marked in step S88. If it is determined that it has been determined, the already registered In point and the interval from the new Out point are registered as new events. At this time, as shown in FIGS. 13 to 17, the second management record data relating to the event is newly generated.
[0346]
In the next step S93, the clip image data at the in point of the new event is displayed in the event display area 29. When this process ends, the CPU 10 proceeds to the next step S97 and ends the trimming process.
[0347]
On the other hand, if the new event button 33 has not been pressed and the process proceeds to step S94, the CPU 10 determines whether or not the replace button 35 has been pressed. This determination is made based on whether or not the mouse 2d is clicked with the cursor at the position of the replace button 35. As a result, if the replace button 35 has been pressed, the process proceeds to step S95. If the replace button 35 has not been pressed, the process returns to step S83 to repeat the process.
[0348]
In step S95, the CPU 10 replaces the in point or the out point with the clip image data determined to have been marked in step S88. That is, in this case, the content of the second management record data relating to the event is simply replaced with the marked in-point or out-point clip image data, and the original event content is not registered, but a new event is registered. Just update.
[0349]
In the next step S96, the clip image data of the updated in point of the event is displayed at the original event position in the event display area 29. When this process ends, the CPU 10 proceeds to the next step S97 and ends the trimming process.
[0350]
[Pre-roll]
Next, a pre-roll operation for automatically starting a reproducing operation from a position before a designated marking point and correcting the marking point will be described with reference to flowcharts shown in FIGS. Note that this flowchart starts from a state in which the hybrid recorder 3 starts the recording operation of the video signal V1 and the video signal V2 is displayed on the recording video screen 21a.
[0351]
First, in step S101 entered from step S100, the CPU 10 determines whether or not activation of the pre-roll mode is set. This determination is made based on whether or not the preroll button 22e in the timing display area 22 has already been clicked and activation of the preroll mode is designated.
[0352]
In the next step S102, the CPU 10 determines whether or not the above-described cue-up time is already set as the pre-roll time in the environment setting. This determination is made based on whether or not the queue-up time is stored in the environment setting data storage area in the RAM 10b. As a result of these determinations, if activation of the pre-roll mode is instructed and the pre-roll time is set, the CPU 10 proceeds to the next step S103.
[0353]
In step S103, the CPU 10 determines whether or not the in-point marking has been performed by clicking the mark-in button 24c in the recording video marking area 24. As a result, if in-point marking has been performed, the process proceeds to step S104, where clip image data of the in-point is generated. The clip image data is generated by reading video data stored in the frame memory 11c into the VRAM 13b. At this time, since the data amount is thinned out to 1/16 by reducing the number of read samples, clip image data having an image size of 95 pixels × 60 pixels is generated.
[0354]
In step S105, the clip image data stored in the VRAM 13b is read and displayed in the in-clip display area 24a of the recording video marking area 24. In the next step S106, the CPU 10 calculates a time code for cueing up. Specifically, referring to the time code of the clip image data at the specified In point, and referring to the set cue-up time, the position shifted forward by the cue-up time from the specified In point ( That is, the time code of the playback start point) is calculated.
[0355]
In the next step S107, the CPU 10 sends a reproduction command for reproducing the video data in real time from the calculated time code position to the external interface 18. Receiving this, the external interface 18 converts the reproduction command into a communication format of the RS-422 standard and sends it to the hybrid recorder 3. Accordingly, the hybrid recorder 3 sequentially reads out video data from the recording address corresponding to the instructed time code, thereby generating reproduced video data starting from the instructed time code position. This video data is input to the video effect device 6 as a video signal V3, and is then sent to the second video processor 12 in the computer 2 as a video signal V6.
[0356]
In step S108, the second video processor 12 extracts a time code from the video signal V6 and performs image processing for converting the video signal V6 into digital component video data. The converted video data is temporarily stored in the frame memory 12c in the second video processor 12.
[0357]
In step S109, the playback video data stored in the frame memory 12c is reduced to 380 pixels × 240 pixels and then transferred to the VRAM 13b.
[0358]
In step S110, the playback video data stored in the VRAM 13b is displayed on the playback video screen 23a. As a result, real-time video data starting from a position before the cue-up time before the IN point designated by the operator is displayed on the playback video screen 23a.
[0359]
In the next step S111, the CPU 10 determines whether or not marking has been performed. The determination as to whether or not the mark has been made is made based on whether or not the mouse 2d has been clicked while the cursor is positioned within the mark-in button 27c or mark-out button 27f area of the playback video marking area 27. As a result, if the mark-in button 27c has been clicked, it is determined that an in-point has been specified, and the process proceeds to step S112. If the mark-out button 27f has been clicked, it is determined that an out-point has been specified. Proceed to step S115.
[0360]
In step S112, in-point clip image data is generated. This IN-point clip image data is generated by reading video data stored in the frame memory 12c into the VRAM 13b. At this time, since the data amount is thinned out to 1/16 by reducing the number of read samples, clip image data having an image size of 95 pixels × 60 pixels is generated. In step S113, the IN-point clip image data stored in the VRAM 13b is read and displayed in the in-clip display area 27a. In step S114, the IN-point clip image data that was previously marked and displayed in the in-clip display area 27a is moved to the clip display area 28. It should be noted that this process is not performed when the marking is not performed first and the clip image data is not displayed in the in-clip display area 27a. When the process of step S114 ends, the CPU 10 proceeds to step S122.
[0361]
On the other hand, when the process proceeds to step S115 for marking the out point, the clip image data of the out point is generated here. The out-point clipped image data is also generated by reading the video data stored in the frame memory 12c into the VRAM 13b. Also in this case, at the time of reading, clip image data of 95 pixels × 60 pixels is generated by thinning the data amount to 1/16. In step S116, the out-point clip image data stored in the VRAM 13b is read and displayed in the out-clip display area 27d.
[0362]
In step S117, the CPU 10 determines whether or not the previously marked clip image data is IN-point clip image data. As a result, if the previously marked clip image data is IN-point clip image data, the process proceeds to step S118. If the previously marked clip image data is OUT-point clip image data, step S119 is performed. Proceed to
[0363]
In step S118, the CPU 10 determines whether or not to newly register as an event. This determination is made based on a click operation of the new event button 33 by the operator. If the new event button 33 is clicked and an event registration is instructed, the process proceeds to step S120. If the new event button 33 is not clicked and the event registration is not instructed, the process proceeds to step S119.
[0364]
In step S120, the CPU 10 registers the section from the in point to the out point as an event. At this time, as shown in FIGS. 13 to 17, second management record data relating to the event is generated. In step S <b> 121, the clip image data at the in-point of the generated event is copied to the event display area 29, and the clip image data is displayed in the event display area 29. When this process ends, the CPU 10 proceeds to the next step S122.
[0365]
On the other hand, if the clip image data generated by the previous marking is the out-point clip image data and the process proceeds to step S119, the out-point clip image data generated by the previous marking is stored in the clip display area. Move to 28. It should be noted that this process is not performed when the marking is not performed first and the clip image data is not displayed in the out clip display area 27d. When the process of step S119 ends, the CPU 10 proceeds to step S122.
[0366]
In step S122, the CPU 10 determines whether or not an instruction to stop playback of the video data displayed on the playback video screen 23a has been issued. As a result, if playback stop is not instructed, the process returns to step S111 to repeat the process. If playback stop is instructed, the process proceeds to the next step S123.
[0367]
In step S123, the CPU 10 sends a playback stop command to the hybrid recorder 3 via the external interface 18. As a result, the hybrid recorder 3 stops the video data reading operation and stops the reproduction operation. When the process of step S123 ends, the CPU 10 moves to step S124 and ends the preroll process.
[0368]
[Program creation]
Next, processing when creating a program using the generated event will be described with reference to the flowchart shown in FIG. Note that this flowchart starts from a state where an event has already been generated. First, in step S131 entered from step S130, the CPU 10 determines whether or not an event has been designated. At this time, when the cursor is in the clip image data display area 29a of the event display area 29 and the mouse 2d is double-clicked (two consecutive click operations), the CPU 10 determines that the event has been designated.
[0369]
As a result, when an event is designated, in the next step S132, the CPU 10 sets the designated event in an active state, that is, a movable state.
[0370]
In the next step S133, the CPU 10 determines whether or not the cursor has been moved with the mouse 2d being clicked, that is, whether or not the cursor has been dragged. As a result, if it is dragged, in the next step S134, the direction and distance in which the cursor has moved are calculated. In the next step S135, the CPU 10 changes the display position of the clip image data of the designated event based on the calculated direction and distance. Since the processing from step S133 to step S135 is promptly performed, the clip image data of the event seems to move together with the cursor on the screen of the monitor 2b.
[0371]
In step S136, the CPU 10 determines whether or not the click button of the mouse 2d has been released, that is, whether or not the click has been released. As a result of the determination, if the click is not released, the process returns to step S133 to repeat the process. If the click is released, the process proceeds to the next step S137, where the cursor position when the click is released is calculated. .
[0372]
In step S138, based on the calculated cursor position, the CPU 10 determines whether another event is displayed on the right side of the display position of the event designated by the cursor position. As a result, if another event is displayed on the right side, the process proceeds to step S139, and if another event is not displayed on the right side, the process proceeds to step S140.
[0373]
In step S139, the CPU 10 moves the display position of other events displayed on the right side to the right side so that the specified event can be inserted. When this is finished, the CPU 10 proceeds to step S140.
[0374]
In step S140, the CPU 10 displays the clip image data of the designated event at a position on the program display area 30 designated by the cursor. In step S141, the CPU 10 updates the data content of the second management record data related to the program in accordance with the event insertion in step S140. Specifically, the pointer portion to the data linked before or behind in the second management record data is corrected. Since there is no second management record data for the newly inserted event, it is newly generated.
[0375]
When this process ends, the CPU 10 proceeds to the next step S142 to create an edit list, and further proceeds to the next step S143 to determine whether or not to continue the program creation process. If so, the process proceeds to step S131. If it returns and repeats processing and program creation processing is complete | finished, it will move to step S144 and will complete | finish processing.
[0376]
When a predetermined event is arranged in the program display area 30 as described above, a predetermined effect is selected from the video effect setting area 25 and inserted at a predetermined position as described above with reference to FIG. Thus, an effect can be applied to a predetermined event.
[0377]
Here, the video effect setting area 25 will be described with reference to FIG. The video effect setting area 25 includes buttons 25a to 25m, buttons 25n-1 to 25n-10, and buttons 25p, as shown in FIG. 33 and FIGS. The buttons 25a to 25m are buttons that are operated when setting a predetermined effect prepared in advance. In this example, the button 25a is a wipe, the button 25b is a mix, the button 25c is a mosaic, the button 25d is a picture-in-picture (P in P), and the button 25e is a page turn. , Button 25f is DSK, button 25g is Modify, button 25h is Cut, button 25i is Slide, button 25j is Flip / Tumble, button 25k is 2D, button 25m is Each 3D effect is supported.
[0378]
Wipe is an effect that inserts a new image while wiping out the old image according to a selected wipe pattern. Mix is an effect that fades in new images while fading out old images. Mosaic is an effect that makes an image mosaic. Picture-in-picture is an effect in which one image is reduced and displayed in one image. Page turn is an effect of switching from an old image to a new image by turning the page. DSK is an effect in which characters and figures are further inserted into an already applied image.
[0379]
Modify is an effect that divides the screen vertically and horizontally, vertically, etc., and creates an image that looks like a mirror, enlarges part of the image to fill the screen, or creates an image that looks like a spotlight. Cut is an effect that instantly switches an old image to a new image. Slide is an effect in which a new image appears from the edge of the screen and slides on the screen to switch to the old image. 2D is an effect that rotates two-dimensionally, and 3D is an effect that rotates three-dimensionally.
[0380]
Buttons 25n-1 to 25n-10 are buttons for registering effects in which the user has previously set each parameter to a predetermined value. Therefore, when this button 25n-i is operated, a predetermined effect set in advance can be read out.
[0381]
The button 25p is a direct button, and when this button is pressed, a direct effect operation window (described later with reference to FIG. 46) is pulled down.
[0382]
Here, with reference to the flowchart of FIG. 34, the process which allocates the predetermined effect which the user set to button 25n-1 thru | or 25n-10 is demonstrated. When the user assigns a predetermined effect to any one of the buttons 25n-1 to 25n-10, the user selects a button in which the effect is set in the video effect setting area 25 and drags it. For example, by turning on the wipe button 25a, a predetermined parameter can be set as described later. When the wipe effect based on the set parameter is used, the button 25a may be used thereafter. However, when the wipe effect in which the parameter value is set to another value is also desired (that is, the button 25a is used). When two or more types of wipes are used as necessary), the effect of the first wipe whose parameter value is set to a predetermined value can be assigned to the button 25n-1, for example. In this way, when it is desired to use the first wipe whose parameter is set to the value thereafter, the button 25n-1 can be used instead of the wipe button 25a. The button 25a can be used in the case of the second wipe in which the parameter is set to another value.
[0383]
For this reason, when the effect set to the button 25a is assigned to the button 25n-1, the user drags the button 25a by operating the mouse 2d and drops it on the button 25n-1. For this reason, in step S161, the CPU 10 stands by until the button for which the effect is set is dragged. If the button is dragged, the CPU 10 proceeds to step S162 and determines whether the button of the mouse 2d has been released. . When the mouse 2d button is released, the process proceeds to step S163, and the position where the mouse 2d button is released is located above any of buttons 25n-1 to 25n-10 to which a user effect can be assigned. It is determined whether or not. If the mouse 2d button is released at a position other than these buttons 25n-1 to 25n-10, the allocation process cannot be performed, and the process returns to step S161.
[0384]
If it is determined in step S163 that the button of the mouse 2d has been released (dropped) on any of the buttons 25n-1 to 25n-10, the process proceeds to step S164, and the button is dragged to that button. Executes the process of assigning the effect set to the selected button. For example, when the button 25a is dragged and dropped onto the button 25n-1, the effect set in the button 25a is assigned to the button 25n-1.
[0385]
Next, with reference to the flowchart of FIG. 35, description will be given of a setting process in a case where an effect is added to a predetermined event by dragging and dropping predetermined effect setting clip image data onto the program display area 30. .
[0386]
First, in step S201, the process waits until one of the buttons 25a to 25p or the buttons 25n-1 to 25n-10 in the video effect setting area 25 is pressed. If it is determined in step S201 that a predetermined button in the video effect setting area 25 has been operated, the process proceeds to step S202, and the CPU 10 displays a dialog corresponding to the button operated at this time. For example, when the wipe button 25a is operated, an effect setting dialog as shown in FIG. 36 is displayed in a pull-down manner. The display section 701 of this dialog displays the name of the effect supported by this effect setting dialog. In this case, since the wipe button 25a is operated, the characters “Wipe” are displayed here. For example, when the mix button 25b or the mosaic button 25c is operated, the characters “Mix” or “Mosaic” are displayed on the display unit 701, respectively.
[0387]
The display unit 702 displays the direction in which the effect is applied. When Normal is selected, the effect operates in the direction in which the time elapses, and when Reverse is selected, the effect operates in the direction of going back in time. The display unit 703 displays the pattern number selected from the effect patterns displayed on the display unit 704. In this example, the display unit 704 displays 12 types of wipe patterns. By operating the slide button 705, a pattern not displayed here can be displayed on the display unit 704. The user can select a predetermined pattern by clicking with the mouse 2d. The number of the selected pattern is displayed on the display unit 703.
[0388]
The display unit 76 has a display for setting the time during which the effect is applied (the time from the start to the end of execution) by the number of frames. By selecting any of 10, 15, 30, 45 or 60, the frame corresponding to the number can be set directly. Alternatively, an arbitrary number of frames can be displayed and set on the display unit 707 by operating the slide button 708 and the quick buttons 709 and 710. The preview button 711 is operated when various parameters are set and an actual change in the effect is confirmed.
[0389]
A cancel button 713 is operated when canceling the set parameter, and an OK button 714 is operated when parameter setting is completed. The detail button 712 is operated when setting more detailed effect parameters. When the detail button 712 is operated, an effect detail setting dialog as shown in FIG. 37 is pulled down.
[0390]
In the detailed effect setting dialog shown in FIG. 37, parameters related to edges are displayed on the display unit 721. The display unit 722 displays the edge type. As the edge type, a border or a soft edge can be selected. Below the display unit 722, a slide button 723 and a scroll button 724 are provided. By operating these with the mouse 2d and placing the slide button 723 at a predetermined position, the edge width is set to a predetermined value. Can be set. The check box 725 is operated when selecting a border color. When the check box 725 is clicked, a color picker dialog (not shown) is displayed, which can be used to select a border color. The check button 721a is operated when the display setting in the display unit 721 is validated.
[0390]
The display unit 731 displays a parameter related to a background pattern and a background color matte different from the background or foreground at the time of effect execution. The display unit 732 displays background parameters, and the display unit 733 displays mat pattern numbers.
[0392]
The display unit 741 displays effect control parameters. In this example, the name of the effect parameter is displayed on the display unit 744, and the parameter of the name can be set to a predetermined value by operating the slide button 742 or the scroll button 743. Yes. In this example, four parameters are displayed. As a result, parameters specific to the selected effect pattern are set.
[0393]
The display unit 751 displays and sets a crop parameter for reducing the image frame so that only a part of the image can be seen when the effect is executed. The display unit 752 can set whether the crop area is inverted (ON) or not (OFF). The slide button 753 and scroll button 754 are the left end of the crop area, the slide button 758 and scroll button 759 are the right end of the crop area, the slide button 755 and scroll button 756 are the top end of the crop area, and the slide button 760 and scroll button 761 are the crop. The lower end of each area can be specified. The check button 751a is operated when the display setting in the display unit 751 is validated.
[0394]
The display unit 770 displays buttons for inputting XYZ coordinates. The X coordinate is input by the slide button 771 and the scroll button 772, the Y coordinate is input by the slide button 773 and the scroll button 774, and the Z coordinate (size) is input by the slide button 775 and the scroll button 776, respectively. . This input is performed when the selected effect pattern requires setting of the coordinate system.
[0395]
Further, the OK button 783 is operated when the set effect is confirmed, the cancel button 782 is operated when canceling the set parameter, and the preview button 781 is operated when confirming the set parameter.
[0396]
Returning to the description of FIG. 35, as described above, when the parameters of a predetermined effect are set using the effect setting dialog or the effect detailed setting dialog shown in FIGS. 36 and 37, the set parameter is changed to the CPU 10 in step S <b> 203. Is stored in the RAM 10b.
[0397]
Further, as described above, for example, the wipe button 25a is turned on to display the effect setting dialog shown in FIG. 36, and the detail button 712 is operated as necessary to display the effect detailed setting dialog shown in FIG. Is displayed and a predetermined parameter is set, and then the button 25a is dragged and dropped onto the button 25n-1, whereby the effect corresponding to the set parameter can be made to correspond to the button 25n-1. In this way, thereafter, the button 25n-1 can be set on the program by dragging and dropping the button 25n-1 to a predetermined position in the program display area 30, like the buttons 25a to 25m. Become.
[0398]
Therefore, after the above settings are made, in step S204, the process waits until the button in the video effect setting area 25 is dragged. When a predetermined button is operated, the process proceeds to step S205, and the cursor moves. The direction and distance are calculated by the CPU 10. In step S206, the CPU 10 moves the display position of the designated effect setting clip image data.
[0399]
For example, as shown in FIG. 33, when the cursor is placed on the button 25n-1 (the button on which the number 1 is displayed) and the mouse 2d is clicked and dragged there, the frame of the effect setting clip image data around the cursor. 30E-1 is displayed, and the frame 30E-1 moves like a frame 30E-2 and a frame 30E-3 corresponding to the drag.
[0400]
In step S207, the current position of the cursor is calculated. When the current position is located within the area of the program display area 30, the cursor is moved to clip image data on the program display area 30 as shown in FIG. It changes to the shape which shows between which of.
[0401]
That is, for example, as shown in FIG. 39A, the center of the frame 30E of the effect setting clip image data corresponding to the dragged effect is arranged at the closest position between the clip image data 30a2 and 30a3. The cursor is directed from the center toward the boundary between the clip image data 30a2 and the clip image data 30a3. On the other hand, as shown in FIG. 5B, when the center of the frame 30E is close to the boundary between the clip image data 30a1 and the clip image data 30a2, the direction is directed from the center toward the boundary. Cursor shape.
[0402]
The above principle is summarized as shown in FIG. That is, the cursor shape is changed so that the center of the frame 30E becomes a cursor shape directed to the boundary portion in the near direction. Thus, when the user releases the drag at that time and drops the frame 30E, the effect setting clip image data is inserted between the clip image data 30a2 and the clip image data 30a3, or the clip It can be easily determined whether the data is inserted between the image data 30a1 and the clip image data 30a2.
[0403]
Next, the process proceeds to step S208 in FIG. 35, and it is determined whether or not the mouse 2d button has been released. If not, the process returns to step S204, and the subsequent processing is repeatedly executed. If it is determined in step S208 that the button of the mouse 2d has been released, the process proceeds to step S209, where the cursor position when the button is released is calculated, and in step S210, the frame 30E corresponding to the effect setting clip image data is calculated. It is determined whether or not the center is close to the right boundary of the clip image data (for example, clip image data 30a2 in FIG. 39) where the center is located.
[0404]
If the center of the frame 30E is close to the right boundary of the clip image data as shown in FIG. 39A, the process proceeds to step S211 and the clip image data displayed on the right side of the clip image data 30a2. 30a3 is moved to the right by one clip image data, and the effect setting clip image data corresponding to the frame 30E is inserted and arranged at the position where the clip image data has been positioned so far. On the other hand, as shown in FIG. 39B, when it is determined that the center of the frame 30E is close to the left boundary of the clip image data where the frame 30E is located, the process proceeds to step S212, and the clip image data 30a2 is moved to the right by one clip image data, and the effect setting clip image data corresponding to the frame 30E is inserted and arranged at the position where the clip image data 30a2 has been positioned so far.
[0405]
Next, it progresses to step S213 and the process which updates management record data is performed. That is, in the case of FIG. 39A, the second management record data of the effect setting clip image data 30A1 is linked to the second management record data of the clip image data 30a2, and further, the second management record data of the clip image data 30a3 is linked. Link two management record data.
[0406]
On the other hand, in the example shown in FIG. 39B, the second management record data of the effect setting clip image data 30A1 is linked to the second management record data corresponding to the clip image data 30a1, and further to this. The second management record data of the clip image data 30a2 is linked.
[0407]
Furthermore, it progresses to step S214, it is determined whether a program creation process is continued, and when continuing, it returns to step S201 and the subsequent process is repeatedly performed. If the program creation process is not continued, the process is terminated.
[0408]
Next, referring to the flowchart of FIG. 41, the sub-screen area adjustment process at the time of picture-in-picture setting, that is, as shown in FIG. A process for adjusting the display position of the sub-screen displayed at the predetermined position will be described.
[0409]
First, in step S231, the user clicks the picture-in-picture button 25d in the video effect setting area 25 to display an effect setting dialog as shown in FIG. However, in this case, since the picture-in-picture button 25d is clicked, the display portion 701 displays the characters P in P. Next, in step S232, the user operates the detail button 712 of the effect setting dialog to display the effect detailed setting dialog as shown in FIG.
[0410]
Further, in step S233, it is determined whether or not the effect to be set is a picture-in-picture. If an effect other than the picture-in-picture is set, the process proceeds to step S245, and the corresponding effect setting process is executed. .
[0411]
On the other hand, when the effect to be set is a picture-in-picture, as described above, the user performs predetermined setting processing such as setting the display coordinates of the picture-in-picture in the location display unit 770, for example. Then, the OK button 783 is turned on. At this time, in step S234, the CPU 10 causes the picture-in-picture sub-screen area setting bar BAR1 to be overlaid at a position corresponding to the setting on the playback video screen 23a as shown in FIG.
[0412]
Next, the process proceeds to step S235 and waits until the picture-in-picture sub-screen area inside the bar BAR1 is dragged. If it is dragged, in step S236, S238, and S240, the corner BAR of the area is displayed.CHas been dragged (step S236), side BARLHas been dragged (step S238), or the area's internal BARRAre respectively determined (step S240).
[0413]
In step S236, the corner BARCWhen it is determined that is dragged, the process proceeds to step S237, where the coordinates of the dragged mouse cursor are calculated, and the size of the picture-in-picture area is changed in accordance with the calculation result (the size of the bar BAR1). Change). In step S238, the side BARLWhen it is determined that is dragged, the process proceeds to step S239, and the border width of the bar BAR1 is changed in accordance with the calculation result of the coordinates of the dragged cursor. In step S240, the internal BAR of the areaRIf it is determined that is dragged, the process proceeds to step S241, and the center point of the region is moved corresponding to the drag position. The dragged is the corner BARC, Side BARLOr the internal BAR of the regionRIf neither of these is true, the process returns from step S240 to step S236. That is, in this case, no special processing is performed as an operation error.
[0414]
The value input by directly operating the bar BAR1 with the mouse 2d is also reflected in the display of the display unit 770 of the effect detail setting dialog in FIG.
[0415]
As described above, the sub-screen area setting for picture-in-picture can be changed by operating the effect detail setting dialog. However, the sub-screen area setting can be performed by operating the cursor on the playback video screen 13a. Can also be modified directly. Therefore, the user can appropriately set the position of the optimum child screen (sub-screen) while looking at the parent screen.
[0416]
After the processing of steps S237, S239, and S241, the process proceeds to step S242 to determine whether or not the OK button 714 of the effect setting dialog is clicked. If not, the process returns to step S235, and the subsequent processing Repeatedly. If it is determined in step S242 that the OK button 714 has been clicked, the process advances to step S243 to execute processing for saving the parameter-in-picture parameter setting state. That is, the values of these parameters are stored in the RAM 10b of the CPU 10.
[0417]
This process can also be applied to the case of adjusting the split ratio, which will be described later with reference to FIG.
[0418]
In FIG. 42, by operating the main button 23b or the sub button 23c, the image of the parent screen of the playback video screen 23a is changed to the image output from the main hybrid recorder 3a or the image output from the sub hybrid recorder 3b. Each can be switched. When the M / E button 23d is operated, an image after video effect processing that does not include a DSK video is displayed on the parent screen. When the DFS button 23e is operated, all the images after the video effect processing including DSK are displayed. A GSM (Good Shot Marker) button 23f is operated when searching and displaying image data in which a good shot marker is written. That is, when the user operates the scroll button 23fa after operating the GSM button 23f, a good shot marker of predetermined image data recorded in advance on the hard disk of the hybrid recorder 3 is retrieved, and the recording position of the good shot marker Thus, the image is displayed from a position that goes back by the cue-up time.
[0419]
Next, the mask area adjustment processing at the time of DSK setting will be described with reference to the flowchart of FIG. First, in step S261, the user operates the DSK button 25f (FIG. 33) in the video effect display area 25 to display a DSK setting dialog as shown in FIG. As shown in the figure, in the DSK setting dialog, the setting of the downstream key mode can be turned on or off in the DSK switch display section 851. When the downstream key (DSK) mode is set, it is possible to insert more characters and figures into the effected image.
[0420]
The border display unit 852 is provided with a check button 852a. By checking the check button 852a, the parameters set in the border display unit 852 can be validated. The display unit 853 can display and set the border type. The border type can be either a wide border (wide border), a narrow border (narrow border), a shadow-like border (drop border), or a double border that combines a narrow border and a drop border. it can.
[0421]
The display unit 855 can selectively display the position of the border when the drop border or the double border is selected. As this position, any one of upper left, upper right, lower right, or lower left can be selected.
[0422]
A check box 854 is clicked when setting a border color. When this check box 854 is clicked, a color picker dialog for setting various colors is displayed. The user sets the border color using this color picker dialog as necessary.
[0423]
In the key display portion 860, a setting relating to a key fill signal for filling a hollowed portion with a click key operation signal or a key source signal can be performed. The display unit 861 can specify whether an internal signal (internal) or an external signal (external) is used as the key source signal. In the display unit 862, when white characters are extracted from a black background and inserted depending on whether the key source signal is black or white (signal polarity), none is selected, and black characters are extracted from a white background and inserted. If so, invert is selected. The display unit 863 designates a key fill signal to be used. As this key fill signal, DSK VIDEO (fill signal input from terminal 701 of DSK FILL IN in FIG. 4, DSK MAT (internally generated DSK mat), SELF (image data read from floppy disk 742 in FIG. 4), or One of none (no fill signal, that is, only a character or figure border is inserted) can be selected and specified.
[0424]
The check box 864 is operated when a color picker dialog is displayed and a mat is selected when DSK MAT is designated on the display unit 863.
[0425]
The clip slide button 865 or the clip scroll button 866 is operated when adjusting the clip level by arranging the clip slide button 865 at a predetermined position when the outline of the inserted character or figure is not clear.
[0426]
The gain slide button 867 and the gain scroll button 868 are operated when adjusting the density of the inserted character or figure.
[0427]
The density slide button 869 and the density scroll button 870 are operated when adjusting the transparency of the inserted character or figure.
[0428]
The display unit 871 is operated and displayed and set when a different floppy disk is inserted into the computer to change the key fill signal image data.
[0429]
In mask display portion 890, settings are made for hiding (masking) unnecessary portions of inserted characters and graphics. When the set mask is validated, the check button 890a is checked. The display unit 891 selects whether to mask the outside of the masked area (rectangular area) (NORMAL) or to mask the inside (INVERT). The slide buttons 892, 894, 896, 898 and the scroll boxes 893, 895, 897, 899 are operated when the left end, the right end, the upper end, or the lower end of the area to be masked is designated.
[0430]
In the transition display section 900, the time from the start to the end of the downstream key effect can be specified by the number of frames. The display unit 901 can set a predetermined number of frames of 10, 15, 30, 45, or 60. When (User) is selected, an arbitrary number of frames can be set on the display unit 902. A preview button 905 is clicked when the user wants to preview the state of stream key setting effect execution based on the settings of this dialog. The preview screen is displayed on the playback video screen 23a.
[0431]
By operating the slide button 903 or the scroll button 904 of the fader, a preview screen at a predetermined transition position can be confirmed.
[0432]
The cancel button 911 is operated when canceling the parameter set in the DSK setting dialog, and the OK button 912 is operated when the setting is validated.
[0433]
The user sets predetermined parameters using the DSK setting dialog described above.
[0434]
In step S262, the mask check box 890a in the DSK setting dialog is checked, and it is determined whether the mask setting is turned on. If it is determined in step S262 that the mask setting is not turned on, the process proceeds to step S263, and other setting processing is performed using the DSK setting dialog.
[0435]
If it is determined in step S262 that the mask setting is turned on, the process proceeds to step S264, and the CPU 10 displays the mask display portion 890 of the DSK setting dialog on the playback video screen 23a as shown in FIG. The DSK mask area bars BAR2L, BAR2R, BAR2T, and BAR2B are displayed in correspondence with the positions of the left, right, upper, and lower end portions set in.
[0436]
In step S265, the process waits until the bars BAR2L to BAR2B are dragged by the mouse 2d. If dragged, the process proceeds to step S266, where the new position of the bar is calculated from the coordinates of the mouse pointer, and the calculation is performed. The bar is moved to the indicated position. For example, when the bar BAR2L is dragged to the right or left from the current display position, the bar BAR2L is moved and displayed at the dragged position. For example, when the bar BAR2T is dragged upward or downward from the current display position, the bar BAR2T is moved and displayed at the position after the drag. In this way, the user can not only set the mask area using the DSK setting dialog, but also can set the mask area by operating the mouse 2d while viewing the actual display screen. . Therefore, more appropriate settings can be made.
[0437]
In step S266, when the mask area is set by directly operating the bars BAR2L to BAR2B while viewing the screen, the setting position is reflected on the mask display unit 890 of the DSK setting dialog.
[0438]
Next, proceeding to step S267, it is determined whether or not the OK button 912 of the DSK setting dialog has been turned on. If not, the process returns to step S265, and the subsequent processing is repeatedly executed. If it is determined that the OK button 912 is turned on, the process proceeds to step S268, and the parameters set using the DSK setting dialog are stored in the RAM 10b.
[0439]
This system is good at handling live video, and it is also possible to add effects in real time to live video (a predetermined effect can be added to a video that is currently happening by just clicking). It is made like that. However, the effects that can be added to the live video are limited to only those frequently used in live, among picture-in-picture or split processing, in addition to DSK processing.
[0440]
When applying an effect to a live video, the direct button 25p in the video effect setting area 25 is operated. When the direct button 25p is operated, a direct effect operation window shown in FIG. 46 is displayed. The DSK internal on button 801 is operated when starting or ending DSK processing by the key signal or fill signal read from the floppy disk 742 of the video effect device 6 of FIG. The DSK external button 802 is operated when starting or ending DSK processing by the DSK fill signal input from the DSK FILL IN terminal 701 or the DSK key signal input from the DSK KEY IN terminal 702 in FIG.
[0441]
The DSK setup button 803 is a button that is turned on when displaying the above-described DSK setting dialog shown in FIG. 44 for performing setup at the time of executing the above-described DSK processing.
[0442]
The direct out setup button 805 is a button operated when displaying the direct effect setting dialog shown in FIG. 47, and the direct out on button 804 operates the direct out setup button 805 to display the direct effect setting dialog. These buttons are operated when starting or ending the screen display based on the set parameters. For example, as described above, after the position of the child screen in the picture-in-picture is adjusted to a predetermined position, by operating this direct out on button 804, an image with the child screen displayed at the adjusted position is displayed. Can be output.
[0443]
As shown in FIG. 47, in the direct effect setting dialog, when a new effect is set on the display unit 811 or when an existing effect is called, a pattern number can be designated there. .
[0444]
The output style display unit 812 can select any one of a total of six types of direct effect patterns including two types of picture-in-picture and four types of splits. When the main-in / sub-display unit 813 is selected, a picture-in-picture for inserting the main image into the sub-image is executed. When the sub-in main display unit 814 is selected, a picture-in-picture for inserting a sub-image into the main image is realized. When the VM / S display unit 815 is selected, a split image can be realized in which the screen is divided into left and right parts, and the main image is displayed on the left side and the sub image is displayed on the right side. When the V-S / M display unit 816 is selected, it is possible to realize a split that divides the screen into left and right parts, and displays the sub image on the left side and the main image on the right side. When the HM / S display unit 817 is selected, it is possible to realize a split image in which the screen is divided into two parts up and down, and the main image is displayed on the upper side and the sub image is displayed on the lower side. When the HS / M display unit 818 is selected, it is possible to realize a split image in which the screen is divided into upper and lower parts and a sub image is displayed on the upper side and a main image is displayed on the lower side.
[0445]
In the edge display portion 821, the edge of the effect pattern selected in the output style display portion 812 is set. When adding an edge to the effect pattern, the check button 821a is checked. In the display unit 822, either a border or a soft edge can be selected as an edge. By checking the check box 823, either the border or the soft edge can be selected. By operating the slide button 824 or the scroll button 825 on the display unit of WIDTH / SOFT, the width of the border edge or the soft edge can be selected.
[0446]
In the inner picture location display section 831, when a picture-in-picture is selected in the output style display section 812, the size and position of the screen (child screen) to be inserted can be designated. X represents the X coordinate of the center point of the child screen, and Y represents the Y coordinate of the center point of the child screen. In the Size, by operating the slide button 836 or the scroll button 837, the slide button 836 can be arranged at a predetermined position, and the size of the sub-screen can be set.
[0447]
The cancel button 838 is operated when canceling the parameter set in the direct effect setting dialog, and the OK button 839 is operated when enabling the parameter.
[0448]
This system also has a voice over function for outputting an audio signal by changing it to another audio signal. Next, the voice over function will be described with reference to the flowchart of FIG.
[0449]
First, in step S281, the user operates the mode button 22b in the timing display area 22 to set the timeline mode. Then, the voice over button 21d is turned on. At this time, the CPU 10 proceeds to step S282 and sets the voice over editing mode. Then, in step S283, the CPU 10 displays the characters “VOICE OVER” on the display unit 26j as the status display area in FIG.
[0450]
Next, in step S284, the user executes a process of arranging events on the video track 40d in the timeline display area 40. This process can be performed, for example, by dragging and dropping predetermined clip image data displayed in the program display area 30 by operating the mouse 2d.
[0451]
Next, proceeding to step S285, the user operates the voice over channel designation button 45c shown in FIG. 6 to designate a voice over channel from among the four channels. FIG. 49 shows the timeline display area 40 when the fourth channel is designated as the voice over channel among the four channels. As shown in the figure, in this case, only the fourth channel is set as the voice over channel, and a new audio signal is recorded there.
[0452]
Next, the process proceeds to step S286, and the user designates the voice-over In point and Out point with reference to the edit bar 40k in the timeline display area 40. This designation is made by turning on the search button 40m or the scroll buttons 40i and 40j in the timeline display area 40 shown in FIG. 7 and viewing the image displayed in units of frames on the playback video screen 23a while checking the mark-in button. 27c or markout button 27f is operated.
[0453]
FIG. 50 shows a display example of the timeline display area 40 when the IN point is designated first. As shown in the figure, when the IN point is designated, the range of the audio track 40h later than that is shaded. On the other hand, when the out point is designated first, as shown in FIG. 51, the range ahead of the edit bar 40k is shaded. When both the in point and the out point are set, as shown in FIG. 52, the range between the in point and the out point is shaded. Thus, the user can visually confirm the voice over range.
[0454]
When the voice over range is set as described above, the user can then preview and confirm the set range. The processing in this case will be described with reference to the flowchart in FIG.
[0455]
When starting the preview, first, in step S301, the user turns on the preview button 45b of FIG. At this time, in step S302, the CPU 10 controls the hybrid recorder 3 via the RS-422 to execute preview reproduction. At this time, as shown in FIG. 54, the CPU 10 starts reproduction from a position that is a predetermined time (for example, 5 seconds) before the voice-over in point, and for a predetermined time (for example, the voice-over out point). Plays back to a position later by 5 seconds). In the case of this example, the range around 5 seconds from the In and Out points of the voice over is the actual reproduction range, but the time of 5 seconds can be set to an arbitrary value.
[0456]
In step S303, the CPU 10 outputs a command to the CPU 303 of the hybrid recorder 3 to control the audio data control unit 317 (FIG. 18). As shown in FIG. During this period, the audio signal of the voice over channel (in this case, the fourth channel) that is reproduced and output from the HDD 300 and input from the third switch 310 is output from the speaker 320 at a normal level. In the interval between the in point and the out point, attenuation is performed by 10 dB. Then, the audio signal is output again at a normal level for 5 seconds after the voice-out point. Therefore, the user can audibly confirm the range of voice over.
[0457]
It should be noted that the corresponding video image is displayed on the playback video screen 23a during preview playback.
[0458]
After performing preview reproduction as described above, the user determines in step S304 whether or not the voice-over range needs to be corrected. If it is determined that correction is necessary, the process proceeds to step S305, and voice over input processing is executed. And after performing the voice over input process shown in FIG. 48, it returns to step S301 and repeats the process after it.
[0459]
If it is determined in step S304 that it is not necessary to correct the voice over range, the process proceeds to step S306, and the user determines whether it is necessary to delete the once set voice over range. When it is necessary to delete, the process proceeds to step S307, and the user operates the delete button 36. At this time, the CPU 10 proceeds to step S308 and executes a process of deleting the once set voice over range. If it is determined in step S306 that it is not necessary to delete the set voice-over range, the preview process ends.
[0460]
As described above, after confirming the set voice-over range by the preview, the voice-over is actually executed, and a new audio signal can be recorded on the fourth channel. Next, the voice over recording process in this case will be described with reference to the flowchart of FIG.
[0461]
First, in step S321, the user turns on the recording start and end buttons 31a. When the button 31a is turned on, the process proceeds to step S322, and the CPU 10 controls the hybrid recorder 3 via the RS-422 to start reproduction and recording operations. At this time, the CPU 303 of the hybrid recorder 3 controls the HDD 300 to reproduce the same range as the previewed range as shown in FIG. However, recording of an audio signal that causes voice over is started from a position before the IN point by a preset margin as shown in FIG. And it progresses to step S323 and CPU10 performs an in-point signal output process. Details of this in-point signal output process are shown in FIG.
[0462]
That is, in the in-point signal output process, first, in step S341, the process waits until it reaches 3 seconds before the voice-over in-point, and when it reaches, it proceeds to step S342 and is 3 seconds before the in-point. A character representing this is displayed and an audio signal is output. That is, the CPU 10 displays a figure (FIG. 60A) representing 3 with fingers of the hand, for example, as shown in FIG. 59, on the playback video screen 23a. Further, as shown in FIG. 61, the CPU 10 controls the audio data control unit 317 via the CPU 303 to output an audio signal “beep” indicating that it is 3 seconds before the IN point from the speaker 320.
[0463]
Next, in step S343, it waits until it reaches 2 seconds before the In point, and when it reaches 2 seconds before the In point, it proceeds to Step S344, and performs the character display and voice output of the cue. That is, at this time, the CPU 10 displays a figure indicating the number 2 with a finger as shown in FIG. 60 (B) on the playback video screen 23a. Also, as shown in FIG. 61, a sound “beep” indicating that 2 seconds ago is output from the speaker 320.
[0464]
Further, the process proceeds to step S345, waits until it reaches one second before the in point, and then proceeds to step S346 when it reaches one second before the in point, and executes the character display of the cue and the voice output process. In this case, a graphic representing the number 1 with a finger as shown in FIG. 60 (C) is displayed on the playback video screen 23a, and as shown in FIG. 61, it represents that one second before the In point. “Beep” is output.
[0465]
Next, in step S347, the process waits until the in point is reached. When the in point is reached, the process proceeds to step S348, and a cue character display is executed. That is, in this case, a hand graphic indicating the start of voice over shown in FIG. 60D is displayed on the playback video screen 23a. Thereby, the announcer can aim at the generation timing of voice over.
[0466]
As described above, when the voice over in point is reached, the CPU 10 controls the CPU 303 of the hybrid recorder 3 in step S324 to attenuate the level of the reproduced audio signal. In response to this command, the CPU 303 controls the audio data control unit 317 to attenuate the level of the audio signal by 10 dB and output it from the speaker 320.
[0467]
Also, the announcer that inputs the voice over voice signal starts inputting the voice over voice signal from the microphone 8 at the timing when the graphic shown in FIG. 60D is displayed on the playback video screen 23a. This audio signal is input to the audio data control unit 317 via the switch 315 and the A / D converter 316, and is synthesized with the audio signal reproduced from the HDD 300 by the audio data control unit 317. In this case, the audio signal reproduced from the HDD 300 is attenuated by 10 dB and synthesized with the audio signal input from the microphone 8. However, if the audio signal reproduced from the HDD 300 is completely attenuated, the audio signal is substantially reduced. In particular, the audio signal reproduced from the HDD 300 can be replaced with the audio signal input from the microphone 8.
[0468]
The audio signal output from the audio data control unit 317 is input to the video tape recorder 301 via the decoder 305, the first switch 304, and the encoder 306, and is recorded. Are recorded in the HDD-dedicated AA area (described later with reference to FIG. 66).
[0469]
Next, the process proceeds to step S325 in FIG. 56, and an out-point signal output process is executed. Details of the out-point signal output processing are shown in FIG. The processing in steps S361 to S368 is basically the same as the processing in steps S341 to S348 of the in-point signal output processing shown in FIG. That is, in this case, the graphic shown in FIG. 60A is displayed on the playback video screen 23a 3 seconds before the out point is reached, and the graphic shown in FIG. The graphic shown in FIG. 3C is displayed two seconds before, and when the out point is reached, the graphic shown in FIG. Also, as shown in FIG. 61, the sound signal of “beep” is output 3 seconds, 2 seconds, or 1 second before the out point is reached.
[0470]
Thereby, the announcer can aim at the timing which closes the audio | voice signal which voices over.
[0471]
Returning to FIG. 56, after the out-point signal output process is completed as described above, the process proceeds to step S326 and waits until the recording is completed. As shown in FIG. 57, this recording is continued until the time corresponding to the margin has elapsed after the end of the voice-over point. If it is determined in step S326 that the margin time has elapsed from the out point, the process proceeds to step S327, and the recording process is terminated. However, the reproduction is performed over the same range as the preview range shown in FIG. When the recording process is completed in this way, as shown in FIG. 63, a microphone figure indicating the completion of recording is displayed at the beginning of the voice over setting range of the fourth channel in the timeline display area 40. The characters “VOICE OVER” are displayed in the voice over section.
[0472]
In this way, the range recorded by voice over is protected from the out point from the position set in the protect margin from the in point specified as the voice over range, as shown in FIG. It is set to the position after the time set by the margin. This protect margin can also be set in advance to a predetermined value. This protect margin is defined separately from the period of 5 seconds during preview reproduction.
[0473]
As described above, when the recording of the voice over is completed, the preview can be performed again to confirm the finish. When the finish is confirmed, processing for saving various parameters of voice over as a timeline file is executed. FIG. 64 shows the storage process in this case.
[0474]
That is, first, in step S391, the user turns on the time line (Time Line) button of the menu bar 20 (FIG. 6). At this time, since a pull-down menu is displayed in step S392, the user selects a save button in step S393 from the pull-down menu and turns it on. At this time, in step S394, the CPU 10 stores the voice over parameter in the RAM 10b. Next, proceeding to step S395, as shown in FIG. 65, the CPU 10 deletes the shaded display of the voice-over section of the fourth audio channel, and makes the user recognize that the storage process has ended. Further, proceeding to step S396, the CPU 10 executes a process of ending the voice over editing mode and shifting to the normal mode.
[0475]
FIG. 66 schematically shows a recording area of the hard disk 300A that is driven by the HDD 300 of the hybrid recorder 3 that performs the voice over processing as described above. As shown in the figure, the hard disk 300A is divided into zones 1 to 7. Of these, a file system area is formed in an area having a smaller cylinder number or sector number, followed by a CA (Continuous Area) area 1 for recording video data and audio data, and then only audio data is recorded. An AA (Audio Area) area is formed. The voice-over audio data described above is recorded in this AA area. Next to the AA area, a CA area 2 for recording both audio data and video data is formed. In the next RA area, edit decision list (EDL) data, a program relating to processing of buttons on the panel of the hybrid recorder 3, and the like are recorded. Further, the next organization mode area is used for temporarily saving data. In the last self-diagnosis area, programs and data for performing the initialization operation are recorded.
[0476]
As described above, in the editing system shown in FIG. 2, a maximum of five devices can be connected to the computer 2. The computer 2 can operate these five devices in synchronization. The operation for this synchronous operation will be described below.
[0477]
When controlling the synchronization operation of the connected apparatus, the user turns on the option button 22h in the timing display area 22 to display a pull-down menu. When a multi-control panel is selected from the pull-down menu, the CPU 10 displays a multi-control panel as shown in FIG. On the display unit 901 of the multi-control panel, the states of the five video tape recorders are displayed.
[0478]
In this example, since the main recorder and the sub recorder are in a stopped state, STOP is displayed on the corresponding display unit 901.
[0479]
The display unit 902 displays information related to each device connected to the five ports of the personal computer 2. In this example, the recorder connected to the control port with the smallest number is the main recorder and is displayed as MAIN. The recorder connected to the control port with the second smallest number is set as a sub recorder and displayed as SUB. Recorders other than the main recorder and sub recorder are displayed as SYNC. DISCONNECT is displayed for a port to which no device is connected. EFFECTER is displayed on the port to which the video effect device 6 is connected.
[0480]
The display unit 903 displays five control port buttons 903A to 903E. The sync play button 904 is operated when locking or unlocking the synchronization control setting for a plurality of devices connected to each port. When the sync play button 904 is locked, the indicators 903a to 903e of the five control buttons 903A to 903E are lit in green. At this time, all the five devices operate synchronously.
[0481]
FIG. 68 shows an example of processing when the multi control panel shown in FIG. 67 is operated to perform multi synchronization processing.
[0482]
First, in step S411, as a default, the CPU 10 sets a synchronous mode. That is, the state where the sync play button 904 is turned on is set as a default. In this case, in step S412, the indicators 903a to 903e of the control port buttons 903A to 903E of devices that can be synchronized among the connected devices emit light in green.
[0483]
Next, in step S413, it is determined whether or not the sync play button 904 is turned on. If turned on, the process proceeds to step S415, and it is determined whether or not the synchronization mode is currently set. If the synchronization mode is not set, the process returns to step S411 to set the synchronization mode. In step S412, the indicator of the control port button of the apparatus capable of synchronization processing is lit in green.
[0484]
If it is determined in step S415 that the current mode is not the synchronous mode, the process proceeds to step S416, and a process for canceling the synchronous mode is executed. In step S417, the indicator of the control button of the apparatus capable of synchronous processing is turned off. Thereafter, the process returns to step S413.
[0485]
If it is determined in step S413 that the sync play button 904 is not turned on, the process proceeds to step S414, and it is determined whether or not the control port buttons 903A to 903E are turned on. If the control port buttons 903A to 903E are not turned on, the process returns to step S413, and the subsequent processing is repeatedly executed.
[0486]
If it is determined in step S414 that the control port buttons 903A to 903E are turned on, the process proceeds to step S418, and it is determined in step S418 whether or not the synchronization mode is set corresponding to the control port button. If the operated control port button is set to the synchronous mode, the process proceeds to step S419, and it is determined whether or not the control port button is the main channel control port button 903A. In the case of the control port button 903A for the main channel, since the synchronization mode cannot be canceled, the process returns to step S413, and the subsequent processing is repeatedly executed.
[0487]
If it is determined in step S418 that the channel corresponding to the currently operated control port button is not set to the synchronous mode, and in step S419, the channel of the currently operated control port button is not the main channel. If it is determined that there is not, the process proceeds to step S420. In step S420, it is determined whether or not the device corresponding to the operated control port button is operating synchronously. If it is determined that the corresponding device is operating synchronously, the process proceeds to step S421, and the synchronous operation of the device is canceled. In step S422, the indicator is turned off. If it is determined in step S420 that the corresponding device is not operating synchronously, the process proceeds to step S423, and the device is operated synchronously. Then, the process proceeds to step S424, and the indicator is made to emit green light. After the processing of step S422 and step S424, the process returns to step S413.
[0488]
As described above, when there is a device to be excluded from the target of synchronization control, the corresponding control port button is clicked, and the indicator of the button is turned off. However, by clicking the control button, the main recorder of the main channel cannot be removed from the synchronous control. To remove the main channel from the synchronization control, click the sync play button 904 to set the synchronization control setting to the unlocked state, and then click the control port button of the main channel to turn off the indicator.
[0489]
Next, processing when a plurality of devices (hybrid recorder 3) are operated in synchronization will be described below. Now, for example, when the mark-in button 27c is operated, a process for specifying an image displayed on the playback video screen 23a at that time will be described. First, the mark data generation process generated in response to the operation of the mark-in button 27c will be described with reference to the flowchart of FIG.
[0490]
In step S441, when the mark-in button 27c is operated, in step S442, the CPU 10 instructs the first video processor 11 to capture an image. In step S443, the CPU 10 performs image compression processing at the timing when the mark-in button 27c is operated. When the image compression processing is completed in step S444, the image data acquisition processing is executed in step S445. To do.
[0491]
On the other hand, after instructing image capture in step S442, the CPU 10 reads the time code of the image compressed in step S446. Further, in step S447, the hard disk address of the hybrid recorder 3 corresponding to the time code is obtained from the built-in correspondence table.
[0492]
In this manner, the compressed image is captured in step S445, and the address at which the image corresponding to the compressed image is recorded is determined in step S447, whereby the process of determining the mark point data is executed in step S448. . In other words, the CPU 10 can operate the mark-in button 27c thereafter to obtain the designated image from the mark point data as needed.
[0493]
As described above, for example, an image of the main channel can be designated at a predetermined timing. However, for example, an image of a subchannel at the same timing can be simultaneously used as a picture-in-picture image as described above. It is possible to display. Therefore, as shown in FIG. 70, when the CPU 10 outputs a command to the external interface 18 at the first timing, the command is synchronized with a predetermined reference signal at the second timing. 18 is simultaneously transmitted to the hybrid recorder 3a and the hybrid recorder 3b via the cable 4 of RS-422.
[0494]
That is, as shown in FIG. 71, for example, if a command is generated at the timing of the frame F2, this command is sent to both the hybrid recorders 3a and 3b at the second timing in synchronization with the reference signal immediately after that. Are output at the same time. Both the hybrid recorders 3a and 3b operate in synchronization with the reference signal. Accordingly, it is possible to obtain image signals at the same timing from both the two hybrid recorders 3a and 3b.
[0495]
In the above configuration, in the case of the editing system 1, two types of modes are prepared as a graphic display for GUI. One is a picture mode that edits the program by rearranging the events while viewing the clip image data at the In and Out points of the registered event, and the other is the time length of the registered event. It is a timeline mode in which programs are edited by rearranging events while viewing visually. In the editing system 1, the two modes can be easily switched by clicking the mode button 22b, so that the operator can select the GUI that is easier to use according to the editing purpose. Therefore, in the case of this editing system 1, the usability in editing work is improved as compared with the conventional editing system.
[0496]
For example, if there is no time restriction in the program, if you select the picture mode, you can edit while looking at the clip image data of the In point or Out point of each event, and how the generated program is It is possible to perform editing work while confirming whether the event is composed of various contents. If there are time constraints in the program, select the timeline mode and the display area of each event will change according to the length of the event. Or the like, and a program having a desired length can be easily generated.
[0497]
In the case of the editing system 1, a program view area 42 is provided in the timeline mode, and clip image data at the in-point of each event constituting the program is displayed by the program view area 42. As a result, even in the timeline mode, it is possible to easily confirm what kind of event the generated program is composed of.
[0498]
In the case of the editing system 1, a pre-roll mode is provided in which when the mark-in button 24c is operated to designate an in point, a reproduction operation is automatically performed from a position a predetermined time before the position of the in point. ing. Therefore, if such a pre-roll mode is activated in advance, for example, even when a ball hit by a batter stands at a baseball game and the mark-in button 24c is clicked to specify an in-point when the ball is hit, Since the playback operation is automatically performed from a position a predetermined time before the point, the IN point can be easily corrected by clicking the mark-in button 27c on the playback side while viewing the playback screen. It is possible to easily create an event including a desired scene, such as the moment of hitting, in real time.
[0499]
In the case of the editing system 1, the playback speed of the event can be set to an arbitrary speed using the playback speed setting area 25A. This makes it possible to set slow playback for an event at the moment of hitting a home run in a baseball broadcast, for example, an event that represents the movement of the batter and the whereabouts of the ball more realistically by slow playing the event of the home run scene Can be generated and provided to the viewer.
[0500]
In the case of the editing system 1, since the hybrid recorder 3 capable of recording and reproducing at the same time is used, real-time editing can be performed by simultaneously recording and reproducing. Further, in the case of this editing system 1, the video signal V2 on the source side, the video signal V6 obtained by reproducing the edited event or program, or clip image data indicating the event or program is displayed on one monitor 2b. By doing so, there is no need to provide a plurality of monitors as in the prior art, so that editing can be performed sufficiently even in a limited environment at the site and the configuration of the entire editing system is simplified. be able to.
[0501]
According to the above configuration, the clip image data of the In point or the Out point of each event constituting the program, together with the timeline display area 40 indicating the time length of each event of the generated program by the size of the display area By displaying the program view area 42 indicating the above on the monitor 2b, it is possible to easily confirm what kind of event the generated program is configured by looking at the program view area 42. Further, by using the hybrid recorder 3 capable of recording and reproducing at the same time, real-time editing can be performed by simultaneously recording and reproducing. In this way, it is possible to realize an editing system 1 with improved usability that can realize high-speed real-time editing.
[0502]
In the above embodiment, the case where the hybrid recorder 3 composed of the hard disk drive 300 and the video tape recorder 301 is used as the recording / reproducing apparatus has been described. However, the recording / reproducing apparatus composed simply of the hard disk drive is used. Also good. In short, recording means for recording source video data on a recording medium, playback means for reproducing source video data recorded on the recording medium while recording source video data on the recording medium, and source video to be recorded If the recording / reproducing apparatus has an output means for outputting data and source video data to be reproduced, and can perform recording and reproduction at the same time, the same effects as those of the above-described embodiment can be obtained.
[0503]
In the above-described embodiment, the case where various instructions and various information are input to the editing system 1 using the keyboard 2c, the mouse 2d, or the dedicated controller 2e has been described. Various information may be input. In short, it is only necessary to provide user interface means for inputting various instructions and various information from the operator to the editing system 1.
[0504]
Further, in the above-described embodiment, the case where the display on the monitor 2b of the timeline display area 40 and the program view area 42 is controlled by the CPU 10 and the display controller 13 has been described, but these two control means are combined into one. The display of the timeline display area and the program display area on the display means may be controlled by the control means.
[0505]
As a providing medium for providing a user with a computer program for performing the processing as described above, a communication medium such as a network or a satellite can be used in addition to a recording medium such as a magnetic disk, a CD-ROM, or a solid memory. .
[0506]
【The invention's effect】
  As described above, the editing device according to claim 1,3Editing method described in claim and claim4According to the recording medium described in (1), it is possible to specify, for example, a display position of a picture-in-picture quickly and easily.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an editing system according to an embodiment of the present invention.
FIG. 2 is a block diagram showing another configuration example of the editing system according to the embodiment of the present invention.
3 is a block diagram showing an internal configuration of a computer constituting the editing system of FIG. 1 or FIG.
4 is a block diagram showing a configuration example of the video effect device 6 of FIG. 1 or FIG.
FIG. 5 is a diagram illustrating an example of a GUI in a picture mode.
FIG. 6 is a diagram illustrating an example of a GUI when in a timeline mode.
FIG. 7 is a diagram showing a configuration of a timeline display area.
FIG. 8 is a diagram illustrating first management record data.
FIG. 9 is a diagram illustrating second management record data for clip data.
FIG. 10 is a diagram for explaining second management record data for event data and program data.
FIG. 11 is a diagram illustrating second management record data for effect data.
FIG. 12 is a diagram illustrating second management record data for DSK data.
FIG. 13 is a diagram illustrating an index number, a clip number, and an event number.
FIG. 14 is a diagram showing a display example of each display area.
FIG. 15 is a diagram illustrating a method for managing a clip display area.
FIG. 16 is a diagram for explaining an event display area management method;
FIG. 17 is a diagram illustrating a method for managing a program display area.
18 is a block diagram showing a configuration of the hybrid recorder of FIG. 1 or FIG.
FIG. 19 is a diagram illustrating a configuration of a playback speed setting area.
20 is a diagram showing an external configuration of the dedicated controller shown in FIG. 1 or FIG. 2;
FIG. 21 is a diagram for explaining a storage format of speed data.
FIG. 22 is a diagram illustrating a display example of a cue-up setting screen.
FIG. 23 is a diagram illustrating a pre-roll mode.
FIG. 24 is a diagram illustrating a hierarchical structure for storing work data.
FIG. 25 is a flowchart illustrating an initial operation.
FIG. 26 is a flowchart illustrating a marking operation on the recording side.
FIG. 27 is a flowchart for explaining a marking operation on the reproduction side.
FIG. 28 is a flowchart illustrating a marking operation on the reproduction side.
FIG. 29 is a flowchart illustrating a trimming operation.
FIG. 30 is a flowchart illustrating a pre-roll operation.
FIG. 31 is a flowchart illustrating a pre-roll operation.
FIG. 32 is a flowchart illustrating a program creation operation.
FIG. 33 is a diagram illustrating a display example of a video effect setting area.
FIG. 34 is a flowchart illustrating an effect assignment process.
FIG. 35 is a flowchart illustrating an effect setting process when creating a program.
FIG. 36 is a diagram illustrating a display example of an effect setting dialog.
FIG. 37 is a diagram illustrating a display example of an effect detail setting dialog.
FIG. 38 is a diagram illustrating a change in cursor.
FIG. 39 is a diagram illustrating an insertion position of effect setting clip image data.
FIG. 40 is a diagram illustrating the principle of cursor change.
FIG. 41 is a flowchart for describing sub-screen area adjustment processing when setting picture-in-picture.
FIG. 42 is a diagram illustrating a display example of a picture-in-picture area setting screen.
FIG. 43 is a flowchart for describing mask area adjustment processing when DSK is set;
FIG. 44 is a diagram showing a display example of a DSK setting dialog.
45 is a diagram showing a display example of a mask area setting screen. FIG.
FIG. 46 is a diagram showing a display example of a direct effect operation window.
FIG. 47 is a diagram showing a display example of a direct effect setting dialog.
FIG. 48 is a flowchart illustrating voice over input processing.
FIG. 49 is a diagram illustrating a voice over channel.
FIG. 50 is a diagram for explaining an in point of voice over.
FIG. 51 is a diagram for explaining an out point of voice over.
FIG. 52 is a diagram for explaining a voice-over range.
FIG. 53 is a flowchart for describing preview processing;
Fig. 54 is a diagram for describing a playback range during a preview operation.
FIG. 55 is a diagram for explaining audio signal attenuation during a preview operation;
FIG. 56 is a flowchart for explaining voice over recording processing;
FIG. 57 is a diagram for explaining a recording range during voice-over recording.
FIG. 58 is a flowchart illustrating an in-point signal output process.
FIG. 59 is a diagram showing a display example in step S342 of FIG.
60 is a diagram showing a display example in steps S342, S344, S346 and S348 in FIG.
61 is a diagram illustrating an example of audio output in steps S342, S344, and S346 in FIG. 58;
FIG. 62 is a flowchart illustrating an out-point cue output process.
FIG. 63 is a diagram showing a display example when voice over recording is completed.
FIG. 64 is a flowchart illustrating a saving process.
FIG. 65 is a diagram showing a display example after the storage process is completed;
66 is a diagram for describing a recording area of a hard disk driven by the HDD of FIG. 18;
FIG. 67 is a diagram showing a display example of a multi-control panel.
FIG. 68 is a flowchart for describing multi-synchronization processing;
FIG. 69 is a flowchart for describing mark data generation processing;
FIG. 70 is a diagram for explaining synchronization processing;
FIG. 71 is a diagram for describing signal output timing;
[Explanation of symbols]
1 editing system, 2 computer, 2a main body, 2b monitor, 2c keyboard, 2d mouse, 2e dedicated controller, 2f floppy disk, 3, 3a to 3d hybrid recorder, 6 video effect device, 7 input / output selection device, 8, 8a to 8d microphone, 10 CPU, 11 first video processor, 12 second video processor, 13 display controller, 19 audio processor, 21 recording video display area, 22 timing display area, 23 playback video display area, 24 recording video marking area , 25 Video effect setting area, 25A playback speed setting area, 26i Recycle box area, 27 Playback video marking area, 28 Clip display area, 29 Vent display area 30 program display area, 40 time line display area, 300 a hard disk drive, 301 a video tape recorder, 314 image sound synthesis circuit, 317 audio data control section, 717 crosspoint switch, 720 an image computing unit

Claims (4)

画面上の所定の第1のボタンを操作することによりピクチャインピクチャの効果を画像に付与する編集装置において、
前記第1のボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御手段と、
前記設定画面において設定された前記パラメータを記憶部に記憶させる記憶制御手段と、
ピクチャインピクチャの効果を画像に付与する場合に、前記パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、前記領域の角へのドラッグに対応して前記領域の大きさを変更し、前記領域の辺へのドラッグに対応して前記領域の枠の幅を変更し、前記領域の内部へのドラッグに対応して前記領域の位置を変更する領域表示制御手段と
を備え、
前記設定画面表示制御手段は、前記設定画面が表示されている場合、前記領域へのドラッグによる前記領域の表示位置または大きさの変更に伴い変更される前記パラメータの値を前記設定画面の前記スライドボタンの表示に反映する
ことを特徴とする編集装置。
In an editing apparatus for giving a picture-in-picture effect to an image by operating a predetermined first button on the screen,
A setting screen corresponding to the first button, including a slide button for setting a display position and size of a picture-in-picture, and displaying a setting screen for setting a parameter relating to the effect of the picture-in-picture Setting screen display control means to control;
Storage control means for storing the parameters set in the setting screen in a storage unit;
When a picture-in-picture effect is added to an image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameter, and dragging to the corner of the area is supported. The size of the area is changed, the width of the frame of the area is changed in response to dragging to the side of the area, and the position of the area is changed in response to dragging to the inside of the area Area display control means and
With
When the setting screen is displayed, the setting screen display control means changes the value of the parameter that is changed when the display position or size of the region is changed by dragging to the region to the slide of the setting screen. An editing device that is reflected in button display .
前記第1のボタンが選択およびドラッグされ、所定の第2のボタンにドロップされた場合、記憶されている前記パラメータに基づいてピクチャインピクチャの効果を画像に付与する機能を前記第2のボタンに割り付ける割り付け手段を
さらに備えることを特徴とする請求項1に記載の編集装置。
When the first button is selected and dragged and dropped onto a predetermined second button, the second button has a function of adding an effect of picture-in-picture to the image based on the stored parameter. The editing apparatus according to claim 1, further comprising an allocating unit for allocating.
画面上の所定のボタンを操作することによりピクチャインピクチャの効果を画像に付与する編集装置の編集方法において、
前記ボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御ステップと、
前記設定画面において設定された前記パラメータを記憶部に記憶させる記憶制御ステップと、
ピクチャインピクチャの効果を画像に付与する場合に、前記パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、前記領域の角へのドラッグに対応して前記領域の大きさを変更し、前記領域の辺へのドラッグに対応して前記領域の枠の幅を変更し、前記領域の内部へのドラッグに対応して前記領域の位置を変更する領域表示制御ステップと
を含み、
前記設定画面表示制御ステップにおいて、前記設定画面が表示されている場合、前記領域へのドラッグによる前記領域の表示位置または大きさの変更に伴い変更される前記パラメータの値を前記設定画面の前記スライドボタンの表示に反映する
ことを特徴とする編集方法。
In an editing method of an editing apparatus for giving a picture-in-picture effect to an image by operating a predetermined button on the screen,
A setting screen corresponding to the button, including a slide button for setting a display position and size of a picture-in-picture, and a setting for controlling display of a setting screen for setting a parameter relating to the effect of the picture-in-picture A screen display control step;
A storage control step for storing the parameters set in the setting screen in a storage unit;
When a picture-in-picture effect is added to an image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameter, and dragging to the corner of the area is supported. The size of the area is changed, the width of the frame of the area is changed in response to dragging to the side of the area, and the position of the area is changed in response to dragging to the inside of the area Area display control step and
Including
In the setting screen display control step, when the setting screen is displayed, the value of the parameter that is changed when the display position or size of the area is changed by dragging to the area is changed to the slide of the setting screen. An editing method characterized by reflecting the button display .
画面上の所定のボタンを操作することによりピクチャインピクチャの効果を画像に付与する編集装置のコンピュータに処理を実行させるプログラムであって、
前記ボタンに対応する設定画面であって、ピクチャインピクチャの表示位置および大きさを設定するためのスライドボタンを含み、ピクチャインピクチャの効果に関するパラメータを設定するための設定画面の表示を制御する設定画面表示制御ステップと、
前記設定画面において設定された前記パラメータを記憶部に記憶させる記憶制御ステップと、
ピクチャインピクチャの効果を画像に付与する場合に、前記パラメータに基づいて編集対象とされている画像上にピクチャインピクチャの表示位置を示す領域を表示するとともに、前記領域の角へのドラッグに対応して前記領域の大きさを変更し、前記領域の辺へのドラッグに対応して前記領域の枠の幅を変更し、前記領域の内部へのドラッグに対応して前記領域の位置を変更する領域表示制御ステップと
を含み、
前記設定画面表示制御ステップにおいて、前記設定画面が表示されている場合、前記領域へのドラッグによる前記領域の表示位置または大きさの変更に伴い変更される前記パラメータの値を前記設定画面の前記スライドボタンの表示に反映する
を含むプログラムが記録されている記録媒体。
A program for causing a computer of an editing apparatus to execute a process by giving a picture-in-picture effect to an image by operating a predetermined button on the screen,
A setting screen corresponding to the button, including a slide button for setting a display position and a size of a picture-in-picture, and a setting for controlling display of a setting screen for setting a parameter relating to the effect of the picture-in-picture A screen display control step;
A storage control step for storing the parameters set in the setting screen in a storage unit;
When a picture-in-picture effect is added to an image, an area indicating the display position of the picture-in-picture is displayed on the image to be edited based on the parameter, and dragging to the corner of the area is supported. Change the size of the region, change the width of the frame of the region corresponding to the drag to the side of the region, and change the position of the region corresponding to the drag to the inside of the region. Area display control step and
Including
In the setting screen display control step, when the setting screen is displayed, the value of the parameter that is changed when the display position or size of the area is changed by dragging to the area is changed to the slide of the setting screen. A recording medium on which a program including a button reflected is displayed .
JP00633298A 1998-01-16 1998-01-16 Editing apparatus and method, and recording medium Expired - Fee Related JP4281120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00633298A JP4281120B2 (en) 1998-01-16 1998-01-16 Editing apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00633298A JP4281120B2 (en) 1998-01-16 1998-01-16 Editing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JPH11205670A JPH11205670A (en) 1999-07-30
JP4281120B2 true JP4281120B2 (en) 2009-06-17

Family

ID=11635417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00633298A Expired - Fee Related JP4281120B2 (en) 1998-01-16 1998-01-16 Editing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4281120B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001004868A1 (en) * 1999-07-13 2001-01-18 Sun Microsystems, Inc. Methods and apparatus for creating a video window with parameters defining position and scaling factor
KR20020068134A (en) 2001-02-20 2002-08-27 엘지전자주식회사 Method for displaying PIP of a digital TV
KR100461182B1 (en) 2002-05-03 2004-12-13 삼성전자주식회사 Pip processing system and method of controlling the same
KR100469262B1 (en) * 2002-06-03 2005-02-02 엘지전자 주식회사 Method and apparatus for controlling video
JP4574965B2 (en) * 2003-07-25 2010-11-04 株式会社島津製作所 Radiation therapy planning device
JP5184832B2 (en) * 2007-07-17 2013-04-17 キヤノン株式会社 Information processing apparatus, control method therefor, and computer program
JP5083331B2 (en) * 2010-01-06 2012-11-28 ソニー株式会社 Image display apparatus and method
JP6729028B2 (en) * 2016-06-15 2020-07-22 株式会社リコー Information processing device, electronic blackboard, program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5259594U (en) * 1975-10-25 1977-04-30
JPS6049341U (en) * 1983-09-14 1985-04-06 スズキ株式会社 Engine mount
JP2859563B2 (en) * 1995-06-21 1999-02-17 アルパイン株式会社 Radiator for electronic equipment

Also Published As

Publication number Publication date
JPH11205670A (en) 1999-07-30

Similar Documents

Publication Publication Date Title
JPH11203837A (en) Editing system and method therefor
US6324336B1 (en) Editing system and its method
US6345143B2 (en) Editing system and editing method
US6154601A (en) Method for editing image information with aid of computer and editing system
JP3895849B2 (en) Non-linear video editing system
US20030091329A1 (en) Editing system and editing method
EP0843311A2 (en) Method for editing image information with aid of computer and editing system
KR20060018861A (en) Edition device and method
JP3895848B2 (en) Non-linear video editing system
JP4281120B2 (en) Editing apparatus and method, and recording medium
JP4102944B2 (en) Editing apparatus and method, and recording medium
JP3791869B2 (en) Image editing method, image editing apparatus, and medium storing program for causing computer to execute image editing processing operation
JP4281121B2 (en) Editing apparatus and method, and recording medium
JPH11203835A (en) Edit device and method, and magnetic tape
JP3687942B2 (en) Image editing method and image editing apparatus
JP4588126B2 (en) Editing system and editing method
JPH11205671A (en) Device and method for editing and provision medium
JPH11203836A (en) Device and method for editing and medium provided
JPH11203834A (en) Device and method for editing and providing medium
KR100603173B1 (en) Editing apparatus and editing method
JP2005278212A (en) Image editing method and image editing system
KR100603161B1 (en) Editing system and editing method
JP4312180B2 (en) Recording / reproducing apparatus and method
JP4243346B2 (en) Non-linear video broadcasting system
JP4245083B2 (en) Non-linear video editing system with processing re-recording function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees