JP4174718B2 - Editing apparatus and editing method - Google Patents

Editing apparatus and editing method Download PDF

Info

Publication number
JP4174718B2
JP4174718B2 JP2003170126A JP2003170126A JP4174718B2 JP 4174718 B2 JP4174718 B2 JP 4174718B2 JP 2003170126 A JP2003170126 A JP 2003170126A JP 2003170126 A JP2003170126 A JP 2003170126A JP 4174718 B2 JP4174718 B2 JP 4174718B2
Authority
JP
Japan
Prior art keywords
resolution
video data
low
video
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003170126A
Other languages
Japanese (ja)
Other versions
JP2005006231A (en
Inventor
文雄 清水
伸夫 中村
秀明 宮内
健志 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003170126A priority Critical patent/JP4174718B2/en
Publication of JP2005006231A publication Critical patent/JP2005006231A/en
Application granted granted Critical
Publication of JP4174718B2 publication Critical patent/JP4174718B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、編集装置及び編集方法に関し、例えばテレビジョン放送局で用いるオンエアーシステムに適用して好適なものである。
【0002】
【従来の技術】
従来、オンエアーシステムにおいては、取材等により得られた映像音声を編集装置を用いて所望状態に加工編集し、得られた編集された映像音声(以下、これを編集映像音声と呼ぶ)を放送用のクリップ(映像音声素材)としてサーバに登録することができ、このサーバに登録したクリップを所定のタイミングで読み出して放送することができるようになされている。
(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2001−238193公報(第22頁〜第22頁、図1)
【0004】
【発明が解決しようとする課題】
ところで、オペレータが編集リストを作成する際、指定したクリップの映像音声データを再生する場合がある。通常、クリップの映像音声データは、映像加工に必要な解像度を確保すべく、高解像度フォーマットに基づくものが該当するサーバから転送されることにより用いられる。
【0005】
かかるクリップを高解像度フォーマットに基づく映像音声データで再生させる際に、当該クリップの前後両端の映像であれば比較的短時間でサーバから転送させて再生可能である。
【0006】
ところが、クリップの長さが例えば約10分以上のものであって、その中央部分の映像をオペレータが指定して高解像度フォーマットに基づく映像音声データで再生させる場合には、データ量が多い分だけサーバからの転送時間がかかり、オペレータの待ち時間がかかり過ぎるという問題があった。
【0007】
実際上、編集リスト作成時にクリップの映像音声を再生させるにあたって、映像加工品質を必要としない単なるオペレータの目視確認のためであれば、クリップの映像音声データは低解像度フォーマットであっても構わないと考えられる。
【0008】
本発明は以上の点を考慮してなされたもので、編集効率を格段と向上し得る編集装置及び編集方法を提案しようとするものである。
【0009】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、複数の映像データの中から指定された任意の映像データを選択する選択手段と、任意の映像データが低解像度に圧縮符号化されてなる低解像度映像データを保存している第1サーバから当該低解像度映像データを読み出して表示手段に表示させる表示制御手段と、表示手段に表示された低解像度映像データのうち、ユーザによって指定された開始点から終了点までの範囲でなる低解像度部分映像データを抽出する抽出手段と、抽出手段により低解像度部分映像データが抽出されたことに応じて、任意の映像データを保存する第2サーバから、任意の映像データのうち、低解像度部分映像データに対応するデータ部分を部分映像データとして読み出して一時的に保存するキャッシュ手段と、ユーザによって入力された編集内容に基づいた編集リストを作成する際に、低解像度再生モードのとき、低解像度部分映像データに対応する低解像度映像データを第1サーバより再生させ、部分映像データに対して特殊効果処理を施す場合に用いられる高解像度再生モードのとき、キャッシュ手段に保存された部分映像データを再生させるように、低解像度再生モード及び高解像度再生モードを切り替えて再生させる再生手段とを設けるようにした。
【0010】
これにより、カット編集させる場合には、低解像度映像データを第1サーバから瞬時に読み出すことにより、編集作業にかかる時間を短縮させることができる一方、キャッシュ手段から高解像度の部分映像データを読み出して再生することにより、映像加工に必要な解像度が確保されているため、抽出した部分映像データに対して種々の特殊効果処理を施すことができ、また低解像度部分映像データ及び部分映像データを切り替えて再生させることができるので、ユーザの選択により映像品質と編集時間との調和を図りながら効率よく編集作業を行うことができる。
【0011】
また本発明においては、複数の映像データの中から指定された任意の映像データを選択する選択ステップと、任意の映像データが低解像度に圧縮符号化されてなる低解像度映像データを保存している第1サーバから当該低解像度映像データを読み出して表示手段に表示させる表示制御ステップと、表示手段に表示された低解像度映像データのうち、ユーザによって指定された開始点から終了点までの範囲でなる低解像度部分映像データを抽出する抽出ステップと、抽出ステップにおいて低解像度部分映像データが抽出されたことに応じて、任意の映像データを保存する第2サーバから、任意の映像データのうち、低解像度部分映像データに対応するデータ部分を部分映像データとして読み出して一時的にキャッシュ手段に保存するキャッシュステップと、ユーザによって入力された編集内容に基づいた編集リストを作成する際に、低解像度再生モードのとき、低解像度部分映像データに対応する低解像度映像データを第1サーバより再生させ、部分映像データに対して特殊効果処理を施す場合に用いられる高解像度再生モードのとき、キャッシュ手段に保存された部分映像データを再生させるように、低解像度再生モード及び高解像度再生モードを切り替えて再生させる再生ステップとを設けるようにした。
【0012】
これにより、カット編集させる場合には、低解像度映像データを第1サーバから瞬時に読み出すことにより、編集作業にかかる時間を短縮させることができる一方、キャッシュ手段から高解像度の部分映像データを読み出して再生することにより、映像加工に必要な解像度が確保されているため、抽出した部分映像データに対して種々の特殊効果処理を施すことができ、また低解像度部分映像データ及び部分映像データを切り替えて再生させることができるので、ユーザの選択により映像品質と編集時間との調和を図りながら効率よく編集作業を行うことができる。
【0013】
【発明の実施の形態】
以下図面について、本願発明の一実施の形態について説明する。
【0014】
(1)本実施の形態によるオンエアーシステムの構成
図1において、1は全体としてテレビジョン放送局等に設置される本実施の形態によるオンエアーシステムを示し、取材現場から衛星通信回線等を介して転送され、又は図示しないビデオテープレコーダにより取材テープから再生された140〔Mbps〕程度の解像度を有するHDCAMフォーマット(ソニー株式会社 登録商標)の映像音声データ(以下、これを高解像度映像音声データと呼ぶ)D1をルータ2を介して素材サーバ3及びダウンコンバータ4に入力する。
【0015】
素材サーバ3は、複数のRAID(Redundant Arrays of Independent Disks)から構成される記録再生部を有する大容量のAV(Audio Video)サーバでなり、システム制御部5の制御のもとに、ルータ2を介して供給される一連の高解像度映像音声データD1をファイル化して記憶する。
【0016】
またダウンコンバータ4は、供給される高解像度映像音声データD1を8〔Mbps〕程度の解像度にダウンコンバートすると共に、これをMPEG(Motion Picture Experts Group)フォーマットで圧縮符号化し、かくして得られた低解像度の映像音声データ(以下、これを低解像度映像音声データと呼ぶ)D2をプロキシサーバ6に送出する。
【0017】
プロキシサーバ6は、素材サーバ3と同様に、複数のRAIDから構成される記録再生部を有するAVサーバでなり、システム制御部5の制御のもとに、ダウンコンバータ4から供給される一連の低解像度映像音声データD2をファイル化して記憶する。
【0018】
このようにしてこのオンエアーシステム1では、素材サーバ3に収録した映像音声素材(以下、これをクリップと呼ぶ)と同じ内容の低解像度のクリップをプロキシサーバ6に収録する。
【0019】
そしてこのプロキシサーバ6に格納された各クリップの低解像度映像音声データD2は、イーサネット(登録商標)7を介してプロキシサーバ6と接続された各プロキシ編集端末装置8〜8及び各編集端末装置9〜9をそれぞれ用いて読み出すことができ、これを利用して素材サーバ3に蓄積されたクリップの中からどのクリップとどのクリップとをどのように繋げてどのように加工編集された映像音声(以下、これを編集映像音声と呼ぶ)を生成するかといった編集内容を規定したリスト(以下、これをVFL(Virtual File List)と呼ぶ)をプロキシ編集端末装置8〜8や各編集端末装置9〜9において作成することができる。
【0020】
実際上、プロキシ編集端末装置8〜8は、専用のソフトウェアが起動されたVFL作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介してプロキシサーバ6を制御することにより、当該プロキシサーバ6にそのクリップの低解像度映像音声データD2を順次読み出させる。
【0021】
またプロキシ編集端末装置8〜8は、このようにしてプロキシサーバ6から読み出された低解像度映像音声データD2を復号化し、得られたベースバンドの映像音声データに基づく映像をディスプレイに表示する。これによりオペレータがこのディスプレイに表示された映像を目視確認しながらカット編集のみのVFLを作成することができる。
【0022】
さらにこのようにして作成されたVFLのデータ(以下、これを単にVFLデータと呼ぶ)は、オペレータの操作によりそのプロキシ編集端末装置8〜8からイーサネット(登録商標)7を介してプロジェクトファイル管理端末装置10に転送することができる。そしてこの転送されたVFLデータは、この後このプロジェクトファイル管理端末装置10によって記憶管理される。
【0023】
一方、編集端末装置9〜9は、素材サーバ3に収録された高解像度映像音声データD1に対して映像特殊効果処理をリアルタイムで施し得るビデオボードが搭載されたノンリニア編集装置でなり、専用のソフトウェアが起動されたVFL作成モード時、プロキシ編集端末装置8〜8と同様にシステム制御部5を介してプロキシサーバ6を制御することにより、オペレータにより指定されたクリップの映像を低解像度でディスプレイに表示させる。これによりオペレータは、この映像を目視確認しながら特殊効果処理や音声の音声ミキシング処理の設定を含めた最終的なVFLを作成することができる。
【0024】
なお編集端末装置9〜9には、それぞれビデオテープレコーダ11〜11及びハードディスク装置等のローカルストレージ12〜12が接続されており、かくしてビデオテープ等に記録された映像音声をビデオテープレコーダ11〜11を介してクリップとしてローカルストレージ12〜12に取り込み、これを編集に利用することもできるようになされている。
【0025】
また編集端末装置9〜9は、VFLの作成過程において、オペレータの操作に応じてイーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介して素材サーバ3を制御することにより、当該VFLに基づく編集映像音声の生成時に必要となるであろう高解像度映像音声データD1を当該素材サーバ3から予め読み出させる。
【0026】
この結果この素材サーバ3から読み出された高解像度映像音声データD1は、この後ゲートウェイ13を介して所定フォーマットにフォーマット変換された後、ファイバチャネルスイッチャ14を介して例えば180ギガバイト程度の記憶容量を有する半導体メモリからなる対応するデータI/Oキャッシュ部15〜15に与えられて記憶保持される。
【0027】
そして編集端末装置9〜9は、やがてオペレータによるVFLの作成作業が終了し、この後このVFLの実行命令が入力されると、当該VFLに従ってデータI/Oキャッシュ部15〜15から対応する高解像度映像音声データD1を順次読み出し、この高解像度映像音声データD1に対して必要に応じて特殊効果処理や音声ミキシング処理を施しながら、かくして得られた編集映像音声のデータ(以下、これを編集映像音声データと呼ぶ)D3を素材サーバ3に送出する。この結果この編集映像音声データD3がシステム制御部5の制御のもとに、素材サーバ3にファイル化されて記憶される。
【0028】
さらにこの素材サーバ3に収録された編集映像音声データD3は、この後オペレータ操作により図示しないオンエアーサーバに転送され、この後番組作成者等により作成されたいわゆるプレイリストに従ってオンエアーサーバから読み出されて放送される。
【0029】
このようにしてこのオンエアーシステム1においては、編集から当該編集により得られた編集映像音声のオンエアーまでの一連の作業を効率良く行い得るようになされている。
【0030】
(2)編集端末装置9〜9の構成
ここで編集端末装置9〜9は、図2に示すように、CPU(Central Processing Unit)20と、各種プログラムやパラメータが格納されたROM(Read Only Memory)21と、CPU20のワークメモリとしてのRAM(Random Access Memory)22と、各種ソフトウェアが格納されたハードディスク装置23と、各種映像データ処理機能及び音声データ処理機能を有するデータ処理部24と、CPU20の制御のもとに、対応するデータI/Oキャッシュ部15〜15から指定された高解像度映像音声データD1を読み出し、当該高解像度映像音声データD1に対して指定された映像特殊効果処理や音声ミキシング処理を施す映像特殊効果及び音声ミキシング処理部25と、各種インターフェース部26〜28とがCPUバス29を介して接続されることにより構成されており、インターフェース部26を介してイーサネット(登録商標)7に接続されている。
【0031】
またインターフェース部27にはマウス30及びキーボード31等の入力装置が接続されると共に、インターフェース部28にはビデオテープレコーダ11〜11及びローカルストレージ12〜12が接続され、データ処理部24にはディスプレイ32及びスピーカ33が接続されている。
【0032】
そしてCPU20は、VFL作成モード時、ハードディスク装置23内に格納された画面データを必要に応じて読み出し、これをデータ処理部に与えることにより、後述のような各種画面やウインド、ダイアログ等をディスプレイに表示させる。
【0033】
またCPU20は、VFL作成モード時、マウス30やキーボード31を介して入力された命令に基づき、必要に応じてシステム制御部5(図1)にコマンドを送出することにより、当該システム制御部5を介して素材サーバ3(図1)やプロキシサーバ6(図1)、FCスイッチャ14(図1)、データI/Oキャッシュ部15〜15(図1)等を所望状態に制御する。
【0034】
さらにCPU20は、例えばこの結果としてプロキシサーバ6からイーサネット(登録商標)7を介して転送されるオペレータにより指定されたクリップの低解像度映像音声データD2をインターフェース部26を介して取り込み、これをデータ処理部24に与えることにより、当該低解像度映像音声データD2に基づく映像を、そのときディスプレイ32に表示されている画面やウインド、ダイアログ内の所定位置に表示させる。
【0035】
さらにCPU20は、必要時には映像特殊効果及び音声ミキシング処理部25を制御することにより、データI/Oキャッシュ部15〜15から対応する高解像度映像音声データD1を読み出させると共に、当該高解像度映像音声データD1に対して必要に応じて特殊効果処理や音声ミキシング処理を実行させ、かくして得られた編集映像音声データD3をデータ処理部24に送出させることにより、当該編集映像音声データD3に基づく特殊効果処理された映像をディスプレイ32に表示させたり、音声ミキシング処理された音声をスピーカ33から出力させ、かつ必要に応じてこの編集映像音声データD3を素材サーバ3に送出させる。
【0036】
(3)編集端末装置9〜9におけるVFLの作成手順
次にこの編集端末装置9〜9におけるVFLの作成手順について説明する。
【0037】
編集端末装置9〜9のCPU20は、VFL作成モード時、オペレータの操作に応じて図3に示すようなクリップエクスプローラ(Clip Explorer)ウインド40と、これと同様の構成を有するサーバサイトエクスプローラ(Server Site Explorer)ウインド41とをディスプレイ32(図2)に表示させる。
【0038】
この場合クリップエクスプローラウインド40は、その編集端末装置9〜9に接続されたローカルストレージ12〜12やデータI/Oキャッシュ部15〜15に格納されているクリップの一覧を表示するためのウインドであり、ツリー表示部50、クリップ表示部51及びクリップ一覧表示部52から構成される。
【0039】
そしてこのクリップエクスプローラウインド40のツリー表示部50には、システム制御部5(図1)が管理しているそのデータI/Oキャッシュ部15〜15に保持された各クリップについての管理情報と、自己が管理しているそのローカルストレージ12〜12に格納された各クリップについての管理情報とに基づいて、これらクリップがそれぞれどのドライブ、ホルダ、ファイル、ビンに収納されているかといった、クリップの位置情報がツリー形式で表示される。
【0040】
またクリップエクスプローラウインド40のクリップ表示部51には、ツリー表示部50で選択されたビンに格納されている全てのクリップについて、例えばその先頭フレームのサムネイル画像と、そのクリップの名前とがアイコン形式で一覧表示され、さらにクリップ一覧表示部52には、クリップ表示部51に表示された各クリップについて、そのクリップが格納されているドライブ名、そのクリップの名前、収録年月日、映像フォーマット及び素材長などの管理情報がリスト形式で表示される。なお、以下においては、クリップ表示部51に表示される各クリップに対応したアイコンをクリップアイコン54と呼ぶものとする。
【0041】
またサーバサイトエクスプローラウインド41は、素材サーバ3及びプロキシサーバ6に収録されているクリップの一覧を表示するためのウインドであり、クリップエクスプローラウインド41と同様にツリー表示部50、クリップ表示部51及びクリップ一覧表示部52から構成される。
【0042】
そしてこのサーバサイトエクスプローラウインド41のツリー表示部50には、システム制御部5(図1)が管理している各クリップの管理情報に基づいて、素材サーバ3及びプロキシサーバ6に収録されている各クリップの位置情報がツリー形式で表示にされ、クップ表示部51及びクリップ一覧表示部52には、それぞれこれらクリップについて、クリップエクスプローラウインド40のクリップ表示部51及びクリップ一覧表示部52に表示される内容と同様の内容が表示される。
【0043】
そしてオペレータは、新規のVFLを作成する場合、クリップエクスローラウインド40の上部に表示された複数のボタンのうち、新規シーケンス作成ボタン53をクリックするようにする。この結果、これから作成しようとするVFLに対応付けられたクリップ(以下、これをシーケンスクリップと呼ぶ)がCPU20により作成されると共に、クリップエクスローラウインド40のクリップ表示部51内にそのシーケンスクリップのクリップアイコン54が表示される。
【0044】
またこのときこれと併せて、図4に示すような新規のVFL作成画面42がディスプレイ32に表示される。このVFL作成画面42は、クリップの映像を目視確認しながら所望部分をカットとして切り出す操作を行うためのソースビューワ部60と、このようにして切り出された各カットをどのように並べるか、またその際カットの繋ぎ目においてどのような特殊効果を施すかといった編集内容を設定するためのタイムライン部61と、タイムライン部61において設定された編集内容を実際の映像により確認するためのマスタービューワ部62とから構成されるものである。
【0045】
そしてオペレータは、サーバサイトエクスプローラウインド41のクリップ表示部51に表示された各クリップのアイコン53の中から所望のクリップのアイコン53をドラッグアンドドロップによりVFL作成画面42のソースビューワ部60内に移動させることで、そのクリップを編集に利用するクリップとして選択することができ、この操作を繰り返すことにより複数のクリップをまとめて編集に利用するクリップとして選択することができる。
【0046】
またオペレータは、VFL作成画面42におけるソースビューワ部60の上側に表示されたクリップ選択メニュー表示ボタン70をクリックすることにより、上述のようにして選択したクリップの一覧をメニュー表示させることができ、さらにこのメニューの中から所望するクリップをクリックすることにより編集処理対象として選択することができる。なおこのとき選択されたクリップの名前がクリップリストボックス71内に表示されると共に、この当該クリップの例えば先頭フレームの映像がソースビューワ部60に表示される。
【0047】
そしてVFL作成画面42では、このようにしてソースビューワ部60に映像表示されたクリップのプロキシサーバ6(図1)に収録されている低解像度映像音声データD2に基づく映像を、ソースビューワ部60の下側に表示された複数の各種コマンドボタン72の中から対応するコマンドボタン72をクリックすることによって、通常再生、コマ送り再生又はコマ戻し再生等させることができる。
【0048】
実際上、CPU20は、かかる複数のコマンドボタン72の中から通常再生用、コマ送り再生用又はコマ送り逆再生用等のコマンドボタン72がクリックされると、これに応じてシステム制御部5を介してプロキシサーバ6を制御することにより、当該クリップにおける対応する映像音声部分の低解像度映像音声データD2を出力させる。この結果この低解像度映像音声データD2に基づく低解像度の通常再生映像や、コマ送り再生映像又はコマ送り逆再生映像等がソースビューワ部60に表示されることとなる。
【0049】
かくしてオペレータは、このソースビューワ部60に表示されたクリップの再生映像を目視確認しながらコマンドボタン72のうちのマークインボタン72IN又はマークアウトボタン72OUTをクリックするようにして、このクリップの映像音声の中からカットとして利用しようとする映像音声部分の開始点(イン点)や終了点(アウト点)を指定することができる。
【0050】
またこのようにイン点やアウト点を指定した場合、ソースビューワ部60における表示映像の下側に表示されたポジションバー73のイン点又はアウト点と対応する位置(すなわち、ポジションバー73の長さをそのクリップの素材長とした場合におけるイン点又はアウト点と対応する位置)に、それぞれイン点位置を表すマーク(以下、これをイン点マークと呼ぶ)74INやアウト点位置を表すマーク(以下、これをアウト点マークと呼ぶ)74OUTが表示される。
【0051】
一方、オペレータは、このようにして指定した各クリップのカットとして利用しようとする映像音声部分を用いて、以下の手順によりVFLを作成することができる。
【0052】
すなわち、まず上述のようにクリップのうちのカットとして利用しようとする映像音声部分の範囲を決定後、タイムライン部61内に表示されたプレイライン75を、当該タイムライン部61の下部に表示されたタイムスケール76を指標としてマウス操作により所望位置に移動させ、この後ソースビューワ部60の下部に表示された各種コマンドボタン72のうちのオーバーライトボタン72又はスプライスインボタン72をクリックするようにする。
【0053】
この結果、オーバーライトボタン72がクリックされたときには上書き、スプライスインボタン72がクリックされたときには挿入するようにして、タイムライン部61のビデオトラック77上に、そのときのプレイライン75の位置を先頭位置とする当該映像音声部分の素材長に応じた長さの着色領域78が表示される。
【0054】
またこのときその映像音声部分に音声が付随している場合には、ビデオトラック77の下側に設けられた複数のオーディオトラック77A1〜77A4のうちの該当するチャンネル数分のオーディオトラック77A1〜77A4上に、それぞれそのときのプレイライン75の位置を先頭位置とするビデオトラック77の対応する着色領域78と同じ長さの着色領域78A1〜78A4が表示される。
【0055】
因みに、このときCPU20は、かかるオペレータの操作に応じたコマンドをシステム制御部5に通知する。この結果、システム制御部5の制御のもとに、素材サーバ3(図1)から対応するクリップにおける当該映像音声部分の高解像度映像音声データD1がイン点側及びアウト点側にそれぞれ数秒程度の余裕をもたせて読み出され、これがゲートウェイ13(図1)、FCスイッチャ14(図1)を介してその編集端末装置9〜9用のデータI/Oキャッシュ部15〜15に与えられて記憶される。
【0056】
さらに編集映像音声の再生時に映像音声部分の映像に付随する音声以外の音声を出力させたいときには、クリップ選択メニュー表示ボタン70をクリックし、このとき表示されたクリップの一覧の中から予め登録しておいたその音声のクリップを選択した後、タイムライン部61のプレイライン75を所望する位置に移動させ、この後所望するオーディオトラック77A1〜77A4を指定した上で上述のオーバーライトボタン72又はスプライスインボタン72をクリックするようにする。
【0057】
そしてこの場合にも、その指定されたオーディオトラック77A1〜77A4上にそのときのプレイライン75の位置を先頭位置とする当該クリップの素材長に対応する長さの着色領域78A1〜78A4が表示されると共に、このクリップが素材サーバ3に収録されている場合には、その音声データが素材サーバ3から読み出されてデータI/Oキャッシュ部15〜15に記憶されることとなる。
【0058】
そしてオペレータは、所望する各クリップについて、上述のような映像音声部分の選択(カットの切り出し)と、当該映像音声部分のタイムライン部61への貼り付け(ビデオトラック77及び対応するオーディオトラック78A1〜78A4に着色領域78、78A1〜78A4を表示させること)という操作を繰り返し行い、タイムスケール76の始め(「00:00.00:00」)から所望する時間分だけ当該タイムスケール76上において連続するように、ビデオトラック77と、オーディオトラック77A1〜77A4上にそれぞれ着色領域78、78A1〜78A4を順次表示させるようにする。
【0059】
ここでこのようにタイムライン部61のビデオトラック77上やオーディオトラック77A1〜77A4上に着色領域78、78A1〜78A4が表示されることは、編集映像音声の再生時にタイムスケール76で表された時間にその着色領域78、78A1〜78A4と対応するカット内の対応する箇所の映像が表示され、又は音声が出力されることを意味する。従って、このような作業により編集映像音声として表示又は出力される映像音声の順番及び内容を規定したVFLを作成することができる。
【0060】
因みに、タイムライン部61に表示させるビデオトラック77やオーディオトラック77A1〜77A4の本数は自由に設定することができる。そして複数本のビデオトラック77やオーディオトラック77A1〜77A4が表示された状態において、これらビデオトラック77又はオーディオトラック77A1〜77A4にそれぞれカットやクリップが貼り付けられている場合には、各ビデオトラック77におけるタイムスケール76上で同じ位置の各映像を重ね合わせた映像が編集映像として得られ、各オーディオトラック77A1〜77A4におけるタイムスケール76上で同じ位置の各音声を重ね合わせた音声が編集音声として得られることとなる。
【0061】
さらにこのようにしてVFLを作成する際、例えば連続する第1のカットの映像から第2のカットの映像への切り換わり時に特殊効果処理を施したいときには、以下の手順により所望する映像特殊効果処理の設定を行うことができる。
【0062】
すなわち、まず先行する第1のカットと、第2のカットとをポジションバー96上で連続するようにビデオトラック77に貼り付け、この後タイムライン部61の上部に表示された各種ボタン80の中からFXエクスプローラボタン80FXをクリックする。これにより、例えば図7に示すように、この編集端末装置9〜9が実行できる各種映像特殊効果がツリー形式でツリー表示部82に表示され、これら映像特殊効果の内容がアイコン形式でアイコン表示部83に表示されたウインド(以下、これをFXエクスプローラウインドと呼ぶ)81を表示させることができる。
【0063】
続いて、このFXエクスプローラウインド81のアイコン表示部83内に表示されたアイコン(以下、これを特殊効果アイコンと呼ぶ)84の中から所望する映像特殊効果処理の特殊効果アイコン84をドラッグアンドドロップにより、VFL作成画面42のビデオトラック77における上述の第1及び第2のカットの切り替わり箇所に貼り付ける。
【0064】
これにより編集映像の生成時において、第1のカットの映像から第2のカットの映像に切り替わる際に上述のようにして貼り付けられた特殊効果アイコンに対応する映像特殊効果処理が実行されることとなる。
【0065】
またVFLを作成する際、いずれかのオーディオトラック77A1〜77A4に貼り付けられたカットやクリップの音声に対して音声ミキシング処理を施したい場合には、以下の手順により所望の音声ミキシング処理を設定することができる。
【0066】
すなわち、まずVFL作成画面42のタイムライン部61に表示されたプレイライン75を、オーディオトラック77A1〜77A4に貼り付けられたカットやクリップのうちの音声ミキシング処理したいカット又はクリップと対応する着色領域78A1〜78A4上に移動させた後、当該タイムライン部61の上部に表示された複数のボタンの中からオーディオミキサーボタン80MIXをクリックする。
【0067】
この結果、図8に示すようなVFL作成画面42のタイムライン部61の各オーディオトラック77A1〜77A4にそれぞれ対応させてボリューム91やレベルメータ92及び各種設定ボタン93A〜93F等が設けられたオーディオミキサーウインド90が表示される。
【0068】
そしてこの後、このオーディオミキサーウインド90内に表示された、VFL作成画面42のタイムライン部61の所望するオーディオトラック77A1〜77A4と対応付けられたボリューム91や設定ボタン93A〜93F等をレベルメータ92を目視確認しながら操作する。
【0069】
これにより編集音声の出力時において、そのオーディオトラック77A1〜77A4に貼り付けられたカット又はクリップの再生時に上述のようにして設定された内容で当該カット又はクリップの音声データが音声ミキシング処理されることとなる。
【0070】
さらにVFL作成画面42では、上述のようにしてVFLを作成し終えた後又はVFLの作成中に、タイムライン部61内のプレイライン75をマウス操作により所望位置に移動させ、この後マスタービューワ部62の下側に表示された複数のコマンドボタン90の中からプレビューボタン90PVをクリックすることにより、そのときのプレイライン75の位置と対応する映像音声部分を開始点として、高解像度の編集映像をマスタービューワ部62内に通常再生表示させることができる。
【0071】
実際上、CPU20は、かかるプレビューボタン90PVがクリックされると、映像特殊効果及び音声ミキシング処理部25(図2)を制御することにより、このときデータI/Oキャッシュ部15〜15が記憶保持している対応する映像音声部分の高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を施させる。
【0072】
この結果、かかる映像特殊効果処理や音声ミキシング処理によって得られた高解像度の編集映像音声データが生成され、これがデータ処理部24に与えられることにより、当該編集映像音声データに基づく編集映像がVFL作成画面42のマスタービューワ部62内に再生表示されると共に、編集音声がスピーカ33から出力される。
【0073】
これによりオペレータは、このVFL作成画面42のマスタービューワ部62内に表示された編集映像に基づいて随時編集内容を目視確認(プレビュー)しながらVFLを作成し、又は作成し終えたVFLの内容を確認することができる。
【0074】
そしてこのようにしてVFLを作成後、クリップエクスプローラウインド40(図3)のクリップ表示部51内に表示されたこのVFLのシーケンスクリップのクリップアイコン54をドラッグアンドドロップによりサーバサイトエクスプローラウインド41(図3)のクリップ表示部51内に移動させることにより、このVFLに基づく編集結果を素材サーバ3(図1)に登録することができる。
【0075】
(4)タイムライン再生モード処理
上述のVFL作成モード時に、編集端末装置9〜9のCPU20は、図9に示すタイムライン再生モード処理RT1をステップSP0から開始することにより、映像品質と編集時間との調和を図りながら効率よく編集作業を行うことができる。
【0076】
続くステップSP1において、CPU20は、オペレータの操作に応じて、VFL作成画面42(図4)のタイムライン部61にクリップが貼り付けられるのを待ち、肯定結果が得られたときのみ、ステップSP2に進んで、素材サーバ3(図1)からデータI/Oキャッシュ部15〜15に当該クリップに対応する高解像度映像音声データD1を転送させる。
【0077】
次いでCPU20は、ステップSP3に進んで、タイムライン再生モードを設定する。このタイムライン再生モードでは、オペレータの選択に応じて、指定されたクリップが、素材サーバ3(図1)から転送されたデータI/Oキャッシュ部15〜15に収録されている高解像度映像音声データD1に基づくものか、プロキシサーバ6(図1)に収録されている低解像度映像音声データD2に基づくものかを任意に選択できる再生モードである。
【0078】
そしてCPU20は、ステップSP4に進んで、オペレータからタイムライン再生指示、すなわち指定したクリップの映像再生の指示があるのを待ち、肯定結果が得られたときのみ、ステップSP5に進む。
【0079】
このステップSP5において、現在のタイムライン再生モードが低解像度映像音声データD2での再生モード(以下、これを低解像度再生モードと呼ぶ)か否かを判断し、肯定結果が得られた場合には、ステップSP6に進んで、指定されたクリップに対応する低解像度映像音声データD2をプロキシサーバ6(図1)から読み出して再生した後、そのままステップSP7に進んで当該処理手順を終了する。
【0080】
これに対してステップSP5において否定結果が得られた場合には、現在のタイムライン再生モードが高解像度映像音声データD1での再生モード(以下、これを高解像度再生モードと呼ぶ)であることを表しており、このときCPU20は、ステップSP8に進んで、指定されたクリップに対応する高解像度映像音声データD1をデータI/Oキャッシュ部15〜15から読み出して再生した後、そのままステップSP7に進んで当該処理手順を終了する。
【0081】
(5)本実施の形態による動作及び効果
以上の構成において、オンエアーシステム1内の編集端末装置9〜9では、VFL作成モード時に、オペレータの操作に応じて、VFL作成画面42のタイムライン部61にクリップが貼り付けられると、素材サーバ3からデータI/Oキャッシュ部15〜15に当該クリップに対応する高解像度映像音声データD1を転送させる。
【0082】
そして編集端末装置9〜9は、タイムライン再生モードを設定して、オペレータの選択に応じた低解像度再生モード又は高解像度再生モードで、指定されたクリップの映像音声を再生させる。
【0083】
従って、オペレータが低解像度再生モードを選択したときは、クリップの長さが例えば約10分以上のものであって、その中央部分の映像を単に目視確認する場合や、クリップの映像音声素材を単にカット編集する場合には、瞬時に低解像度映像音声データD2がプロキシサーバ6から読み出されるため、高解像度再生モードの場合よりも格段と短時間で編集作業を行うことができる。
【0084】
一方、オペレータが高解像度再生モードを選択したときは、データ量が多い分だけデータI/Oキャッシュ部15〜15からの転送時間がかかるものの、映像加工に必要な解像度が確保されているため、指定したクリップに対して種々の特殊効果処理を施すことができる。
【0085】
以上の構成によれば、オンエアーシステム1内の編集端末装置9〜9において、VFL作成モード時に、オペレータの操作に応じて、低解像度再生モード又は高解像度再生モードのタイムライン再生モードを選択的に設定するようにしたことにより、低解像度再生モードのときには、クリップの全体等を目視確認する場合や単にカット編集する場合等には、瞬時に低解像度映像音声データD2がプロキシサーバ6から読み出すことができる分、編集作業にかかる時間を短縮することができる一方、高解像度再生モードのときには、映像加工に必要な解像度が確保されているため、指定したクリップに対して種々の特殊効果処理を施すことができ、かくしてオペレータの選択により映像品質と編集時間との調和を図りながら効率よく編集作業を行うことができる。
【0086】
(6)他の実施の形態
なお上述のように本実施の形態においては、編集内容を規定した編集リストに従って編集処理を実行する編集装置として、図1に示すオンエアーシステム1内の編集端末装置9〜9を適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる編集装置に広く適用することができる。
【0087】
また上述のように本実施の形態においては、編集内容を形成する被編集素材(クリップ)を表す映像データを、高解像度及び低解像度の画像フォーマットでそれぞれ保持する第1及び第2のデータ保持手段として、それぞれデータI/Oキャッシュ部15〜15及びプロキシサーバ6を適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる第1及び第2のデータ保持手段に広く適用することができる。
【0088】
さらに上述のように本実施の形態においては、編集素材を表す映像データを、外部操作に応じて、高解像度又は低解像度の画像フォーマットのいずれかに選択する選択手段として、編集端末装置9〜9のマウス30やキーボード31をCPU20の制御下で適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる選択手段に広く適用することができる。また、高解像度又は低解像度の画像フォーマットの選択をオペレータの指示ではなく被編集素材の内容(クリップの時間長や、クリップの両端又は中央の別)に応じて自動的に選択するようにしても良い。
【0089】
さらに上述のように本実施の形態においては、編集リストの作成時に被編集素材が指定されたとき、選択手段により選択された高解像度又は低解像度の画像フォーマットで映像データを再生させる再生手段として、編集端末装置9〜9のCPU20及びデータ処理部24を適用した場合について述べたが、本発明はこれに限らず、この他種々の構成からなる再生手段に広く適用することができる。
【0090】
【発明の効果】
上述のように本発明によれば、ット編集させる場合には、低解像度映像データを第1サーバから瞬時に読み出すことにより、編集作業にかかる時間を短縮させることができる一方、キャッシュ手段から高解像度の部分映像データを読み出して再生することにより、映像加工に必要な解像度が確保されているため、抽出した部分映像データに対して種々の特殊効果処理を施すことができ、また低解像度部分映像データ及び部分映像データを切り替えて再生させることができるので、ユーザの選択により映像品質と編集時間との調和を図りながら効率よく編集作業を行うことができ、かくして編集効率を格段と向上し得る編集装置及び編集方法を実現できる。
【図面の簡単な説明】
【図1】本実施の形態におけるオンエアーシステムの全体構成を示すブロック図である。
【図2】図1に示す編集端末装置の構成を示すブロック図である。
【図3】クリップエクスプローラウインドの説明に供する略線的な平面図である。
【図4】VFL作成画面の説明に供する略線的な平面図である。
【図5】VFL作成画面の説明に供する略線的な平面図である。
【図6】VFL作成画面の説明に供する略線的な平面図である。
【図7】FXエクスプローラウインドの説明に供する略線的な平面図である。
【図8】オーディオエクスプローラウインドの説明に供する略線的な平面図である。
【図9】タイムライン再生モード処理手順の説明に供するフローチャートである。
【符号の説明】
1……オンエアーシステム、2……ルータ、3……素材サーバ、4……ダウンコンバータ、5……システム制御部、6……プロキシサーバ、8〜8……プロキシ編集端末装置、9〜9……編集端末装置、12〜12……ローカルストレージ、15〜15……データI/Oキャッシュ部、RT1……タイムライン再生モード処理手順。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an editing apparatus and an editing method, and is suitable for application to, for example, an on-air system used in a television broadcasting station.
[0002]
[Prior art]
Conventionally, in an on-air system, video and audio obtained by interviews are processed and edited to a desired state using an editing device, and the resulting edited video and audio (hereinafter referred to as edited video and audio) is broadcast. Clip (video / audio material) can be registered in the server, and the clip registered in the server can be read and broadcast at a predetermined timing.
(For example, refer to Patent Document 1).
[0003]
[Patent Document 1]
JP 2001-238193 (pages 22 to 22, FIG. 1)
[0004]
[Problems to be solved by the invention]
By the way, when an operator creates an edit list, video / audio data of a specified clip may be reproduced. Normally, the video / audio data of a clip is used by transferring data based on a high-resolution format from a corresponding server in order to ensure the resolution necessary for video processing.
[0005]
When such a clip is played back with video / audio data based on a high-resolution format, the video at both ends of the clip can be transferred from the server and played back in a relatively short time.
[0006]
However, if the clip length is, for example, about 10 minutes or more, and the video in the center is specified by the operator and played back as video and audio data based on the high-resolution format, only the amount of data is large. There was a problem that it took a long time to transfer from the server and the operator waited too long.
[0007]
In fact, when playing back the video and audio of the clip when creating the edit list, the video and audio data of the clip may be in a low-resolution format as long as it is merely for visual confirmation by an operator who does not require video processing quality. Conceivable.
[0008]
The present invention has been made in view of the above points, and an object of the present invention is to propose an editing apparatus and an editing method capable of significantly improving editing efficiency.
[0009]
[Means for Solving the Problems]
In order to solve such a problem, in the present invention, selection means for selecting arbitrary video data designated from a plurality of video data, and low resolution video data obtained by compressing and encoding arbitrary video data to a low resolution Display control means for reading out the low resolution video data from the first server storing the data and displaying it on the display means, and the low resolution video data displayed on the display means Out of the range from the start point to the end point specified by the user Extraction means for extracting low-resolution partial video data; In response to the extraction of the low-resolution partial video data by the extraction means, From the second server that stores arbitrary video data, Of the arbitrary video data, the data part corresponding to the low resolution partial video data When creating an editing list based on the editing contents input by the user and the cache means for reading out and temporarily storing the partial video data, When in low resolution playback mode, Low resolution partial video data When the low resolution video data corresponding to the above is reproduced from the first server and the special effect processing is performed on the partial video data, the high resolution reproduction mode is used. Play partial video data stored in the cache To switch between low-resolution playback mode and high-resolution playback mode And a reproducing means.
[0010]
This , Mosquito When editing Together Is able to reduce the time required for editing work by instantaneously reading out low resolution video data from the first server, while reading out and playing back high resolution partial video data from the cache means for video processing. Since the necessary resolution is secured, various special effect processing can be applied to the extracted partial video data. In addition, the user can switch between low resolution partial video data and partial video data for playback. Thus, editing can be performed efficiently while harmonizing the video quality and the editing time.
[0011]
In the present invention, a selection step for selecting arbitrary designated video data from a plurality of pieces of video data, and low resolution video data obtained by compressing and encoding arbitrary video data to low resolution are stored. A display control step of reading out the low-resolution video data from the first server and displaying it on the display means; and the low-resolution video data displayed on the display means Out of the range from the start point to the end point specified by the user An extraction step for extracting low-resolution partial video data; In response to the low resolution partial video data being extracted in the extraction step, From the second server that stores arbitrary video data, Of the arbitrary video data, the data part corresponding to the low resolution partial video data When creating an edit list based on the editing step input by the user and the cache step that is read out as partial video data and temporarily stored in the cache means, When in low resolution playback mode, Low resolution partial video data When the low resolution video data corresponding to the above is reproduced from the first server and the special effect processing is performed on the partial video data, the high resolution reproduction mode is used. Play partial video data stored in the cache To switch between low-resolution playback mode and high-resolution playback mode And a regeneration step.
[0012]
This , Mosquito When editing Together Is able to reduce the time required for editing work by instantaneously reading out low resolution video data from the first server, while reading out and playing back high resolution partial video data from the cache means for video processing. Since the necessary resolution is secured, various special effect processing can be applied to the extracted partial video data. In addition, the user can switch between low resolution partial video data and partial video data for playback. Thus, editing can be performed efficiently while harmonizing the video quality and the editing time.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0014]
(1) Configuration of on-air system according to this embodiment
In FIG. 1, reference numeral 1 denotes an on-air system according to the present embodiment installed in a television broadcasting station or the like as a whole, which is transferred from a coverage site via a satellite communication line or the like, or a coverage tape by a video tape recorder not shown The video / audio data (hereinafter referred to as high-resolution video / audio data) D1 of HDCAM format (Sony Corporation) having a resolution of about 140 [Mbps] reproduced from the network server 3 through the router 2 Input to the down converter 4.
[0015]
The material server 3 is a large-capacity AV (Audio Video) server having a recording / playback unit composed of a plurality of RAIDs (Redundant Arrays of Independent Disks), and the router 2 is controlled under the control of the system control unit 5. A series of high-resolution video / audio data D1 supplied via the file is stored as a file.
[0016]
The down-converter 4 down-converts the supplied high-resolution video / audio data D1 to a resolution of about 8 [Mbps] and compresses and encodes this in the MPEG (Motion Picture Experts Group) format. Video / audio data (hereinafter referred to as low-resolution video / audio data) D2 is sent to the proxy server 6.
[0017]
Similar to the material server 3, the proxy server 6 is an AV server having a recording / reproducing unit composed of a plurality of RAIDs. The resolution video / audio data D2 is filed and stored.
[0018]
In this manner, in the on-air system 1, a low-resolution clip having the same content as the video / audio material (hereinafter referred to as a clip) recorded in the material server 3 is recorded in the proxy server 6.
[0019]
The low-resolution video / audio data D2 of each clip stored in the proxy server 6 is sent to each proxy editing terminal device 8 connected to the proxy server 6 via the Ethernet (registered trademark) 7. 1 ~ 8 n And each editing terminal device 9 1 ~ 9 n Can be read out by using each of the clips stored in the material server 3 by using which clips and which clips are connected and how they are processed and edited (hereinafter referred to as this). A proxy editing terminal device 8 is a list (hereinafter referred to as VFL (Virtual File List)) that defines editing contents such as whether to generate edited video and audio. 1 ~ 8 n And each editing terminal device 9 1 ~ 9 n Can be created.
[0020]
In practice, the proxy editing terminal device 8 1 ~ 8 n In the VFL creation mode in which dedicated software is activated, if an operator selects one clip from clips recorded in the proxy server 6 and inputs a playback command, the Ethernet (registered trademark) 7 By accessing the system control unit 5 via and controlling the proxy server 6 via the system control unit 5, the proxy server 6 is caused to sequentially read the low-resolution video / audio data D <b> 2 of the clip.
[0021]
The proxy editing terminal device 8 1 ~ 8 n Decodes the low-resolution video / audio data D2 read out from the proxy server 6 in this way, and displays the video based on the obtained baseband video / audio data on the display. As a result, the operator can create a VFL only for cut editing while visually confirming the video displayed on the display.
[0022]
Further, the VFL data thus created (hereinafter simply referred to as VFL data) is generated by the proxy editing terminal device 8 by the operator's operation. 1 ~ 8 n To the project file management terminal device 10 via the Ethernet (registered trademark) 7. The transferred VFL data is stored and managed by the project file management terminal device 10 thereafter.
[0023]
On the other hand, the editing terminal device 9 1 ~ 9 n Is a nonlinear editing device equipped with a video board that can perform real-time video special effect processing on the high-resolution video / audio data D1 recorded in the material server 3, and in the VFL creation mode in which dedicated software is activated. Proxy editing terminal device 8 1 ~ 8 n In the same manner as described above, the proxy server 6 is controlled via the system control unit 5 to display the video of the clip designated by the operator on the display at a low resolution. As a result, the operator can create a final VFL including settings for special effect processing and audio mixing processing while visually checking the video.
[0024]
Editing terminal device 9 1 ~ 9 n The video tape recorder 11 1 ~ 11 n And local storage 12 such as a hard disk drive 1 ~ 12 n The video and audio recorded on the video tape or the like is thus converted into a video tape recorder 11. 1 ~ 11 n Via local storage 12 as a clip 1 ~ 12 n Can be imported and used for editing.
[0025]
The editing terminal device 9 1 ~ 9 n In the VFL creation process, the VFL is accessed by accessing the system control unit 5 via the Ethernet (registered trademark) 7 in accordance with the operation of the operator and controlling the material server 3 via the system control unit 5. The high-resolution video / audio data D1 that would be necessary when generating the edited video / audio based on the above is read from the material server 3 in advance.
[0026]
As a result, the high-resolution video / audio data D1 read from the material server 3 is subsequently converted into a predetermined format via the gateway 13, and then has a storage capacity of, for example, about 180 gigabytes via the fiber channel switcher 14. Corresponding data I / O cache unit 15 comprising a semiconductor memory having 1 ~ 15 n Is stored and retained.
[0027]
And the editing terminal device 9 1 ~ 9 n When the VFL creation operation by the operator is finished and an execution instruction for this VFL is input thereafter, the data I / O cache unit 15 is in accordance with the VFL. 1 ~ 15 n The corresponding high-resolution video / audio data D1 is sequentially read out, and the high-resolution video / audio data D1 is subjected to special effect processing and audio mixing processing as necessary, and the edited video / audio data thus obtained (hereinafter, referred to as “high-resolution video / audio data D1”). This is called edited video / audio data) D3 is sent to the material server 3. As a result, the edited video / audio data D3 is filed and stored in the material server 3 under the control of the system control unit 5.
[0028]
The edited video / audio data D3 recorded in the material server 3 is then transferred to an on-air server (not shown) by an operator operation, and then read from the on-air server according to a so-called playlist created by a program creator or the like. To be broadcast.
[0029]
In this way, the on-air system 1 can efficiently perform a series of operations from editing to on-air of the edited video and audio obtained by the editing.
[0030]
(2) Editing terminal device 9 1 ~ 9 n Configuration
Here, the editing terminal device 9 1 ~ 9 n As shown in FIG. 2, a CPU (Central Processing Unit) 20, a ROM (Read Only Memory) 21 storing various programs and parameters, a RAM (Random Access Memory) 22 as a work memory of the CPU 20, A hard disk device 23 in which various software is stored, a data processing unit 24 having various video data processing functions and audio data processing functions, and a corresponding data I / O cache unit 15 under the control of the CPU 20. 1 ~ 15 n The high-definition video / audio data D1 designated from the video and the video special effect / audio mixing processing unit 25 for performing the designated video special effect processing and audio mixing processing on the high-resolution video / audio data D1, and various interface units 26 to 28 are connected via a CPU bus 29, and are connected to the Ethernet (registered trademark) 7 via an interface unit 26.
[0031]
The interface unit 27 is connected to input devices such as a mouse 30 and a keyboard 31, and the interface unit 28 is connected to the video tape recorder 11. 1 ~ 11 n And local storage 12 1 ~ 12 n And a display 32 and a speaker 33 are connected to the data processing unit 24.
[0032]
In the VFL creation mode, the CPU 20 reads the screen data stored in the hard disk device 23 as necessary, and gives this to the data processing unit, thereby displaying various screens, windows, dialogs, etc. as described below on the display. Display.
[0033]
In the VFL creation mode, the CPU 20 sends a command to the system control unit 5 (FIG. 1) as needed based on a command input via the mouse 30 or the keyboard 31, thereby causing the system control unit 5 to Via the material server 3 (FIG. 1), proxy server 6 (FIG. 1), FC switcher 14 (FIG. 1), data I / O cache unit 15 1 ~ 15 n (FIG. 1) and the like are controlled to a desired state.
[0034]
Further, for example, the CPU 20 takes in the low-resolution video / audio data D2 of the clip designated by the operator transferred from the proxy server 6 via the Ethernet (registered trademark) 7 through the interface unit 26 as a result. By giving to the unit 24, the video based on the low-resolution video / audio data D2 is displayed at a predetermined position in the screen, window, or dialog displayed on the display 32 at that time.
[0035]
Further, the CPU 20 controls the video I / O cache unit 15 by controlling the video special effect and audio mixing processing unit 25 when necessary. 1 ~ 15 n The corresponding high-resolution video / audio data D1 is read out, and the high-resolution video / audio data D1 is subjected to special effect processing and audio mixing processing as necessary, and the edited video / audio data D3 thus obtained is read out. By sending the data to the data processing unit 24, the video having undergone the special effect processing based on the edited video / audio data D3 is displayed on the display 32, or the audio that has been subjected to the audio mixing processing is output from the speaker 33. The edited video / audio data D3 is sent to the material server 3.
[0036]
(3) Editing terminal device 9 1 ~ 9 n For creating VFL in Japan
Next, this editing terminal device 9 1 ~ 9 n The VFL creation procedure will be described.
[0037]
Editing terminal device 9 1 ~ 9 n In the VFL creation mode, the CPU 20 includes a clip explorer window 40 as shown in FIG. 3 and a server site explorer window 41 having the same configuration as that shown in FIG. It is displayed on the display 32 (FIG. 2).
[0038]
In this case, the clip explorer window 40 displays the editing terminal device 9. 1 ~ 9 n Local storage 12 connected to 1 ~ 12 n And data I / O cache unit 15 1 ~ 15 n Is a window for displaying a list of clips stored in the window, and includes a tree display section 50, a clip display section 51, and a clip list display section 52.
[0039]
The tree display unit 50 of the clip explorer window 40 includes the data I / O cache unit 15 managed by the system control unit 5 (FIG. 1). 1 ~ 15 n Management information for each clip held in the local storage 12 and its local storage 12 managed by itself 1 ~ 12 n Based on the management information for each clip stored in the file, clip position information such as which drive, holder, file, and bin each of these clips is stored in is displayed in a tree format.
[0040]
The clip display window 51 of the clip explorer window 40 displays, for example, thumbnail images of the first frame and names of the clips in an icon format for all clips stored in the bin selected in the tree display section 50. The clip list display section 52 further displays a drive name, clip name, recording date, video format, and material length for each clip displayed in the clip display section 51. Management information such as is displayed in a list format. In the following, an icon corresponding to each clip displayed on the clip display unit 51 is referred to as a clip icon 54.
[0041]
The server site explorer window 41 is a window for displaying a list of clips recorded in the material server 3 and the proxy server 6. Similar to the clip explorer window 41, the tree display unit 50, the clip display unit 51, and the clip are displayed. It consists of a list display section 52.
[0042]
In the tree display section 50 of the server site explorer window 41, each clip recorded in the material server 3 and the proxy server 6 is based on the management information of each clip managed by the system control section 5 (FIG. 1). Clip position information is displayed in a tree format, and the contents displayed on the clip display unit 51 and the clip list display unit 52 are displayed on the clip display unit 51 and the clip list display unit 52 of the clip explorer window 40, respectively. The same content as is displayed.
[0043]
Then, when creating a new VFL, the operator clicks a new sequence creation button 53 among a plurality of buttons displayed on the upper part of the clip explorer window 40. As a result, a clip associated with the VFL to be created (hereinafter referred to as a sequence clip) is created by the CPU 20, and the clip of the sequence clip is displayed in the clip display section 51 of the clip explorer window 40. An icon 54 is displayed.
[0044]
At the same time, a new VFL creation screen 42 as shown in FIG. The VFL creation screen 42 shows how to arrange the source viewer unit 60 for performing an operation of cutting out a desired portion as a cut while visually checking the clip image, and how to arrange the cuts thus cut. A timeline unit 61 for setting editing contents such as what kind of special effect is applied at the joint of the cuts, and a master viewer unit for checking the editing contents set in the timeline unit 61 by an actual video 62.
[0045]
Then, the operator moves a desired clip icon 53 from the clip icons 53 displayed on the clip display unit 51 of the server site explorer window 41 into the source viewer unit 60 of the VFL creation screen 42 by dragging and dropping. Thus, the clip can be selected as a clip to be used for editing, and by repeating this operation, a plurality of clips can be selected together as a clip to be used for editing.
[0046]
The operator can display a list of clips selected as described above by clicking the clip selection menu display button 70 displayed on the upper side of the source viewer section 60 on the VFL creation screen 42, and By clicking a desired clip from this menu, it can be selected as an editing process target. Note that the name of the clip selected at this time is displayed in the clip list box 71, and the video of the first frame of the clip is displayed in the source viewer unit 60.
[0047]
On the VFL creation screen 42, the video based on the low-resolution video / audio data D2 recorded in the proxy server 6 (FIG. 1) of the clip thus displayed on the source viewer 60 is displayed on the VFL creation screen 42. By clicking the corresponding command button 72 from among the various command buttons 72 displayed on the lower side, normal playback, frame advance playback, frame back playback, and the like can be performed.
[0048]
In practice, when the command button 72 for normal playback, frame-by-frame playback, or frame-by-frame reverse playback is clicked from among the plurality of command buttons 72, the CPU 20 passes the system control unit 5 accordingly. By controlling the proxy server 6, the low-resolution video / audio data D2 of the corresponding video / audio part in the clip is output. As a result, a low-resolution normal playback video, a frame-by-frame playback video, a frame-by-frame reverse playback video, or the like based on the low-resolution video / audio data D2 is displayed on the source viewer unit 60.
[0049]
Thus, the operator visually confirms the playback video of the clip displayed on the source viewer unit 60 while checking the mark-in button 72 of the command buttons 72. IN Or markout button 72 OUT By clicking, it is possible to specify the start point (in point) and end point (out point) of the video / audio part to be used as a cut from the video / audio of this clip.
[0050]
In addition, when the In point and Out point are designated in this way, the position corresponding to the In point or Out point of the position bar 73 displayed on the lower side of the display image in the source viewer unit 60 (that is, the length of the position bar 73). , A position corresponding to the In point or the Out point when the material length of the clip is used (hereinafter referred to as the In point mark) 74. IN And a mark representing the out point position (hereinafter referred to as an out point mark) 74 OUT Is displayed.
[0051]
On the other hand, the operator can create a VFL by the following procedure using a video / audio part to be used as a cut of each clip designated in this way.
[0052]
That is, first, after determining the range of the audio / video portion to be used as a cut of the clip as described above, the playline 75 displayed in the timeline unit 61 is displayed at the bottom of the timeline unit 61. The time scale 76 is used as an index to move to a desired position by a mouse operation, and thereafter, an overwrite button 72 of various command buttons 72 displayed at the lower part of the source viewer unit 60 is displayed. O Or splice-in button 72 S Click.
[0053]
As a result, the overwrite button 72 O When clicked, overwrite, splice in button 72 S When the is clicked, the video track 77 of the timeline unit 61 is inserted. V Further, a colored region 78 having a length corresponding to the material length of the video / audio portion starting from the position of the play line 75 at that time. V Is displayed.
[0054]
At this time, if the video / audio portion is accompanied by audio, the video track 77 V A plurality of audio tracks 77 provided below A1 ~ 77 A4 Audio tracks 77 for the corresponding number of channels A1 ~ 77 A4 Above, a video track 77 starting from the position of the play line 75 at that time. V Corresponding colored region 78 of V Colored region 78 of the same length as A1 ~ 78 A4 Is displayed.
[0055]
Incidentally, at this time, the CPU 20 notifies the system control unit 5 of a command corresponding to the operation of the operator. As a result, under the control of the system control unit 5, the high-resolution video / audio data D1 of the video / audio portion of the corresponding clip from the material server 3 (FIG. 1) is about several seconds on the in-point side and the out-point side, respectively. This is read with a margin, and this is read out via the gateway 13 (FIG. 1) and the FC switcher 14 (FIG. 1). 1 ~ 9 n Data I / O cache unit 15 1 ~ 15 n Given to memorize.
[0056]
Further, when it is desired to output audio other than the audio accompanying the video / audio portion during playback of the edited video / audio, click the clip selection menu display button 70 and register in advance from the displayed clip list. After selecting the audio clip, the play line 75 of the time line unit 61 is moved to a desired position, and then the desired audio track 77 is moved. A1 ~ 77 A4 And the above-described overwrite button 72 O Or splice-in button 72 S Click.
[0057]
Also in this case, the designated audio track 77 A1 ~ 77 A4 A colored region 78 having a length corresponding to the material length of the clip with the position of the play line 75 at the top as the top position. A1 ~ 78 A4 When the clip is recorded in the material server 3, the audio data is read from the material server 3 and the data I / O cache unit 15 is displayed. 1 ~ 15 n Will be stored.
[0058]
The operator then selects (cuts out) the video / audio part as described above for each desired clip, and pastes the video / audio part onto the timeline unit 61 (video track 77). V And corresponding audio track 78 A1 ~ 78 A4 Colored area 78 V 78 A1 ~ 78 A4 The video track 77 is continuously operated on the time scale 76 for a desired time from the beginning of the time scale 76 (“00: 00.00: 00”). V And audio track 77 A1 ~ 77 A4 Each of the colored regions 78 on the top V 78 A1 ~ 78 A4 Are displayed sequentially.
[0059]
Here, the video track 77 of the timeline unit 61 is thus obtained. V Above and audio track 77 A1 ~ 77 A4 Colored area 78 on top V 78 A1 ~ 78 A4 Is displayed when the edited video / audio is played back, the colored region 78 is displayed at the time represented by the time scale 76. V 78 A1 ~ 78 A4 This means that the video of the corresponding part in the corresponding cut is displayed or the sound is output. Accordingly, it is possible to create a VFL that defines the order and contents of video and audio displayed or output as edited video and audio by such work.
[0060]
Incidentally, the video track 77 displayed on the timeline unit 61. V And audio track 77 A1 ~ 77 A4 The number of can be set freely. And multiple video tracks 77 V And audio track 77 A1 ~ 77 A4 In the state where is displayed, these video tracks 77 are displayed. V Or audio track 77 A1 ~ 77 A4 If a cut or clip is attached to each video track 77, each video track 77 V A video obtained by superimposing videos at the same position on the time scale 76 is obtained as an edited video, and each audio track 77 is recorded. A1 ~ 77 A4 Thus, a sound obtained by superimposing sounds at the same position on the time scale 76 is obtained as an edited sound.
[0061]
Furthermore, when creating a VFL in this way, for example, when it is desired to perform special effect processing when switching from a continuous first cut video to a second cut video, the desired video special effect processing is performed according to the following procedure. Can be set.
[0062]
That is, first, the video track 77 is set so that the preceding first cut and the second cut are continued on the position bar 96. V After that, the FX Explorer button 80 is selected from the various buttons 80 displayed at the top of the timeline unit 61. FX Click. As a result, for example, as shown in FIG. 1 ~ 9 n Various video special effects that can be executed are displayed on the tree display unit 82 in a tree format, and the contents of these video special effects are displayed on the icon display unit 83 in an icon format (hereinafter referred to as FX explorer window) 81. Can be displayed.
[0063]
Subsequently, a special effect icon 84 for a desired video special effect process is dragged and dropped from among icons (hereinafter referred to as special effect icons) 84 displayed in the icon display portion 83 of the FX explorer window 81. , Video track 77 on VFL creation screen 42 V Is pasted at the switching position of the first and second cuts.
[0064]
Thereby, when the edited video is generated, the video special effect processing corresponding to the special effect icon pasted as described above is executed when the video of the first cut is switched to the video of the second cut. It becomes.
[0065]
When creating a VFL, one of the audio tracks 77 A1 ~ 77 A4 When it is desired to perform the audio mixing process on the sound of the cut or clip pasted on, desired audio mixing process can be set by the following procedure.
[0066]
That is, first, the play line 75 displayed in the time line section 61 of the VFL creation screen 42 is changed to the audio track 77. A1 ~ 77 A4 Among the plurality of buttons displayed on the upper part of the timeline unit 61, the clip is moved to the colored region 78A1 to 78A4 corresponding to the cut or clip of the cut or clip that is pasted on the timeline. Audio mixer button 80 MIX Click.
[0067]
As a result, each audio track 77 in the timeline section 61 of the VFL creation screen 42 as shown in FIG. A1 ~ 77 A4 An audio mixer window 90 provided with a volume 91, a level meter 92, various setting buttons 93A to 93F, and the like is displayed.
[0068]
Thereafter, a desired audio track 77 in the timeline section 61 of the VFL creation screen 42 displayed in the audio mixer window 90 is displayed. A1 ~ 77 A4 Are operated while visually checking the level meter 92.
[0069]
Thus, when the edited sound is output, the audio track 77 is output. A1 ~ 77 A4 The audio data of the cut or clip is subjected to audio mixing processing with the contents set as described above when the cut or clip pasted on is reproduced.
[0070]
Further, on the VFL creation screen 42, after the creation of the VFL as described above or during the creation of the VFL, the play line 75 in the timeline unit 61 is moved to a desired position by a mouse operation, and then the master viewer unit. A preview button 90 from among a plurality of command buttons 90 displayed below 62 PV By clicking, the high-resolution edited video can be normally reproduced and displayed in the master viewer section 62, starting from the video / audio portion corresponding to the position of the play line 75 at that time.
[0071]
In practice, the CPU 20 determines that the preview button 90 PV Is clicked, the data I / O cache unit 15 is controlled by controlling the video special effect and audio mixing processing unit 25 (FIG. 2). 1 ~ 15 n The high-resolution video / audio data D1 of the corresponding video / audio portion stored and held in the is stored, and the special-resolution video processing and the audio mixing processing are performed on the high-resolution video / audio data D1 as necessary.
[0072]
As a result, high-resolution edited video / audio data obtained by such video special effect processing and audio mixing processing is generated and provided to the data processing unit 24, so that an edited video based on the edited video / audio data is created as a VFL. While being reproduced and displayed in the master viewer section 62 of the screen 42, the edited audio is output from the speaker 33.
[0073]
As a result, the operator creates the VFL while visually confirming (previewing) the edited content based on the edited video displayed in the master viewer section 62 of the VFL creation screen 42, or the content of the VFL that has been created. Can be confirmed.
[0074]
After creating the VFL in this way, the clip icon 54 of the sequence clip of this VFL displayed in the clip display section 51 of the clip explorer window 40 (FIG. 3) is dragged and dropped to the server site explorer window 41 (FIG. 3). ) In the clip display unit 51, the editing result based on the VFL can be registered in the material server 3 (FIG. 1).
[0075]
(4) Timeline playback mode processing
In the VFL creation mode described above, the editing terminal device 9 1 ~ 9 n The CPU 20 can efficiently perform editing work while harmonizing the video quality and the editing time by starting the timeline reproduction mode processing RT1 shown in FIG. 9 from step SP0.
[0076]
In the subsequent step SP1, the CPU 20 waits for a clip to be pasted on the timeline unit 61 of the VFL creation screen 42 (FIG. 4) in accordance with the operation of the operator, and only goes to step SP2 when an affirmative result is obtained. Then, from the material server 3 (FIG. 1) to the data I / O cache unit 15 1 ~ 15 n To transfer the high-resolution video / audio data D1 corresponding to the clip.
[0077]
Next, the CPU 20 proceeds to step SP3 and sets the timeline reproduction mode. In this timeline playback mode, the data I / O cache unit 15 in which the designated clip is transferred from the material server 3 (FIG. 1) according to the operator's selection. 1 ~ 15 n This is a playback mode in which it can be arbitrarily selected between the high resolution video / audio data D1 recorded in the above and the low resolution video / audio data D2 recorded in the proxy server 6 (FIG. 1).
[0078]
Then, the CPU 20 proceeds to step SP4, waits for a timeline playback instruction from the operator, that is, a video playback instruction of the designated clip, and proceeds to step SP5 only when an affirmative result is obtained.
[0079]
In this step SP5, it is determined whether or not the current timeline playback mode is a playback mode in the low resolution video / audio data D2 (hereinafter referred to as a low resolution playback mode), and if a positive result is obtained. Then, the process proceeds to step SP6, the low-resolution video / audio data D2 corresponding to the designated clip is read from the proxy server 6 (FIG. 1) and reproduced, and then the process proceeds to step SP7 and the processing procedure is terminated.
[0080]
On the other hand, if a negative result is obtained in step SP5, it means that the current timeline playback mode is a playback mode with high-resolution video / audio data D1 (hereinafter referred to as a high-resolution playback mode). At this time, the CPU 20 proceeds to step SP8 to transmit the high resolution video / audio data D1 corresponding to the designated clip to the data I / O cache unit 15. 1 ~ 15 n Then, the process proceeds to step SP7 and the processing procedure is terminated.
[0081]
(5) Operations and effects according to this embodiment
In the above configuration, the editing terminal device 9 in the on-air system 1 1 ~ 9 n In the VFL creation mode, when a clip is pasted on the timeline unit 61 of the VFL creation screen 42 in accordance with the operator's operation, the material server 3 sends the data I / O cache unit 15. 1 ~ 15 n To transfer the high-resolution video / audio data D1 corresponding to the clip.
[0082]
And the editing terminal device 9 1 ~ 9 n Sets the timeline playback mode and plays back the video and audio of the specified clip in the low resolution playback mode or high resolution playback mode according to the operator's selection.
[0083]
Therefore, when the operator selects the low-resolution playback mode, the clip length is, for example, about 10 minutes or longer, and the video of the clip is simply selected when the video at the center is simply visually confirmed. In the case of cut editing, since the low-resolution video / audio data D2 is instantaneously read from the proxy server 6, the editing operation can be performed in a much shorter time than in the high-resolution playback mode.
[0084]
On the other hand, when the operator selects the high-resolution playback mode, the data I / O cache unit 15 is increased by the amount of data. 1 ~ 15 n However, since the resolution required for video processing is secured, various special effect processing can be performed on the designated clip.
[0085]
According to the above configuration, the editing terminal device 9 in the on-air system 1 1 ~ 9 n In the VFL creation mode, the timeline playback mode of the low resolution playback mode or the high resolution playback mode is selectively set according to the operation of the operator. When visual confirmation is performed or when only cut editing is performed, the time required for editing can be shortened because the low-resolution video / audio data D2 can be instantaneously read from the proxy server 6, while the high resolution In the playback mode, the resolution required for video processing is ensured, so various special effects can be applied to the specified clip, thus matching the video quality and editing time by operator selection. While being able to edit efficiently.
[0086]
(6) Other embodiments
As described above, in the present embodiment, the editing terminal device 9 in the on-air system 1 shown in FIG. 1 is used as an editing device that executes editing processing in accordance with an editing list that defines editing contents. 1 ~ 9 n However, the present invention is not limited to this, and can be widely applied to editing apparatuses having various configurations.
[0087]
As described above, in the present embodiment, the first and second data holding means for holding the video data representing the material to be edited (clip) forming the editing content in the high resolution and low resolution image formats, respectively. Data I / O cache unit 15 1 ~ 15 n Although the case where the proxy server 6 is applied has been described, the present invention is not limited to this, and can be widely applied to first and second data holding means having various other configurations.
[0088]
Further, as described above, in the present embodiment, the editing terminal device 9 serves as a selection unit that selects video data representing an editing material as one of a high-resolution image format and a low-resolution image format according to an external operation. 1 ~ 9 n Although the case where the mouse 30 and the keyboard 31 are applied under the control of the CPU 20 has been described, the present invention is not limited to this and can be widely applied to selection means having various other configurations. Also, the selection of the high-resolution or low-resolution image format may be automatically made according to the contents of the material to be edited (the time length of the clip or the end or the center of the clip) instead of an operator instruction. good.
[0089]
Further, as described above, in the present embodiment, as a playback unit that plays back video data in the high-resolution or low-resolution image format selected by the selection unit when a material to be edited is specified when the edit list is created, Editing terminal device 9 1 ~ 9 n Although the case where the CPU 20 and the data processing unit 24 are applied has been described, the present invention is not limited to this, and can be widely applied to reproducing means having various other configurations.
[0090]
【The invention's effect】
As described above, according to the present invention, Mosquito When editing Together Is able to reduce the time required for editing work by instantaneously reading out low resolution video data from the first server, while reading out and playing back high resolution partial video data from the cache means for video processing. Since the necessary resolution is secured, various special effect processing can be applied to the extracted partial video data. In addition, the user can switch between low resolution partial video data and partial video data for playback. Thus, it is possible to efficiently perform editing work while achieving harmony between video quality and editing time, and thus it is possible to realize an editing apparatus and editing method that can significantly improve editing efficiency.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the overall configuration of an on-air system in the present embodiment.
2 is a block diagram showing a configuration of an editing terminal device shown in FIG.
FIG. 3 is a schematic plan view for explaining a clip explorer window.
FIG. 4 is a schematic plan view for explaining a VFL creation screen.
FIG. 5 is a schematic plan view for explaining a VFL creation screen.
FIG. 6 is a schematic plan view for explaining a VFL creation screen.
FIG. 7 is a schematic plan view for explaining an FX explorer window.
FIG. 8 is a schematic plan view for explaining an audio explorer window.
FIG. 9 is a flowchart for explaining a processing procedure of a timeline reproduction mode.
[Explanation of symbols]
1 ... On-air system, 2 ... Router, 3 ... Material server, 4 ... Down converter, 5 ... System controller, 6 ... Proxy server, 8 1 ~ 8 n ...... Proxy editing terminal device, 9 1 ~ 9 n ...... Editing terminal device, 12 1 ~ 12 n ...... Local storage, 15 1 ~ 15 n ... Data I / O cache unit, RT1 ... Timeline playback mode processing procedure.

Claims (3)

複数の映像データの中から指定された任意の映像データを選択する選択手段と、
上記任意の映像データが低解像度に圧縮符号化されてなる低解像度映像データを保存している第1サーバから当該低解像度映像データを読み出して表示手段に表示させる表示制御手段と、
上記表示手段に表示された上記低解像度映像データのうち、ユーザによって指定された開始点から終了点までの範囲でなる低解像度部分映像データを抽出する抽出手段と、
上記抽出手段により上記低解像度部分映像データが抽出されたことに応じて、上記任意の映像データを保存する第2サーバから、上記任意の映像データのうち、上記低解像度部分映像データに対応するデータ部分を部分映像データとして読み出して一時的に保存するキャッシュ手段と、
上記ユーザによって入力された編集内容に基づいた編集リストを作成する際に、低解像度再生モードのとき、上記低解像度部分映像データに対応する上記低解像度映像データを上記第1サーバより再生させ、上記部分映像データに対して特殊効果処理を施す場合に用いられる高解像度再生モードのとき、上記キャッシュ手段に保存された上記部分映像データを再生させるように、上記低解像度再生モード及び上記高解像度再生モードを切り替えて再生させる再生手段と
を具える編集装置。
A selection means for selecting arbitrary video data designated from a plurality of video data;
Display control means for reading out the low-resolution video data from the first server storing the low-resolution video data in which the arbitrary video data is compression-encoded to a low resolution and displaying the low-resolution video data on the display means;
Extracting means for extracting low resolution partial video data in a range from a start point to an end point designated by the user from the low resolution video data displayed on the display means;
Data corresponding to the low-resolution partial video data among the arbitrary video data from the second server that stores the arbitrary video data in response to the extraction of the low-resolution partial video data by the extraction means. A cache means for reading the portion as partial video data and temporarily storing it,
When creating an edit list based on edits entered by the user, when the low-resolution reproduction mode, the low-resolution image data corresponding to the low-resolution partial picture data is reproduced from the first server, the The low-resolution playback mode and the high-resolution playback mode so that the partial video data stored in the cache means is played back in the high-resolution playback mode used when special effect processing is performed on the partial video data. An editing device comprising: playback means for switching between and playing back .
上記キャッシュ手段は、
上記低解像度部分映像データの前後に所定時間の余裕部分を持たせた上記部分映像データを上記第2サーバから読み出して保存する
請求項1に記載の編集装置。
The cache means is
The editing apparatus according to claim 1, wherein the partial video data having a margin for a predetermined time before and after the low-resolution partial video data is read from the second server and stored.
複数の映像データの中から指定された任意の映像データを選択する選択ステップと、
上記任意の映像データが低解像度に圧縮符号化されてなる低解像度映像データを保存している第1サーバから当該低解像度映像データを読み出して表示手段に表示させる表示制御ステップと、
上記表示手段に表示された上記低解像度映像データのうち、ユーザによって指定された開始点から終了点までの範囲でなる低解像度部分映像データを抽出する抽出ステップと、
上記抽出ステップにおいて上記低解像度部分映像データが抽出されたことに応じて、上記任意の映像データを保存する第2サーバから、上記任意の映像データのうち、上記低解像度部分映像データに対応するデータ部分を部分映像データとして読み出して一時的にキャッシュ手段に保存するキャッシュステップと、
上記ユーザによって入力された編集内容に基づいた編集リストを作成する際に、低解像度再生モードのとき、上記低解像度部分映像データに対応する上記低解像度映像データを上記第1サーバより再生させ、上記部分映像データに対して特殊効果処理を施す場合に用いられる高解像度再生モードのとき、上記キャッシュ手段に保存された上記部分映像データを再生させるように、上記低解像度再生モード及び上記高解像度再生モードを切り替えて再生させる再生ステップと
を具える編集方法。
A selection step of selecting arbitrary designated video data from a plurality of video data;
A display control step of reading out the low-resolution video data from the first server storing the low-resolution video data obtained by compressing and encoding the arbitrary video data at a low resolution and displaying the low-resolution video data on a display unit;
An extraction step of extracting low resolution partial video data in a range from a start point to an end point designated by the user from the low resolution video data displayed on the display means;
In response to the extraction of the low-resolution partial video data in the extraction step, data corresponding to the low-resolution partial video data among the arbitrary video data from the second server that stores the arbitrary video data. A cache step of reading the part as partial video data and temporarily storing it in the cache means;
When creating an edit list based on edits entered by the user, when the low-resolution reproduction mode, the low-resolution image data corresponding to the low-resolution partial picture data is reproduced from the first server, the The low-resolution playback mode and the high-resolution playback mode so that the partial video data stored in the cache means is played back in the high-resolution playback mode used when special effect processing is performed on the partial video data. An editing method comprising: a playback step for switching and playing .
JP2003170126A 2003-06-13 2003-06-13 Editing apparatus and editing method Expired - Fee Related JP4174718B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003170126A JP4174718B2 (en) 2003-06-13 2003-06-13 Editing apparatus and editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003170126A JP4174718B2 (en) 2003-06-13 2003-06-13 Editing apparatus and editing method

Publications (2)

Publication Number Publication Date
JP2005006231A JP2005006231A (en) 2005-01-06
JP4174718B2 true JP4174718B2 (en) 2008-11-05

Family

ID=34095016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003170126A Expired - Fee Related JP4174718B2 (en) 2003-06-13 2003-06-13 Editing apparatus and editing method

Country Status (1)

Country Link
JP (1) JP4174718B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4928733B2 (en) * 2005-02-03 2012-05-09 パナソニック株式会社 Recording / reproducing apparatus, integrated circuit, recording / reproducing method, and program
US8218944B2 (en) 2004-06-08 2012-07-10 Panasonic Corporation Recording/reproduction device
JP2006325082A (en) * 2005-05-20 2006-11-30 Canopus Co Ltd Animation data edit apparatus and method
JP5046561B2 (en) * 2006-05-31 2012-10-10 ソニー株式会社 Recording control apparatus, recording control method, and program
JP5086663B2 (en) * 2007-02-28 2012-11-28 株式会社東芝 Broadcast material management system and its material management method
WO2010007760A2 (en) * 2008-07-16 2010-01-21 Thomson Licensing Encoding apparatus of video and audio data, encoding method thereof, and video editing system
JP5369599B2 (en) * 2008-10-20 2013-12-18 富士通株式会社 Video encoding apparatus and video encoding method
KR101865966B1 (en) * 2012-12-12 2018-06-08 현대자동차주식회사 Safety device of vehicle

Also Published As

Publication number Publication date
JP2005006231A (en) 2005-01-06

Similar Documents

Publication Publication Date Title
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
JP4168334B2 (en) Editing apparatus and editing method
US6674955B2 (en) Editing device and editing method
JP4120896B2 (en) Video editing apparatus and method
JP4110528B2 (en) Editing apparatus and editing method
US6952221B1 (en) System and method for real time video production and distribution
US7424202B2 (en) Editing system and control method using a readout request
US8560951B1 (en) System and method for real time video production and distribution
US20030091329A1 (en) Editing system and editing method
JP4174718B2 (en) Editing apparatus and editing method
JP4229199B2 (en) Editing apparatus and editing method
JPH10285534A (en) Video signal processor
JP4588126B2 (en) Editing system and editing method
JP4117617B2 (en) Editing system and control method thereof
JP3906922B2 (en) Editing system
JP4337034B2 (en) Editing system and control method thereof
JP4337033B2 (en) Editing system and control method thereof
JP4348605B2 (en) Editing system and control method thereof
KR100603173B1 (en) Editing apparatus and editing method
JP4172525B2 (en) Editing apparatus and editing method
JP2007317352A (en) Editing device and editing method
JPH1118055A (en) Device and method for reproducing data
JPH10290393A (en) Editing device
JPH10290417A (en) Editor
JP2000152153A (en) Edit device and edit method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080724

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees