JP2005064889A - Editing system and its control method - Google Patents
Editing system and its control method Download PDFInfo
- Publication number
- JP2005064889A JP2005064889A JP2003292849A JP2003292849A JP2005064889A JP 2005064889 A JP2005064889 A JP 2005064889A JP 2003292849 A JP2003292849 A JP 2003292849A JP 2003292849 A JP2003292849 A JP 2003292849A JP 2005064889 A JP2005064889 A JP 2005064889A
- Authority
- JP
- Japan
- Prior art keywords
- video
- audio
- edited
- editing
- audio data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、編集システム及びその制御方法に関し、例えばテレビジョン放送局で用いるオンエアーシステムに適用して好適なものである。 The present invention relates to an editing system and a control method therefor, and is suitable for application to an on-air system used in, for example, a television broadcasting station.
従来、オンエアーシステムにおいては、取材等により得られた映像音声がAV(Audio Visual)サーバに蓄積され、当該映像音声を編集装置が読み出して加工編集処理し、得られた編集映像音声をAVサーバに登録することができ、このAVサーバに登録した編集映像音声を所定のタイミングで読み出して放送することができるようになされている。(例えば特許文献1参照)。
ところで、上述のようなオンエアーシステムのAVサーバにおいては、取材等により得られた映像音声のうちの映像をNTSC(National Television System Committee)のフィールド周波数59.94…[Hz]で記録し、また音声をサンプリング周波数48[kHz]で記録しているものがある。この場合、音声を映像のフレーム周波数(フレーム周波数=フィールド周波数/2)毎に等分割すると、1フレーム当たりの音声のサンプル数が1601.60…となり、割り切れない。 By the way, in the AV server of the above-mentioned on-air system, the video of the video and audio obtained by the interview or the like is recorded at the NTSC (National Television System Committee) field frequency 59.94 [Hz]. Some audio is recorded at a sampling frequency of 48 [kHz]. In this case, if the audio is equally divided for each frame frequency of the video (frame frequency = field frequency / 2), the number of audio samples per frame becomes 1601.60.
そこで、音声のサンプル数がちょうど割り切れる5フレーム単位で、各フレームにサンプル数を割り当てるようになされており、5フレーム当たりの音声のサンプル数が8008となることから、これをフレーム毎に例えば1602、1601、1602、1601、1602と割り付けるようになされている。 Therefore, the number of samples is assigned to each frame in units of 5 frames in which the number of audio samples is just divisible, and the number of audio samples per 5 frames is 8008. 1601, 1602, 1601, 1602 are assigned.
このように5フレーム単位で映像及び音声を同期させる方式を5フレームシーケンスと呼び、AVサーバでは、この5フレームシーケンスで映像音声を記録している。 Such a method of synchronizing video and audio in units of 5 frames is called a 5 frame sequence, and the AV server records video and audio in this 5 frame sequence.
また、上述のようなオンエアーシステムの編集装置においては、AVサーバに蓄積された映像音声を読み出し、この映像音声のうちの加工編集処理した部分のみを編集映像音声としてAVサーバに登録し、これを元々AVサーバに記録されている加工編集処理されていない部分と繋ぎ合わせることにより、AVサーバから読み出した映像音声の全部分を編集映像音声としてAVサーバに登録するよりも、短時間で登録できるようにすることが本願特許出願人により考えられている。 In addition, in the editing apparatus of the on-air system as described above, the video / audio stored in the AV server is read, and only the processed and edited part of this video / audio is registered in the AV server as the edited video / audio. Can be registered in a shorter time than registering all parts of the video and audio read from the AV server as edited video and audio in the AV server This is considered by the applicant of the present patent application.
しかしながら、この場合、上述のように映像音声が5フレームシーケンスでAVサーバに記録されていたとすると、この映像音声のフレーム毎のサンプル数を編集装置が認識できずに加工編集処理してしまうことになり、元々AVサーバに記録されている加工編集処理されていない部分のサンプル数と、編集装置によって加工編集処理された部分のサンプル数とがずれてしまい、この結果、AVサーバでこれらを繋ぎ合わせて再生する際に、この繋ぎ目において音声の不連続が発生してしまうという問題があった。 However, in this case, if the video / audio is recorded on the AV server in a 5-frame sequence as described above, the editing apparatus cannot recognize the number of samples for each frame of the video / audio, and the editing process is performed. Therefore, the number of samples of the part that has not been processed and edited originally recorded in the AV server and the number of samples of the part that has been processed and edited by the editing device are shifted. As a result, the AV server joins them. In this case, there is a problem that discontinuity of sound occurs at this joint.
本発明は以上の点を考慮してなされたもので、音声の不連続を確実に回避し得る編集システム及びその制御方法を提案しようとするものである。 The present invention has been made in consideration of the above points, and an object of the present invention is to propose an editing system and a control method therefor that can reliably avoid discontinuity of speech.
かかる課題を解決するため本発明においては、映像音声データの映像及び音声を所定の複数フレーム単位で同期させて記憶保持する記憶保持手段と、編集内容を規定した編集リストに従って記憶保持手段から必要な映像音声データを読み出し加工編集するようにして、当該編集リストに応じた編集映像音声を生成し、当該編集映像音声を記憶保持手段に登録する編集手段と、編集手段が必要な映像音声データを読み出す際に、当該映像音声データの同期情報を検出する同期情報検出手段とを設け、編集手段が、同期情報検出手段によって検出された同期情報に基づいて映像音声データのうちの加工編集した部分のみの編集映像音声を生成して当該編集映像音声を記憶保持手段に登録し、記憶保持手段が、映像音声データのうちの加工編集されていない部分と編集手段によって登録された映像音声データのうちの加工編集された部分のみの編集映像音声とを繋ぎ合わせて再生するようにした。 In order to solve such a problem, in the present invention, the storage and holding means for synchronizing and storing video and audio of the video and audio data in units of a predetermined plurality of frames, and the storage and holding means according to the edit list defining the editing contents are required. The video / audio data is read and processed and edited to generate an edited video / audio corresponding to the editing list, and the editing means for registering the edited video / audio in the memory holding means and the video / audio data required by the editing means are read out. The synchronization information detecting means for detecting the synchronization information of the video / audio data, and the editing means only edits the edited and edited portion of the video / audio data based on the synchronization information detected by the synchronization information detecting means. The edited video / audio is generated and the edited video / audio is registered in the memory holding means, and the memory holding means is processed and edited in the video / audio data. And by connecting the edited video audio only processed and edited portion of the audiovisual data registered so as to play the part and editing means no.
この結果この編集システムでは、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができる。 As a result, this editing system prevents the audio from becoming discontinuous at the joint between the unedited portion of the video / audio data and the edited video / audio of only the edited portion of the video / audio data. can do.
また本発明においては、映像音声データの映像及び音声を所定の複数フレーム単位で同期させて記憶保持手段に記憶保持させる第1のステップと、編集内容を規定した編集リストに従って記憶保持手段から必要な映像音声データを読み出すと共に、当該映像音声データの同期情報を検出する第2のステップと、読み出した映像音声データを編集手段において編集リストに従って加工編集する第3のステップと、同期情報に基づいて映像音声データのうちの加工編集した部分のみの編集映像音声を編集手段において生成して当該編集映像音声を記憶保持手段に登録する第4のステップと、映像音声データのうちの加工編集されていない部分と編集手段によって登録された映像音声データのうちの加工編集された部分のみの編集映像音声とを記憶保持手段において繋ぎ合わせて再生する第5のステップとを設けるようにした。 In the present invention, the first step of synchronizing the video and audio of the video / audio data in units of a predetermined plurality of frames and storing and holding the same in the storage and holding unit and the editing and holding list in accordance with the editing list that defines the editing contents are necessary. A second step of reading out the video / audio data and detecting synchronization information of the video / audio data, a third step of processing and editing the read-out video / audio data according to the editing list in the editing means, and a video based on the synchronization information A fourth step of generating edited video / audio of only the edited and edited portion of the audio data in the editing means and registering the edited video / audio in the memory holding means; and a portion of the audio / video data that has not been processed and edited And edited video and audio of only the edited and edited portion of the video and audio data registered by the editing means It was provided with a fifth step of reproducing by connecting the lifting means.
この結果この編集システムの制御方法によれば、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができる。 As a result, according to the control method of this editing system, the audio is discontinuous at the joint between the part of the video / audio data that has not been processed and edited and the edited video / audio of only the processed and edited part of the video / audio data. Can be prevented.
本発明によれば、編集システムにおいて、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができ、かくして音声の不連続を確実に回避し得る編集システムを実現できる。 According to the present invention, in the editing system, the audio becomes discontinuous at the joint between the part of the video / audio data that has not been edited and edited and the edited video / audio of only the processed and edited part of the video / audio data. Thus, it is possible to realize an editing system that can reliably avoid the discontinuity of sound.
また本発明によれば、編集システムの制御方法において、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができ、かくして音声の不連続を確実に回避し得る編集システムの制御方法を実現できる。 According to the present invention, in the control method of the editing system, the audio is connected at the joint between the part of the video / audio data that has not been edited and edited and the edited video / audio of only the part of the video / audio data that has been edited and edited. It is possible to prevent the discontinuity, and thus it is possible to realize an editing system control method capable of reliably avoiding the discontinuity of the sound.
以下、図面について、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(1)本実施の形態によるオンエアーシステムの構成
図1において、1は全体としてテレビジョン放送局等に設置される本実施の形態によるオンエアーシステムを示し、取材現場から衛星通信回線等を介して転送され、又は図示しないビデオテープレコーダにより取材テープから再生された140〔Mbps〕程度の解像度を有するHDCAM(ソニー株式会社 登録商標)フォーマットの映像音声データ(以下、これを高解像度映像音声データと呼ぶ)D1をルータ2を介して素材サーバ3及びダウンコンバータ4に入力する。
(1) Configuration of on-air system according to this embodiment In FIG. 1,
素材サーバ3は、複数のRAID(Redundant Arrays of Independent Disks)から構成される大容量のAVサーバでなり、パーソナルコンピュータにより構成されるシステム制御部5の制御のもとに、ルータ2を介して供給される一連の高解像度映像音声データD1をファイル化して記憶する。
The
またダウンコンバータ4は、供給される高解像度映像音声データD1を8〔Mbps〕程度の解像度にダウンコンバートすると共に、これをMPEG(Motion Picture Experts Group)フォーマットで圧縮符号化し、かくして得られた低解像度の映像音声データ(以下、これを低解像度映像音声データと呼ぶ)D2をプロキシサーバ6に送出する。
The down-
プロキシサーバ6は、素材サーバ3と同様に、複数のRAIDから構成されるAVサーバでなり、システム制御部5の制御のもとに、ダウンコンバータ4から供給される一連の低解像度映像音声データD2をファイル化して記憶する。このようにしてこのオンエアーシステム1では、素材サーバ3に収録したクリップと同じ内容の低解像度のクリップをプロキシサーバ6に収録する。
Similar to the
そしてこのプロキシサーバ6に格納された各クリップの低解像度映像音声データD2は、イーサネット(登録商標)7を介してプロキシサーバ6と接続された各プロキシ編集端末装置81〜8n及び各編集端末装置91〜9nを用いて読み出すことができ、これを利用して素材サーバ3に蓄積されたクリップの中からどのクリップとどのクリップとをどのような順番で繋げて加工編集された映像音声(以下、これを編集映像音声と呼ぶ)を生成するかといったカット編集のみの編集内容を規定した編集リストをプロキシ編集端末装置81〜8nや各編集端末装置91〜9nにおいて作成することができる。
The low-resolution video / audio data D2 of each clip stored in the
実際上、プロキシ編集端末装置81〜8nは、編集リスト作成のための専用のソフトウェアが起動された編集リストの作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介してプロキシサーバ6を制御することにより、当該プロキシサーバ6にそのクリップの低解像度映像音声データD2を読み出させる。
In practice, each of the proxy editing
そしてプロキシ編集端末装置81〜8nは、このようにしてプロキシサーバ6から読み出された低解像度映像音声データD2を復号化し、得られたベースバンドの映像音声データに基づく映像をディスプレイに表示する。これによりオペレータは、このディスプレイに表示された映像を目視確認しながら、カット編集のみの編集リストを作成することができる。なお、以下においては、このようなカット編集のみの編集リストをEDL(Edit Decision List)と呼ぶ。
Then, the proxy editing
さらにこのようにして作成された編集リストのデータである編集リストデータは、オペレータの操作によりそのプロキシ編集端末装置81〜8nからイーサネット(登録商標)7を介して所望の編集端末装置91〜9nに転送することができる。そしてこの転送された編集リストデータは、この後この編集端末装置91〜9nによって記憶管理される。
Further, the edit list data, which is the edit list data created in this way, is sent from the proxy edit
一方、編集端末装置91〜9nは、高解像度映像音声データD1に対して映像特殊効果処理をリアルタイムで施し得るビデオボードが搭載されたノンリニア編集装置でなり、専用のソフトウェアが起動された編集リストの作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、システム制御部5を介してプロキシサーバ6を制御することにより、プロキシ編集端末装置81〜8nと同様にして、当該クリップの低解像度の映像をディスプレイに表示させる。
On the other hand, the editing
これによりオペレータは、この映像を目視確認しながら映像特殊効果や音声ミキシングの設定等を含めた最終的な編集リストを、新規に又はプロキシ編集端末装置81〜8nを用いて作成された編集リストを利用して、作成することができる。
As a result, the operator visually confirms the video and edits the final edit list including the video special effects and audio mixing settings newly or created using the proxy editing
なお編集端末装置91〜9nには、それぞれビデオテープレコーダ111〜11n及びハードディスク装置等のローカルストレージ121〜12nが接続されており、かくしてビデオテープ等に記録された映像音声素材をビデオテープレコーダ111〜11nを介してクリップとしてローカルストレージ121〜12nに取り込み、これを編集に利用することもできるようになされている。
The editing
また編集端末装置91〜9nは、編集リストの作成過程において、1つのクリップのうちの所望の映像音声部分のイン点及びアウト点が指定されてタイムライン上に並べられるごとに、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介してゲートウェイ13を制御することにより、当該ゲートウェイ13に当該タイムライン上に並べられたその映像音声部分の高解像度映像音声データD1を素材サーバ3から順次読み出させる。
In addition, the
そしてこの高解像度映像音声データD1は、システム制御部5の制御のもとに、ゲートウェイ13で所定フォーマットにフォーマット変換された後、ファイバチャネルスイッチャ14を介して例えば180ギガバイト程度の記憶容量を有する半導体メモリからなる対応するデータI/Oキャッシュ部151〜15nに与えられて記憶保持される。
The high-resolution video / audio data D1 is converted into a predetermined format by the
かくして編集端末装置91〜9nは、この後オペレータにより編集リストの高解像度映像による再生(プレビュー)命令が入力されると、対応するデータI/Oキャッシュ部151〜15nから必要な高解像度映像音声データD1を読み出し、当該高解像度映像音声データD1に基づく編集映像を生成してディスプレイに表示させる。
Thus, when the
そして編集端末装置91〜9nは、やがてオペレータによる編集リストの作成作業が終了し、この後この編集リストの実行命令が入力されると、当該編集リストに従ってデータI/Oキャッシュ部151〜15nから対応する高解像度映像音声データD1を順次読み出し、この高解像度映像音声データD1に対して必要に応じて特殊効果処理や音声ミキシング処理を施しながら、かくして得られた編集映像音声のデータ(以下、これを編集映像音声データと呼ぶ)D3を素材サーバ3に送出する。この結果この編集映像音声データD3がシステム制御部5の制御のもとに、ファイル化されて素材サーバ3に収録される。
The
さらにこの素材サーバ3に収録された編集映像音声データD3は、この後オペレータ操作により図示しないオンエアーサーバに転送され、この後番組作成者等により作成されたいわゆるプレイリストに従ってオンエアーサーバから読み出されて放送される。
Further, the edited video / audio data D3 recorded in the
このようにしてこのオンエアーシステム1においては、編集から当該編集により得られた編集映像音声のオンエアーまでの一連の処理を効率良く行い得るようになされている。
In this manner, the on-
(2)編集端末装置91〜9nの構成
ここで編集端末装置91〜9nは、図2に示すように、CPU(Central Processing Unit)20、ROM(Read Only Memory)21及びRAM(Random Access Memory)22と、各種ソフトウェアが格納されたハードディスク装置23と、各種映像データ処理機能及び音声データ処理機能を有するデータ処理部24と、高解像度映像音声データD1に対して指定された映像特殊効果処理や音声ミキシング処理を施す映像特殊効果及び音声ミキシング処理部25と、各種インターフェース部26〜28とがCPUバス29を介して接続されることにより構成され、インターフェース部26を介してイーサネット(登録商標)7に接続されている。
(2) where the
またインターフェース部27にはマウス30及びキーボード31等の入力装置が接続されると共に、インターフェース部28にはビデオテープレコーダ111〜11n及びローカルストレージ121〜12nが接続され、データ処理部24にはディスプレイ32及びスピーカ33が接続されている。
The interface unit 27 is connected to input devices such as a
そしてCPU20は、必要時、ハードディスク装置23内に格納された画面データを読み出し、これをデータ処理部に与えることにより、後述のような各種のウインド及びダイアログ等をディスプレイに表示させる。
Then, when necessary, the
またCPU20は、必要時、インターフェース部26及びイーサネット(登録商標)7を通じてシステム制御部5(図1)にコマンドを送出することにより、当該システム制御部5を介して素材サーバ3(図1)やプロキシサーバ6(図1)、ゲートウェイ13(図1)、FCスイッチャ14(図1)、データI/Oキャッシュ部151〜15n(図1)等を所望状態に制御する。
Further, when necessary, the
そしてCPU20は、例えばこの結果としてプロキシサーバ6からイーサネット(登録商標)7を介して転送される、オペレータにより指定されたクリップの低解像度映像音声データD2をインターフェース部26を介して取り込み、これをデータ処理部24に与えることにより、当該低解像度映像音声データD2に基づく映像を対応するウインド又はダイアログ内の所定位置に表示させる。
Then, for example, as a result of this, the
さらにCPU20は、必要時には映像特殊効果及び音声ミキシング処理部25を制御することにより、データI/Oキャッシュ部151〜15nから対応する高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を実行させる。
Further, the
そしてこの結果として得られた編集映像音声データD3がデータ処理部24に与えられることにより、当該編集映像音声データD3に基づく映像特殊効果処理により得られた編集映像がディスプレイ32に表示されると共に、音声ミキシング処理により得られた編集音声がスピーカ33から出力される。
Then, the edited video / audio data D3 obtained as a result is provided to the
またCPU20は、このとき必要に応じて映像特殊効果及び音声ミキシング処理部25を制御することにより、かかる編集映像音声データD3を素材サーバ3に送出させる一方、システム制御部5を介して素材サーバ3を制御することにより、この編集映像音声データD3を記憶させ、これによりこの編集映像音声データD3を素材サーバ3に登録する。
At this time, the
(3)編集端末装置91〜9nにおける編集リストの作成手順
次にこの編集端末装置91〜9nにおける編集リストの作成手順について説明する。
(3) Procedure for preparing and editing
この編集端末装置91〜9nでは、素材サーバ3等に収録された所望するクリップの所望の映像音声部分を指定し、これらをタイムライン上に順次並べるようにしてカット映像の送出順序を設定すると共に、映像特殊効果処理及び音声ミキシング処理の設定やタイトルの挿入などを行うようにして編集リストを作成する。
In the
そしてこのようにして作成された編集リストにおける各カットのイン点及びアウト点のタイムコード、カットの並び順、編集リスト名、作成者及び作成日時等の情報(EDL情報)や、この編集リストにおいて設定されている映像特殊効果及び音声ミキシングの内容に関する情報、並びに編集リストを作成した際の作業環境に関する各種情報などが1つのファイル内に格納されて『プロジェクト』として管理される。 In the edit list created in this way, the time code of the in and out points of each cut, the order of cuts, information such as the edit list name, creator and creation date and time (EDL information), Information regarding the contents of the set video special effects and audio mixing, various information regarding the work environment when the edit list is created, and the like are stored in one file and managed as a “project”.
このため編集リストを新たに作成するに際しては新規にプロジェクトを作成する必要があり、この場合にオペレータは、まず対応するソフトウェアを起動することにより、図3に示すようなプロジェクトマネージャウインド40をディスプレイ32(図2)に表示させるようにする。
For this reason, when a new edit list is created, it is necessary to create a new project. In this case, the operator first activates the corresponding software to display a
ここで、このプロジェクトマネージャウインド40は、プロジェクトを管理及び閲覧するためのウインドであり、ツリー表示部41、クリップ表示部42及びプロジェクト一覧表示部43から構成される。
Here, the
このときプロジェクトマネージャウインド40のツリー表示部41には、その編集端末装置91〜9n内及び後述のようにプロジェクトのファイル(以下、これをプロジェクトファイルと呼ぶ)を一元管理するプロジェクトファイルサーバ10内に存在する全てのプロジェクトファイルについて、これらプロジェクトファイルの保存場所がツリー形式で表示される。
At this time, the
またクリップ表示部42には、ツリー表示部41で選択されたプロジェクトに属する各クリップのサムネイル画像がアイコン(以下、これをクリップアイコンと呼ぶ)44として一覧表示され、さらにクリップ一覧表示部43には、ツリー表示部41に表示された各プロジェクトについて、保存ドライブ名、プロジェクト名、更新日時等の管理情報がリスト形式でテキスト表示される。
The
そして新規のプロジェクトを作成する場合、オペレータは、このプロジェクトマネージャウインド40の上部に表示されたボタン群45のうちの新規作成ボタン45Aをクリックすることにより、図4に示すニュープロジェクトダイアログ50を表示させ、このニュープロジェクトダイアログ50のプロジェクト名入力ボックス51内に所望するプロジェクト名を入力し、さらに属性設定部52においてこのプロジェクトに関する各種属性を設定した後、OKボタン53をクリックするようにする。
When creating a new project, the operator clicks the
かくしてこの新規のプロジェクトがその編集端末装置91〜9n及びプロジェクトファイルサーバ10に新規に登録されると共に、当該プロジェクト内に新規のフォルダ及びビンが自動的に作成され、この結果がプロジェクトマネージャウインド40(図3)のツリー表示部41及びプロジェクト一覧表示部43に反映される。
Thus, the new project is newly registered in the
またこのときディスプレイ32(図2)には、図5に示すクリップエクスプローラ(Clip Explorer)ウインド60及びこれと同じ構成を有するサーバサイトエクスプローラ(Server Site Explorer)ウインド61が表示される。
At this time, a
クリップエクスプローラウインド60は、現在開かれているプロジェクトに属するクリップを表示及び管理するためのウインドであり、ツリー表示部62及びクリップ表示部63から構成される。
The
そしてこのクリップエクスプローラウインド60のツリー表示部62には、システム内に存在する全てのプロジェクト及びその内容物(フォルダ、ビン等)がツリー形式で表示され、クリップ表示部63には、ツリー表示部62で選択されたビンに属する全てのクリップのクリップアイコン64が一覧表示される。なお、新規プロジェクトが作成された直後の初期状態ではそのプロジェクトに属するクリップが存在しないため、クリップエクスプローラウインド60のクリップ表示部63にはクリップアイコン64が表示されない。
The
またサーバサイトエクスプローラウインド61は、素材サーバ3及びプロキシサーバ6に収録されているクリップの一覧を表示するためのウインドであり、クリップエクスプローラウインド60と同様にツリー表示部62及びクリップ表示部63から構成される。
The server
そしてサーバサイトエクスプローラウインド61のツリー表示部62には、素材サーバ3及びプロキシサーバ6内の全てのフォルダ、ファイル等がツリー形式で表示され、クップ表示部63には、ツリー表示部62において選択されたフォルダ等に格納されている全てのクリップのクリップアイコン64が表示される。
In the
そしてオペレータは、新規の編集リストを作成する場合、上述のようにして新規のプロジェクトを作成後、クリップエクスローラウインド60の上部に表示されたボタン群65のうち、新規シーケンス作成ボタン65Aをクリックするようにする。この結果、これから作成される編集リストに対応したクリップアイコン64NSがクリップエクスプローラウインド60のクリップ表示部63内に表示され、これと併せて図6に示すようなタイムラインエディタウインド70がディスプレイ32(図2)に表示される。
When creating a new edit list, the operator creates a new project as described above, and then clicks a new
このタイムラインエディタウインド70は、クリップの映像を目視確認しながら所望部分をカットとして切り出す操作を行うためのソースビューワ部71と、このようにして切り出された各カットをどのように並べるか、またその際カットの繋ぎ目においてどのような特殊効果を施すかといった編集内容を設定するためのタイムライン部72と、タイムライン部72において設定された編集内容を高解像度映像により確認するためのマスタービューワ部73とから構成される。
The
そしてオペレータは、サーバサイトエクスプローラウインド61(図5)のクリップ表示部63(図5)に表示された各クリップアイコン64(図5)の中から所望するクリップのクリップアイコン64をドラッグアンドドロップによりタイムラインエディタウインド70のソースビューワ部71内に移動させることで、そのクリップを編集に利用するクリップとして選択することができ、この操作を繰り返すことにより複数のクリップをまとめて選択することができる。
The operator then drags and drops the
またタイムラインエディタウインド70では、ソースビューワ部71の上側に表示されたクリップ選択メニュー表示ボタン74をクリックすることによって、上述のようにして選択したクリップの一覧をメニュー表示させることができ、さらにこのメニューの中から所望するクリップを編集対象のクリップとして選択することができる。
In the
なおこのとき選択されたクリップの例えば先頭フレームの映像がソースビューワ部71に表示されると共に、このクリップの名前がクリップリストボックス75内に表示され、かつ当該クリップにおけるソースビューワ部71内に表示されたフレームのタイムコード及び当該クリップの素材長がタイムコード表示部76内に表示される。
Note that, for example, the video of the first frame of the selected clip is displayed in the
そしてタイムラインエディタウインド70では、このようにして編集対象として選択したクリップのプロキシサーバ6(図1)に収録されている低解像度映像音声データD2(図1)に基づく映像を、ソースビューワ部71の下側に表示されたコマンドボタン群77の中から対応するコマンドボタンをクリックすることによって、通常再生、コマ送り再生又はコマ戻し再生等させることができる。
In the
実際上、CPU20(図2)は、かかるコマンドボタン群77の中から通常再生用、コマ送り再生用又はコマ送り逆再生用等のコマンドボタンがクリックされると、これに応じてシステム制御部5(図1)を介してプロキシサーバ6を制御することにより、当該クリップにおける対応する映像音声部分の低解像度映像音声データD2を、当該クリックされたコマンドボタン72に応じた再生モードで読み出させる。この結果この低解像度映像音声データD2に基づく低解像度の通常再生映像や、コマ送り再生映像又はコマ送り逆再生映像等がソースビューワ部71に表示される。
In practice, when the command button for normal playback, frame-by-frame playback or frame-by-frame reverse playback is clicked from the
かくしてオペレータは、このソースビューワ部71に表示されたクリップの再生映像を目視確認しながら、所望の映像が表示された状態でコマンドボタン77のうちのマークインボタン77INやマークアウトボタン77OUTをクリックすることにより、このクリップの映像音声の中からカットとして利用しようとする映像音声部分の開始点(イン点)や終了点(アウト点)を指定することができる。
Thus, the operator visually confirms the playback video of the clip displayed on the
一方、オペレータは、このようにして範囲を指定した各クリップのカットとして利用しようとする映像音声部分を用いて、以下の手順により編集リストを作成することができる。 On the other hand, the operator can create an edit list by the following procedure using the audio / video portion to be used as a cut for each clip whose range is specified in this way.
まず上述のようにクリップのうちのカットとして利用しようとする映像音声部分の範囲を指定後、タイムライン部72内に表示されたプレイライン78を、当該タイムライン部72の下部に表示されたタイムスケール79を指標としてマウス操作により所望位置に移動させ、この後ソースビューワ部71の下部に表示されたコマンドボタン群77のうちのオーバーライトボタン77O又はスプライスインボタン77Sをクリックするようにする。
First, as described above, after specifying the range of the video / audio part to be used as a cut of the clip, the
この結果、図7に示すように、オーバーライトボタン77Oがクリックされたときには上書き、スプライスインボタン77Sがクリックされたときには挿入するようにして、タイムライン部72のビデオトラック80V上に、そのときのプレイライン78の位置を先頭位置とする当該映像音声部分の素材長に応じた長さの着色領域81Vが表示される。
As a result, as shown in FIG. 7, overwriting when the
またこのときその映像音声部分に音声が付随している場合には、ビデオトラック80Vの下側に設けられた複数のオーディオトラック80A1〜80A4のうちの該当するチャンネル数分のオーディオトラック80A1〜80A4上に、それぞれそのときのプレイライン78の位置を先頭位置とするビデオトラック80Vの対応する着色領域81Vと同じ長さの着色領域81A1〜81A4が表示される。
At this time, if audio is attached to the video / audio portion, the
なおこのときCPU20は、かかるオペレータの操作に応じたコマンドをシステム制御部5に通知する。この結果、システム制御部5の制御のもとに、素材サーバ3(図1)から対応するクリップにおける当該映像音声部分の高解像度映像音声データD1がイン点側及びアウト点側にそれぞれ数秒程度の余裕をもたせて読み出され、これがゲートウェイ13(図1)、FCスイッチャ14(図1)を介してその編集端末装置91〜9n用のデータI/Oキャッシュ部151〜15nに与えられて記憶される。
At this time, the
さらに編集映像音声の再生時に映像音声部分の映像に付随する音声以外の音声を出力させたいときには、クリップ選択メニュー表示ボタン74をクリックし、このとき表示されたクリップの一覧の中から予め登録しておいたその音声のクリップを選択した後、タイムライン部72のプレイライン78を所望する位置に移動させ、この後所望するオーディオトラック80A1〜80A4を指定した上で上述のオーバーライトボタン77O又はスプライスインボタン77Sをクリックするようにする。
If you want to output audio other than the audio that accompanies the video / audio portion during playback of the edited video / audio, click the clip selection
そしてこの場合にも、その指定されたオーディオトラック80A1〜80A4上にそのときのプレイライン78の位置を先頭位置とする当該クリップの素材長に対応する長さの着色領域81A1〜81A4が表示されると共に、このクリップが素材サーバ3に収録されている場合には、その音声データが素材サーバ3から読み出されてデータI/Oキャッシュ部151〜15nに記憶されることとなる。
And also in this case, the colored areas 81 A1 to 81 positions of the head position to a length corresponding to the material length of the
そしてオペレータは、所望する各クリップについて、上述のようなカットとして利用しようとする映像音声部分の範囲の指定(カットの決定)と、当該映像音声部分のタイムライン部72への貼り付け(ビデオトラック80V及び又はオーディオトラック80A1〜80A4に着色領域81V、81A1〜81A4を表示させること)という操作を繰り返し行い、図8に示すように、タイムスケール79の始め(「00:00:00:00」)から所望する時間分だけ当該タイムスケール79上において連続するように、ビデオトラック80V上と、オーディオトラック80A1〜80A4上とにそれぞれ着色領域81V、81A1〜81A4を順次表示させるようにする。
Then, the operator designates the range of the video / audio part to be used as the cut as described above (determines the cut) and pastes the video / audio part to the timeline unit 72 (video track) for each desired clip. 80 V and / or the display of the colored areas 81 V and 81 A1 to 81 A4 on the
ここでこのようにタイムライン部72のビデオトラック80V上やオーディオトラック80A1〜80A4上に着色領域81V、81A1〜81A4が表示されることは、編集映像音声の再生時にタイムスケール79で表された時間にその着色領域81V、81A1〜81A4と対応する映像音声部分の対応する箇所の映像が表示され、又は音声が出力されることを意味する。従って、このような作業により編集映像音声として表示又は出力される映像音声の順番及び内容を規定した編集リストを作成することができる。
Here, since the colored areas 81 V and 81 A1 to 81 A4 are displayed on the
なお、タイムライン部72に表示させるビデオトラック80Vやオーディオトラック80A1〜80A4の本数は自由に設定することができる。そして複数本のビデオトラック80Vやオーディオトラック80A1〜80A4が表示された状態において、これらビデオトラック80V又はオーディオトラック80A1〜80A4にそれぞれカットやクリップが貼り付けられている場合には、各ビデオトラック80Vにおけるタイムスケール79上で同じ位置の各映像を重ね合わせた映像が編集映像として得られ、各オーディオトラック80A1〜80A4におけるタイムスケール79上で同じ位置の各音声を重ね合わせた音声が編集音声として得られることとなる。
Incidentally, the number of video tracks 80 V and audio tracks 80 A1 to 80 A4 to be displayed in the
さらにこのようにして編集リストを作成する際、例えば連続する第1のカットの映像から第2のカットの映像への切り換わり時に特殊効果処理を施したいときには、以下の手順により所望する映像特殊効果処理の設定を行うことができる。 Further, when the edit list is created in this way, for example, when it is desired to perform special effect processing at the time of switching from a continuous first cut video to a second cut video, a desired video special effect is performed by the following procedure. Processing settings can be made.
すなわち、まず先行する第1のカットと、後行する第2のカットとをタイムスケール79上で連続するようにビデオトラック80Vに貼り付け、この後タイムライン部72の上部に表示されたボタン群82の中からFXエクスプローラボタン82FXをクリックするようにする。この結果、例えば図9に示すようなFXエクスプローラウインド90がディスプレイ32(図2)に表示される。
That is, first, the preceding first cut and the following second cut are pasted on the
このFXエクスプローラウインド90は、ツリー表示部91及びアイコン表示部92から構成され、ツリー表示部91には、この編集端末装置91〜9nが実行できる各種映像特殊効果がツリー形式で表示されると共に、アイコン表示部92には、これら映像特殊効果の内容がアイコン形式で表示される。
The
続いて、このFXエクスプローラウインド90のアイコン表示部92内に表示されたアイコン(以下、これを特殊効果アイコンと呼ぶ)93の中から所望する映像特殊効果処理の特殊効果アイコン93をドラッグアンドドロップにより、タイムラインエディタウインド70のビデオトラック80Vにおける上述の第1及び第2のカットの繋ぎ目に貼り付ける。
Subsequently, a
これにより編集映像の生成時において、第1のカットの映像から第2のカットの映像に切り替わる際に上述のようにしてビデオトラック80Vに貼り付けられた特殊効果アイコンに対応する映像特殊効果処理を実行すべき旨の設定が行われたこととなる。
During generation of the edited video Thus, video special effect processing corresponding to the special effect icon pasted to the
なお、このように特殊効果アイコン93をタイムラインエディタウインド70のビデオトラック80Vに貼り付ける操作を行った場合、図8に示すように、その貼り付け位置に当該特殊効果アイコン93に応じたマーク94が表示される。
Incidentally, the mark thus the
また編集リストを作成する際、いずれかのオーディオトラック80A1〜80A4に貼り付けられたカットやクリップの音声に対して音声ミキシング処理を施したい場合には、以下の手順により所望の音声ミキシング処理を設定することができる。
Also when creating an edit list, either when it is desired subjecting the audio mixing for the pasted cut and clip the audio to an
すなわち、まずタイムラインエディタウインド70のタイムライン部72に表示されたプレイライン78を、オーディオトラック80A1〜80A4に貼り付けられたカットやクリップのうちの音声ミキシング処理したいカット又はクリップと対応する着色領域81A1〜81A4上に移動させた後、当該タイムライン部72の上部に表示されたボタン群82の中からオーディオミキサーボタン82MIXをクリックする。
That is, first the
この結果、図10に示すように、タイムラインエディタウインド70のタイムライン部72の各オーディオトラック80A1〜80A4にそれぞれ対応させて、ボリューム101やレベルメータ102及び各種設定ボタン103A〜103F等を有する複数のミキシング部104が設けられたオーディオミキサーウインド100が表示される。
As a result, as shown in FIG. 10, respectively corresponding to the audio track 80 A1 to 80 A4 of the
そしてこの後、このオーディオミキサーウインド100内に表示された、タイムラインエディタウインド70のタイムライン部72の所望するオーディオトラック80A1〜80A4と対応付けられたボリューム101や設定ボタン103A〜103F等をレベルメータ102を目視確認しながら操作する。
And after this, this is displayed in the
これにより編集音声の出力時において、そのオーディオトラック80A1〜80A4に貼り付けられた映像音声部分の再生時に上述のようにして設定された内容で音声データを音声ミキシング処理すべき旨の設定が行われたこととなる。
As a result, at the time of output of the edited audio, the setting that the audio data should be subjected to the audio mixing processing with the contents set as described above when the video / audio portion pasted on the
さらにタイムラインエディタウインド70では、上述のようにして編集リストを作成し終えた後又は編集リストの作成中に、タイムライン部72内のプレイライン78をマウス操作により所望位置に移動させ、この後マスタービューワ部73の下側に表示されたコマンドボタン群110の中からプレビューボタン110PVをクリックすることにより、そのときのプレイライン78の位置と対応する映像音声部分を開始点として、高解像度の編集映像をマスタービューワ部73内に通常再生表示させることができる。
Further, the
実際上、CPU20は、かかるプレビューボタン110PVがクリックされると、映像特殊効果及び音声ミキシング処理部25(図2)を制御することにより、このときデータI/Oキャッシュ部151〜15nが記憶保持している対応する映像音声部分の高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を施させる。
In practice, when the
この結果、かかる映像特殊効果処理や音声ミキシング処理によって得られた高解像度の編集映像音声データD3が生成され、これがデータ処理部24(図2)に与えられることにより、当該編集映像音声データD3に基づく編集映像がタイムラインエディタウインド70のマスタービューワ部73内に再生表示されると共に、編集音声がスピーカ33(図2)から出力される。
As a result, high-resolution edited video / audio data D3 obtained by the video special effect processing and audio mixing processing is generated, and is provided to the data processing unit 24 (FIG. 2), whereby the edited video / audio data D3 is generated. The edited video is reproduced and displayed in the
これによりオペレータは、このタイムラインエディタウインド70のマスタービューワ部73内に表示された編集映像に基づいて随時編集内容を目視確認(プレビュー)しながら編集リストを作成し、又は作成し終えた編集リストの内容を確認することができる。
As a result, the operator creates an edit list while visually confirming (previewing) the edit contents as needed based on the edited video displayed in the
そしてこのようにして編集リストを作成後、クリップエクスプローラウインド60(図5)のクリップ表示部63内に表示された当該編集リストに対応したクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させることにより、この編集リストに基づく編集結果を素材サーバ3(図1)に登録することができる。
After creating the edit list in this way, the clip site 64 NS (FIG. 5) corresponding to the edit list displayed in the
このときオペレータは、この編集リストに基づく編集結果を素材サーバ3に登録する際の登録モードとして、図11(A)に示すように、当該編集リストに基づく編集映像音声の全範囲の編集映像音声データD3を素材サーバ3に登録する全体登録モードと、図11(B)に示すように、編集映像音声のうちの映像特殊効果処理又は音声ミキシング処理が施された各映像音声部分の編集映像音声データD3のみを一括登録する一括部分登録モードのいずれか一方を選択して設定することができる。なお、以下の説明においては、映像特殊効果処理及び音声ミキシング処理をまとめて特殊効果処理と呼び、映像特殊効果処理又は音声ミキシング処理が施された映像音声部分を特殊効果部分と呼ぶことにする。
At this time, as shown in FIG. 11A, the operator selects the editing video / audio of the entire range of the editing video / audio based on the editing list as a registration mode when registering the editing result based on the editing list in the
そして、これらの登録モードを選択するためのダイアログ(以下、これを登録モードダイアログと呼ぶ)が、かかるクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させたときに表示される。
Then, a dialog for selecting these registration modes (hereinafter referred to as a registration mode dialog) is displayed on the server site explorer window 61 (FIG. 5) by dragging and dropping the clip icon 64 NS (FIG. 5). Displayed when moved into the
このとき登録モードとして全体登録モードを選択すると、そのとき作成された編集リストにより規定された編集映像音声が、例えば図12に示すように、映像音声部分A、B及びCから構成されていたとすると、これら全ての編集映像音声データD3が生成され、これが素材サーバ3に与えられて上述のクリップアイコン64NS(図5)に対応するファイル(以下、これをクリップファイルと呼ぶ)内に格納される。またこれと併せてこの映像音声部分A、B及びCの再生順序を規定した仮想ファイル(以下、これをVFL(Virtual File List)と呼ぶ)が素材サーバ3に与えられて登録される。
If the entire registration mode is selected as the registration mode at this time, it is assumed that the edited video / audio defined by the edit list created at that time is composed of video / audio portions A, B, and C as shown in FIG. All of the edited video / audio data D3 is generated, given to the
これに対して登録モードとして一括部分登録を選択すると、そのとき作成された編集リストに基づく編集映像音声が、例えば、図12に示すように、映像音声部分A、B及びCから構成され、さらに映像音声部分Bと映像音声部分Cとの繋ぎ目に特殊効果処理が施されていることにより、映像音声部分Bが、特殊効果処理の施されていない非特殊効果部分B1と、映像音声部分Cとの繋ぎ目となる特殊効果部分B2とで構成されていると共に、映像音声部分Cが、映像音声部分Bとの繋ぎ目となる特殊効果部分C1と、非特殊効果部分C2とで構成されている場合、これらのうちの特殊効果部分B2からC1までのみの編集映像音声データD3が生成され、これが素材サーバ3に与えられて上述のクリップアイコン64NSに対応するクリップファイル内に格納される。またこれと併せてこの映像音声部分A、B及びCの再生順序を規定したVFLが素材サーバ3に与えられて登録される。
On the other hand, when the batch partial registration is selected as the registration mode, the edited video / audio based on the edit list created at that time is composed of, for example, video / audio portions A, B, and C as shown in FIG. Since the special effect process is performed at the joint between the video / audio part B and the video / audio part C, the video / audio part B is changed from the non-special effect part B1 not subjected to the special effect process to the video / audio part C. And a special effect portion B2 that becomes a joint with the video and audio portion C, and a special effect portion C1 that becomes a joint with the video and audio portion B and a non-special effect portion C2. If it is determined that the edited video / audio data D3 of only the special effect portions B2 to C1 is generated, the edited video / audio data D3 is given to the
なお、このように編集結果が部分的に登録された場合、その編集結果の再生時には、図13に示すように、元々素材サーバ3に収録されていたクリップのうちの編集映像音声として採用された部分(映像音声部分A、映像音声部分Bの非特殊効果部分B1及び映像音声部分Cの非特殊効果部分C2)と、クリップファイルとして素材サーバ3に登録された部分(特殊効果部分B2及びC1)とが、VFLに従って順番に素材サーバ3から読み出されることとなる。
When the editing result is partially registered in this way, when the editing result is reproduced, as shown in FIG. 13, it is adopted as the edited video / audio of the clip originally recorded in the
一方、この編集端末装置91〜9nには、作成された編集リストに基づく編集結果を部分的に素材サーバ3に登録する部分登録モードとして、上述のように特殊効果部分の編集映像音声データD3のみを編集リストの作成後に一括して素材サーバ3に登録する一括部分登録モードの他に、編集リストの作成段階において特殊効果部分の編集映像音声データD3のみを素材サーバ3に逐次登録する逐次部分登録モードが設けられている。
On the other hand, in the
そして編集端末装置91〜9nでは、初期設定としてこの逐次部分登録モードが設定されている場合、編集リストの作成途中において、タイムラインエディタウインド70(図6)におけるコマンドボタン群110のプレビューボタン110PVがクリックされることにより、特殊効果処理を施すべき旨の設定が行われた特殊効果部分についての通常再生表示を行うごとに、このときこの特殊効果部分のみの映像音声データD3を素材サーバ3に逐次登録するようになされている。そしてこの部分的な編集映像音声データD3が、その編集リストに対応させて素材サーバ3内に生成されたクリップファイル内に格納される。
In the
またこのような部分的な編集映像音声データD3の素材サーバ3への登録が行われた場合、タイムラインエディタウインド70のタイムライン部72における対応する特殊効果処理を施すべき旨の設定を行った特殊効果部分の上側に、図14に示すようなライン120が表示される。
In addition, when such partial edited video / audio data D3 is registered in the
さらにこの後、その編集リストの作成が終了して、当該編集リストに対応したクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させると、この編集リストに基づく編集映像音声における特殊効果部分のうち、未だ編集映像音声データD3として素材サーバ3に登録されていない特殊効果部分について、これら特殊効果部分の編集映像音声データD3が生成され、これが素材サーバ3に一括して転送される。そしてこの部分的な編集映像音声データD3が、上述のようにその編集リストに対応させて素材サーバ3内に生成されたクリップファイル内に格納される。
Thereafter, the creation of the edit list is completed, and the clip icon 64 NS (FIG. 5) corresponding to the edit list is moved into the
またこのときこれと併せてこの編集リストに基づく編集映像音声の再生順序を規定したVFLが素材サーバ3に与えられて登録される。
At the same time, a VFL that defines the playback order of the edited video and audio based on this edit list is given to the
このようにしてこの編集端末装置91〜9nにおいては、作成された編集リストに基づく全範囲の編集映像音声データD3を素材サーバ3に登録する場合に比して格段的に高速に編集結果を素材サーバ3に登録し得るようになされている。
In this way, in the
ところで、このオンエアーシステム1の素材サーバ3においては、ルータ2(図1)を介して供給される高解像度映像音声データD1の映像及び音声を同期させるために、5フレームシーケンスで当該高解像度映像音声データD1の映像及び音声を記録するようになされている。
By the way, in the
すなわち、図15に示すように、高解像度映像音声データD1の映像及び音声を5フレーム単位でまとめ、5フレーム分の音声のサンプル数(8008)を各フレームに対して1602、1601、1602、1601、1602と割り付けるようになされている。 That is, as shown in FIG. 15, the video and audio of the high-resolution video / audio data D1 are grouped in units of 5 frames, and the number of audio samples (8008) for 5 frames is 1602, 1601, 1602, 1601 for each frame. 1602 are assigned.
またこの割り付けられたサンプル数の順番を規定するために、フレーム毎のサンプル数に対してそれぞれ番号(以下、これをシーケンス番号と呼ぶ)が割り当てられており、素材サーバ3においては、シーケンス番号「0」(1602)、シーケンス番号「1」(1601)、シーケンス番号「2」(1602)、シーケンス番号「3」(1601)、シーケンス番号「4」(1602)と割り当てられている。 In order to define the order of the assigned number of samples, a number (hereinafter referred to as a sequence number) is assigned to the number of samples for each frame, and the sequence number “ 0 ”(1602), sequence number“ 1 ”(1601), sequence number“ 2 ”(1602), sequence number“ 3 ”(1601), and sequence number“ 4 ”(1602).
そして、素材サーバ3は、このシーケンス番号の順番(0〜4、0〜4、…)でフレーム毎に音声のサンプル数を循環させながら、5フレーム単位で映像及び音声を同期させるようになされており、また、高解像度映像音声データD1にこのフレーム毎のシーケンス番号を付加して記録するようになされている。
The
しかしながら、このように5フレームシーケンスで記録された高解像度映像音声データD1を編集端末装置91〜9nが読み出し、これに対して例えば図12に示したように編集した後、特殊効果部分B2及びC1のみの映像音声データD3をクリップファイルとして素材サーバ3に登録した場合、編集端末装置91〜9nにおいては、元々素材サーバ3に記録されている高解像度映像音声データD1における5フレームシーケンスの情報(以下、これを5フレームシーケンス情報と呼ぶ)に基づいて映像音声データD3を生成していないため、図13に示すようにVFLに従って編集結果を再生する際に、元々素材サーバ3に収録されていた非特殊効果部分B1と編集端末装置91〜9nで生成された特殊効果部分B2との繋ぎ目で音声の不連続が発生してしまうという問題がある。
However, after the
そこで、このオンエアーシステム1では、編集端末装置91〜9nにおいて、一括部分登録モード又は逐次部分登録モードで作成された編集リストに基づく編集結果を、素材サーバ3に記録された高解像度映像音声データD1の5フレームシーケンス情報に従って部分的に素材サーバ3に登録するようになされている。
Therefore, in the on-
実際上、編集端末装置91〜9nは、上述のようにタイムラインエディタウインド70(図6)上で、編集リストの作成に必要なクリップの映像音声部分をタイムライン部72へ貼り付ける操作が行われたとき、当該操作に応じたコマンドをシステム制御部5(図1)に通知する。
In practice, the
システム制御部5は、このコマンドに応じてゲートウェイ13を制御することにより、当該ゲートウェイ13に、必要なクリップにおける映像音声部分の高解像度映像音声データD1を素材サーバ3から読み出させる。
The
このときゲートウェイ13は、高解像度映像音声データD1に付加されたシーケンス番号を、そのフレーム毎に確認するようになされており、図16に示すように、高解像度映像音声データD1の先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号を検出するようになされている。
At this time, the
この高解像度映像音声データD1は、クリップから切り取られた映像音声部分であるので、その先頭のシーケンス番号が「0」で始まるとは限らない、また基本的にはシーケンス番号が連続となるが、編集点等でこのシーケンス番号が不連続となる。従って先頭フレームのシーケンス番号がいくつであるのか、またシーケンス番号が不連続となるフレーム番号がいくつであるのかが分からないと、特定のフレーム番号(例えば非特殊効果部分B1と特殊効果部分B2との繋ぎ目のフレーム番号)におけるサンプル数が分からなくなってしまうので、先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号とを検出しておく必要がある。 Since the high-resolution video / audio data D1 is a video / audio portion cut out from the clip, the top sequence number does not always start with “0”, and the sequence numbers are basically continuous. This sequence number becomes discontinuous at an edit point or the like. Therefore, if it is not known how many sequence numbers of the first frame are and how many frame numbers the sequence numbers are discontinuous, a specific frame number (for example, a non-special effect part B1 and a special effect part B2) Therefore, it is necessary to detect the sequence number of the first frame, the frame number at which the sequence number becomes discontinuous, and the sequence number at this time.
そしてゲートウェイ13(図1)は、この高解像度映像音声データD1を所定フォーマットにフォーマット変換した後、これをFCスイッチャ14を介して対応するデータI/Oキャッシュ部151〜15nに転送すると共に、検出した先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号とを5フレームシーケンス情報として、高解像度映像音声データD1に付加させ、5フレームシーケンス情報を付加した高解像度映像音声データD1を対応するデータI/Oキャッシュ部151〜15nに記憶保持させる。
Then, the gateway 13 (FIG. 1) converts the format of the high-resolution video / audio data D1 into a predetermined format and then transfers it to the corresponding data I /
このように、5フレームシーケンス情報を高解像度映像音声データD1に付加しておくことにより、高解像度映像音声データD1と、これに対応する5フレームシーケンス情報とを別々に記憶保持しておく必要がないので、これらを容易に管理することができる。 As described above, by adding the 5-frame sequence information to the high-resolution video / audio data D1, it is necessary to store and hold the high-resolution video / audio data D1 and the corresponding 5-frame sequence information separately. Because there is no, these can be managed easily.
そして、編集端末装置91〜9nは、オペレータによってプレビューボタン110PVがクリックされたときに、データI/Oキャッシュ部151〜15nに記憶保持された対応する映像音声部分の高解像度映像音声データD1を読み出させ、例えば図12に示すように当該高解像度映像音声データD1に対して必要に応じて特殊効果処理を施す。
Then, the
ここで、編集端末装置91〜9nが一括部分登録モード又は逐次部分登録モードである場合、特殊効果部分B2及びC1のみの編集映像音声データD3を生成することになる。
Here, when the
まず編集端末装置91〜9nは、映像音声部分Bにおける非特殊効果部分B1と特殊効果部分B2との繋ぎ目のフレーム番号を検出する。なお、この場合のフレーム番号は、映像音声部分Bの先頭フレーム番号を「0」として検出する。
First, the
次に、編集端末装置91〜9nは、この映像音声部分Bの高解像度映像音声データD1に付加された5フレームシーケンス情報(図16)を参照する。これにより、編集端末装置91〜9nは、映像音声部分Bの先頭フレームのシーケンス番号が「4」であり、シーケンス番号が不連続であるフレーム番号が「200」、「260」、…であると認識することができ、ここで、検出した非特殊効果部分B1と特殊効果部分B2との繋ぎ目のフレーム番号が「201」であるとすると、図17に示すように5フレームシーケンスに従って特殊効果部分B2の開始位置のサンプル数を算出することにより、特殊効果部分B2の開始位置を示すサンプル数が「321921」であると認識することができる。
Next, the
従って編集端末装置91〜9nは、映像音声部分Bにおける321921サンプル目からの音声を特殊効果部分B2の音声とし、また同様にして映像音声部分Cにおける特殊効果部分C1の終了位置のサンプル数を算出することにより、得られたサンプル数までの音声を特殊効果部分C1の音声として、特殊効果部分B2及びC1の映像音声データD3を生成する。そして、この映像音声データD3が素材サーバ3に与えられてクリップファイルとして記憶保持される。
Accordingly, the
かくして、素材サーバ3において、図13に示すようにVFLに従って編集結果を再生する際に、元々素材サーバ3に記憶保持されていた非特殊効果部分B1と編集端末装置91〜9nによって部分登録された特殊効果部分B2との繋ぎ目で音声の不連続が発生してしまうことを防止することができる。
Thus, when the
(4)部分登録処理手順
ここで上述のような編集リストに基づく編集結果の素材サーバ3への部分登録は、図17に示す部分登録処理手順RT1に従った編集端末装置91〜9nのCPU20(図2)の制御のもとに行われる。
(4) Partial Registration Processing Procedure Here, partial registration of the editing result based on the editing list as described above to the
実際上、CPU20は、登録モードダイアログで部分登録モードが選択されたとき又は初期設定として逐次部分登録モードが設定され、編集リストの作成途中において、タイムラインエディタウインド70(図6)におけるコマンドボタン群110のプレビューボタン110PVがクリックされたとき、図17に示す部分登録処理手順RT1をステップSP0において開始し、続くステップSP1において、映像音声特殊効果及び音声ミキシング処理部25を制御することにより、各映像音声部分における非特殊効果部分と特殊効果部分との繋ぎ目のフレーム番号を検出する。
In practice, when the partial registration mode is selected in the registration mode dialog or when the partial registration mode is sequentially set as the initial setting, the
続いてCPU20は、ステップSP2に進んで、各映像音声部分の高解像度映像音声データD1に付加されている5フレームシーケンス情報を参照し、当該5フレームシーケンス情報及びステップSP1で検出したフレーム番号に基づいて、非特殊効果部分と特殊効果部分との繋ぎ目における音声のサンプル数を算出する。
Subsequently, the
そしてCPU20は、ステップSP3に進んで、映像音声特殊効果及び音声ミキシング処理部25を制御することにより、ステップSP2で算出したサンプル数から始まる音声を特殊効果部分の音声として編集映像音声データD3を生成し、これを編集結果として素材サーバ3に部分登録し、この後ステップSP4に進んでこの部分登録処理手順を終了する。
Then, the
(5)本実施の形態の動作及び効果
以上の構成において、このオンエアーシステム1では、取材等により得られた高解像度映像音声データD1を5フレームシーケンスで素材サーバ3に記録し、編集リストの作成に必要な映像音声部分の高解像度映像音声データD1を素材サーバ3からデータI/Oキャッシュ部151〜15nに転送する際に、当該高解像度映像音声データD1における先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号とをゲートウェイ13で検出し、これらを5フレームシーケンス情報として高解像度映像音声データD1に付加する。
(5) Operation and effect of the present embodiment In the above configuration, the on-
そして編集端末装置91〜9nにおいて、映像音声部分の高解像度映像音声データD1が対応するデータI/Oキャッシュ部151〜15nから読み出され、この高解像度映像音声データD1に対して特殊効果処理が施されると、特殊効果処理が施された特殊効果部分のみの編集映像音声データD3を5フレームシーケンス情報をもとに生成し、これを素材サーバ3にクリップファイルとして登録する。
Then the editing
素材サーバ3は、元々素材サーバ3に記録されている映像音声部分のうちの非特殊効果部分と、クリップファイルとして素材サーバ3に登録された特殊効果部分とを繋ぎ合わせて再生する。
The
以上の構成によれば、このオンエアーシステム1では、5フレームシーケンスで素材サーバ3に記録された高解像度映像音声データD1をデータI/Oキャッシュ部151〜15nに転送する際に、当該高解像度映像音声データD1における5フレームシーケンス情報を検出し、編集端末装置91〜9nが当該高解像度映像音声データD1をデータI/Oキャッシュ部151〜15nから読み出して特殊効果処理を施したときに、特殊効果処理が施された特殊効果部分のみの編集映像音声データD3を、検出した5フレームシーケンス情報に基づいて生成し、これを素材サーバ3に登録して元々素材サーバ3に記録されている非特殊効果部分と繋ぎ合わせて再生するようにしたことにより、素材サーバ3に元々記録されている非特殊効果部分と編集端末装置91〜9nによって素材サーバ3に登録された特殊効果部分との繋ぎ目で音声が不連続となることを防止することができ、かくして音声の不連続を確実に回避することができる。
According to the above configuration, in the on-
(6)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成されたオンエアーシステム1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有する編集システムに広く適用することができる。
(6) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the on-
また上述の実施の形態においては、5フレーム単位で映像及び音声を同期させる5フレームシーケンスで高解像度映像音声データD1を記録するようにした場合について述べたが、本発明はこれに限らず、オンエアーシステム1が扱う映像のフィールド周波数及び音声のサンプリング周波数に応じてフレームシーケンスのフレーム単位を設定し、当該フレーム単位のフレームシーケンスで高解像度映像音声データD1を記録するようにしてもよい。
In the above-described embodiment, the case where the high-resolution video / audio data D1 is recorded in a 5-frame sequence in which video and audio are synchronized in units of 5 frames has been described. However, the present invention is not limited to this. The frame unit of the frame sequence may be set in accordance with the video field frequency and the audio sampling frequency handled by the
さらに上述の実施の形態においては、同期情報検出手段としてのゲートウェイ13が、高解像度映像音声データD1の同期情報としての5フレームシーケンス情報を当該高解像度映像音声データD1の転送時に検出するようにした場合について述べたが、本発明はこれに限らず、例えば、素材サーバ3や、編集端末装置91〜9nが当該高解像度映像音声データD1の5フレームシーケンス情報を検出するようにしてもよい。
Further, in the above-described embodiment, the
さらに上述の実施の形態においては、クリップから切り取られた映像音声部分の先頭フレームをフレーム番号「0」として、非特殊効果部分と特殊効果部分との繋ぎ目のフレーム番号を算出するようにした場合について述べたが、本発明はこれに限らず、当該映像音声部分を含んだクリップの先頭フレームをフレーム番号「0」として、当該映像音声部分における非特殊効果部分と特殊効果部分との繋ぎ目のフレーム番号を算出するようにしてもよい。 Furthermore, in the above-described embodiment, when the frame number “0” is set as the first frame of the video / audio portion cut out from the clip, the frame number of the joint between the non-special effect portion and the special effect portion is calculated. However, the present invention is not limited to this, and the first frame of the clip including the video / audio portion is set to frame number “0”, and the joint between the non-special effect portion and the special effect portion in the video / audio portion is described. A frame number may be calculated.
さらに上述の実施の形態においては、取材等により得られた各クリップの映像音声データを記憶保持する記憶保持手段としての素材サーバ3を複数のRAIDから構成するようにした場合について述べたが、本発明はこれに限らず、素材サーバ3の構成としてはこの他種々の構成を広く適用することができる。
Furthermore, in the above-described embodiment, the case where the
さらに上述の実施の形態においては、素材サーバ3から読み出された高解像度映像音声データD1を記憶保持するデータI/Oキャッシュ部151〜15nを、半導体メモリにより構成するようにした場合について述べたが、本発明はこれに限らず、要は、素材サーバ3よりも高いアクセス性を有する記憶媒体を用いて構成されたものであるのならば、半導体メモリ以外の記憶媒体を用いたものであっても良い。
Further, in the above-described embodiment, the data I /
さらに上述の実施の形態においては、選択された編集リストに従って高解像度映像音声データD1をデータI/Oキャッシュ部151〜15nから読み出して加工編集するようにして、当該編集リストに応じた編集映像を生成する編集手段としての編集端末装置91〜9nを図2のように構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を広く適用することができる。
Further, in the above-described embodiment, the high-resolution video / audio data D1 is read from the data I /
さらに上述の実施の形態においては、素材サーバ3及びデータI/Oキャッシュ部151〜15nを制御する制御手段として、当該オンエアーシステム1全体の制御を司るシステム制御部5を適用するようにした場合について述べたが、本発明はこれに限らず、例えば、かかる本発明に関するシステム制御部5の機能を編集端末装置91〜9nにもたせるようにしても良い。
Furthermore, in the above-described embodiment, the
本発明は、テレビジョン放送局で使用されるオンエアーシステムに適用できる。 The present invention can be applied to an on-air system used in a television broadcasting station.
1……オンエアーシステム、3……素材サーバ、91〜9n……編集端末装置、13……ゲートウェイ、151〜15n……データI/Oキャッシュ部、CF……クリップファイル、D1……高解像度映像音声データ、D3……編集映像音声データ。
1 ...... on-air system, 3 ......
Claims (4)
編集内容を規定した編集リストに従って上記記憶保持手段から必要な上記映像音声データを読み出し加工編集するようにして、当該編集リストに応じた編集映像音声を生成し、当該編集映像音声を上記記憶保持手段に登録する編集手段と、
上記編集手段が上記必要な映像音声データを読み出す際に、当該映像音声データの同期情報を検出する同期情報検出手段と
を具え、
上記編集手段は、
上記同期情報検出手段によって検出された上記同期情報に基づいて上記映像音声データのうちの加工編集した部分のみの編集映像音声を生成して当該編集映像音声を上記記憶保持手段に登録し、
上記記憶保持手段は、
上記映像音声データのうちの加工編集されていない部分と上記編集手段によって登録された上記映像音声データのうちの加工編集された部分のみの編集映像音声とを繋ぎ合わせて再生する
ことを特徴とする編集システム。 Storage and holding means for synchronizing and storing video and audio of video and audio data in units of a predetermined plurality of frames; and
The video / audio data required is read from the storage / holding means according to an edit list that defines the editing content, and the edited video / audio is generated according to the edit list, and the edited video / audio is stored in the storage / holding means. Editing means to register with
Synchronization information detecting means for detecting synchronization information of the video / audio data when the editing means reads out the necessary video / audio data;
The editing means is
Based on the synchronization information detected by the synchronization information detecting means, the edited video / audio is generated only for the processed and edited portion of the video / audio data, and the edited video / audio is registered in the storage holding means,
The memory holding means is
A portion of the video and audio data that has not been edited and edited and an edited video and audio of only the portion of the video and audio data registered by the editing means that has been edited and edited are played back. Editing system.
上記編集手段が読み出した上記映像音声データに上記同期情報を付加する
ことを特徴とする請求項1に記載の編集システム。 The synchronization detection means includes
The editing system according to claim 1, wherein the synchronization information is added to the video / audio data read by the editing unit.
編集内容を規定した編集リストに従って上記記憶保持手段から必要な上記映像音声データを読み出すと共に、当該映像音声データの同期情報を検出する第2のステップと、
読み出した上記映像音声データを編集手段において上記編集リストに従って加工編集する第3のステップと、
上記同期情報に基づいて上記映像音声データのうちの加工編集した部分のみの編集映像音声を上記編集手段において生成して当該編集映像音声を上記記憶保持手段に登録する第4のステップと、
上記映像音声データのうちの加工編集されていない部分と上記編集手段によって登録された上記映像音声データのうちの加工編集された部分のみの編集映像音声とを上記記憶保持手段において繋ぎ合わせて再生する第5のステップと
を具えることを特徴とする編集システムの制御方法。 A first step of synchronizing the video and audio of the video and audio data in units of a predetermined plurality of frames and storing and holding the same in the storage and holding means;
A second step of reading out the necessary video / audio data from the storage / holding means according to an edit list defining the editing content, and detecting synchronization information of the video / audio data;
A third step of processing and editing the read video / audio data according to the editing list in the editing means;
A fourth step of generating, in the editing means, an edited video / audio of only the processed and edited portion of the video / audio data based on the synchronization information, and registering the edited video / audio in the storage / holding means;
A portion of the video and audio data that has not been edited and edited and an edited video and audio of only the portion of the video and audio data registered by the editing means that has been edited and edited are connected and reproduced in the storage and holding means. An editing system control method comprising: a fifth step.
上記憶保持手段から読み出された上記映像音声データに上記同期情報を付加する
ことを特徴とする請求項3に記載の編集システムの制御方法。 In the second step,
The control method of an editing system according to claim 3, wherein the synchronization information is added to the video / audio data read from the upper storage holding means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003292849A JP4337034B2 (en) | 2003-08-13 | 2003-08-13 | Editing system and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003292849A JP4337034B2 (en) | 2003-08-13 | 2003-08-13 | Editing system and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005064889A true JP2005064889A (en) | 2005-03-10 |
JP4337034B2 JP4337034B2 (en) | 2009-09-30 |
Family
ID=34370034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003292849A Expired - Fee Related JP4337034B2 (en) | 2003-08-13 | 2003-08-13 | Editing system and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4337034B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013533669A (en) * | 2010-05-25 | 2013-08-22 | インテレクチュアル ベンチャーズ ファンド 83 エルエルシー | Video summary instruction metadata storage |
CN109194979A (en) * | 2018-10-30 | 2019-01-11 | 努比亚技术有限公司 | The processing method and processing device of audio-video, mobile terminal, readable storage medium storing program for executing |
-
2003
- 2003-08-13 JP JP2003292849A patent/JP4337034B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013533669A (en) * | 2010-05-25 | 2013-08-22 | インテレクチュアル ベンチャーズ ファンド 83 エルエルシー | Video summary instruction metadata storage |
US9124860B2 (en) | 2010-05-25 | 2015-09-01 | Intellectual Ventures Fund 83 Llc | Storing a video summary as metadata |
CN109194979A (en) * | 2018-10-30 | 2019-01-11 | 努比亚技术有限公司 | The processing method and processing device of audio-video, mobile terminal, readable storage medium storing program for executing |
CN109194979B (en) * | 2018-10-30 | 2022-06-17 | 湖南天鸿瑞达集团有限公司 | Audio and video processing method and device, mobile terminal and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4337034B2 (en) | 2009-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4117616B2 (en) | Editing system, control method thereof and editing apparatus | |
JP3067801B2 (en) | Digital audio workstation providing digital storage and display of video information | |
US7424202B2 (en) | Editing system and control method using a readout request | |
US5760767A (en) | Method and apparatus for displaying in and out points during video editing | |
US6674955B2 (en) | Editing device and editing method | |
CA2603600C (en) | Icon bar display for video editing system | |
EP1047074B1 (en) | Apparatus, method and medium for information processing | |
DE60023560T2 (en) | MULTIMEDIA PHOTO ALBUMS | |
DE60012972T2 (en) | Digital video recording comprising recording full-frame sub-images and associated transparency control data for fading between successive video segments during playback | |
US6400378B1 (en) | Home movie maker | |
US7903927B2 (en) | Editing apparatus and control method thereof, and program and recording medium | |
JP4168334B2 (en) | Editing apparatus and editing method | |
US20040066395A1 (en) | Graphical user interface for a motion video planning and editing system for a computer | |
US6327420B1 (en) | Image displaying method and editing apparatus to efficiently edit recorded materials on a medium | |
JP2013009218A (en) | Editing device, method, and program | |
JP2005006229A (en) | Edit device and edit method | |
US5781435A (en) | Edit-to-it | |
JP4174718B2 (en) | Editing apparatus and editing method | |
JP4337034B2 (en) | Editing system and control method thereof | |
JP4117617B2 (en) | Editing system and control method thereof | |
JP3906922B2 (en) | Editing system | |
JP4337033B2 (en) | Editing system and control method thereof | |
JP2002247504A (en) | Editing device and recording medium | |
JP4348605B2 (en) | Editing system and control method thereof | |
KR100599175B1 (en) | Apparatus and method for editing of optical-disc |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090305 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090604 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090617 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120710 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |