JP2005064889A - Editing system and its control method - Google Patents

Editing system and its control method Download PDF

Info

Publication number
JP2005064889A
JP2005064889A JP2003292849A JP2003292849A JP2005064889A JP 2005064889 A JP2005064889 A JP 2005064889A JP 2003292849 A JP2003292849 A JP 2003292849A JP 2003292849 A JP2003292849 A JP 2003292849A JP 2005064889 A JP2005064889 A JP 2005064889A
Authority
JP
Japan
Prior art keywords
video
audio
edited
editing
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003292849A
Other languages
Japanese (ja)
Other versions
JP4337034B2 (en
Inventor
Jun Yoshikawa
潤 吉川
Yoichiro Yasusato
洋一郎 安里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003292849A priority Critical patent/JP4337034B2/en
Publication of JP2005064889A publication Critical patent/JP2005064889A/en
Application granted granted Critical
Publication of JP4337034B2 publication Critical patent/JP4337034B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an editing system for reliably evading non-continuity in sound, and to provide its control method. <P>SOLUTION: When high resolution video sound data D1 recorded in a base material server 3 by five-frame sequence is transferred to data I/O cache parts 15<SB>1</SB>-15<SB>n</SB>, five-frame sequence information in the high resolution video sound data D1 is detected. When editing terminal apparatuses 9<SB>1</SB>-9<SB>n</SB>read the high resolution video sound data D1 from the data I/O cache parts 15<SB>1</SB>-15<SB>n</SB>to perform a special effect processing, editing video sound data D3 with only a special effect part to which the special effect processing is applied is generated, on the basis of the detected five-frame sequence information, and registered in the base material server 3 as a clip file. Thus, non-continuity in sound is prevented in a connection part between a non-special effect part which is originally recorded in the base material server 3 and the special effect part registered in the base material server 3 by the editing terminal apparatuses 9<SB>1</SB>-9<SB>n</SB>. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、編集システム及びその制御方法に関し、例えばテレビジョン放送局で用いるオンエアーシステムに適用して好適なものである。   The present invention relates to an editing system and a control method therefor, and is suitable for application to an on-air system used in, for example, a television broadcasting station.

従来、オンエアーシステムにおいては、取材等により得られた映像音声がAV(Audio Visual)サーバに蓄積され、当該映像音声を編集装置が読み出して加工編集処理し、得られた編集映像音声をAVサーバに登録することができ、このAVサーバに登録した編集映像音声を所定のタイミングで読み出して放送することができるようになされている。(例えば特許文献1参照)。
特開平10−285533号公報
2. Description of the Related Art Conventionally, in an on-air system, video and audio obtained through interviews and the like are accumulated in an AV (Audio Visual) server, the video and audio are read out by an editing device, processed and edited, and the resulting edited video and audio are processed into an AV server. The edited video and audio registered in the AV server can be read and broadcast at a predetermined timing. (For example, refer to Patent Document 1).
JP-A-10-285533

ところで、上述のようなオンエアーシステムのAVサーバにおいては、取材等により得られた映像音声のうちの映像をNTSC(National Television System Committee)のフィールド周波数59.94…[Hz]で記録し、また音声をサンプリング周波数48[kHz]で記録しているものがある。この場合、音声を映像のフレーム周波数(フレーム周波数=フィールド周波数/2)毎に等分割すると、1フレーム当たりの音声のサンプル数が1601.60…となり、割り切れない。   By the way, in the AV server of the above-mentioned on-air system, the video of the video and audio obtained by the interview or the like is recorded at the NTSC (National Television System Committee) field frequency 59.94 [Hz]. Some audio is recorded at a sampling frequency of 48 [kHz]. In this case, if the audio is equally divided for each frame frequency of the video (frame frequency = field frequency / 2), the number of audio samples per frame becomes 1601.60.

そこで、音声のサンプル数がちょうど割り切れる5フレーム単位で、各フレームにサンプル数を割り当てるようになされており、5フレーム当たりの音声のサンプル数が8008となることから、これをフレーム毎に例えば1602、1601、1602、1601、1602と割り付けるようになされている。   Therefore, the number of samples is assigned to each frame in units of 5 frames in which the number of audio samples is just divisible, and the number of audio samples per 5 frames is 8008. 1601, 1602, 1601, 1602 are assigned.

このように5フレーム単位で映像及び音声を同期させる方式を5フレームシーケンスと呼び、AVサーバでは、この5フレームシーケンスで映像音声を記録している。   Such a method of synchronizing video and audio in units of 5 frames is called a 5 frame sequence, and the AV server records video and audio in this 5 frame sequence.

また、上述のようなオンエアーシステムの編集装置においては、AVサーバに蓄積された映像音声を読み出し、この映像音声のうちの加工編集処理した部分のみを編集映像音声としてAVサーバに登録し、これを元々AVサーバに記録されている加工編集処理されていない部分と繋ぎ合わせることにより、AVサーバから読み出した映像音声の全部分を編集映像音声としてAVサーバに登録するよりも、短時間で登録できるようにすることが本願特許出願人により考えられている。   In addition, in the editing apparatus of the on-air system as described above, the video / audio stored in the AV server is read, and only the processed and edited part of this video / audio is registered in the AV server as the edited video / audio. Can be registered in a shorter time than registering all parts of the video and audio read from the AV server as edited video and audio in the AV server This is considered by the applicant of the present patent application.

しかしながら、この場合、上述のように映像音声が5フレームシーケンスでAVサーバに記録されていたとすると、この映像音声のフレーム毎のサンプル数を編集装置が認識できずに加工編集処理してしまうことになり、元々AVサーバに記録されている加工編集処理されていない部分のサンプル数と、編集装置によって加工編集処理された部分のサンプル数とがずれてしまい、この結果、AVサーバでこれらを繋ぎ合わせて再生する際に、この繋ぎ目において音声の不連続が発生してしまうという問題があった。   However, in this case, if the video / audio is recorded on the AV server in a 5-frame sequence as described above, the editing apparatus cannot recognize the number of samples for each frame of the video / audio, and the editing process is performed. Therefore, the number of samples of the part that has not been processed and edited originally recorded in the AV server and the number of samples of the part that has been processed and edited by the editing device are shifted. As a result, the AV server joins them. In this case, there is a problem that discontinuity of sound occurs at this joint.

本発明は以上の点を考慮してなされたもので、音声の不連続を確実に回避し得る編集システム及びその制御方法を提案しようとするものである。   The present invention has been made in consideration of the above points, and an object of the present invention is to propose an editing system and a control method therefor that can reliably avoid discontinuity of speech.

かかる課題を解決するため本発明においては、映像音声データの映像及び音声を所定の複数フレーム単位で同期させて記憶保持する記憶保持手段と、編集内容を規定した編集リストに従って記憶保持手段から必要な映像音声データを読み出し加工編集するようにして、当該編集リストに応じた編集映像音声を生成し、当該編集映像音声を記憶保持手段に登録する編集手段と、編集手段が必要な映像音声データを読み出す際に、当該映像音声データの同期情報を検出する同期情報検出手段とを設け、編集手段が、同期情報検出手段によって検出された同期情報に基づいて映像音声データのうちの加工編集した部分のみの編集映像音声を生成して当該編集映像音声を記憶保持手段に登録し、記憶保持手段が、映像音声データのうちの加工編集されていない部分と編集手段によって登録された映像音声データのうちの加工編集された部分のみの編集映像音声とを繋ぎ合わせて再生するようにした。   In order to solve such a problem, in the present invention, the storage and holding means for synchronizing and storing video and audio of the video and audio data in units of a predetermined plurality of frames, and the storage and holding means according to the edit list defining the editing contents are required. The video / audio data is read and processed and edited to generate an edited video / audio corresponding to the editing list, and the editing means for registering the edited video / audio in the memory holding means and the video / audio data required by the editing means are read out. The synchronization information detecting means for detecting the synchronization information of the video / audio data, and the editing means only edits the edited and edited portion of the video / audio data based on the synchronization information detected by the synchronization information detecting means. The edited video / audio is generated and the edited video / audio is registered in the memory holding means, and the memory holding means is processed and edited in the video / audio data. And by connecting the edited video audio only processed and edited portion of the audiovisual data registered so as to play the part and editing means no.

この結果この編集システムでは、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができる。   As a result, this editing system prevents the audio from becoming discontinuous at the joint between the unedited portion of the video / audio data and the edited video / audio of only the edited portion of the video / audio data. can do.

また本発明においては、映像音声データの映像及び音声を所定の複数フレーム単位で同期させて記憶保持手段に記憶保持させる第1のステップと、編集内容を規定した編集リストに従って記憶保持手段から必要な映像音声データを読み出すと共に、当該映像音声データの同期情報を検出する第2のステップと、読み出した映像音声データを編集手段において編集リストに従って加工編集する第3のステップと、同期情報に基づいて映像音声データのうちの加工編集した部分のみの編集映像音声を編集手段において生成して当該編集映像音声を記憶保持手段に登録する第4のステップと、映像音声データのうちの加工編集されていない部分と編集手段によって登録された映像音声データのうちの加工編集された部分のみの編集映像音声とを記憶保持手段において繋ぎ合わせて再生する第5のステップとを設けるようにした。   In the present invention, the first step of synchronizing the video and audio of the video / audio data in units of a predetermined plurality of frames and storing and holding the same in the storage and holding unit and the editing and holding list in accordance with the editing list that defines the editing contents are necessary. A second step of reading out the video / audio data and detecting synchronization information of the video / audio data, a third step of processing and editing the read-out video / audio data according to the editing list in the editing means, and a video based on the synchronization information A fourth step of generating edited video / audio of only the edited and edited portion of the audio data in the editing means and registering the edited video / audio in the memory holding means; and a portion of the audio / video data that has not been processed and edited And edited video and audio of only the edited and edited portion of the video and audio data registered by the editing means It was provided with a fifth step of reproducing by connecting the lifting means.

この結果この編集システムの制御方法によれば、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができる。   As a result, according to the control method of this editing system, the audio is discontinuous at the joint between the part of the video / audio data that has not been processed and edited and the edited video / audio of only the processed and edited part of the video / audio data. Can be prevented.

本発明によれば、編集システムにおいて、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができ、かくして音声の不連続を確実に回避し得る編集システムを実現できる。   According to the present invention, in the editing system, the audio becomes discontinuous at the joint between the part of the video / audio data that has not been edited and edited and the edited video / audio of only the processed and edited part of the video / audio data. Thus, it is possible to realize an editing system that can reliably avoid the discontinuity of sound.

また本発明によれば、編集システムの制御方法において、映像音声データのうちの加工編集されていない部分と映像音声データのうちの加工編集された部分のみの編集映像音声との繋ぎ目で音声が不連続となることを防止することができ、かくして音声の不連続を確実に回避し得る編集システムの制御方法を実現できる。   According to the present invention, in the control method of the editing system, the audio is connected at the joint between the part of the video / audio data that has not been edited and edited and the edited video / audio of only the part of the video / audio data that has been edited and edited. It is possible to prevent the discontinuity, and thus it is possible to realize an editing system control method capable of reliably avoiding the discontinuity of the sound.

以下、図面について、本発明の一実施の形態を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)本実施の形態によるオンエアーシステムの構成
図1において、1は全体としてテレビジョン放送局等に設置される本実施の形態によるオンエアーシステムを示し、取材現場から衛星通信回線等を介して転送され、又は図示しないビデオテープレコーダにより取材テープから再生された140〔Mbps〕程度の解像度を有するHDCAM(ソニー株式会社 登録商標)フォーマットの映像音声データ(以下、これを高解像度映像音声データと呼ぶ)D1をルータ2を介して素材サーバ3及びダウンコンバータ4に入力する。
(1) Configuration of on-air system according to this embodiment In FIG. 1, reference numeral 1 denotes an on-air system according to this embodiment installed as a whole in a television broadcasting station or the like. The video / audio data in HDCAM (Sony Corporation) format having a resolution of about 140 [Mbps] reproduced by a video tape recorder (not shown) and reproduced from an interview tape (hereinafter referred to as high-resolution video / audio data). D1 is input to the material server 3 and the down converter 4 via the router 2.

素材サーバ3は、複数のRAID(Redundant Arrays of Independent Disks)から構成される大容量のAVサーバでなり、パーソナルコンピュータにより構成されるシステム制御部5の制御のもとに、ルータ2を介して供給される一連の高解像度映像音声データD1をファイル化して記憶する。   The material server 3 is a large-capacity AV server composed of a plurality of RAIDs (Redundant Arrays of Independent Disks), and is supplied via the router 2 under the control of the system control unit 5 composed of a personal computer. The series of high-resolution video / audio data D1 is stored as a file.

またダウンコンバータ4は、供給される高解像度映像音声データD1を8〔Mbps〕程度の解像度にダウンコンバートすると共に、これをMPEG(Motion Picture Experts Group)フォーマットで圧縮符号化し、かくして得られた低解像度の映像音声データ(以下、これを低解像度映像音声データと呼ぶ)D2をプロキシサーバ6に送出する。   The down-converter 4 down-converts the supplied high-resolution video / audio data D1 to a resolution of about 8 [Mbps] and compresses and encodes this in the MPEG (Motion Picture Experts Group) format. Video / audio data (hereinafter referred to as low-resolution video / audio data) D2 is sent to the proxy server 6.

プロキシサーバ6は、素材サーバ3と同様に、複数のRAIDから構成されるAVサーバでなり、システム制御部5の制御のもとに、ダウンコンバータ4から供給される一連の低解像度映像音声データD2をファイル化して記憶する。このようにしてこのオンエアーシステム1では、素材サーバ3に収録したクリップと同じ内容の低解像度のクリップをプロキシサーバ6に収録する。   Similar to the material server 3, the proxy server 6 is an AV server composed of a plurality of RAIDs, and a series of low-resolution video / audio data D 2 supplied from the down converter 4 under the control of the system control unit 5. Is stored as a file. In this way, in this on-air system 1, a low-resolution clip having the same content as the clip recorded in the material server 3 is recorded in the proxy server 6.

そしてこのプロキシサーバ6に格納された各クリップの低解像度映像音声データD2は、イーサネット(登録商標)7を介してプロキシサーバ6と接続された各プロキシ編集端末装置8〜8及び各編集端末装置9〜9を用いて読み出すことができ、これを利用して素材サーバ3に蓄積されたクリップの中からどのクリップとどのクリップとをどのような順番で繋げて加工編集された映像音声(以下、これを編集映像音声と呼ぶ)を生成するかといったカット編集のみの編集内容を規定した編集リストをプロキシ編集端末装置8〜8や各編集端末装置9〜9において作成することができる。 The low-resolution video / audio data D2 of each clip stored in the proxy server 6 is sent to each proxy editing terminal device 8 1 to 8 n and each editing terminal connected to the proxy server 6 via the Ethernet (registered trademark) 7. Video and audio that can be read out using the devices 9 1 to 9 n and processed and edited by connecting which clips and which clips from the clips stored in the material server 3 in any order. The proxy editing terminal devices 8 1 to 8 n and the editing terminal devices 9 1 to 9 n create an editing list that defines editing contents only for cut editing, such as whether to generate (hereinafter referred to as edited video and audio). be able to.

実際上、プロキシ編集端末装置8〜8は、編集リスト作成のための専用のソフトウェアが起動された編集リストの作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介してプロキシサーバ6を制御することにより、当該プロキシサーバ6にそのクリップの低解像度映像音声データD2を読み出させる。 In practice, each of the proxy editing terminal devices 8 1 to 8 n has one of the clips recorded in the proxy server 6 by the operator in the edit list creation mode in which dedicated software for creating the edit list is activated. When a clip is selected and a playback command is input, the proxy is accessed by accessing the system control unit 5 via the Ethernet (registered trademark) 7 and controlling the proxy server 6 via the system control unit 5. The server 6 is made to read the low-resolution video / audio data D2 of the clip.

そしてプロキシ編集端末装置8〜8は、このようにしてプロキシサーバ6から読み出された低解像度映像音声データD2を復号化し、得られたベースバンドの映像音声データに基づく映像をディスプレイに表示する。これによりオペレータは、このディスプレイに表示された映像を目視確認しながら、カット編集のみの編集リストを作成することができる。なお、以下においては、このようなカット編集のみの編集リストをEDL(Edit Decision List)と呼ぶ。 Then, the proxy editing terminal devices 8 1 to 8 n decode the low-resolution video / audio data D2 read out from the proxy server 6 in this way, and display the video based on the obtained baseband video / audio data on the display. To do. Thus, the operator can create an edit list for only cut editing while visually confirming the video displayed on the display. In the following, such an edit list for only cut editing is referred to as an EDL (Edit Decision List).

さらにこのようにして作成された編集リストのデータである編集リストデータは、オペレータの操作によりそのプロキシ編集端末装置8〜8からイーサネット(登録商標)7を介して所望の編集端末装置9〜9に転送することができる。そしてこの転送された編集リストデータは、この後この編集端末装置9〜9によって記憶管理される。 Further, the edit list data, which is the edit list data created in this way, is sent from the proxy edit terminal devices 8 1 to 8 n to the desired edit terminal device 9 1 via the Ethernet (registered trademark) 7 by the operator's operation. ~ 9 n can be transferred. The transferred editing list data is stored and managed by the editing terminal devices 9 1 to 9 n .

一方、編集端末装置9〜9は、高解像度映像音声データD1に対して映像特殊効果処理をリアルタイムで施し得るビデオボードが搭載されたノンリニア編集装置でなり、専用のソフトウェアが起動された編集リストの作成モード時、オペレータによりプロキシサーバ6に収録されているクリップの中から1つのクリップが選択されてその再生命令が入力されると、システム制御部5を介してプロキシサーバ6を制御することにより、プロキシ編集端末装置8〜8と同様にして、当該クリップの低解像度の映像をディスプレイに表示させる。 On the other hand, the editing terminal devices 9 1 to 9 n are non-linear editing devices equipped with a video board capable of performing video special effect processing on the high-resolution video / audio data D1 in real time. In the list creation mode, when one clip is selected from clips recorded in the proxy server 6 by the operator and a playback command is input, the proxy server 6 is controlled via the system control unit 5. Thus, the low-resolution video of the clip is displayed on the display in the same manner as the proxy editing terminal devices 8 1 to 8 n .

これによりオペレータは、この映像を目視確認しながら映像特殊効果や音声ミキシングの設定等を含めた最終的な編集リストを、新規に又はプロキシ編集端末装置8〜8を用いて作成された編集リストを利用して、作成することができる。 As a result, the operator visually confirms the video and edits the final edit list including the video special effects and audio mixing settings newly or created using the proxy editing terminal devices 8 1 to 8 n. Can be created using a list.

なお編集端末装置9〜9には、それぞれビデオテープレコーダ11〜11及びハードディスク装置等のローカルストレージ12〜12が接続されており、かくしてビデオテープ等に記録された映像音声素材をビデオテープレコーダ11〜11を介してクリップとしてローカルストレージ12〜12に取り込み、これを編集に利用することもできるようになされている。 The editing terminal devices 9 1 to 9 n are respectively connected with video tape recorders 11 1 to 11 n and local storages 12 1 to 12 n such as hard disk devices, and thus the video and audio material recorded on the video tape or the like. Are taken into the local storages 12 1 to 12 n as clips via the video tape recorders 11 1 to 11 n and can be used for editing.

また編集端末装置9〜9は、編集リストの作成過程において、1つのクリップのうちの所望の映像音声部分のイン点及びアウト点が指定されてタイムライン上に並べられるごとに、イーサネット(登録商標)7を介してシステム制御部5にアクセスし、当該システム制御部5を介してゲートウェイ13を制御することにより、当該ゲートウェイ13に当該タイムライン上に並べられたその映像音声部分の高解像度映像音声データD1を素材サーバ3から順次読み出させる。 In addition, the editing terminal devices 9 1 to 9 n each specify the Ethernet (when the IN and OUT points of a desired video / audio portion of one clip are specified and arranged on the timeline in the process of creating the editing list. By accessing the system control unit 5 via the registered trademark 7 and controlling the gateway 13 via the system control unit 5, the high resolution of the video and audio portions arranged on the timeline in the gateway 13 The audio / video data D1 is sequentially read from the material server 3.

そしてこの高解像度映像音声データD1は、システム制御部5の制御のもとに、ゲートウェイ13で所定フォーマットにフォーマット変換された後、ファイバチャネルスイッチャ14を介して例えば180ギガバイト程度の記憶容量を有する半導体メモリからなる対応するデータI/Oキャッシュ部15〜15に与えられて記憶保持される。 The high-resolution video / audio data D1 is converted into a predetermined format by the gateway 13 under the control of the system control unit 5, and then a semiconductor having a storage capacity of, for example, about 180 gigabytes via the fiber channel switcher 14. The data I / O cache units 15 1 to 15 n made of a memory are given and stored.

かくして編集端末装置9〜9は、この後オペレータにより編集リストの高解像度映像による再生(プレビュー)命令が入力されると、対応するデータI/Oキャッシュ部15〜15から必要な高解像度映像音声データD1を読み出し、当該高解像度映像音声データD1に基づく編集映像を生成してディスプレイに表示させる。 Thus, when the editing terminal device 9 1 to 9 n thereafter inputs a reproduction (preview) command with a high-resolution video of the edit list by the operator, the editing terminal devices 9 1 to 9 n require the necessary high data from the corresponding data I / O cache units 15 1 to 15 n. The resolution video / audio data D1 is read out, and an edited video based on the high-resolution video / audio data D1 is generated and displayed on the display.

そして編集端末装置9〜9は、やがてオペレータによる編集リストの作成作業が終了し、この後この編集リストの実行命令が入力されると、当該編集リストに従ってデータI/Oキャッシュ部15〜15から対応する高解像度映像音声データD1を順次読み出し、この高解像度映像音声データD1に対して必要に応じて特殊効果処理や音声ミキシング処理を施しながら、かくして得られた編集映像音声のデータ(以下、これを編集映像音声データと呼ぶ)D3を素材サーバ3に送出する。この結果この編集映像音声データD3がシステム制御部5の制御のもとに、ファイル化されて素材サーバ3に収録される。 The editing terminal devices 9 1 to 9 n eventually complete the editing list creation work by the operator, and when an editing list execution command is input thereafter, the data I / O cache units 15 1 to 15 n are operated according to the editing list. sequentially reads high-resolution video and audio data D1 corresponding from 15 n, while subjected to a special effect processing and audio mixing as necessary for this high-resolution video and audio data D1, thus obtained edited video and audio data ( This is hereinafter referred to as edited video / audio data) D3 is sent to the material server 3. As a result, the edited video / audio data D3 is filed and recorded in the material server 3 under the control of the system control unit 5.

さらにこの素材サーバ3に収録された編集映像音声データD3は、この後オペレータ操作により図示しないオンエアーサーバに転送され、この後番組作成者等により作成されたいわゆるプレイリストに従ってオンエアーサーバから読み出されて放送される。   Further, the edited video / audio data D3 recorded in the material server 3 is then transferred to an on-air server (not shown) by an operator's operation, and then read out from the on-air server according to a so-called playlist created by a program creator or the like. To be broadcast.

このようにしてこのオンエアーシステム1においては、編集から当該編集により得られた編集映像音声のオンエアーまでの一連の処理を効率良く行い得るようになされている。   In this manner, the on-air system 1 can efficiently perform a series of processing from editing to on-air of the edited video and audio obtained by the editing.

(2)編集端末装置9〜9の構成
ここで編集端末装置9〜9は、図2に示すように、CPU(Central Processing Unit)20、ROM(Read Only Memory)21及びRAM(Random Access Memory)22と、各種ソフトウェアが格納されたハードディスク装置23と、各種映像データ処理機能及び音声データ処理機能を有するデータ処理部24と、高解像度映像音声データD1に対して指定された映像特殊効果処理や音声ミキシング処理を施す映像特殊効果及び音声ミキシング処理部25と、各種インターフェース部26〜28とがCPUバス29を介して接続されることにより構成され、インターフェース部26を介してイーサネット(登録商標)7に接続されている。
(2) where the editing terminal 9 1 to 9 n configuration of the editing terminal device 9 1 to 9 n, as shown in FIG. 2, CPU (Central Processing Unit) 20, ROM (Read Only Memory) 21 and RAM ( Random Access Memory) 22, a hard disk device 23 in which various software are stored, a data processing unit 24 having various video data processing functions and audio data processing functions, and a video special designated for the high-resolution video / audio data D1. The video special effect and audio mixing processing unit 25 that performs effect processing and audio mixing processing and various interface units 26 to 28 are connected via the CPU bus 29, and the Ethernet (registration) is connected via the interface unit 26. Trademark) 7.

またインターフェース部27にはマウス30及びキーボード31等の入力装置が接続されると共に、インターフェース部28にはビデオテープレコーダ11〜11及びローカルストレージ12〜12が接続され、データ処理部24にはディスプレイ32及びスピーカ33が接続されている。 The interface unit 27 is connected to input devices such as a mouse 30 and a keyboard 31, and the interface unit 28 is connected to video tape recorders 11 1 to 11 n and local storages 12 1 to 12 n. A display 32 and a speaker 33 are connected to each other.

そしてCPU20は、必要時、ハードディスク装置23内に格納された画面データを読み出し、これをデータ処理部に与えることにより、後述のような各種のウインド及びダイアログ等をディスプレイに表示させる。   Then, when necessary, the CPU 20 reads the screen data stored in the hard disk device 23 and gives it to the data processing unit, thereby displaying various windows and dialogs as described below on the display.

またCPU20は、必要時、インターフェース部26及びイーサネット(登録商標)7を通じてシステム制御部5(図1)にコマンドを送出することにより、当該システム制御部5を介して素材サーバ3(図1)やプロキシサーバ6(図1)、ゲートウェイ13(図1)、FCスイッチャ14(図1)、データI/Oキャッシュ部15〜15(図1)等を所望状態に制御する。 Further, when necessary, the CPU 20 sends a command to the system control unit 5 (FIG. 1) through the interface unit 26 and the Ethernet (registered trademark) 7 so that the material server 3 (FIG. 1) or The proxy server 6 (FIG. 1), gateway 13 (FIG. 1), FC switcher 14 (FIG. 1), data I / O cache units 15 1 to 15 n (FIG. 1), and the like are controlled to a desired state.

そしてCPU20は、例えばこの結果としてプロキシサーバ6からイーサネット(登録商標)7を介して転送される、オペレータにより指定されたクリップの低解像度映像音声データD2をインターフェース部26を介して取り込み、これをデータ処理部24に与えることにより、当該低解像度映像音声データD2に基づく映像を対応するウインド又はダイアログ内の所定位置に表示させる。   Then, for example, as a result of this, the CPU 20 takes in the low-resolution video / audio data D2 of the clip designated by the operator, which is transferred from the proxy server 6 via the Ethernet (registered trademark) 7, via the interface unit 26, and this is received as data. By giving to the processing unit 24, the video based on the low-resolution video / audio data D2 is displayed at a predetermined position in the corresponding window or dialog.

さらにCPU20は、必要時には映像特殊効果及び音声ミキシング処理部25を制御することにより、データI/Oキャッシュ部15〜15から対応する高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を実行させる。 Further, the CPU 20 controls the video special effect and audio mixing processing unit 25 when necessary to read out the corresponding high resolution video / audio data D1 from the data I / O cache units 15 1 to 15 n , and the high resolution video. Video special effect processing and audio mixing processing are executed on the audio data D1 as necessary.

そしてこの結果として得られた編集映像音声データD3がデータ処理部24に与えられることにより、当該編集映像音声データD3に基づく映像特殊効果処理により得られた編集映像がディスプレイ32に表示されると共に、音声ミキシング処理により得られた編集音声がスピーカ33から出力される。   Then, the edited video / audio data D3 obtained as a result is provided to the data processing unit 24, whereby the edited video obtained by the video special effect processing based on the edited video / audio data D3 is displayed on the display 32, and The edited sound obtained by the sound mixing process is output from the speaker 33.

またCPU20は、このとき必要に応じて映像特殊効果及び音声ミキシング処理部25を制御することにより、かかる編集映像音声データD3を素材サーバ3に送出させる一方、システム制御部5を介して素材サーバ3を制御することにより、この編集映像音声データD3を記憶させ、これによりこの編集映像音声データD3を素材サーバ3に登録する。   At this time, the CPU 20 controls the video special effect and audio mixing processing unit 25 as necessary to send out the edited video / audio data D3 to the material server 3, while the material server 3 via the system control unit 5. The edited video / audio data D3 is stored, and the edited video / audio data D3 is registered in the material server 3.

(3)編集端末装置9〜9における編集リストの作成手順
次にこの編集端末装置9〜9における編集リストの作成手順について説明する。
(3) Procedure for preparing and editing terminal device 9 1 to 9 edited in n list will now be described a procedure of creating the edit list in this editing terminal device 9 1 to 9 n.

この編集端末装置9〜9では、素材サーバ3等に収録された所望するクリップの所望の映像音声部分を指定し、これらをタイムライン上に順次並べるようにしてカット映像の送出順序を設定すると共に、映像特殊効果処理及び音声ミキシング処理の設定やタイトルの挿入などを行うようにして編集リストを作成する。 In the editing terminal devices 9 1 to 9 n , a desired video / audio part of a desired clip recorded in the material server 3 or the like is specified, and the cut video transmission order is set by sequentially arranging them on the timeline. At the same time, the edit list is created by setting the video special effect process and the audio mixing process and inserting the title.

そしてこのようにして作成された編集リストにおける各カットのイン点及びアウト点のタイムコード、カットの並び順、編集リスト名、作成者及び作成日時等の情報(EDL情報)や、この編集リストにおいて設定されている映像特殊効果及び音声ミキシングの内容に関する情報、並びに編集リストを作成した際の作業環境に関する各種情報などが1つのファイル内に格納されて『プロジェクト』として管理される。   In the edit list created in this way, the time code of the in and out points of each cut, the order of cuts, information such as the edit list name, creator and creation date and time (EDL information), Information regarding the contents of the set video special effects and audio mixing, various information regarding the work environment when the edit list is created, and the like are stored in one file and managed as a “project”.

このため編集リストを新たに作成するに際しては新規にプロジェクトを作成する必要があり、この場合にオペレータは、まず対応するソフトウェアを起動することにより、図3に示すようなプロジェクトマネージャウインド40をディスプレイ32(図2)に表示させるようにする。   For this reason, when a new edit list is created, it is necessary to create a new project. In this case, the operator first activates the corresponding software to display a project manager window 40 as shown in FIG. (FIG. 2).

ここで、このプロジェクトマネージャウインド40は、プロジェクトを管理及び閲覧するためのウインドであり、ツリー表示部41、クリップ表示部42及びプロジェクト一覧表示部43から構成される。   Here, the project manager window 40 is a window for managing and browsing the project, and includes a tree display unit 41, a clip display unit 42, and a project list display unit 43.

このときプロジェクトマネージャウインド40のツリー表示部41には、その編集端末装置9〜9内及び後述のようにプロジェクトのファイル(以下、これをプロジェクトファイルと呼ぶ)を一元管理するプロジェクトファイルサーバ10内に存在する全てのプロジェクトファイルについて、これらプロジェクトファイルの保存場所がツリー形式で表示される。 At this time, the tree display unit 41 of the project manager window 40 has a project file server 10 for centrally managing project files (hereinafter referred to as project files) in the editing terminal devices 9 1 to 9 n and as described later. For all project files existing in the folder, the storage locations of these project files are displayed in a tree format.

またクリップ表示部42には、ツリー表示部41で選択されたプロジェクトに属する各クリップのサムネイル画像がアイコン(以下、これをクリップアイコンと呼ぶ)44として一覧表示され、さらにクリップ一覧表示部43には、ツリー表示部41に表示された各プロジェクトについて、保存ドライブ名、プロジェクト名、更新日時等の管理情報がリスト形式でテキスト表示される。   The clip display unit 42 displays a list of thumbnail images of the clips belonging to the project selected in the tree display unit 41 as icons (hereinafter referred to as clip icons) 44, and the clip list display unit 43 further displays the thumbnail images. For each project displayed in the tree display section 41, management information such as a storage drive name, a project name, and an update date and time is displayed as text in a list format.

そして新規のプロジェクトを作成する場合、オペレータは、このプロジェクトマネージャウインド40の上部に表示されたボタン群45のうちの新規作成ボタン45Aをクリックすることにより、図4に示すニュープロジェクトダイアログ50を表示させ、このニュープロジェクトダイアログ50のプロジェクト名入力ボックス51内に所望するプロジェクト名を入力し、さらに属性設定部52においてこのプロジェクトに関する各種属性を設定した後、OKボタン53をクリックするようにする。   When creating a new project, the operator clicks the new creation button 45A in the button group 45 displayed at the top of the project manager window 40 to display the new project dialog 50 shown in FIG. Then, a desired project name is input in the project name input box 51 of the new project dialog 50, and various attributes relating to the project are set in the attribute setting unit 52, and then an OK button 53 is clicked.

かくしてこの新規のプロジェクトがその編集端末装置9〜9及びプロジェクトファイルサーバ10に新規に登録されると共に、当該プロジェクト内に新規のフォルダ及びビンが自動的に作成され、この結果がプロジェクトマネージャウインド40(図3)のツリー表示部41及びプロジェクト一覧表示部43に反映される。 Thus, the new project is newly registered in the editing terminal devices 9 1 to 9 n and the project file server 10, and a new folder and bin are automatically created in the project, and the result is displayed in the project manager window. It is reflected in the tree display section 41 and the project list display section 43 of 40 (FIG. 3).

またこのときディスプレイ32(図2)には、図5に示すクリップエクスプローラ(Clip Explorer)ウインド60及びこれと同じ構成を有するサーバサイトエクスプローラ(Server Site Explorer)ウインド61が表示される。   At this time, a clip explorer window 60 shown in FIG. 5 and a server site explorer window 61 having the same configuration are displayed on the display 32 (FIG. 2).

クリップエクスプローラウインド60は、現在開かれているプロジェクトに属するクリップを表示及び管理するためのウインドであり、ツリー表示部62及びクリップ表示部63から構成される。   The clip explorer window 60 is a window for displaying and managing clips belonging to the currently opened project, and includes a tree display unit 62 and a clip display unit 63.

そしてこのクリップエクスプローラウインド60のツリー表示部62には、システム内に存在する全てのプロジェクト及びその内容物(フォルダ、ビン等)がツリー形式で表示され、クリップ表示部63には、ツリー表示部62で選択されたビンに属する全てのクリップのクリップアイコン64が一覧表示される。なお、新規プロジェクトが作成された直後の初期状態ではそのプロジェクトに属するクリップが存在しないため、クリップエクスプローラウインド60のクリップ表示部63にはクリップアイコン64が表示されない。   The tree display section 62 of the clip explorer window 60 displays all projects existing in the system and their contents (folders, bins, etc.) in a tree format. The clip display section 63 displays the tree display section 62. A list of the clip icons 64 of all the clips belonging to the bin selected in is displayed. In the initial state immediately after the new project is created, there are no clips belonging to the project, and therefore the clip icon 64 is not displayed in the clip display portion 63 of the clip explorer window 60.

またサーバサイトエクスプローラウインド61は、素材サーバ3及びプロキシサーバ6に収録されているクリップの一覧を表示するためのウインドであり、クリップエクスプローラウインド60と同様にツリー表示部62及びクリップ表示部63から構成される。   The server site explorer window 61 is a window for displaying a list of clips recorded in the material server 3 and the proxy server 6, and includes a tree display unit 62 and a clip display unit 63, similar to the clip explorer window 60. Is done.

そしてサーバサイトエクスプローラウインド61のツリー表示部62には、素材サーバ3及びプロキシサーバ6内の全てのフォルダ、ファイル等がツリー形式で表示され、クップ表示部63には、ツリー表示部62において選択されたフォルダ等に格納されている全てのクリップのクリップアイコン64が表示される。   In the tree display portion 62 of the server site explorer window 61, all folders and files in the material server 3 and the proxy server 6 are displayed in a tree format, and the cup display portion 63 is selected in the tree display portion 62. Clip icons 64 of all clips stored in the folder or the like are displayed.

そしてオペレータは、新規の編集リストを作成する場合、上述のようにして新規のプロジェクトを作成後、クリップエクスローラウインド60の上部に表示されたボタン群65のうち、新規シーケンス作成ボタン65Aをクリックするようにする。この結果、これから作成される編集リストに対応したクリップアイコン64NSがクリップエクスプローラウインド60のクリップ表示部63内に表示され、これと併せて図6に示すようなタイムラインエディタウインド70がディスプレイ32(図2)に表示される。 When creating a new edit list, the operator creates a new project as described above, and then clicks a new sequence creation button 65A in the button group 65 displayed at the top of the clip explorer window 60. Like that. As a result, the clip icon 64 NS corresponding to the edit list to be created is displayed in the clip display section 63 of the clip explorer window 60, and a timeline editor window 70 as shown in FIG. 2).

このタイムラインエディタウインド70は、クリップの映像を目視確認しながら所望部分をカットとして切り出す操作を行うためのソースビューワ部71と、このようにして切り出された各カットをどのように並べるか、またその際カットの繋ぎ目においてどのような特殊効果を施すかといった編集内容を設定するためのタイムライン部72と、タイムライン部72において設定された編集内容を高解像度映像により確認するためのマスタービューワ部73とから構成される。   The timeline editor window 70 arranges the source viewer unit 71 for performing an operation of cutting out a desired portion as a cut while visually confirming the clip image, and how to arrange the cuts thus cut out. At that time, a timeline unit 72 for setting editing contents such as what kind of special effect is applied at the joint of cuts, and a master viewer for confirming the editing contents set in the timeline unit 72 by a high-resolution video. Part 73.

そしてオペレータは、サーバサイトエクスプローラウインド61(図5)のクリップ表示部63(図5)に表示された各クリップアイコン64(図5)の中から所望するクリップのクリップアイコン64をドラッグアンドドロップによりタイムラインエディタウインド70のソースビューワ部71内に移動させることで、そのクリップを編集に利用するクリップとして選択することができ、この操作を繰り返すことにより複数のクリップをまとめて選択することができる。   The operator then drags and drops the clip icon 64 of the desired clip from the clip icons 64 (FIG. 5) displayed in the clip display section 63 (FIG. 5) of the server site explorer window 61 (FIG. 5). The clip can be selected as a clip to be used for editing by moving it into the source viewer section 71 of the line editor window 70, and a plurality of clips can be selected collectively by repeating this operation.

またタイムラインエディタウインド70では、ソースビューワ部71の上側に表示されたクリップ選択メニュー表示ボタン74をクリックすることによって、上述のようにして選択したクリップの一覧をメニュー表示させることができ、さらにこのメニューの中から所望するクリップを編集対象のクリップとして選択することができる。   In the timeline editor window 70, by clicking the clip selection menu display button 74 displayed on the upper side of the source viewer section 71, a list of clips selected as described above can be displayed as a menu. A desired clip can be selected from the menu as a clip to be edited.

なおこのとき選択されたクリップの例えば先頭フレームの映像がソースビューワ部71に表示されると共に、このクリップの名前がクリップリストボックス75内に表示され、かつ当該クリップにおけるソースビューワ部71内に表示されたフレームのタイムコード及び当該クリップの素材長がタイムコード表示部76内に表示される。   Note that, for example, the video of the first frame of the selected clip is displayed in the source viewer section 71, and the name of this clip is displayed in the clip list box 75 and also displayed in the source viewer section 71 of the clip. The time code of the frame and the material length of the clip are displayed in the time code display section 76.

そしてタイムラインエディタウインド70では、このようにして編集対象として選択したクリップのプロキシサーバ6(図1)に収録されている低解像度映像音声データD2(図1)に基づく映像を、ソースビューワ部71の下側に表示されたコマンドボタン群77の中から対応するコマンドボタンをクリックすることによって、通常再生、コマ送り再生又はコマ戻し再生等させることができる。   In the timeline editor window 70, a video based on the low-resolution video / audio data D2 (FIG. 1) recorded in the proxy server 6 (FIG. 1) of the clip selected as the editing target in this way is displayed in the source viewer section 71. By clicking the corresponding command button from the command button group 77 displayed on the lower side, normal playback, frame advance playback, frame back playback, and the like can be performed.

実際上、CPU20(図2)は、かかるコマンドボタン群77の中から通常再生用、コマ送り再生用又はコマ送り逆再生用等のコマンドボタンがクリックされると、これに応じてシステム制御部5(図1)を介してプロキシサーバ6を制御することにより、当該クリップにおける対応する映像音声部分の低解像度映像音声データD2を、当該クリックされたコマンドボタン72に応じた再生モードで読み出させる。この結果この低解像度映像音声データD2に基づく低解像度の通常再生映像や、コマ送り再生映像又はコマ送り逆再生映像等がソースビューワ部71に表示される。   In practice, when the command button for normal playback, frame-by-frame playback or frame-by-frame reverse playback is clicked from the command button group 77 in the CPU 20 (FIG. 2), the system controller 5 By controlling the proxy server 6 via (FIG. 1), the low-resolution video / audio data D2 of the corresponding video / audio part in the clip is read in the playback mode corresponding to the clicked command button 72. As a result, a low-resolution normal playback video, a frame-by-frame playback video, a frame-by-frame reverse playback video, or the like based on the low-resolution video / audio data D2 is displayed on the source viewer unit 71.

かくしてオペレータは、このソースビューワ部71に表示されたクリップの再生映像を目視確認しながら、所望の映像が表示された状態でコマンドボタン77のうちのマークインボタン77INやマークアウトボタン77OUTをクリックすることにより、このクリップの映像音声の中からカットとして利用しようとする映像音声部分の開始点(イン点)や終了点(アウト点)を指定することができる。 Thus, the operator visually confirms the playback video of the clip displayed on the source viewer unit 71 and presses the mark-in button 77 IN and the mark-out button 77 OUT of the command buttons 77 while the desired video is displayed. By clicking, it is possible to specify the start point (in point) and end point (out point) of the video / audio part to be used as a cut from the video / audio of this clip.

一方、オペレータは、このようにして範囲を指定した各クリップのカットとして利用しようとする映像音声部分を用いて、以下の手順により編集リストを作成することができる。   On the other hand, the operator can create an edit list by the following procedure using the audio / video portion to be used as a cut for each clip whose range is specified in this way.

まず上述のようにクリップのうちのカットとして利用しようとする映像音声部分の範囲を指定後、タイムライン部72内に表示されたプレイライン78を、当該タイムライン部72の下部に表示されたタイムスケール79を指標としてマウス操作により所望位置に移動させ、この後ソースビューワ部71の下部に表示されたコマンドボタン群77のうちのオーバーライトボタン77又はスプライスインボタン77をクリックするようにする。 First, as described above, after specifying the range of the video / audio part to be used as a cut of the clip, the play line 78 displayed in the time line part 72 is displayed as the time displayed at the lower part of the time line part 72. The scale 79 is used as an index to move to a desired position by a mouse operation, and thereafter, an overwrite button 77 O or a splice-in button 77 S in the command button group 77 displayed at the bottom of the source viewer section 71 is clicked. .

この結果、図7に示すように、オーバーライトボタン77がクリックされたときには上書き、スプライスインボタン77がクリックされたときには挿入するようにして、タイムライン部72のビデオトラック80上に、そのときのプレイライン78の位置を先頭位置とする当該映像音声部分の素材長に応じた長さの着色領域81が表示される。 As a result, as shown in FIG. 7, overwriting when the overwrite button 77 O is clicked, so as to insert when the splice IN button 77 S is clicked, on the video track 80 V of the time line part 72, the video and audio portions of the material length length of the colored area 81 V corresponding to the to the top position the position of the play line 78 is displayed at that time.

またこのときその映像音声部分に音声が付随している場合には、ビデオトラック80の下側に設けられた複数のオーディオトラック80A1〜80A4のうちの該当するチャンネル数分のオーディオトラック80A1〜80A4上に、それぞれそのときのプレイライン78の位置を先頭位置とするビデオトラック80の対応する着色領域81と同じ長さの着色領域81A1〜81A4が表示される。 At this time, if audio is attached to the video / audio portion, the audio tracks 80 corresponding to the number of corresponding channels among the plurality of audio tracks 80 A1 to 80 A4 provided below the video track 80 V. on A1 to 80 A4, the video track 80 V corresponding colored region 81 colored region 81 of the same length as the V A1 to 81 A4 of which the start position the position of the play line 78 at that time, respectively, are displayed.

なおこのときCPU20は、かかるオペレータの操作に応じたコマンドをシステム制御部5に通知する。この結果、システム制御部5の制御のもとに、素材サーバ3(図1)から対応するクリップにおける当該映像音声部分の高解像度映像音声データD1がイン点側及びアウト点側にそれぞれ数秒程度の余裕をもたせて読み出され、これがゲートウェイ13(図1)、FCスイッチャ14(図1)を介してその編集端末装置9〜9用のデータI/Oキャッシュ部15〜15に与えられて記憶される。 At this time, the CPU 20 notifies the system control unit 5 of a command corresponding to the operation of the operator. As a result, under the control of the system control unit 5, the high-resolution video / audio data D1 of the video / audio portion of the corresponding clip from the material server 3 (FIG. 1) is about several seconds on the in-point side and the out-point side, respectively. read out remembering margin, which gateway 13 (FIG. 1), FC switcher 14 applied to data I / O cache unit 15 1 to 15 n of the editing terminal device 9 1 to 9 for n via (FIG. 1) And memorized.

さらに編集映像音声の再生時に映像音声部分の映像に付随する音声以外の音声を出力させたいときには、クリップ選択メニュー表示ボタン74をクリックし、このとき表示されたクリップの一覧の中から予め登録しておいたその音声のクリップを選択した後、タイムライン部72のプレイライン78を所望する位置に移動させ、この後所望するオーディオトラック80A1〜80A4を指定した上で上述のオーバーライトボタン77又はスプライスインボタン77をクリックするようにする。 If you want to output audio other than the audio that accompanies the video / audio portion during playback of the edited video / audio, click the clip selection menu display button 74 and register it in advance from the list of clips displayed at this time. After selecting the clip of the sound that has been placed, the play line 78 of the timeline unit 72 is moved to a desired position, and then the desired audio tracks 80 A1 to 80 A4 are designated, and then the above-described overwrite button 77 O is selected. or so as to click the splice-in button 77 S.

そしてこの場合にも、その指定されたオーディオトラック80A1〜80A4上にそのときのプレイライン78の位置を先頭位置とする当該クリップの素材長に対応する長さの着色領域81A1〜81A4が表示されると共に、このクリップが素材サーバ3に収録されている場合には、その音声データが素材サーバ3から読み出されてデータI/Oキャッシュ部15〜15に記憶されることとなる。 And also in this case, the colored areas 81 A1 to 81 positions of the head position to a length corresponding to the material length of the clip play line 78 at that time on the audio track 80 A1 to 80 A4 its designated A4 When the clip is recorded in the material server 3, the audio data is read from the material server 3 and stored in the data I / O cache units 15 1 to 15 n. Become.

そしてオペレータは、所望する各クリップについて、上述のようなカットとして利用しようとする映像音声部分の範囲の指定(カットの決定)と、当該映像音声部分のタイムライン部72への貼り付け(ビデオトラック80及び又はオーディオトラック80A1〜80A4に着色領域81、81A1〜81A4を表示させること)という操作を繰り返し行い、図8に示すように、タイムスケール79の始め(「00:00:00:00」)から所望する時間分だけ当該タイムスケール79上において連続するように、ビデオトラック80上と、オーディオトラック80A1〜80A4上とにそれぞれ着色領域81、81A1〜81A4を順次表示させるようにする。 Then, the operator designates the range of the video / audio part to be used as the cut as described above (determines the cut) and pastes the video / audio part to the timeline unit 72 (video track) for each desired clip. 80 V and / or the display of the colored areas 81 V and 81 A1 to 81 A4 on the audio tracks 80 A1 to 80 A4 are repeated, and as shown in FIG. 8, the beginning of the time scale 79 (“00:00 : 00: 00 "), the colored areas 81 V and 81 A1 to 81 are respectively formed on the video track 80 V and the audio tracks 80 A1 to 80 A4 so as to be continuous on the time scale 79 for a desired time. A4 is sequentially displayed.

ここでこのようにタイムライン部72のビデオトラック80上やオーディオトラック80A1〜80A4上に着色領域81、81A1〜81A4が表示されることは、編集映像音声の再生時にタイムスケール79で表された時間にその着色領域81、81A1〜81A4と対応する映像音声部分の対応する箇所の映像が表示され、又は音声が出力されることを意味する。従って、このような作業により編集映像音声として表示又は出力される映像音声の順番及び内容を規定した編集リストを作成することができる。 Here, since the colored areas 81 V and 81 A1 to 81 A4 are displayed on the video track 80 V and the audio tracks 80 A1 to 80 A4 of the timeline unit 72 in this way, the time scale is displayed when the edited video and audio are played back. see the video of the corresponding portion of the video and audio portions and corresponding the colored area 81 V, 81 A1 ~81 A4 to time expressed in 79 or audio means to be output. Therefore, it is possible to create an edit list that defines the order and contents of video and audio displayed or output as edited video and audio by such work.

なお、タイムライン部72に表示させるビデオトラック80やオーディオトラック80A1〜80A4の本数は自由に設定することができる。そして複数本のビデオトラック80やオーディオトラック80A1〜80A4が表示された状態において、これらビデオトラック80又はオーディオトラック80A1〜80A4にそれぞれカットやクリップが貼り付けられている場合には、各ビデオトラック80におけるタイムスケール79上で同じ位置の各映像を重ね合わせた映像が編集映像として得られ、各オーディオトラック80A1〜80A4におけるタイムスケール79上で同じ位置の各音声を重ね合わせた音声が編集音声として得られることとなる。 Incidentally, the number of video tracks 80 V and audio tracks 80 A1 to 80 A4 to be displayed in the time line part 72 can be freely set. And in a state where a plurality of video tracks 80 V and audio tracks 80 A1 to 80 A4 is displayed, if these video track 80 V or respectively cut and clip the audio tracks 80 A1 to 80 A4 is pasted , images superimposed each picture at the same position on the time scale 79 at each of the video track 80 V is obtained as edited video, overlapping each voice in the same position on the time scale 79 at each audio track 80 A1 to 80 A4 The combined voice is obtained as the edited voice.

さらにこのようにして編集リストを作成する際、例えば連続する第1のカットの映像から第2のカットの映像への切り換わり時に特殊効果処理を施したいときには、以下の手順により所望する映像特殊効果処理の設定を行うことができる。   Further, when the edit list is created in this way, for example, when it is desired to perform special effect processing at the time of switching from a continuous first cut video to a second cut video, a desired video special effect is performed by the following procedure. Processing settings can be made.

すなわち、まず先行する第1のカットと、後行する第2のカットとをタイムスケール79上で連続するようにビデオトラック80に貼り付け、この後タイムライン部72の上部に表示されたボタン群82の中からFXエクスプローラボタン82FXをクリックするようにする。この結果、例えば図9に示すようなFXエクスプローラウインド90がディスプレイ32(図2)に表示される。 That is, first, the preceding first cut and the following second cut are pasted on the video track 80 V so as to be continuous on the time scale 79, and then the buttons displayed on the upper portion of the time line portion 72. Click the FX explorer button 82 FX in the group 82. As a result, for example, an FX explorer window 90 as shown in FIG. 9 is displayed on the display 32 (FIG. 2).

このFXエクスプローラウインド90は、ツリー表示部91及びアイコン表示部92から構成され、ツリー表示部91には、この編集端末装置9〜9が実行できる各種映像特殊効果がツリー形式で表示されると共に、アイコン表示部92には、これら映像特殊効果の内容がアイコン形式で表示される。 The FX explorer window 90 includes a tree display unit 91 and an icon display unit 92. The tree display unit 91 displays various video special effects that can be executed by the editing terminal devices 9 1 to 9 n in a tree format. At the same time, the contents of these video special effects are displayed in an icon format on the icon display unit 92.

続いて、このFXエクスプローラウインド90のアイコン表示部92内に表示されたアイコン(以下、これを特殊効果アイコンと呼ぶ)93の中から所望する映像特殊効果処理の特殊効果アイコン93をドラッグアンドドロップにより、タイムラインエディタウインド70のビデオトラック80における上述の第1及び第2のカットの繋ぎ目に貼り付ける。 Subsequently, a special effect icon 93 for a desired video special effect process is dragged and dropped from icons (hereinafter referred to as special effect icons) 93 displayed in the icon display unit 92 of the FX explorer window 90. , pasted on the joint of the aforementioned first and second cut in the video track 80 V of the time line editor window 70.

これにより編集映像の生成時において、第1のカットの映像から第2のカットの映像に切り替わる際に上述のようにしてビデオトラック80に貼り付けられた特殊効果アイコンに対応する映像特殊効果処理を実行すべき旨の設定が行われたこととなる。 During generation of the edited video Thus, video special effect processing corresponding to the special effect icon pasted to the video track 80 V as described above in the first cut of the video switch to the video of the second cut Is set to be executed.

なお、このように特殊効果アイコン93をタイムラインエディタウインド70のビデオトラック80に貼り付ける操作を行った場合、図8に示すように、その貼り付け位置に当該特殊効果アイコン93に応じたマーク94が表示される。 Incidentally, the mark thus the special effect icon 93 when performing an operation of pasting the video track 80 V of the time line editor window 70, as shown in FIG. 8, in accordance with the special effect icon 93 in its application position 94 is displayed.

また編集リストを作成する際、いずれかのオーディオトラック80A1〜80A4に貼り付けられたカットやクリップの音声に対して音声ミキシング処理を施したい場合には、以下の手順により所望の音声ミキシング処理を設定することができる。 Also when creating an edit list, either when it is desired subjecting the audio mixing for the pasted cut and clip the audio to an audio track 80 A1 to 80 A4, the desired audio mixing according to the procedure described below Can be set.

すなわち、まずタイムラインエディタウインド70のタイムライン部72に表示されたプレイライン78を、オーディオトラック80A1〜80A4に貼り付けられたカットやクリップのうちの音声ミキシング処理したいカット又はクリップと対応する着色領域81A1〜81A4上に移動させた後、当該タイムライン部72の上部に表示されたボタン群82の中からオーディオミキサーボタン82MIXをクリックする。 That is, first the play line 78 displayed on the time line part 72 of the time line editor window 70, the corresponding cut or clip desired audio mixing among the cuts or clips pasted to the audio tracks 80 A1 to 80 A4 After moving the coloring area 81 A1 to 81 A4 , the audio mixer button 82 MIX is clicked from the button group 82 displayed on the upper part of the timeline portion 72.

この結果、図10に示すように、タイムラインエディタウインド70のタイムライン部72の各オーディオトラック80A1〜80A4にそれぞれ対応させて、ボリューム101やレベルメータ102及び各種設定ボタン103A〜103F等を有する複数のミキシング部104が設けられたオーディオミキサーウインド100が表示される。 As a result, as shown in FIG. 10, respectively corresponding to the audio track 80 A1 to 80 A4 of the time line part 72 of the time line editor window 70, the volume 101 and the level meter 102 and various setting buttons 103A~103F etc. An audio mixer window 100 provided with a plurality of mixing units 104 is displayed.

そしてこの後、このオーディオミキサーウインド100内に表示された、タイムラインエディタウインド70のタイムライン部72の所望するオーディオトラック80A1〜80A4と対応付けられたボリューム101や設定ボタン103A〜103F等をレベルメータ102を目視確認しながら操作する。 And after this, this is displayed in the audio mixer window 100, a desired audio track 80 A1 to 80 A4 and the associated volume 101 and setting buttons 103A~103F like timeline portion 72 of the time line editor window 70 The level meter 102 is operated while visually checking.

これにより編集音声の出力時において、そのオーディオトラック80A1〜80A4に貼り付けられた映像音声部分の再生時に上述のようにして設定された内容で音声データを音声ミキシング処理すべき旨の設定が行われたこととなる。 As a result, at the time of output of the edited audio, the setting that the audio data should be subjected to the audio mixing processing with the contents set as described above when the video / audio portion pasted on the audio tracks 80 A1 to 80 A4 is reproduced. It will be done.

さらにタイムラインエディタウインド70では、上述のようにして編集リストを作成し終えた後又は編集リストの作成中に、タイムライン部72内のプレイライン78をマウス操作により所望位置に移動させ、この後マスタービューワ部73の下側に表示されたコマンドボタン群110の中からプレビューボタン110PVをクリックすることにより、そのときのプレイライン78の位置と対応する映像音声部分を開始点として、高解像度の編集映像をマスタービューワ部73内に通常再生表示させることができる。 Further, the timeline editor window 70 moves the playline 78 in the timeline unit 72 to a desired position by operating the mouse after completing the creation of the edit list as described above or during the creation of the edit list. By clicking the preview button 110 PV from the command button group 110 displayed on the lower side of the master viewer section 73, the video / audio part corresponding to the position of the play line 78 at that time is used as a starting point, and the high resolution The edited video can be normally reproduced and displayed in the master viewer unit 73.

実際上、CPU20は、かかるプレビューボタン110PVがクリックされると、映像特殊効果及び音声ミキシング処理部25(図2)を制御することにより、このときデータI/Oキャッシュ部15〜15が記憶保持している対応する映像音声部分の高解像度映像音声データD1を読み出させ、当該高解像度映像音声データD1に対して必要に応じて映像特殊効果処理や音声ミキシング処理を施させる。 In practice, when the preview button 110 PV is clicked, the CPU 20 controls the video special effect and audio mixing processing unit 25 (FIG. 2), so that the data I / O cache units 15 1 to 15 n are at this time. The high-resolution video / audio data D1 of the corresponding video / audio part stored and held is read, and the high-resolution video / audio data D1 is subjected to video special effect processing and audio mixing processing as necessary.

この結果、かかる映像特殊効果処理や音声ミキシング処理によって得られた高解像度の編集映像音声データD3が生成され、これがデータ処理部24(図2)に与えられることにより、当該編集映像音声データD3に基づく編集映像がタイムラインエディタウインド70のマスタービューワ部73内に再生表示されると共に、編集音声がスピーカ33(図2)から出力される。   As a result, high-resolution edited video / audio data D3 obtained by the video special effect processing and audio mixing processing is generated, and is provided to the data processing unit 24 (FIG. 2), whereby the edited video / audio data D3 is generated. The edited video is reproduced and displayed in the master viewer section 73 of the timeline editor window 70, and the edited audio is output from the speaker 33 (FIG. 2).

これによりオペレータは、このタイムラインエディタウインド70のマスタービューワ部73内に表示された編集映像に基づいて随時編集内容を目視確認(プレビュー)しながら編集リストを作成し、又は作成し終えた編集リストの内容を確認することができる。   As a result, the operator creates an edit list while visually confirming (previewing) the edit contents as needed based on the edited video displayed in the master viewer section 73 of the timeline editor window 70, or the edit list that has been created. The contents of can be confirmed.

そしてこのようにして編集リストを作成後、クリップエクスプローラウインド60(図5)のクリップ表示部63内に表示された当該編集リストに対応したクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させることにより、この編集リストに基づく編集結果を素材サーバ3(図1)に登録することができる。 After creating the edit list in this way, the clip site 64 NS (FIG. 5) corresponding to the edit list displayed in the clip display section 63 of the clip explorer window 60 (FIG. 5) is dragged and dropped to the server site. An edit result based on this edit list can be registered in the material server 3 (FIG. 1) by being moved into the clip display section 63 of the explorer window 61 (FIG. 5).

このときオペレータは、この編集リストに基づく編集結果を素材サーバ3に登録する際の登録モードとして、図11(A)に示すように、当該編集リストに基づく編集映像音声の全範囲の編集映像音声データD3を素材サーバ3に登録する全体登録モードと、図11(B)に示すように、編集映像音声のうちの映像特殊効果処理又は音声ミキシング処理が施された各映像音声部分の編集映像音声データD3のみを一括登録する一括部分登録モードのいずれか一方を選択して設定することができる。なお、以下の説明においては、映像特殊効果処理及び音声ミキシング処理をまとめて特殊効果処理と呼び、映像特殊効果処理又は音声ミキシング処理が施された映像音声部分を特殊効果部分と呼ぶことにする。   At this time, as shown in FIG. 11A, the operator selects the editing video / audio of the entire range of the editing video / audio based on the editing list as a registration mode when registering the editing result based on the editing list in the material server 3. The entire registration mode for registering the data D3 in the material server 3, and the edited video / audio of each video / audio portion subjected to the video special effect processing or the audio mixing processing of the edited video / audio as shown in FIG. Either one of the batch partial registration modes in which only the data D3 is batch registered can be selected and set. In the following description, video special effect processing and audio mixing processing are collectively referred to as special effect processing, and a video / audio portion subjected to video special effect processing or audio mixing processing is referred to as a special effect portion.

そして、これらの登録モードを選択するためのダイアログ(以下、これを登録モードダイアログと呼ぶ)が、かかるクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させたときに表示される。 Then, a dialog for selecting these registration modes (hereinafter referred to as a registration mode dialog) is displayed on the server site explorer window 61 (FIG. 5) by dragging and dropping the clip icon 64 NS (FIG. 5). Displayed when moved into the display unit 63.

このとき登録モードとして全体登録モードを選択すると、そのとき作成された編集リストにより規定された編集映像音声が、例えば図12に示すように、映像音声部分A、B及びCから構成されていたとすると、これら全ての編集映像音声データD3が生成され、これが素材サーバ3に与えられて上述のクリップアイコン64NS(図5)に対応するファイル(以下、これをクリップファイルと呼ぶ)内に格納される。またこれと併せてこの映像音声部分A、B及びCの再生順序を規定した仮想ファイル(以下、これをVFL(Virtual File List)と呼ぶ)が素材サーバ3に与えられて登録される。 If the entire registration mode is selected as the registration mode at this time, it is assumed that the edited video / audio defined by the edit list created at that time is composed of video / audio portions A, B, and C as shown in FIG. All of the edited video / audio data D3 is generated, given to the material server 3, and stored in the file corresponding to the above-mentioned clip icon 64 NS (FIG. 5) (hereinafter referred to as a clip file). . At the same time, a virtual file (hereinafter referred to as VFL (Virtual File List)) defining the playback order of the video / audio portions A, B and C is given to the material server 3 and registered.

これに対して登録モードとして一括部分登録を選択すると、そのとき作成された編集リストに基づく編集映像音声が、例えば、図12に示すように、映像音声部分A、B及びCから構成され、さらに映像音声部分Bと映像音声部分Cとの繋ぎ目に特殊効果処理が施されていることにより、映像音声部分Bが、特殊効果処理の施されていない非特殊効果部分B1と、映像音声部分Cとの繋ぎ目となる特殊効果部分B2とで構成されていると共に、映像音声部分Cが、映像音声部分Bとの繋ぎ目となる特殊効果部分C1と、非特殊効果部分C2とで構成されている場合、これらのうちの特殊効果部分B2からC1までのみの編集映像音声データD3が生成され、これが素材サーバ3に与えられて上述のクリップアイコン64NSに対応するクリップファイル内に格納される。またこれと併せてこの映像音声部分A、B及びCの再生順序を規定したVFLが素材サーバ3に与えられて登録される。 On the other hand, when the batch partial registration is selected as the registration mode, the edited video / audio based on the edit list created at that time is composed of, for example, video / audio portions A, B, and C as shown in FIG. Since the special effect process is performed at the joint between the video / audio part B and the video / audio part C, the video / audio part B is changed from the non-special effect part B1 not subjected to the special effect process to the video / audio part C. And a special effect portion B2 that becomes a joint with the video and audio portion C, and a special effect portion C1 that becomes a joint with the video and audio portion B and a non-special effect portion C2. If it is determined that the edited video / audio data D3 of only the special effect portions B2 to C1 is generated, the edited video / audio data D3 is given to the material server 3 and clicked corresponding to the clip icon 64 NS described above. Stored in the profile file. At the same time, a VFL that defines the playback order of the video and audio portions A, B, and C is given to the material server 3 and registered.

なお、このように編集結果が部分的に登録された場合、その編集結果の再生時には、図13に示すように、元々素材サーバ3に収録されていたクリップのうちの編集映像音声として採用された部分(映像音声部分A、映像音声部分Bの非特殊効果部分B1及び映像音声部分Cの非特殊効果部分C2)と、クリップファイルとして素材サーバ3に登録された部分(特殊効果部分B2及びC1)とが、VFLに従って順番に素材サーバ3から読み出されることとなる。   When the editing result is partially registered in this way, when the editing result is reproduced, as shown in FIG. 13, it is adopted as the edited video / audio of the clip originally recorded in the material server 3. Part (video / audio part A, video / audio part B non-special effect part B1 and video / audio part C non-special effect part C2) and part registered in the material server 3 as a clip file (special effect parts B2 and C1) Are sequentially read from the material server 3 according to the VFL.

一方、この編集端末装置9〜9には、作成された編集リストに基づく編集結果を部分的に素材サーバ3に登録する部分登録モードとして、上述のように特殊効果部分の編集映像音声データD3のみを編集リストの作成後に一括して素材サーバ3に登録する一括部分登録モードの他に、編集リストの作成段階において特殊効果部分の編集映像音声データD3のみを素材サーバ3に逐次登録する逐次部分登録モードが設けられている。 On the other hand, in the editing terminal devices 9 1 to 9 n , as described above, the edited video / audio data of the special effect portion is used as the partial registration mode in which the editing result based on the created editing list is partially registered in the material server 3. In addition to the batch partial registration mode in which only D3 is registered in the material server 3 after the edit list is created, only the edited video / audio data D3 of the special effect portion is sequentially registered in the material server 3 in the edit list creation stage. A partial registration mode is provided.

そして編集端末装置9〜9では、初期設定としてこの逐次部分登録モードが設定されている場合、編集リストの作成途中において、タイムラインエディタウインド70(図6)におけるコマンドボタン群110のプレビューボタン110PVがクリックされることにより、特殊効果処理を施すべき旨の設定が行われた特殊効果部分についての通常再生表示を行うごとに、このときこの特殊効果部分のみの映像音声データD3を素材サーバ3に逐次登録するようになされている。そしてこの部分的な編集映像音声データD3が、その編集リストに対応させて素材サーバ3内に生成されたクリップファイル内に格納される。 In the editing terminal devices 9 1 to 9 n , when the sequential partial registration mode is set as an initial setting, the preview button of the command button group 110 in the timeline editor window 70 (FIG. 6) is in the process of creating the edit list. Each time 110 PV is clicked, normal reproduction display is performed for the special effect portion in which special effect processing is set to be performed, the video / audio data D3 of only the special effect portion at this time is stored in the material server. 3 is sequentially registered. This partial edited video / audio data D3 is stored in a clip file generated in the material server 3 in correspondence with the edit list.

またこのような部分的な編集映像音声データD3の素材サーバ3への登録が行われた場合、タイムラインエディタウインド70のタイムライン部72における対応する特殊効果処理を施すべき旨の設定を行った特殊効果部分の上側に、図14に示すようなライン120が表示される。   In addition, when such partial edited video / audio data D3 is registered in the material server 3, a setting is made to perform the corresponding special effect processing in the timeline unit 72 of the timeline editor window 70. A line 120 as shown in FIG. 14 is displayed above the special effect portion.

さらにこの後、その編集リストの作成が終了して、当該編集リストに対応したクリップアイコン64NS(図5)をドラッグアンドドロップによりサーバサイトエクスプローラウインド61(図5)のクリップ表示部63内に移動させると、この編集リストに基づく編集映像音声における特殊効果部分のうち、未だ編集映像音声データD3として素材サーバ3に登録されていない特殊効果部分について、これら特殊効果部分の編集映像音声データD3が生成され、これが素材サーバ3に一括して転送される。そしてこの部分的な編集映像音声データD3が、上述のようにその編集リストに対応させて素材サーバ3内に生成されたクリップファイル内に格納される。 Thereafter, the creation of the edit list is completed, and the clip icon 64 NS (FIG. 5) corresponding to the edit list is moved into the clip display section 63 of the server site explorer window 61 (FIG. 5) by drag and drop. Then, among the special effect parts in the edited video and audio based on this edit list, the edited video and audio data D3 of these special effect parts is generated for the special effect parts that are not yet registered in the material server 3 as the edited video and audio data D3. This is transferred to the material server 3 at a time. The partial edited video / audio data D3 is stored in the clip file generated in the material server 3 in association with the edit list as described above.

またこのときこれと併せてこの編集リストに基づく編集映像音声の再生順序を規定したVFLが素材サーバ3に与えられて登録される。   At the same time, a VFL that defines the playback order of the edited video and audio based on this edit list is given to the material server 3 and registered.

このようにしてこの編集端末装置9〜9においては、作成された編集リストに基づく全範囲の編集映像音声データD3を素材サーバ3に登録する場合に比して格段的に高速に編集結果を素材サーバ3に登録し得るようになされている。 In this way, in the editing terminal devices 9 1 to 9 n , the editing result is remarkably faster than when the editing video / audio data D3 of the entire range based on the created editing list is registered in the material server 3. Can be registered in the material server 3.

ところで、このオンエアーシステム1の素材サーバ3においては、ルータ2(図1)を介して供給される高解像度映像音声データD1の映像及び音声を同期させるために、5フレームシーケンスで当該高解像度映像音声データD1の映像及び音声を記録するようになされている。   By the way, in the material server 3 of the on-air system 1, in order to synchronize the video and audio of the high-resolution video / audio data D1 supplied via the router 2 (FIG. 1), the high-resolution video in a 5-frame sequence. The video and audio of the audio data D1 are recorded.

すなわち、図15に示すように、高解像度映像音声データD1の映像及び音声を5フレーム単位でまとめ、5フレーム分の音声のサンプル数(8008)を各フレームに対して1602、1601、1602、1601、1602と割り付けるようになされている。   That is, as shown in FIG. 15, the video and audio of the high-resolution video / audio data D1 are grouped in units of 5 frames, and the number of audio samples (8008) for 5 frames is 1602, 1601, 1602, 1601 for each frame. 1602 are assigned.

またこの割り付けられたサンプル数の順番を規定するために、フレーム毎のサンプル数に対してそれぞれ番号(以下、これをシーケンス番号と呼ぶ)が割り当てられており、素材サーバ3においては、シーケンス番号「0」(1602)、シーケンス番号「1」(1601)、シーケンス番号「2」(1602)、シーケンス番号「3」(1601)、シーケンス番号「4」(1602)と割り当てられている。   In order to define the order of the assigned number of samples, a number (hereinafter referred to as a sequence number) is assigned to the number of samples for each frame, and the sequence number “ 0 ”(1602), sequence number“ 1 ”(1601), sequence number“ 2 ”(1602), sequence number“ 3 ”(1601), and sequence number“ 4 ”(1602).

そして、素材サーバ3は、このシーケンス番号の順番(0〜4、0〜4、…)でフレーム毎に音声のサンプル数を循環させながら、5フレーム単位で映像及び音声を同期させるようになされており、また、高解像度映像音声データD1にこのフレーム毎のシーケンス番号を付加して記録するようになされている。   The material server 3 synchronizes the video and audio in units of 5 frames while circulating the number of audio samples for each frame in the sequence number order (0 to 4, 0 to 4,...). In addition, the sequence number for each frame is added to the high-resolution video / audio data D1 for recording.

しかしながら、このように5フレームシーケンスで記録された高解像度映像音声データD1を編集端末装置9〜9が読み出し、これに対して例えば図12に示したように編集した後、特殊効果部分B2及びC1のみの映像音声データD3をクリップファイルとして素材サーバ3に登録した場合、編集端末装置9〜9においては、元々素材サーバ3に記録されている高解像度映像音声データD1における5フレームシーケンスの情報(以下、これを5フレームシーケンス情報と呼ぶ)に基づいて映像音声データD3を生成していないため、図13に示すようにVFLに従って編集結果を再生する際に、元々素材サーバ3に収録されていた非特殊効果部分B1と編集端末装置9〜9で生成された特殊効果部分B2との繋ぎ目で音声の不連続が発生してしまうという問題がある。 However, after the editing terminal devices 9 1 to 9 n read the high-resolution video / audio data D1 recorded in the 5-frame sequence in this way and edit it as shown in FIG. 12, for example, the special effect portion B2 When the video / audio data D3 of only C1 is registered in the material server 3 as a clip file, the editing terminal devices 9 1 to 9 n have a five-frame sequence in the high-resolution video / audio data D1 originally recorded in the material server 3. Since the video / audio data D3 is not generated based on the above information (hereinafter referred to as 5-frame sequence information), when the editing result is reproduced according to the VFL as shown in FIG. in joint of the special effect part B2 generated by the non-special effects portion B1 that was edited terminal device 9 1 to 9 n There is a problem that the voice of the discontinuity occurs.

そこで、このオンエアーシステム1では、編集端末装置9〜9において、一括部分登録モード又は逐次部分登録モードで作成された編集リストに基づく編集結果を、素材サーバ3に記録された高解像度映像音声データD1の5フレームシーケンス情報に従って部分的に素材サーバ3に登録するようになされている。 Therefore, in the on-air system 1, the editing terminal devices 9 1 to 9 n use the high resolution video recorded in the material server 3 as the editing result based on the editing list created in the collective partial registration mode or the sequential partial registration mode. The information is partially registered in the material server 3 according to the 5-frame sequence information of the audio data D1.

実際上、編集端末装置9〜9は、上述のようにタイムラインエディタウインド70(図6)上で、編集リストの作成に必要なクリップの映像音声部分をタイムライン部72へ貼り付ける操作が行われたとき、当該操作に応じたコマンドをシステム制御部5(図1)に通知する。 In practice, the editing terminal devices 9 1 to 9 n perform an operation of pasting the video / audio portion of the clip necessary for creating the edit list to the timeline unit 72 on the timeline editor window 70 (FIG. 6) as described above. Is performed, a command corresponding to the operation is notified to the system control unit 5 (FIG. 1).

システム制御部5は、このコマンドに応じてゲートウェイ13を制御することにより、当該ゲートウェイ13に、必要なクリップにおける映像音声部分の高解像度映像音声データD1を素材サーバ3から読み出させる。   The system control unit 5 controls the gateway 13 according to this command to cause the gateway 13 to read out the high-resolution video / audio data D1 of the video / audio part in the necessary clip from the material server 3.

このときゲートウェイ13は、高解像度映像音声データD1に付加されたシーケンス番号を、そのフレーム毎に確認するようになされており、図16に示すように、高解像度映像音声データD1の先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号を検出するようになされている。   At this time, the gateway 13 confirms the sequence number added to the high-resolution video / audio data D1 for each frame, and as shown in FIG. 16, the sequence of the first frame of the high-resolution video / audio data D1. The number, the frame number where the sequence number becomes discontinuous, and the sequence number at this time are detected.

この高解像度映像音声データD1は、クリップから切り取られた映像音声部分であるので、その先頭のシーケンス番号が「0」で始まるとは限らない、また基本的にはシーケンス番号が連続となるが、編集点等でこのシーケンス番号が不連続となる。従って先頭フレームのシーケンス番号がいくつであるのか、またシーケンス番号が不連続となるフレーム番号がいくつであるのかが分からないと、特定のフレーム番号(例えば非特殊効果部分B1と特殊効果部分B2との繋ぎ目のフレーム番号)におけるサンプル数が分からなくなってしまうので、先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号とを検出しておく必要がある。   Since the high-resolution video / audio data D1 is a video / audio portion cut out from the clip, the top sequence number does not always start with “0”, and the sequence numbers are basically continuous. This sequence number becomes discontinuous at an edit point or the like. Therefore, if it is not known how many sequence numbers of the first frame are and how many frame numbers the sequence numbers are discontinuous, a specific frame number (for example, a non-special effect part B1 and a special effect part B2) Therefore, it is necessary to detect the sequence number of the first frame, the frame number at which the sequence number becomes discontinuous, and the sequence number at this time.

そしてゲートウェイ13(図1)は、この高解像度映像音声データD1を所定フォーマットにフォーマット変換した後、これをFCスイッチャ14を介して対応するデータI/Oキャッシュ部15〜15に転送すると共に、検出した先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号とを5フレームシーケンス情報として、高解像度映像音声データD1に付加させ、5フレームシーケンス情報を付加した高解像度映像音声データD1を対応するデータI/Oキャッシュ部15〜15に記憶保持させる。 Then, the gateway 13 (FIG. 1) converts the format of the high-resolution video / audio data D1 into a predetermined format and then transfers it to the corresponding data I / O cache units 15 1 to 15 n via the FC switcher 14. The sequence number of the detected first frame, the frame number at which the sequence number becomes discontinuous, and the sequence number at this time are added to the high-resolution video / audio data D1 as 5-frame sequence information, and the 5-frame sequence information is added. The high-resolution video / audio data D1 is stored and held in the corresponding data I / O cache units 15 1 to 15 n .

このように、5フレームシーケンス情報を高解像度映像音声データD1に付加しておくことにより、高解像度映像音声データD1と、これに対応する5フレームシーケンス情報とを別々に記憶保持しておく必要がないので、これらを容易に管理することができる。   As described above, by adding the 5-frame sequence information to the high-resolution video / audio data D1, it is necessary to store and hold the high-resolution video / audio data D1 and the corresponding 5-frame sequence information separately. Because there is no, these can be managed easily.

そして、編集端末装置9〜9は、オペレータによってプレビューボタン110PVがクリックされたときに、データI/Oキャッシュ部15〜15に記憶保持された対応する映像音声部分の高解像度映像音声データD1を読み出させ、例えば図12に示すように当該高解像度映像音声データD1に対して必要に応じて特殊効果処理を施す。 Then, the editing terminal devices 9 1 to 9 n receive the high-resolution video of the corresponding video / audio portion stored and held in the data I / O cache units 15 1 to 15 n when the preview button 110 PV is clicked by the operator. The audio data D1 is read, and special effect processing is performed on the high-resolution video / audio data D1 as necessary, for example, as shown in FIG.

ここで、編集端末装置9〜9が一括部分登録モード又は逐次部分登録モードである場合、特殊効果部分B2及びC1のみの編集映像音声データD3を生成することになる。 Here, when the editing terminal devices 9 1 to 9 n are in the collective partial registration mode or the sequential partial registration mode, the edited video / audio data D3 of only the special effect portions B2 and C1 is generated.

まず編集端末装置9〜9は、映像音声部分Bにおける非特殊効果部分B1と特殊効果部分B2との繋ぎ目のフレーム番号を検出する。なお、この場合のフレーム番号は、映像音声部分Bの先頭フレーム番号を「0」として検出する。 First, the editing terminal devices 9 1 to 9 n detect the frame number of the joint between the non-special effect part B1 and the special effect part B2 in the video / audio part B. Note that the frame number in this case is detected by setting the head frame number of the video / audio part B as “0”.

次に、編集端末装置9〜9は、この映像音声部分Bの高解像度映像音声データD1に付加された5フレームシーケンス情報(図16)を参照する。これにより、編集端末装置9〜9は、映像音声部分Bの先頭フレームのシーケンス番号が「4」であり、シーケンス番号が不連続であるフレーム番号が「200」、「260」、…であると認識することができ、ここで、検出した非特殊効果部分B1と特殊効果部分B2との繋ぎ目のフレーム番号が「201」であるとすると、図17に示すように5フレームシーケンスに従って特殊効果部分B2の開始位置のサンプル数を算出することにより、特殊効果部分B2の開始位置を示すサンプル数が「321921」であると認識することができる。 Next, the editing terminal devices 9 1 to 9 n refer to the 5-frame sequence information (FIG. 16) added to the high-resolution video / audio data D1 of the video / audio portion B. As a result, the editing terminal devices 9 1 to 9 n have the sequence number of the first frame of the video / audio part B being “4”, the frame numbers having discontinuous sequence numbers are “200”, “260”,. If the frame number of the detected joint between the non-special effect part B1 and the special effect part B2 is “201”, the special number is obtained according to the 5-frame sequence as shown in FIG. By calculating the number of samples at the start position of the effect part B2, it is possible to recognize that the number of samples indicating the start position of the special effect part B2 is “321922”.

従って編集端末装置9〜9は、映像音声部分Bにおける321921サンプル目からの音声を特殊効果部分B2の音声とし、また同様にして映像音声部分Cにおける特殊効果部分C1の終了位置のサンプル数を算出することにより、得られたサンプル数までの音声を特殊効果部分C1の音声として、特殊効果部分B2及びC1の映像音声データD3を生成する。そして、この映像音声データD3が素材サーバ3に与えられてクリップファイルとして記憶保持される。 Accordingly, the editing terminal devices 9 1 to 9 n use the sound from the 321921 sample in the video / audio part B as the sound of the special effect part B2, and similarly, the number of samples at the end position of the special effect part C1 in the video / audio part C. As a result, the audio up to the number of samples obtained is used as the audio of the special effect portion C1, and the video / audio data D3 of the special effect portions B2 and C1 is generated. This video / audio data D3 is given to the material server 3 and stored and held as a clip file.

かくして、素材サーバ3において、図13に示すようにVFLに従って編集結果を再生する際に、元々素材サーバ3に記憶保持されていた非特殊効果部分B1と編集端末装置9〜9によって部分登録された特殊効果部分B2との繋ぎ目で音声の不連続が発生してしまうことを防止することができる。 Thus, when the material server 3 reproduces the edited result according to the VFL as shown in FIG. 13, it is partially registered by the non-special effect portion B1 and the editing terminal devices 9 1 to 9 n originally stored and held in the material server 3. It is possible to prevent the discontinuity of the sound from occurring at the joint with the special effect portion B2.

(4)部分登録処理手順
ここで上述のような編集リストに基づく編集結果の素材サーバ3への部分登録は、図17に示す部分登録処理手順RT1に従った編集端末装置9〜9のCPU20(図2)の制御のもとに行われる。
(4) Partial Registration Processing Procedure Here, partial registration of the editing result based on the editing list as described above to the material server 3 is performed by the editing terminal devices 9 1 to 9 n according to the partial registration processing procedure RT1 shown in FIG. This is performed under the control of the CPU 20 (FIG. 2).

実際上、CPU20は、登録モードダイアログで部分登録モードが選択されたとき又は初期設定として逐次部分登録モードが設定され、編集リストの作成途中において、タイムラインエディタウインド70(図6)におけるコマンドボタン群110のプレビューボタン110PVがクリックされたとき、図17に示す部分登録処理手順RT1をステップSP0において開始し、続くステップSP1において、映像音声特殊効果及び音声ミキシング処理部25を制御することにより、各映像音声部分における非特殊効果部分と特殊効果部分との繋ぎ目のフレーム番号を検出する。 In practice, when the partial registration mode is selected in the registration mode dialog or when the partial registration mode is sequentially set as the initial setting, the CPU 20 sets a command button group in the timeline editor window 70 (FIG. 6) during the creation of the edit list. When the preview button 110 PV of 110 is clicked, the partial registration processing procedure RT1 shown in FIG. 17 is started in step SP0, and in the following step SP1, the video / audio special effect and audio mixing processing unit 25 is controlled to The frame number of the joint between the non-special effect part and the special effect part in the video / audio part is detected.

続いてCPU20は、ステップSP2に進んで、各映像音声部分の高解像度映像音声データD1に付加されている5フレームシーケンス情報を参照し、当該5フレームシーケンス情報及びステップSP1で検出したフレーム番号に基づいて、非特殊効果部分と特殊効果部分との繋ぎ目における音声のサンプル数を算出する。   Subsequently, the CPU 20 proceeds to step SP2, refers to the 5-frame sequence information added to the high-resolution video / audio data D1 of each video / audio portion, and based on the 5-frame sequence information and the frame number detected in step SP1. Thus, the number of audio samples at the joint between the non-special effect portion and the special effect portion is calculated.

そしてCPU20は、ステップSP3に進んで、映像音声特殊効果及び音声ミキシング処理部25を制御することにより、ステップSP2で算出したサンプル数から始まる音声を特殊効果部分の音声として編集映像音声データD3を生成し、これを編集結果として素材サーバ3に部分登録し、この後ステップSP4に進んでこの部分登録処理手順を終了する。   Then, the CPU 20 proceeds to step SP3 and controls the video / audio special effect and audio mixing processing unit 25 to generate edited video / audio data D3 using the audio starting from the number of samples calculated in step SP2 as the audio of the special effect portion. Then, this is partially registered in the material server 3 as an editing result, and thereafter, the process proceeds to step SP4 to end this partial registration processing procedure.

(5)本実施の形態の動作及び効果
以上の構成において、このオンエアーシステム1では、取材等により得られた高解像度映像音声データD1を5フレームシーケンスで素材サーバ3に記録し、編集リストの作成に必要な映像音声部分の高解像度映像音声データD1を素材サーバ3からデータI/Oキャッシュ部15〜15に転送する際に、当該高解像度映像音声データD1における先頭フレームのシーケンス番号と、シーケンス番号が不連続となるフレーム番号及びこのときのシーケンス番号とをゲートウェイ13で検出し、これらを5フレームシーケンス情報として高解像度映像音声データD1に付加する。
(5) Operation and effect of the present embodiment In the above configuration, the on-air system 1 records the high-resolution video / audio data D1 obtained by the interview or the like in the material server 3 in a 5-frame sequence, When the high-resolution video / audio data D1 of the video / audio part necessary for creation is transferred from the material server 3 to the data I / O cache units 15 1 to 15 n , the sequence number of the first frame in the high-resolution video / audio data D1 and The frame number where the sequence number becomes discontinuous and the sequence number at this time are detected by the gateway 13, and these are added to the high resolution video / audio data D1 as 5 frame sequence information.

そして編集端末装置9〜9において、映像音声部分の高解像度映像音声データD1が対応するデータI/Oキャッシュ部15〜15から読み出され、この高解像度映像音声データD1に対して特殊効果処理が施されると、特殊効果処理が施された特殊効果部分のみの編集映像音声データD3を5フレームシーケンス情報をもとに生成し、これを素材サーバ3にクリップファイルとして登録する。 Then the editing terminal device 9 1 to 9 n, the high-resolution video and audio data D1 of the video and audio portion is read from the corresponding data I / O cache unit 15 1 to 15 n, with respect to the high-resolution video and audio data D1 When the special effect processing is performed, the edited video / audio data D3 of only the special effect portion subjected to the special effect processing is generated based on the 5-frame sequence information, and is registered in the material server 3 as a clip file.

素材サーバ3は、元々素材サーバ3に記録されている映像音声部分のうちの非特殊効果部分と、クリップファイルとして素材サーバ3に登録された特殊効果部分とを繋ぎ合わせて再生する。   The material server 3 connects and reproduces the non-special effect portion of the video / audio portion originally recorded in the material server 3 and the special effect portion registered in the material server 3 as a clip file.

以上の構成によれば、このオンエアーシステム1では、5フレームシーケンスで素材サーバ3に記録された高解像度映像音声データD1をデータI/Oキャッシュ部15〜15に転送する際に、当該高解像度映像音声データD1における5フレームシーケンス情報を検出し、編集端末装置9〜9が当該高解像度映像音声データD1をデータI/Oキャッシュ部15〜15から読み出して特殊効果処理を施したときに、特殊効果処理が施された特殊効果部分のみの編集映像音声データD3を、検出した5フレームシーケンス情報に基づいて生成し、これを素材サーバ3に登録して元々素材サーバ3に記録されている非特殊効果部分と繋ぎ合わせて再生するようにしたことにより、素材サーバ3に元々記録されている非特殊効果部分と編集端末装置9〜9によって素材サーバ3に登録された特殊効果部分との繋ぎ目で音声が不連続となることを防止することができ、かくして音声の不連続を確実に回避することができる。 According to the above configuration, in the on-air system 1, when transferring the high-resolution video / audio data D1 recorded in the material server 3 in the 5-frame sequence to the data I / O cache units 15 1 to 15 n , The five-frame sequence information in the high-resolution video / audio data D1 is detected, and the editing terminal devices 9 1 to 9 n read the high-resolution video / audio data D1 from the data I / O cache units 15 1 to 15 n and perform special effect processing. When it is applied, the edited video / audio data D3 of only the special effect portion subjected to the special effect processing is generated based on the detected 5-frame sequence information, and this is registered in the material server 3 and originally stored in the material server 3. By connecting to the recorded non-special effect part and playing it back, the non-special effect recorded on the material server 3 is originally recorded. Part and the editing terminal device 9 1 to 9 n by can voice joint of the registered special effect portion in the material server 3 is prevented from becoming discontinuous, thus reliably avoid discontinuity of speech be able to.

(6)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成されたオンエアーシステム1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を有する編集システムに広く適用することができる。
(6) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the on-air system 1 configured as shown in FIG. 1 has been described, but the present invention is not limited thereto. In addition, the present invention can be widely applied to editing systems having various other configurations.

また上述の実施の形態においては、5フレーム単位で映像及び音声を同期させる5フレームシーケンスで高解像度映像音声データD1を記録するようにした場合について述べたが、本発明はこれに限らず、オンエアーシステム1が扱う映像のフィールド周波数及び音声のサンプリング周波数に応じてフレームシーケンスのフレーム単位を設定し、当該フレーム単位のフレームシーケンスで高解像度映像音声データD1を記録するようにしてもよい。   In the above-described embodiment, the case where the high-resolution video / audio data D1 is recorded in a 5-frame sequence in which video and audio are synchronized in units of 5 frames has been described. However, the present invention is not limited to this. The frame unit of the frame sequence may be set in accordance with the video field frequency and the audio sampling frequency handled by the air system 1, and the high-resolution video / audio data D1 may be recorded in the frame sequence of the frame unit.

さらに上述の実施の形態においては、同期情報検出手段としてのゲートウェイ13が、高解像度映像音声データD1の同期情報としての5フレームシーケンス情報を当該高解像度映像音声データD1の転送時に検出するようにした場合について述べたが、本発明はこれに限らず、例えば、素材サーバ3や、編集端末装置9〜9が当該高解像度映像音声データD1の5フレームシーケンス情報を検出するようにしてもよい。 Further, in the above-described embodiment, the gateway 13 as the synchronization information detecting means detects the 5-frame sequence information as the synchronization information of the high resolution video / audio data D1 when the high resolution video / audio data D1 is transferred. Although the case has been described, the present invention is not limited to this. For example, the material server 3 or the editing terminal devices 9 1 to 9 n may detect the 5-frame sequence information of the high-resolution video / audio data D1. .

さらに上述の実施の形態においては、クリップから切り取られた映像音声部分の先頭フレームをフレーム番号「0」として、非特殊効果部分と特殊効果部分との繋ぎ目のフレーム番号を算出するようにした場合について述べたが、本発明はこれに限らず、当該映像音声部分を含んだクリップの先頭フレームをフレーム番号「0」として、当該映像音声部分における非特殊効果部分と特殊効果部分との繋ぎ目のフレーム番号を算出するようにしてもよい。   Furthermore, in the above-described embodiment, when the frame number “0” is set as the first frame of the video / audio portion cut out from the clip, the frame number of the joint between the non-special effect portion and the special effect portion is calculated. However, the present invention is not limited to this, and the first frame of the clip including the video / audio portion is set to frame number “0”, and the joint between the non-special effect portion and the special effect portion in the video / audio portion is described. A frame number may be calculated.

さらに上述の実施の形態においては、取材等により得られた各クリップの映像音声データを記憶保持する記憶保持手段としての素材サーバ3を複数のRAIDから構成するようにした場合について述べたが、本発明はこれに限らず、素材サーバ3の構成としてはこの他種々の構成を広く適用することができる。   Furthermore, in the above-described embodiment, the case where the material server 3 as the storage holding means for storing and holding the video and audio data of each clip obtained by the interview or the like is configured from a plurality of RAIDs has been described. The invention is not limited to this, and various other configurations can be widely applied as the configuration of the material server 3.

さらに上述の実施の形態においては、素材サーバ3から読み出された高解像度映像音声データD1を記憶保持するデータI/Oキャッシュ部15〜15を、半導体メモリにより構成するようにした場合について述べたが、本発明はこれに限らず、要は、素材サーバ3よりも高いアクセス性を有する記憶媒体を用いて構成されたものであるのならば、半導体メモリ以外の記憶媒体を用いたものであっても良い。 Further, in the above-described embodiment, the data I / O cache units 15 1 to 15 n that store and hold the high-resolution video / audio data D1 read from the material server 3 are configured by a semiconductor memory. As described above, the present invention is not limited to this. In short, if it is configured using a storage medium having higher accessibility than the material server 3, it uses a storage medium other than the semiconductor memory. It may be.

さらに上述の実施の形態においては、選択された編集リストに従って高解像度映像音声データD1をデータI/Oキャッシュ部15〜15から読み出して加工編集するようにして、当該編集リストに応じた編集映像を生成する編集手段としての編集端末装置9〜9を図2のように構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を広く適用することができる。 Further, in the above-described embodiment, the high-resolution video / audio data D1 is read from the data I / O cache units 15 1 to 15 n in accordance with the selected edit list, and is edited and edited in accordance with the edit list. Although the case where the editing terminal devices 9 1 to 9 n as the editing means for generating the video are configured as shown in FIG. 2 has been described, the present invention is not limited to this, and various other configurations are widely applied. be able to.

さらに上述の実施の形態においては、素材サーバ3及びデータI/Oキャッシュ部15〜15を制御する制御手段として、当該オンエアーシステム1全体の制御を司るシステム制御部5を適用するようにした場合について述べたが、本発明はこれに限らず、例えば、かかる本発明に関するシステム制御部5の機能を編集端末装置9〜9にもたせるようにしても良い。 Furthermore, in the above-described embodiment, the system control unit 5 that controls the entire on-air system 1 is applied as a control unit that controls the material server 3 and the data I / O cache units 15 1 to 15 n. However, the present invention is not limited to this. For example, the functions of the system control unit 5 related to the present invention may be provided to the editing terminal devices 9 1 to 9 n .

本発明は、テレビジョン放送局で使用されるオンエアーシステムに適用できる。   The present invention can be applied to an on-air system used in a television broadcasting station.

本実施の形態によるオンエアーシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the on-air system by this Embodiment. 編集端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of an edit terminal device. プロジェクトマネージャウインドを示す略線図である。It is a basic diagram which shows a project manager window. ニュープロジェクトダイアログを示す略線図である。It is a basic diagram which shows a new project dialog. クリップエクスプローラウインドを示す略線図である。It is a basic diagram which shows a clip explorer window. タイムラインエディタウインドを示す略線図である。It is a basic diagram which shows a timeline editor window. タイムラインエディタウインドを示す略線図である。It is a basic diagram which shows a timeline editor window. タイムラインエディタウインドを示す略線図である。It is a basic diagram which shows a timeline editor window. FXエクスプローラウインドを示す略線図である。It is a basic diagram which shows FX explorer window. オーディオミキサーウインドを示す略線図である。It is a basic diagram which shows an audio mixer window. 全体登録と部分登録を示す略線図である。It is a basic diagram which shows whole registration and partial registration. クリップの編集例を示す略線図である。It is a basic diagram which shows the example of edit of a clip. 部分登録された編集結果の再生を示す略線図である。It is a basic diagram which shows reproduction | regeneration of the edit result partially registered. 逐次部分登録された映像音声部分の表示を示す略線図である。It is a basic diagram which shows the display of the audio | video part by which the partial registration was carried out sequentially. 5フレームシーケンス方式におけるサンプル数の循環例を示す略線図である。It is a basic diagram which shows the example of a circulation of the number of samples in a 5-frame sequence system. 5フレームシーケンス情報の例を示す略線図である。It is a basic diagram which shows the example of 5 frame sequence information. 繋ぎ目のサンプル数の算出を示す略線図である。It is an approximate line figure showing calculation of the number of samples of a joint. 部分登録処理手順を示すフローチャートである。It is a flowchart which shows a partial registration process procedure.

符号の説明Explanation of symbols

1……オンエアーシステム、3……素材サーバ、9〜9……編集端末装置、13……ゲートウェイ、15〜15……データI/Oキャッシュ部、CF……クリップファイル、D1……高解像度映像音声データ、D3……編集映像音声データ。 1 ...... on-air system, 3 ...... material server, 9 1 to 9 n ...... editing terminal device 13 ...... gateway, 15 1 to 15 n ...... data I / O cache unit, CF ...... clip file, D1 ... high-resolution video / audio data, D3 ... edited video / audio data.

Claims (4)

映像音声データの映像及び音声を所定の複数フレーム単位で同期させて記憶保持する記憶保持手段と、
編集内容を規定した編集リストに従って上記記憶保持手段から必要な上記映像音声データを読み出し加工編集するようにして、当該編集リストに応じた編集映像音声を生成し、当該編集映像音声を上記記憶保持手段に登録する編集手段と、
上記編集手段が上記必要な映像音声データを読み出す際に、当該映像音声データの同期情報を検出する同期情報検出手段と
を具え、
上記編集手段は、
上記同期情報検出手段によって検出された上記同期情報に基づいて上記映像音声データのうちの加工編集した部分のみの編集映像音声を生成して当該編集映像音声を上記記憶保持手段に登録し、
上記記憶保持手段は、
上記映像音声データのうちの加工編集されていない部分と上記編集手段によって登録された上記映像音声データのうちの加工編集された部分のみの編集映像音声とを繋ぎ合わせて再生する
ことを特徴とする編集システム。
Storage and holding means for synchronizing and storing video and audio of video and audio data in units of a predetermined plurality of frames; and
The video / audio data required is read from the storage / holding means according to an edit list that defines the editing content, and the edited video / audio is generated according to the edit list, and the edited video / audio is stored in the storage / holding means. Editing means to register with
Synchronization information detecting means for detecting synchronization information of the video / audio data when the editing means reads out the necessary video / audio data;
The editing means is
Based on the synchronization information detected by the synchronization information detecting means, the edited video / audio is generated only for the processed and edited portion of the video / audio data, and the edited video / audio is registered in the storage holding means,
The memory holding means is
A portion of the video and audio data that has not been edited and edited and an edited video and audio of only the portion of the video and audio data registered by the editing means that has been edited and edited are played back. Editing system.
上記同期検出手段は、
上記編集手段が読み出した上記映像音声データに上記同期情報を付加する
ことを特徴とする請求項1に記載の編集システム。
The synchronization detection means includes
The editing system according to claim 1, wherein the synchronization information is added to the video / audio data read by the editing unit.
映像音声データの映像及び音声を所定の複数フレーム単位で同期させて記憶保持手段に記憶保持させる第1のステップと、
編集内容を規定した編集リストに従って上記記憶保持手段から必要な上記映像音声データを読み出すと共に、当該映像音声データの同期情報を検出する第2のステップと、
読み出した上記映像音声データを編集手段において上記編集リストに従って加工編集する第3のステップと、
上記同期情報に基づいて上記映像音声データのうちの加工編集した部分のみの編集映像音声を上記編集手段において生成して当該編集映像音声を上記記憶保持手段に登録する第4のステップと、
上記映像音声データのうちの加工編集されていない部分と上記編集手段によって登録された上記映像音声データのうちの加工編集された部分のみの編集映像音声とを上記記憶保持手段において繋ぎ合わせて再生する第5のステップと
を具えることを特徴とする編集システムの制御方法。
A first step of synchronizing the video and audio of the video and audio data in units of a predetermined plurality of frames and storing and holding the same in the storage and holding means;
A second step of reading out the necessary video / audio data from the storage / holding means according to an edit list defining the editing content, and detecting synchronization information of the video / audio data;
A third step of processing and editing the read video / audio data according to the editing list in the editing means;
A fourth step of generating, in the editing means, an edited video / audio of only the processed and edited portion of the video / audio data based on the synchronization information, and registering the edited video / audio in the storage / holding means;
A portion of the video and audio data that has not been edited and edited and an edited video and audio of only the portion of the video and audio data registered by the editing means that has been edited and edited are connected and reproduced in the storage and holding means. An editing system control method comprising: a fifth step.
上記第2のステップでは、
上記憶保持手段から読み出された上記映像音声データに上記同期情報を付加する
ことを特徴とする請求項3に記載の編集システムの制御方法。
In the second step,
The control method of an editing system according to claim 3, wherein the synchronization information is added to the video / audio data read from the upper storage holding means.
JP2003292849A 2003-08-13 2003-08-13 Editing system and control method thereof Expired - Fee Related JP4337034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003292849A JP4337034B2 (en) 2003-08-13 2003-08-13 Editing system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003292849A JP4337034B2 (en) 2003-08-13 2003-08-13 Editing system and control method thereof

Publications (2)

Publication Number Publication Date
JP2005064889A true JP2005064889A (en) 2005-03-10
JP4337034B2 JP4337034B2 (en) 2009-09-30

Family

ID=34370034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003292849A Expired - Fee Related JP4337034B2 (en) 2003-08-13 2003-08-13 Editing system and control method thereof

Country Status (1)

Country Link
JP (1) JP4337034B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533669A (en) * 2010-05-25 2013-08-22 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Video summary instruction metadata storage
CN109194979A (en) * 2018-10-30 2019-01-11 努比亚技术有限公司 The processing method and processing device of audio-video, mobile terminal, readable storage medium storing program for executing

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533669A (en) * 2010-05-25 2013-08-22 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Video summary instruction metadata storage
US9124860B2 (en) 2010-05-25 2015-09-01 Intellectual Ventures Fund 83 Llc Storing a video summary as metadata
CN109194979A (en) * 2018-10-30 2019-01-11 努比亚技术有限公司 The processing method and processing device of audio-video, mobile terminal, readable storage medium storing program for executing
CN109194979B (en) * 2018-10-30 2022-06-17 湖南天鸿瑞达集团有限公司 Audio and video processing method and device, mobile terminal and readable storage medium

Also Published As

Publication number Publication date
JP4337034B2 (en) 2009-09-30

Similar Documents

Publication Publication Date Title
JP4117616B2 (en) Editing system, control method thereof and editing apparatus
JP3067801B2 (en) Digital audio workstation providing digital storage and display of video information
US7424202B2 (en) Editing system and control method using a readout request
US5760767A (en) Method and apparatus for displaying in and out points during video editing
US6674955B2 (en) Editing device and editing method
CA2603600C (en) Icon bar display for video editing system
EP1047074B1 (en) Apparatus, method and medium for information processing
DE60023560T2 (en) MULTIMEDIA PHOTO ALBUMS
DE60012972T2 (en) Digital video recording comprising recording full-frame sub-images and associated transparency control data for fading between successive video segments during playback
US6400378B1 (en) Home movie maker
US7903927B2 (en) Editing apparatus and control method thereof, and program and recording medium
JP4168334B2 (en) Editing apparatus and editing method
US20040066395A1 (en) Graphical user interface for a motion video planning and editing system for a computer
US6327420B1 (en) Image displaying method and editing apparatus to efficiently edit recorded materials on a medium
JP2013009218A (en) Editing device, method, and program
JP2005006229A (en) Edit device and edit method
US5781435A (en) Edit-to-it
JP4174718B2 (en) Editing apparatus and editing method
JP4337034B2 (en) Editing system and control method thereof
JP4117617B2 (en) Editing system and control method thereof
JP3906922B2 (en) Editing system
JP4337033B2 (en) Editing system and control method thereof
JP2002247504A (en) Editing device and recording medium
JP4348605B2 (en) Editing system and control method thereof
KR100599175B1 (en) Apparatus and method for editing of optical-disc

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090604

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090617

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120710

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees