JP4748030B2 - Editing system and editing method - Google Patents

Editing system and editing method Download PDF

Info

Publication number
JP4748030B2
JP4748030B2 JP2006294737A JP2006294737A JP4748030B2 JP 4748030 B2 JP4748030 B2 JP 4748030B2 JP 2006294737 A JP2006294737 A JP 2006294737A JP 2006294737 A JP2006294737 A JP 2006294737A JP 4748030 B2 JP4748030 B2 JP 4748030B2
Authority
JP
Japan
Prior art keywords
editing
content
definition
recording
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006294737A
Other languages
Japanese (ja)
Other versions
JP2008113216A (en
Inventor
安正 北田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006294737A priority Critical patent/JP4748030B2/en
Publication of JP2008113216A publication Critical patent/JP2008113216A/en
Application granted granted Critical
Publication of JP4748030B2 publication Critical patent/JP4748030B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、編集システムおよび編集方法に関し、特には、コンテンツを編集する編集システムおよび編集方法に関する。   The present invention relates to an editing system and an editing method, and more particularly, to an editing system and an editing method for editing content.

現在、地上波デジタル放送用のハイビジョン番組、すなわちHD(High Definition)TV方式の番組が、放送用システムから放送されている。HDTV方式の番組(コンテンツ)は、地上波アナログ放送用のSD(Standard Definition)TV方式の番組より高精細であるため、データ量がSDTV方式の番組より多い。   Currently, high-definition programs for terrestrial digital broadcasting, that is, HD (High Definition) TV system programs are broadcast from broadcasting systems. Since the HDTV program (content) has a higher definition than the SD (Standard Definition) TV program for terrestrial analog broadcasting, the amount of data is larger than that of the SDTV program.

放送局は、取材先で高精細な素材映像が得られた場合、例えば以下のようにして素材映像を編集する。   When a high-definition material video is obtained at the interview destination, the broadcasting station edits the material video as follows, for example.

まず、取材先から、素材映像より精細度を落とした編集用の映像が、インターネットを介して放送局に送信される。続いて、高精細な素材映像が、VTR等の物理メディアに収録された状態で、取材先から放送局に配達される。放送局は、物理メディアが到着する前に、編集用の映像を事前に編集し、高精細な素材映像が到着した後、その素材映像に、編集用の映像の編集結果を反映させる。   First, a video for editing with a lower definition than the material video is transmitted from the interviewee to the broadcasting station via the Internet. Subsequently, the high-definition material video is delivered from the interviewee to the broadcasting station in a state where it is recorded on a physical medium such as a VTR. The broadcast station edits the editing video in advance before the physical media arrives, and after the high-definition material video arrives, the editing result of the editing video is reflected on the material video.

特許文献1(特開2006−74411号公報)には、動画像編集システムが記載されている。   Japanese Patent Laid-Open No. 2006-74411 describes a moving image editing system.

この動画像編集システムは、入力される原画像から、高精細な映像ファイルと、編集用の処理負荷の低い低精細な映像ファイルを生成する。この動画像編集システムは、高精細な映像ファイルを編集する際、まず、低精細な映像ファイルに対して編集処理を行い、その編集処理の結果を、高精細な映像ファイルに反映させる。
特開2006−74411号公報
This moving image editing system generates a high-definition video file and a low-definition video file with a low processing load for editing from an input original image. When editing a high-definition video file, the moving image editing system first performs an editing process on the low-definition video file, and reflects the result of the editing process on the high-definition video file.
JP 2006-74411 A

現在、1つのコンテンツを複数のユーザで編集したいという要望がある。例えば、同一の映像が、高精細な映像ファイルと低精細な映像ファイルとで管理されている場合、まず、高精細な映像ファイルを用いて映像効果(例えば、ワイプ、ディゾルブ、モザイク)を編集し、その後、低精細な映像ファイルを用いてカット割編集を行いたいという要望がある。   Currently, there is a desire to edit one content by a plurality of users. For example, if the same video is managed by a high-definition video file and a low-definition video file, the video effect (eg, wipe, dissolve, mosaic) is first edited using the high-definition video file. After that, there is a demand for performing cut-cut editing using a low-definition video file.

特許文献1に記載された動画像編集システムでは、低精細な映像ファイルに対する編集結果を、高精細な映像ファイルに反映させることができるが、高精細な映像ファイルに対する編集結果を、低精細な映像ファイルに反映させることができない。   In the moving image editing system described in Patent Document 1, an editing result for a low-definition video file can be reflected in a high-definition video file. It cannot be reflected in the file.

このため、この動画像編集システムは、まず、高精細な映像ファイルで編集を行い、その後、その編集結果を反映した低精細な映像ファイルで編集したいという要望に応じることができない。   For this reason, this moving image editing system cannot meet the demand for editing with a high-definition video file first and then editing with a low-definition video file reflecting the editing result.

本発明の目的は、低精細なコンテンツに対する編集結果を高精細なコンテンツに反映させるだけでなく、高精細なコンテンツに対する編集結果を低精細なコンテンツに反映させる編集システムおよび編集方法を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an editing system and an editing method that not only reflect an editing result for low-definition content in high-definition content but also reflect an editing result for high-definition content in low-definition content. is there.

上記目的を達成するために、本発明の編集システムは、コンテンツを編集する編集システムであって、前記コンテンツを第1精細度で保持する第1格納装置と、前記コンテンツを前記第1精細度より粗い第2精細度で保持する第2格納装置と、前記第1格納装置に保持された第1精細度のコンテンツを編集する第1編集装置と、前記第2格納装置に保持された第2精細度のコンテンツを編集する第2編集装置と、前記第2編集装置が前記第2精細度のコンテンツを編集した際に、前記第2編集装置による編集結果に基づいて前記第1精細度のコンテンツを編集し、前記第1編集装置が前記第1精細度のコンテンツを編集した際に、前記第1編集装置による編集結果に基づいて前記第2精細度のコンテンツを編集する編集反映装置と、を含む。   In order to achieve the above object, an editing system of the present invention is an editing system for editing content, the first storage device holding the content at a first definition, and the content from the first definition. A second storage device that retains a coarse second definition, a first editing device that edits content of the first definition retained in the first storage device, and a second definition retained in the second storage device A second editing device that edits the content of the second degree, and when the second editing device edits the content of the second definition, the content of the first definition is based on the editing result by the second editing device. An editing reflection device that edits and edits the content of the second definition based on the editing result of the first editing device when the first editing device edits the content of the first definition. .

また、本発明の編集方法は、第1および第2格納装置を含み、コンテンツを編集する編集システムが行う編集方法であって、前記コンテンツを第1精細度で前記第1格納装置に保持する第1保持ステップと、前記コンテンツを前記第1精細度より粗い第2精細度で前記第2格納装置に保持する第2保持ステップと、前記第1格納装置に保持された第1精細度のコンテンツを編集する第1編集ステップと、前記第2格納装置に保持された第2精細度のコンテンツを編集する第2編集ステップと、前記第2編集ステップで前記第2精細度のコンテンツが編集された際に、前記第2編集ステップによる編集結果に基づいて前記第1精細度のコンテンツを編集し、前記第1編集ステップで前記第1精細度のコンテンツが編集された際に、前記第1編集ステップによる編集結果に基づいて前記第2精細度のコンテンツを編集する編集反映ステップと、を含む。   The editing method of the present invention is an editing method that includes a first storage device and a second storage device, and that is performed by an editing system that edits content, wherein the content is held in the first storage device with a first definition. 1 holding step, a second holding step for holding the content in the second storage device with a second definition coarser than the first definition, and a content of the first definition held in the first storage device. A first editing step for editing, a second editing step for editing the content of the second definition held in the second storage device, and when the content of the second definition is edited in the second editing step In addition, the first definition content is edited based on the editing result in the second editing step, and the first editing is performed when the first definition content is edited in the first editing step. Based on the editing result of the step including the editing reflecting step of editing the contents of the second resolution.

上記発明によれば、第1精細度のコンテンツは、第2精細度のコンテンツの編集結果に基づいて編集され、第2精細度のコンテンツは、第1精細度のコンテンツの編集結果に基づいて編集される。   According to the above invention, the first definition content is edited based on the editing result of the second definition content, and the second definition content is edited based on the editing result of the first definition content. Is done.

このため、第2精細度のコンテンツに対する編集結果を、第1精細度のコンテンツに反映させるだけでなく、第1精細度のコンテンツに対する編集結果を、第2精細度のコンテンツに反映させることが可能になる。よって、例えば、まず、高精細なコンテンツで編集を行い、その後、その編集結果を反映した低精細なコンテンツで編集したいという要望に応じることが可能になる。   Therefore, it is possible not only to reflect the editing result for the second definition content on the first definition content but also to reflect the editing result for the first definition content on the second definition content. become. Therefore, for example, it is possible to meet the demand for editing with high-definition content first and then editing with low-definition content reflecting the editing result.

なお、前記編集反映装置は、前記第1精細度のコンテンツを編集するための第3編集装置と、前記第2精細度のコンテンツを編集するための第4編集装置と、前記第2編集装置が前記第2精細度のコンテンツを編集した際に、前記第3編集装置を用いて、前記第1精細度のコンテンツを前記第2編集装置による編集結果に基づいて編集し、前記第1編集装置が前記第1精細度のコンテンツを編集した際に、前記第4編集装置を用いて、前記第2精細度のコンテンツを前記第1編集装置による編集結果に基づいて編集する編集管理装置と、を含むことが望ましい。   The edit reflection device includes a third editing device for editing the first definition content, a fourth editing device for editing the second definition content, and the second editing device. When the second definition content is edited, the first editing device is used to edit the first definition content based on the result of editing by the second editing device. An editing management device that uses the fourth editing device to edit the second definition content based on a result of editing by the first editing device when the first definition content is edited. It is desirable.

上記発明によれば、編集管理装置にて編集結果の反映を管理することができる。   According to the above invention, reflection of the editing result can be managed by the editing management apparatus.

また、前記編集反映装置は、前記編集反映装置は、前記第1編集装置が前記第1精細度のコンテンツを編集してコンテンツを作成している間、前記第2編集装置が、前記第1編集装置が作成中のコンテンツと同じ名称のコンテンツを作成することを禁止し、また、前記第2編集装置が前記第2精細度のコンテンツを編集してコンテンツを作成している間、前記第1編集装置が、前記第2編集装置が作成中のコンテンツと同じ名称のコンテンツを作成することを禁止することが望ましい。   The editing / reflecting device may be configured such that, while the first editing device is editing the first definition content to create the content, the second editing device is the first editing device. The device prohibits creation of content having the same name as the content being created, and the first editing while the second editing device is editing the second definition content to create the content. It is desirable that the device prohibits the creation of content having the same name as the content being created by the second editing device.

上記発明によれば、同一名称のコンテンツが、第1および第2編集装置で同時に編集されて作成されることを防止できる。   According to the above invention, it is possible to prevent content having the same name from being simultaneously edited by the first and second editing devices.

このため、同一名称のコンテンツが、第1および第2編集装置で同時に作成され、先に編集が完了したコンテンツが、後で編集が完了したコンテンツに上書きされ、先に編集が完了したコンテンツの内容が消去されてしまうという不都合を回避可能となる。   For this reason, content with the same name is simultaneously created by the first and second editing devices, and the content that has been edited first is overwritten with the content that has been edited later, and the content of the content that has been edited first Can be avoided.

また、前記編集反映装置は、前記第1編集装置または前記第2編集装置が映像効果を伴う編集を行った場合に、前記映像効果に基づいて前記第1精細度のコンテンツから前記第1精細度の第1映像効果コンテンツを生成し、該第1映像効果コンテンツを前記第1格納装置に収録するとともに、前記映像効果に基づいて前記第2精細度のコンテンツから前記第2精細度の第2映像効果コンテンツを生成し、該第2映像効果コンテンツを前記第2格納装置に収録することが望ましい。   In addition, the edit reflection device may be configured such that when the first editing device or the second editing device performs editing with a video effect, the first definition from the first definition content based on the video effect. The first video effect content is generated, the first video effect content is recorded in the first storage device, and the second video of the second definition is obtained from the second definition content based on the video effect. It is desirable to generate effect content and record the second video effect content in the second storage device.

上記発明によれば、映像効果に基づいた第1および第2映像効果コンテンツを収録することが可能になる。このため、例えば、映像効果コンテンツを再利用することが可能になる。   According to the above invention, it is possible to record the first and second video effect contents based on the video effect. For this reason, for example, video effect content can be reused.

また、前記第1精細度は、HDTV方式に対応する精細度であり、前記第2精細度は、SDTV方式に対応する精細度であることが望ましい。   The first definition may be a definition corresponding to the HDTV system, and the second definition may be a definition corresponding to the SDTV system.

上記発明によれば、第2精細度のコンテンツは、SDTV方式に準じることになり、例えば、第2精細度のコンテンツが、放送番組として送出されても、視聴者は、その放送番組を、地上波アナログ放送用の番組と同様に認識することが可能になる。また、第2精細度のコンテンツに対し、信号変換装置(アップコンバータ)を使用することにより、HDTV方式に対応する精細度にて放送番組として送出することも可能である。   According to the above invention, the second definition content conforms to the SDTV system. For example, even if the second definition content is transmitted as a broadcast program, the viewer can view the broadcast program on the ground. It can be recognized in the same way as a program for wave analog broadcasting. In addition, by using a signal conversion device (upconverter) for the content of the second definition, it is possible to send it as a broadcast program with a definition corresponding to the HDTV system.

本発明によれば、低精細なコンテンツに対する編集結果を高精細なコンテンツに反映させるだけでなく、高精細なコンテンツに対する編集結果を低精細なコンテンツに反映させることが可能になる。   According to the present invention, it is possible not only to reflect the editing result for the low-definition content in the high-definition content but also to reflect the editing result for the high-definition content in the low-definition content.

以下、本発明の実施例を図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施例の編集システムを示したブロック図である。   FIG. 1 is a block diagram showing an editing system according to an embodiment of the present invention.

図1において、編集システムは、放送局にて使用され、HD用ストレージ1と、SD用ストレージ2と、マトリクススイッチャー3と、マトリクススイッチャー制御装置4と、信号分配装置5と、信号変換装置6と、HD用収録サーバー7と、SD用収録サーバー8と、収録制御装置9と、ファイル変換装置10と、HD用ノンリニア編集機11と、SD用ノンリニア編集機12と、編集反映装置13と、を含む。   In FIG. 1, the editing system is used in a broadcasting station, and includes an HD storage 1, an SD storage 2, a matrix switcher 3, a matrix switcher control device 4, a signal distribution device 5, and a signal conversion device 6. An HD recording server 7, an SD recording server 8, a recording control device 9, a file conversion device 10, an HD non-linear editing machine 11, an SD non-linear editing machine 12, and an editing reflection device 13. Including.

編集反映装置13は、HDファイル編集管理装置14と、SDファイル編集管理装置15と、収録・編集系管理サーバー16と、を含む。HDファイル編集管理装置14は、HDファイル管理サーバー14aと、HDレンダリング装置14bとを含む。SDファイル編集管理装置15は、SDファイル管理サーバー15aと、SDレンダリング装置15bとを含む。   The editing reflection device 13 includes an HD file editing management device 14, an SD file editing management device 15, and a recording / editing management server 16. The HD file editing management device 14 includes an HD file management server 14a and an HD rendering device 14b. The SD file editing management device 15 includes an SD file management server 15a and an SD rendering device 15b.

HD用ストレージ1は、第1格納装置の一例である。HD用ストレージ1には、HDTV方式のコンテンツ(MPEG2形式の100Mbpsのデータ)が収録される。以下、HDTV方式のコンテンツを、第1精細度を有する「HDコンテンツ」と称する。   The HD storage 1 is an example of a first storage device. The HD storage 1 stores HDTV content (MPEG2 format 100 Mbps data). Hereinafter, HDTV content is referred to as “HD content” having the first definition.

SD用ストレージ2は、第2格納装置の一例である。SD用ストレージ2には、SDTV方式のコンテンツ(MPEG2形式の20Mbpsのデータ)が収録される。以下、SDTV方式のコンテンツを、第2精細度を有する「SDコンテンツ」と称する。   The SD storage 2 is an example of a second storage device. The SD storage 2 records SDTV content (20-Mbps data in MPEG2 format). Hereinafter, SDTV content is referred to as “SD content” having the second definition.

HD用ストレージ1およびSD用ストレージ2は、例えば、ハードディスクにて構成される。   The HD storage 1 and the SD storage 2 are composed of hard disks, for example.

マトリクススイッチャー3は、マトリクススイッチャー制御装置4にて制御される。   The matrix switcher 3 is controlled by a matrix switcher control device 4.

マトリクススイッチャー3は、他の放送局および新聞社等の複数の情報提供元から提供された複数のコンテンツ(例えば、音声付動画像データ)を並列に受け付ける。なお、情報提供元から提供されるコンテンツは、HDTV方式のベースバンド信号(以下「HDベースバンド信号」と称する。)である。   The matrix switcher 3 receives in parallel a plurality of contents (for example, moving image data with sound) provided from a plurality of information providers such as other broadcasting stations and newspaper companies. The content provided from the information provider is an HDTV baseband signal (hereinafter referred to as “HD baseband signal”).

マトリクススイッチャー3は、マトリクススイッチャー制御装置4の制御に基づいて、それら複数のコンテンツの中から収録用コンテンツを選択し、その収録用コンテンツを信号分配装置5に提供する。   Based on the control of the matrix switcher control device 4, the matrix switcher 3 selects a recording content from the plurality of contents and provides the recording content to the signal distribution device 5.

マトリクススイッチャー制御装置4は、収録・編集系管理サーバー16によって制御され、マトリクススイッチャー3を制御する。   The matrix switcher control device 4 is controlled by the recording / editing management server 16 and controls the matrix switcher 3.

信号分配装置5は、マトリクススイッチャー3から提供された収録用コンテンツ(HDベースバンド信号)を、信号変換装置6とHD用収録サーバー7に提供する。   The signal distribution device 5 provides the recording content (HD baseband signal) provided from the matrix switcher 3 to the signal conversion device 6 and the HD recording server 7.

信号変換装置6は、信号分配装置5から提供された収録用コンテンツ、すなわち、HDベースバンド信号を、SDTV方式のベースバンド信号(以下「SDベースバンド信号」と称する。)に変換する。   The signal converter 6 converts the content for recording provided from the signal distributor 5, that is, the HD baseband signal, into an SDTV baseband signal (hereinafter referred to as “SD baseband signal”).

信号変換装置6は、SDベースバンド信号の収録用コンテンツを、SD用収録サーバー8に提供する。   The signal conversion device 6 provides the SD baseband signal recording content to the SD recording server 8.

HD用収録サーバー7は、第1収録装置の一例であり、信号分配装置5から提供されたHDベースバンド信号の収録用コンテンツを、MPEG2形式の100Mbps(第1精細度)のIフレームのみで構成されたデータファイル(HDコンテンツ)に変換し、そのMPEG2形式の100Mbpsのデータファイルを、放送用コンテンツとして、HD用ストレージ1に収録する。   The HD recording server 7 is an example of a first recording device, and the recording content of the HD baseband signal provided from the signal distribution device 5 is composed of only an I frame of MPEG2 format 100 Mbps (first definition). The converted data file (HD content) is recorded, and the MPEG2-format 100 Mbps data file is recorded in the HD storage 1 as a broadcast content.

換言すると、HD用収録サーバー7は、HDベースバンド信号の収録用コンテンツを、第1精細度で、放送用コンテンツとして、HD用ストレージ1に収録する。   In other words, the HD recording server 7 records the recording content of the HD baseband signal in the HD storage 1 as the broadcasting content with the first definition.

また、HD用収録サーバー7は、キーボード等の操作部から送信指示を受け付けた場合、HD用ストレージ1に収録された放送用コンテンツを放送番組として送出(放送)する。   Further, when receiving a transmission instruction from an operation unit such as a keyboard, the HD recording server 7 sends (broadcasts) the broadcast content recorded in the HD storage 1 as a broadcast program.

SD用収録サーバー8は、第2収録装置の一例であり、信号変換装置6から提供されたSDベースバンド信号の収録用コンテンツを、MPEG2形式の20Mbps(第2精細度)のIフレームのみで構成されたデータファイル(SDコンテンツ)に変換し、そのMPEG2形式の20Mbpsのデータファイルを、予備コンテンツとして、SD用ストレージ2に収録する。   The SD recording server 8 is an example of a second recording device, and the recording content of the SD baseband signal provided from the signal conversion device 6 is composed only of an MPEG2 format 20 Mbps (second definition) I frame. The converted data file (SD content) is recorded, and the 20 Mbps data file in the MPEG2 format is recorded in the SD storage 2 as a spare content.

換言すると、SD用収録サーバー8は、SDベースバンド信号の収録用コンテンツを、第1精細度より粗い第2精細度で、予備コンテンツとして、SD用ストレージ2に収録する。   In other words, the SD recording server 8 records the SD baseband signal recording content in the SD storage 2 as the preliminary content with the second definition coarser than the first definition.

また、SD用収録サーバー8は、キーボード等の操作部から送信指示を受け付けた場合、SD用ストレージ2に収録された予備コンテンツを放送番組として送出(放送)する。   Further, when receiving a transmission instruction from the operation unit such as a keyboard, the SD recording server 8 sends (broadcasts) the preliminary content recorded in the SD storage 2 as a broadcast program.

収録制御装置9は、HD用収録サーバー7とSD用収録サーバー8の収録動作を同期させる。このため、マトリクススイッチャー3から出力されたコンテンツが、異なる精細度で、HD用ストレージ1およびSD用ストレージ2にそれぞれ収録される。   The recording control device 9 synchronizes the recording operations of the HD recording server 7 and the SD recording server 8. For this reason, the content output from the matrix switcher 3 is recorded in the HD storage 1 and the SD storage 2 with different definition.

ファイル変換装置10は、第3収録装置の一例であり、例えば、ユーザ等から変換指示を受け付けると、HD用ストレージ1に収録されたHDコンテンツ(MPEG2形式の100Mbpsのデータファイル)を、MPEG2形式の20Mbpsのデータファイルで表されるSDコンテンツに変換する。   The file conversion device 10 is an example of a third recording device. For example, when a conversion instruction is received from a user or the like, HD content (100 Mbps data file in MPEG2 format) recorded in the HD storage 1 is converted into MPEG2 format. It is converted into SD content represented by a 20 Mbps data file.

ファイル変換装置10は、そのMPEG2形式の20Mbpsのデータファイルで表されるSDコンテンツを、予備コンテンツとして、SD用ストレージ2に収録する。   The file conversion apparatus 10 records the SD content represented by the 20 Mbps data file in the MPEG2 format in the SD storage 2 as a preliminary content.

HD用ノンリニア編集機11は、第1編集装置の一例であり、ユーザにて操作され、HD用ストレージ1に収録されたHDコンテンツ(データファイル)を、ユーザの操作に基づいて編集する。   The HD non-linear editing machine 11 is an example of a first editing device, and is operated by a user to edit HD content (data file) recorded in the HD storage 1 based on a user operation.

例えば、HD用ノンリニア編集機11は、ユーザの操作に基づいて、HD用ストレージ1内の複数のHDコンテンツから必要な部分を集めて、それらをつなぎ合わせて、新たなコンテンツ(以下「レンダリング無しシーケンス」と称する。)を生成する。   For example, the HD non-linear editing machine 11 collects necessary portions from a plurality of HD contents in the HD storage 1 based on the user's operation, and connects them to create new contents (hereinafter referred to as “non-rendering sequence”). ").

HD用ノンリニア編集機11は、レンダリング無しシーケンスを生成するための編集データを生成し、その編集データを編集反映装置13(具体的には、収録・編集系管理サーバー16)に提供する。   The non-linear editing machine 11 for HD generates editing data for generating a non-rendering sequence and provides the editing data to the editing reflection device 13 (specifically, the recording / editing management server 16).

図2は、レンダリング無しシーケンスを生成するための編集データ200の一例を示した説明図である。   FIG. 2 is an explanatory diagram showing an example of editing data 200 for generating a non-rendering sequence.

図2において、編集データ200は、少なくとも、レンダリング無しシーケンスのファイル名201と、使用するコンテンツのファイル名(名称)202と、ファイル名202のコンテンツの必要な部分の開始位置203および終了位置204とを含む。   In FIG. 2, the edit data 200 includes at least a file name 201 of a non-rendering sequence, a file name (name) 202 of content to be used, a start position 203 and an end position 204 of a necessary part of the content of the file name 202. including.

開始位置203と終了位置204は、コンテンツ内のIフレームを特定するための情報である。開始位置203と終了位置204としては、例えば、各フレームに付加されているタイムコードとフレーム番号が用いられる。   The start position 203 and the end position 204 are information for specifying an I frame in the content. As the start position 203 and the end position 204, for example, a time code and a frame number added to each frame are used.

また、HD用ノンリニア編集機11は、ユーザの操作に基づいて、HD用ストレージ1内のHDコンテンツの一部にワイプ、ディゾルブ、モザイクなどの映像効果(レンダリング)を加え、その映像効果が加えられた部分と、HD用ストレージ1内の複数のHDコンテンツから集められた必要な部分をつなぎ合わせて、新たなコンテンツ(以下「レンダリング有りシーケンス」と称する。)を生成する。   Further, the HD nonlinear editing machine 11 adds video effects (rendering) such as wipe, dissolve, and mosaic to a part of the HD content in the HD storage 1 based on a user operation, and the video effects are added. And the necessary parts collected from a plurality of HD contents in the HD storage 1 are connected to generate new contents (hereinafter referred to as “rendering sequence”).

HD用ノンリニア編集機11は、レンダリング有りシーケンスを生成するための編集データを生成し、その編集データを編集反映装置13(具体的には、収録・編集系管理サーバー16)に提供する。   The non-linear editing machine 11 for HD generates editing data for generating a sequence with rendering, and provides the editing data to the editing reflection device 13 (specifically, the recording / editing management server 16).

図3は、レンダリング有りシーケンスを生成するための編集データ300の一例を示した説明図である。なお、このレンダリング有りシーケンスでは、シーン切り換え時にレンダリングが付加されているものとする。   FIG. 3 is an explanatory diagram showing an example of editing data 300 for generating a sequence with rendering. In this rendering sequence, rendering is added at the time of scene switching.

図3において、編集データ300は、少なくとも、レンダリング有りシーケンスのファイル名301と、使用するコンテンツのファイル名(名称)302と、ファイル名302のコンテンツの必要な部分の開始位置303および終了位置304と、レンダリングの内容を示すレンダリング情報305と、を含む。   In FIG. 3, the edit data 300 includes at least a file name 301 of a sequence with rendering, a file name (name) 302 of content to be used, a start position 303 and an end position 304 of a necessary part of the content of the file name 302. And rendering information 305 indicating the contents of rendering.

開始位置303と終了位置304は、コンテンツ内のIフレームを特定するための情報である。開始位置303と終了位置304としては、例えば、各フレームに付加されているタイムコードとフレーム番号が用いられる。   The start position 303 and the end position 304 are information for specifying an I frame in the content. As the start position 303 and the end position 304, for example, a time code and a frame number added to each frame are used.

レンダリング情報305は、少なくとも、映像効果の種類(例えば、ワイプ、ディゾルブ、モザイクなど)を示す種類情報305a、映像効果を施す部分(フレーム)およびそのフレーム内の位置を示す位置情報305bと、を含む。   The rendering information 305 includes at least type information 305a indicating the type of video effect (for example, wipe, dissolve, mosaic, etc.), a portion (frame) to which the video effect is applied, and position information 305b indicating the position in the frame. .

なお、収録・編集系管理サーバー16は、HD用ノンリニア編集機11から受け付けた編集データを、SDファイル編集管理装置15(具体的には、SDファイル管理サーバー15a)に提供し、また、その編集データにレンダリング情報が含まれていると、そのレンダリング情報を、HDレンダリング装置14bとSDレンダリング装置15bに提供する。   The recording / editing management server 16 provides the editing data received from the HD non-linear editing machine 11 to the SD file editing management device 15 (specifically, the SD file management server 15a), and also edits the editing data. When the rendering information is included in the data, the rendering information is provided to the HD rendering device 14b and the SD rendering device 15b.

SD用ノンリニア編集機12は、第2編集装置の一例であり、ユーザにて操作され、SD用ストレージ2に収録されたSDコンテンツ(データファイル)を、ユーザの操作に基づいて編集する。   The SD non-linear editing machine 12 is an example of a second editing device, and is operated by a user to edit SD content (data file) recorded in the SD storage 2 based on a user operation.

例えば、SD用ノンリニア編集機12は、ユーザの操作に基づいて、SD用ストレージ2内の複数のSDコンテンツから必要な部分を集めて、それらをつなぎ合わせて、新たなコンテンツ(レンダリング無しシーケンス)を生成する。   For example, the SD non-linear editing machine 12 collects necessary portions from a plurality of SD contents in the SD storage 2 based on a user's operation, and connects them to obtain new contents (non-rendering sequence). Generate.

SD用ノンリニア編集機12は、レンダリング無しシーケンスを生成するための編集データを生成し、その編集データを編集反映装置13(具体的には、収録・編集系管理サーバー16)に提供する。   The SD non-linear editing machine 12 generates editing data for generating a non-rendering sequence and provides the editing data to the editing reflection device 13 (specifically, the recording / editing management server 16).

なお、SD用ノンリニア編集機12が生成するレンダリング無しシーケンス用の編集データのフォーマットは、HD用ノンリニア編集機11が生成する編集データのフォーマットと同一である(図2参照)。   The format of the editing data for the non-rendering sequence generated by the SD non-linear editing machine 12 is the same as the format of the editing data generated by the HD non-linear editing machine 11 (see FIG. 2).

また、SD用ノンリニア編集機12は、ユーザの操作に基づいて、SD用ストレージ2内のSDコンテンツの一部にワイプなどの映像効果を加え、その映像効果が加えられた部分と、SD用ストレージ2内の複数のSDコンテンツから集められた必要な部分をつなぎ合わせて、新たなコンテンツ(レンダリング有りシーケンス)を生成する。   Further, the SD non-linear editing machine 12 adds a video effect such as a wipe to a part of the SD content in the SD storage 2 based on the user's operation, Necessary parts collected from a plurality of SD contents in 2 are connected to generate new contents (rendered sequence).

SD用ノンリニア編集機12は、レンダリング有りシーケンスを生成するための編集データを生成し、その編集データを編集反映装置13(具体的には、収録・編集系管理サーバー16)に提供する。   The SD non-linear editing machine 12 generates editing data for generating a sequence with rendering, and provides the editing data to the editing reflection device 13 (specifically, the recording / editing management server 16).

なお、SD用ノンリニア編集機12が生成するレンダリング有りシーケンス用の編集データのフォーマットは、HD用ノンリニア編集機11が生成する編集データのフォーマットと同一である(図3参照)。   The format of the editing data for the sequence with rendering generated by the SD nonlinear editing machine 12 is the same as the format of the editing data generated by the HD nonlinear editing machine 11 (see FIG. 3).

なお、収録・編集系管理サーバー16は、SD用ノンリニア編集機12から受け付けた編集データを、HDファイル編集管理装置14(具体的には、HDファイル管理サーバー14a)に提供し、また、その編集データにレンダリング情報が含まれていると、そのレンダリング情報を、HDレンダリング装置14bとSDレンダリング装置15bに提供する。   The recording / editing management server 16 provides the editing data received from the SD non-linear editing machine 12 to the HD file editing management device 14 (specifically, the HD file management server 14a), and also edits the editing data. When the rendering information is included in the data, the rendering information is provided to the HD rendering device 14b and the SD rendering device 15b.

編集反映装置13は、SD用ノンリニア編集機12がSD用ストレージ2内のSDコンテンツを編集した際に、SD用ノンリニア編集機12による編集結果に基づいて、HD用ストレージ1内のHDコンテンツを編集する。   The editing reflection device 13 edits the HD content in the HD storage 1 based on the editing result by the SD nonlinear editing device 12 when the SD nonlinear editing device 12 edits the SD content in the SD storage 2. To do.

また、編集反映装置13は、HD用ノンリニア編集機11がHD用ストレージ1内のHDコンテンツを編集した際に、HD用ノンリニア編集機11による編集結果に基づいて、SD用ストレージ2内のSDコンテンツを編集する。   In addition, the editing reflection device 13 is configured so that when the HD nonlinear editing machine 11 edits the HD content in the HD storage 1, the SD content in the SD storage 2 is based on the editing result by the HD nonlinear editing machine 11. Edit.

編集反映装置13は、HD用ノンリニア編集機11がHD用ストレージ1内のHDコンテンツを編集して所定名のコンテンツを作成している間、SD用ノンリニア編集機12がSD用ストレージ2内のSDコンテンツを編集してその所定名のコンテンツを作成することを禁止する。   The editing / reflecting device 13 is configured such that the SD nonlinear editor 12 edits the HD content in the HD storage 1 to create a content with a predetermined name while the SD nonlinear editor 12 creates the SD in the SD storage 2. It is prohibited to edit the content and create the content with the predetermined name.

また、編集反映装置13は、SD用ノンリニア編集機12がSD用ストレージ2内のSDコンテンツを編集して特定名のコンテンツを作成している間、HD用ノンリニア編集機11がHD用ストレージ1内のHDコンテンツを編集してその特定名のコンテンツを作成することを禁止する。   In addition, the editing / reflecting device 13 is configured such that the HD nonlinear editing machine 11 is in the HD storage 1 while the SD nonlinear editing machine 12 edits the SD content in the SD storage 2 to create a content with a specific name. It is forbidden to edit the HD content and create the content with the specific name.

編集反映装置13は、HD用ノンリニア編集機11またはSD用ノンリニア編集機12が映像効果を伴う編集を行った場合に、以下のように動作する。   The editing / reflecting device 13 operates as follows when the HD nonlinear editing machine 11 or the SD nonlinear editing machine 12 performs editing with video effects.

編集反映装置13は、その映像効果に基づいて、HD用ストレージ1内のHDコンテンツから、MPEG2形式の100MbpsのIフレームからなる第1レンダリングファイル(第1映像効果コンテンツ)を生成し、その第1レンダリングファイルをHD用ストレージ1に収録する。   Based on the video effect, the editing / reflecting device 13 generates a first rendering file (first video effect content) including a 100 Mbps I frame in the MPEG2 format from the HD content in the HD storage 1, and first The rendering file is recorded in the HD storage 1.

さらに、編集反映装置13は、その映像効果に基づいて、SD用ストレージ2内のSDコンテンツから、MPEG2形式の20MbpsのIフレームからなる第2レンダリングファイル(第2映像効果コンテンツ)を生成し、その第2レンダリングファイルをSD用ストレージ2に収録する。   Furthermore, the edit reflection device 13 generates a second rendering file (second video effect content) composed of an MPEG2 format 20 Mbps I frame from the SD content in the SD storage 2 based on the video effect. The second rendering file is recorded in the SD storage 2.

HDファイル編集管理装置14は、第3編集装置の一例であり、収録・編集系管理サーバー16からの指示に従って、HD用ストレージ1内のHDコンテンツを編集する。   The HD file editing management device 14 is an example of a third editing device, and edits HD content in the HD storage 1 in accordance with an instruction from the recording / editing management server 16.

HDファイル管理サーバー14aは、収録・編集系管理サーバー16から編集データを受け付けると、その編集データをHD用ストレージ1に収録する。   When receiving the editing data from the recording / editing management server 16, the HD file management server 14a records the editing data in the HD storage 1.

HDレンダリング装置14bは、収録・編集系管理サーバー16からレンダリング情報を受け付けると、そのレンダリング情報に基づいて、HD用ストレージ1内のHDコンテンツを編集して、第1レンダリングファイルを生成し、その第1レンダリングファイルをHD用ストレージ1に収録する。   When receiving the rendering information from the recording / editing management server 16, the HD rendering device 14b edits the HD content in the HD storage 1 based on the rendering information, generates a first rendering file, One rendering file is recorded in the HD storage 1.

SDファイル編集管理装置15は、第4編集装置の一例であり、収録・編集系管理サーバー16からの指示に従って、SD用ストレージ2内のSDコンテンツを編集する。   The SD file editing management device 15 is an example of a fourth editing device, and edits the SD content in the SD storage 2 in accordance with an instruction from the recording / editing management server 16.

SDファイル管理サーバー15aは、収録・編集系管理サーバー16から編集データを受け付けると、その編集データをSD用ストレージ2に収録する。   When the SD file management server 15 a receives edit data from the recording / editing management server 16, the SD file management server 15 a records the edit data in the SD storage 2.

SDレンダリング装置15bは、収録・編集系管理サーバー16からレンダリング情報を受け付けると、そのレンダリング情報に基づいて、SD用ストレージ2内のSDコンテンツを編集して、第2レンダリングファイルを生成し、その第2レンダリングファイルをSD用ストレージ2に収録する。   When the SD rendering device 15b receives the rendering information from the recording / editing management server 16, the SD rendering device 15b edits the SD content in the SD storage 2 based on the rendering information to generate a second rendering file, and the second rendering file. 2 Rendering files are recorded in the SD storage 2.

収録・編集系管理サーバー16は、編集管理装置の一例である。   The recording / editing management server 16 is an example of an editing management device.

収録・編集系管理サーバー16は、SD用ノンリニア編集機12から、SD用ストレージ2内のSDコンテンツの編集結果(編集データ)を受け付ける。収録・編集系管理サーバー16は、その編集データをHDファイル編集管理装置14に提供して、SD用ノンリニア編集機12による編集結果に基づいてHD用ストレージ1内のHDコンテンツを編集する処理を、HDファイル編集管理装置14に実行させる。   The recording / editing management server 16 receives the editing result (editing data) of the SD content in the SD storage 2 from the SD nonlinear editing machine 12. The recording / editing management server 16 provides the editing data to the HD file editing management device 14 to edit the HD content in the HD storage 1 based on the editing result by the SD nonlinear editing machine 12. The HD file editing management apparatus 14 is executed.

また、収録・編集系管理サーバー16は、HD用ノンリニア編集機11から、HD用ストレージ1内のHDコンテンツの編集結果(編集データ)を受け付ける。収録・編集系管理サーバー16は、その編集結果をSDファイル編集管理装置15に提供して、HD用ノンリニア編集機11による編集結果に基づいてSD用ストレージ2内のSDコンテンツを編集する処理を、SDファイル編集管理装置15に実行させる。   Further, the recording / editing management server 16 receives the editing result (editing data) of the HD content in the HD storage 1 from the HD nonlinear editing machine 11. The recording / editing management server 16 provides the editing result to the SD file editing management device 15 to edit the SD content in the SD storage 2 based on the editing result by the HD nonlinear editing machine 11. The SD file editing management device 15 is caused to execute.

次に、動作を説明する。   Next, the operation will be described.

まず、コンテンツの収録動作を説明する。   First, the content recording operation will be described.

マトリクススイッチャー3は、マトリクススイッチャー制御装置4による制御にしたがって、情報提供元から提供されたコンテンツから収録用コンテンツを選択し、その収録用のコンテンツを信号分配装置5に提供する。   The matrix switcher 3 selects the content for recording from the content provided by the information provider according to the control by the matrix switcher control device 4 and provides the content for recording to the signal distribution device 5.

信号分配装置5は、マトリクススイッチャー3から収録用コンテンツを受け付けると、その収録用コンテンツを、信号変換装置6とHD用収録サーバー7に提供する。   When receiving the recording content from the matrix switcher 3, the signal distribution device 5 provides the recording content to the signal conversion device 6 and the HD recording server 7.

信号変換装置6は、HDベースバンド信号の収録用コンテンツを受け付けると、その収録用コンテンツをSDベースバンド信号に変換し、そのSDベースバンド信号の収録用コンテンツを、SD用収録サーバー8に提供する。   When receiving the content for recording the HD baseband signal, the signal conversion device 6 converts the content for recording into an SD baseband signal, and provides the content for recording the SD baseband signal to the SD recording server 8. .

収録制御装置9は、HD用収録サーバー7とSD用収録サーバー8に、収録開始信号を同時に提供する。HD用収録サーバー7とSD用収録サーバー8は、収録開始信号を受け付けると、収録動作を開始する。   The recording control device 9 simultaneously provides a recording start signal to the HD recording server 7 and the SD recording server 8. When receiving the recording start signal, the HD recording server 7 and the SD recording server 8 start the recording operation.

HD用収録サーバー7は、信号分配装置5からHDベースバンド信号の収録用コンテンツを受け付けると、そのHDベースバンド信号の収録用コンテンツをMPEG2形式の100MbpsのIフレームのみで構成されたデータファイルに変換し、そのMPEG2形式の100Mbpsのデータファイル(HDコンテンツ)を、放送用コンテンツとして、HD用ストレージ1に収録する。   When receiving the HD baseband signal recording content from the signal distribution device 5, the HD recording server 7 converts the HD baseband signal recording content into a data file composed only of a 100 Mbps I frame in the MPEG2 format. Then, the MPEG2-format 100 Mbps data file (HD content) is recorded in the HD storage 1 as broadcast content.

また、SD用収録サーバー8は、信号変換装置6からSDベースバンド信号の収録用コンテンツを受け付けると、そのSDベースバンド信号の収録用コンテンツをMPEG2形式の20MbpsのIフレームのみで構成されたデータファイル(SDコンテンツ)に変換し、そのMPEG2形式の20Mbpsのデータファイルを、予備コンテンツとして、SD用ストレージ2に収録する。   In addition, when the SD recording server 8 receives the SD baseband signal recording content from the signal conversion device 6, the SD baseband signal recording content is a data file composed only of MPEG2-format 20 Mbps I frames. (SD content), and the 20 Mbps data file in the MPEG2 format is recorded in the SD storage 2 as a preliminary content.

HD用収録サーバー7とSD用収録サーバー8はフレーム単位で同期して収録用コンテンツを収録することとし、HDコンテンツを構成するIフレームと、SDコンテンツを構成するIフレームとは同期する。   The HD recording server 7 and the SD recording server 8 record the recording content in synchronism with each frame, and the I frame constituting the HD content and the I frame constituting the SD content are synchronized.

なお、HDコンテンツのIフレームは、MPEG2形式の100Mbpsのデータであり、SDコンテンツのIフレームは、MPEG2形式の20Mbpsのデータである。このため、HDコンテンツのIフレームのデータ量は、同期するSDコンテンツのIフレームのデータ量の5倍となる。   The HD content I frame is MPEG2 format 100 Mbps data, and the SD content I frame is MPEG2 format 20 Mbps data. For this reason, the data amount of the I frame of the HD content is five times the data amount of the I frame of the synchronized SD content.

図4は、HDコンテンツとSDコンテンツとを模式的に示した説明図である。   FIG. 4 is an explanatory diagram schematically showing HD content and SD content.

図4に示したように、HDコンテンツを構成するIフレームと、SDコンテンツを構成するIフレームとは同期し、HDコンテンツのIフレームのデータ量は、同期するSDコンテンツのIフレームのデータ量の5倍となる。   As shown in FIG. 4, the I frame constituting the HD content and the I frame constituting the SD content are synchronized, and the data amount of the I frame of the HD content is equal to the data amount of the I frame of the SD content to be synchronized. 5 times.

なお、SD用収録サーバー8に不具合が生じて、SD用ストレージ2にSDコンテンツが収録されなかった場合、ユーザは、ファイル変換装置10に変換指示を入力する。   If the SD recording server 8 malfunctions and SD content is not recorded in the SD storage 2, the user inputs a conversion instruction to the file conversion apparatus 10.

ファイル変換装置10は、変換指示を受け付けると、HD用ストレージ1に収録されたHDコンテンツ(MPEG2形式の100MbpsのIフレームのみで構成されたデータファイル)を、MPEG2形式の20MbpsのIフレームのみで構成されたデータファイルで表されるSDコンテンツに変換し、そのSDコンテンツを、予備コンテンツとして、SD用ストレージ2に収録する。   Upon receipt of the conversion instruction, the file conversion apparatus 10 configures HD content (a data file composed only of 100 Mbps I frames in MPEG2 format) recorded in the HD storage 1 with only 20 Mbps I frames in MPEG2 format. The SD content is converted into SD content represented by the data file, and the SD content is recorded in the SD storage 2 as spare content.

続いて、コンテンツの編集動作を説明する。   Next, the content editing operation will be described.

最初に、編集動作のうち、編集の排他処理を説明する。   First, editing exclusive processing will be described in the editing operation.

ユーザは、HD用ノンリニア編集機11を用いて、HD用ストレージ1内のHDコンテンツ(データファイル)を編集でき、また、SD用ノンリニア編集機12を用いて、SD用ストレージ2内のSDコンテンツ(データファイル)を編集できる。   The user can edit the HD content (data file) in the HD storage 1 using the HD nonlinear editing machine 11, and the SD content (data file) in the SD storage 2 using the SD nonlinear editing machine 12. Data file) can be edited.

編集反映装置13は、HD用ノンリニア編集機11とSD用ノンリニア編集機12とが同時に同一名のシーケンス(コンテンツ)を作成することを禁止する。   The editing / reflecting device 13 prohibits the HD nonlinear editing machine 11 and the SD nonlinear editing machine 12 from simultaneously creating a sequence (content) having the same name.

例えば、SD用ノンリニア編集機12は、名称がシーケンスAであるシーケンスを編集によって作成する場合、収録・編集系管理サーバー16に対し、シーケンスAをオープンする(開く)旨を通知する。   For example, when creating a sequence with the name sequence A by editing, the SD nonlinear editing machine 12 notifies the recording / editing management server 16 that sequence A is to be opened (opened).

収録・編集系管理サーバー16は、その通知を受け付けると、シーケンスAがSD用ノンリニア編集機12でオープンされていることを管理する。   Upon receiving the notification, the recording / editing management server 16 manages that the sequence A is opened by the SD nonlinear editing machine 12.

その後、収録・編集系管理サーバー16は、HD用ノンリニア編集機11から、シーケンスAをオープンする旨の通知を受け付けると、シーケンスAは他のノンリニア編集機でオープンされていることを、HD用ノンリニア編集機11に通知し、HD用ノンリニア編集機11でのシーケンスAの作成を禁止する。   Thereafter, when the recording / editing management server 16 receives a notification from the HD nonlinear editor 11 that the sequence A is to be opened, it indicates that the sequence A has been opened by another nonlinear editor. The editing machine 11 is notified, and the creation of the sequence A by the HD nonlinear editing machine 11 is prohibited.

その後、SD用ノンリニア編集機12は、シーケンスAの編集が完了すると、収録・編集系管理サーバー16に対し、シーケンスAをクローズした(閉じた)旨を通知する。   Thereafter, when the editing of the sequence A is completed, the SD non-linear editing machine 12 notifies the recording / editing management server 16 that the sequence A is closed (closed).

収録・編集系管理サーバー16は、その通知を受け付けると、他の編集機がシーケンスAを編集することを許可する。   When the recording / editing management server 16 receives the notification, it permits other editing machines to edit the sequence A.

また、HD用ノンリニア編集機11は、名称がシーケンスBであるシーケンスを編集によって作成する場合、収録・編集系管理サーバー16に対し、シーケンスBをオープンする旨を通知する。   Further, the HD nonlinear editing machine 11 notifies the recording / editing management server 16 that the sequence B is to be opened when a sequence with the name sequence B is created by editing.

収録・編集系管理サーバー16は、その通知を受け付けると、シーケンスBがHD用ノンリニア編集機11でオープンされていることを管理する。   When receiving the notification, the recording / editing management server 16 manages that the sequence B is opened by the HD nonlinear editing machine 11.

その後、収録・編集系管理サーバー16は、SD用ノンリニア編集機12から、シーケンスBをオープンする旨の通知を受け付けると、シーケンスBは他のノンリニア編集機でオープンされていることを、SD用ノンリニア編集機12に通知し、SD用ノンリニア編集機12でのシーケンスBの作成を禁止する。   After that, when the recording / editing management server 16 receives a notification from the SD non-linear editor 12 that the sequence B is opened, the SD non-linear editor indicates that the sequence B is opened by another non-linear editor. The editor 12 is notified, and the creation of the sequence B in the SD nonlinear editor 12 is prohibited.

その後、HD用ノンリニア編集機11は、シーケンスBの編集が完了すると、収録・編集系管理サーバー16に対し、シーケンスBをクローズした旨を通知する。   Thereafter, when the editing of the sequence B is completed, the HD nonlinear editing machine 11 notifies the recording / editing management server 16 that the sequence B has been closed.

収録・編集系管理サーバー16は、その通知を受け付けると、他の編集機がシーケンスBを編集することを許可する。   When the recording / editing management server 16 receives the notification, it permits other editing machines to edit the sequence B.

次に、編集反映動作を説明する。具体的には、以下の4つのケースを説明する。   Next, the edit reflection operation will be described. Specifically, the following four cases will be described.

(A)SD用ノンリニア編集機12がSDコンテンツに対してカット編集(レンダリング無し)を行った場合、その編集結果をHDコンテンツへ反映させる方法
(B)HD用ノンリニア編集機11がHDコンテンツに対してカット編集(レンダリング無し)を行った場合、その編集結果をSDコンテンツへ反映させる方法
(C)SD用ノンリニア編集機12がSDコンテンツに対してレンダリングが必要な編集を行った場合、その編集結果をHDコンテンツへ反映させる方法
(D)HD用ノンリニア編集機11がHDコンテンツに対してレンダリングが必要な編集を行った場合、その編集結果をSDコンテンツへ反映させる方法
図5は、上記(A)のケースを説明するための説明図である。
(A) When the SD non-linear editing machine 12 performs cut editing (without rendering) on SD content, the editing result is reflected on the HD content. (B) The HD non-linear editing machine 11 applies to the HD content. (C) Method of reflecting the editing result on SD content when cut editing (without rendering) is performed. (C) When the SD nonlinear editing machine 12 performs editing that requires rendering on the SD content, the editing result. (D) When the HD non-linear editing machine 11 performs editing that requires rendering on the HD content, the editing result is reflected on the SD content. FIG. It is explanatory drawing for demonstrating this case.

なお、図5では、クリップA、BおよびCとして示されたコンテンツが、MPEG2形式の20Mbpsの複数のIフレームで、SD用ストレージ2に収録され、クリップA、BおよびCのコンテンツが、MPEG2形式の100Mbpsの複数のIフレームで、HD用ストレージ1に収録されているものとする。   In FIG. 5, the contents shown as clips A, B, and C are recorded in the SD storage 2 in a plurality of MPEG2 format 20 Mbps I frames, and the contents of clips A, B, and C are in the MPEG2 format. Are recorded in the HD storage 1 with a plurality of I frames of 100 Mbps.

ステップS51では、SD用ノンリニア編集機12は、SD用ストレージ2内のクリップA、BおよびCから必要な箇所を抜き出しシーケンス1(レンダリング無しシーケンス)を作成する。   In step S51, the SD nonlinear editing machine 12 extracts necessary portions from the clips A, B, and C in the SD storage 2 and creates a sequence 1 (non-rendering sequence).

SD用ノンリニア編集機12は、シーケンス1を作成するための編集を終了すると、ステップS52を実行する。   When the SD nonlinear editing machine 12 finishes the editing for creating the sequence 1, it executes step S52.

ステップS52では、SD用ノンリニア編集機12は、収録・編集系管理サーバー16に、シーケンス1の編集が完了したことを通知する。   In step S52, the SD nonlinear editing machine 12 notifies the recording / editing management server 16 that the editing of the sequence 1 has been completed.

具体的には、SD用ノンリニア編集機12は、シーケンス1を生成するためのシーケンス1用編集データ(図2参照)を生成し、そのシーケンス1用編集データを、SD用ストレージ2に生成するとともに、収録・編集系管理サーバー16に提供する。なお、シーケンス1にはレンダリングが無いので、シーケンス1用編集データにはレンダリング情報が付与されない。   Specifically, the SD non-linear editing machine 12 generates sequence 1 editing data (see FIG. 2) for generating the sequence 1, and generates the sequence 1 editing data in the SD storage 2. To the recording / editing management server 16. Since there is no rendering in sequence 1, rendering information is not added to the editing data for sequence 1.

収録・編集系管理サーバー16は、シーケンス1用編集データを受け付けると、ステップS53を実行する。   When receiving the editing data for sequence 1, the recording / editing management server 16 executes step S53.

ステップS53では、収録・編集系管理サーバー16は、新たに作成されたシーケンス1にレンダリングが必要か否かを判断する。   In step S53, the recording / editing management server 16 determines whether or not rendering of the newly created sequence 1 is necessary.

具体的には、収録・編集系管理サーバー16は、シーケンス1用編集データにレンダリング情報が付与されていれば、レンダリングが必要と判断し、一方、シーケンス1用編集データにレンダリング情報が付与されていなければ、レンダリングは不要と判断する。   Specifically, the recording / editing management server 16 determines that rendering is necessary if the rendering information is attached to the sequence 1 editing data, while the rendering information is attached to the sequence 1 editing data. If not, it is determined that rendering is unnecessary.

本ケースでは、収録・編集系管理サーバー16は、レンダリングは不要と判断する。   In this case, the recording / editing management server 16 determines that rendering is unnecessary.

収録・編集系管理サーバー16は、レンダリングは不要と判断すると、ステップS54を実行する。   If the recording / editing management server 16 determines that rendering is not necessary, it executes step S54.

ステップS54では、収録・編集系管理サーバー16は、HD側にもシーケンス1を生成させるため、HDファイル管理サーバー14aに、シーケンス1の作成指示を行う。具体的には、収録・編集系管理サーバー16は、シーケンス1用編集データを、HDファイル管理サーバー14aに提供する。   In step S54, the recording / editing management server 16 instructs the HD file management server 14a to create the sequence 1 in order to generate the sequence 1 also on the HD side. Specifically, the recording / editing management server 16 provides the editing data for sequence 1 to the HD file management server 14a.

HDファイル管理サーバー14aは、シーケンス1用編集データを受け付けると、ステップS55を実行する。   When the HD file management server 14a receives the edit data for sequence 1, the HD file management server 14a executes step S55.

ステップS55では、HDファイル管理サーバー14aは、自己のファイル管理上にシーケンス1を生成する。   In step S55, the HD file management server 14a generates a sequence 1 on its own file management.

具体的には、HDファイル管理サーバー14aは、シーケンス1用編集データを、HD用ストレージ1に生成する。   Specifically, the HD file management server 14 a generates sequence 1 editing data in the HD storage 1.

なお、シーケンス1は、物理的なファイルとして各ストレージ1および2に存在するわけではなく、クリップA、BおよびCのどの部分を使用しているかという編集情報として、HDファイル管理サーバー14aおよびSDファイル管理サーバー15aによって等価的に管理される。   Note that the sequence 1 does not exist as a physical file in each of the storages 1 and 2, but the HD file management server 14a and the SD file are used as editing information indicating which part of the clips A, B, and C are used. It is managed equivalently by the management server 15a.

また、SD用ストレージ2内のクリップAを構成するIフレームと、HD用ストレージ1内のクリップAを構成するIフレームは同期し、SD用ストレージ2内のクリップBを構成するIフレームと、HD用ストレージ1内のクリップBを構成するIフレームは同期し、SD用ストレージ2内のクリップCを構成するIフレームと、HD用ストレージ1内のクリップCを構成するIフレームは同期しているため、シーケンス1用編集データにて示される、必要な部分の開始位置および終了位置は、同期している双方のIフレームに対応する。   Further, the I frame constituting the clip A in the SD storage 2 and the I frame constituting the clip A in the HD storage 1 are synchronized with each other, the I frame constituting the clip B in the SD storage 2 and the HD The I frames constituting the clip B in the HD storage 1 are synchronized, and the I frames constituting the clip C in the SD storage 2 and the I frames constituting the clip C in the HD storage 1 are synchronized. The start position and end position of the necessary part indicated in the edit data for sequence 1 correspond to both I frames that are synchronized.

この結果、SDノンリニア編集機12で編集したシーケンス1(カット編集(レンダリング無し))のファイルが、HDノンリニア編集機11で開かれると、HDノンリニア編集機11は、シーケンス1用編集データに基づいて、HD用ストレージ1内のクリップA、BおよびCから必要な箇所を抜き出しシーケンス1を参照し表示する。   As a result, when the file of the sequence 1 (cut editing (no rendering)) edited by the SD nonlinear editing machine 12 is opened by the HD nonlinear editing machine 11, the HD nonlinear editing machine 11 is based on the editing data for the sequence 1. The necessary parts are extracted from the clips A, B and C in the HD storage 1 and displayed with reference to the sequence 1.

図6は、上記(B)のケース(HD用ノンリニア編集機11がHDコンテンツに対してカット編集(レンダリング無し)を行った場合、その編集結果をSDコンテンツへ反映させる方法)を説明するための説明図である。   FIG. 6 is a diagram for explaining the case (B) (a method in which when the HD nonlinear editing machine 11 performs cut editing (without rendering) on HD content, the editing result is reflected on the SD content). It is explanatory drawing.

なお、図6でも、クリップA、BおよびCのコンテンツが、MPEG2形式の20Mbpsの複数のIフレームでSD用ストレージ2に収録され、クリップA、BおよびCのコンテンツが、MPEG2形式の100Mbpsの複数のIフレームでHD用ストレージ1に収録されているものとする。   Also in FIG. 6, the contents of clips A, B, and C are recorded in the SD storage 2 in a plurality of MPEG2-format 20 Mbps I frames, and the contents of clips A, B, and C are a plurality of MPEG2-format 100 Mbps contents. It is assumed that the I storage is recorded in the HD storage 1.

ステップS61では、HD用ノンリニア編集機11は、HD用ストレージ1内のクリップA、BおよびCから必要な箇所を抜き出しシーケンス1(レンダリング無しシーケンス)を作成する。   In step S 61, the HD nonlinear editing machine 11 extracts necessary portions from the clips A, B, and C in the HD storage 1 and creates a sequence 1 (non-rendering sequence).

HD用ノンリニア編集機11は、シーケンス1を作成するための編集を終了すると、ステップS62を実行する。   When the editing for creating the sequence 1 is completed, the HD nonlinear editing machine 11 executes step S62.

ステップS62では、HD用ノンリニア編集機11は、収録・編集系管理サーバー16に、シーケンス1の編集が完了したことを通知する。   In step S62, the HD nonlinear editing machine 11 notifies the recording / editing management server 16 that the editing of the sequence 1 has been completed.

具体的には、HD用ノンリニア編集機11は、シーケンス1を生成するためのシーケンス1用編集データ(図2参照)を生成し、そのシーケンス1用編集データを、HD用ストレージ1に生成するとともに、収録・編集系管理サーバー16に提供する。なお、シーケンス1にはレンダリングが無いので、シーケンス1用編集データにはレンダリング情報が付与されない。   Specifically, the HD nonlinear editing machine 11 generates sequence 1 editing data (see FIG. 2) for generating the sequence 1, and generates the sequence 1 editing data in the HD storage 1. To the recording / editing management server 16. Since there is no rendering in sequence 1, rendering information is not added to the editing data for sequence 1.

収録・編集系管理サーバー16は、シーケンス1用編集データを受け付けると、ステップS63を実行する。   When receiving the editing data for sequence 1, the recording / editing management server 16 executes step S63.

ステップS63では、収録・編集系管理サーバー16は、新たに作成されたシーケンス1にレンダリングが必要か否かを判断する。   In step S63, the recording / editing management server 16 determines whether or not the newly created sequence 1 needs to be rendered.

具体的には、収録・編集系管理サーバー16は、シーケンス1用編集データにレンダリング情報が付与されていれば、レンダリングが必要と判断し、一方、シーケンス1用編集データにレンダリング情報が付与されていなければ、レンダリングは不要と判断する。   Specifically, the recording / editing management server 16 determines that rendering is necessary if the rendering information is attached to the sequence 1 editing data, while the rendering information is attached to the sequence 1 editing data. If not, it is determined that rendering is unnecessary.

本ケースでは、収録・編集系管理サーバー16は、レンダリングは不要と判断する。   In this case, the recording / editing management server 16 determines that rendering is unnecessary.

収録・編集系管理サーバー16は、レンダリングは不要と判断すると、ステップS64を実行する。   If the recording / editing management server 16 determines that rendering is not necessary, it executes step S64.

ステップS64では、収録・編集系管理サーバー16は、SD側にもシーケンス1を生成させるため、SDファイル管理サーバー15aに、シーケンス1の作成指示を行う。具体的には、収録・編集系管理サーバー16は、シーケンス1用編集データを、SDファイル管理サーバー15aに提供する。   In step S64, the recording / editing management server 16 instructs the SD file management server 15a to create the sequence 1 in order to generate the sequence 1 also on the SD side. Specifically, the recording / editing management server 16 provides the editing data for sequence 1 to the SD file management server 15a.

SDファイル管理サーバー15aは、シーケンス1用編集データを受け付けると、ステップS65を実行する。   When the SD file management server 15a receives the edit data for sequence 1, the SD file management server 15a executes step S65.

ステップS65では、SDファイル管理サーバー15aは、自己のファイル管理上にシーケンス1を生成する。   In step S65, the SD file management server 15a generates a sequence 1 on its own file management.

具体的には、SDファイル管理サーバー15aは、シーケンス1用編集データを、SD用ストレージ2に収録する。   Specifically, the SD file management server 15 a records the edit data for sequence 1 in the SD storage 2.

なお、上述したとおり、シーケンス1は、物理的なファイルとして、HD用ストレージ1およびSD用ストレージ2に存在するわけではなく、クリップA、BおよびCのどの部分を使用しているかという情報として、HDファイル管理サーバー14aおよびSDファイル管理サーバー15aによって等価的に管理される。   As described above, the sequence 1 does not exist in the HD storage 1 and the SD storage 2 as physical files, but as information on which part of the clips A, B, and C are used, The HD file management server 14a and the SD file management server 15a are equivalently managed.

この結果、HDノンリニア編集機11で編集したシーケンス1(カット編集(レンダリング無し))のファイルが、SDノンリニア編集機12で開かれると、SDノンリニア編集機12は、シーケンス1用編集データに基づいて、SD用ストレージ2内のクリップA、BおよびCから必要な箇所を抜き出しシーケンス1を参照し表示する。   As a result, when the file of the sequence 1 (cut editing (no rendering)) edited by the HD nonlinear editing machine 11 is opened by the SD nonlinear editing machine 12, the SD nonlinear editing machine 12 is based on the editing data for sequence 1. Then, necessary portions are extracted from the clips A, B and C in the SD storage 2 and displayed with reference to the sequence 1.

図7は、上記(C)のケース(SD用ノンリニア編集機12がSDコンテンツに対してレンダリングが必要な編集を行った場合、その編集結果をHDコンテンツへ反映させる方法)を説明するための説明図である。   FIG. 7 is a diagram for explaining the case (C) (a method in which the SD non-linear editing machine 12 reflects the editing result on the HD content when the SD content needs to be rendered). FIG.

なお、図7において、図5に示した処理と同じ処理には同一符号を付してある。以下、図5に示した処理と異なる点を中心に、上記(C)のケースを説明する。   In FIG. 7, the same processes as those shown in FIG. Hereinafter, the case of the above (C) will be described focusing on differences from the processing shown in FIG.

ステップS53では、収録・編集系管理サーバー16は、新たに作成されたシーケンス1にレンダリングが必要か否かを判断する。本ケースでは、シーケンス1用編集データにレンダリング情報が含まれているので、収録・編集系管理サーバー16は、レンダリングが必要と判断する。   In step S53, the recording / editing management server 16 determines whether or not rendering of the newly created sequence 1 is necessary. In this case, since the rendering information is included in the editing data for sequence 1, the recording / editing management server 16 determines that rendering is necessary.

収録・編集系管理サーバー16は、レンダリングが必要と判断すると、ステップS54およびステップS71を実行する。   When the recording / editing management server 16 determines that rendering is necessary, it executes steps S54 and S71.

ステップS71では、収録・編集系管理サーバー16は、SD側とHD側の双方にレンダリングファイルを生成するために、SDレンダリング装置15bおよびHDレンダリング装置14bを制御して、レンダリングファイルを生成する。   In step S71, the recording / editing management server 16 controls the SD rendering device 15b and the HD rendering device 14b to generate a rendering file in order to generate a rendering file on both the SD side and the HD side.

具体的には、収録・編集系管理サーバー16は、シーケンス1用編集データからレンダリング情報を読み出し、そのレンダリング情報をSDレンダリング装置15bおよびHDレンダリング装置14bに提供する。   Specifically, the recording / editing management server 16 reads the rendering information from the editing data for sequence 1, and provides the rendering information to the SD rendering device 15b and the HD rendering device 14b.

SDレンダリング装置15bは、レンダリング情報を受け付けると、ステップS72を実行する。   When receiving the rendering information, the SD rendering device 15b executes step S72.

ステップS72では、SDレンダリング装置15bは、そのレンダリング情報に基づいて、SD用ストレージ2内のSDコンテンツを編集して、レンダリングファイル(SDコンテンツ)を生成し、そのレンダリングファイルをSD用ストレージ2に収録する。   In step S72, the SD rendering device 15b edits the SD content in the SD storage 2 based on the rendering information, generates a rendering file (SD content), and records the rendering file in the SD storage 2. To do.

また、HDレンダリング装置14bは、レンダリング情報を受け付けると、ステップS73を実行する。   Further, when receiving the rendering information, the HD rendering device 14b executes step S73.

ステップS73では、HDレンダリング装置14bは、そのレンダリング情報に基づいて、HD用ストレージ1内のHDコンテンツを編集して、レンダリングファイル(HDコンテンツ)を生成し、そのレンダリングファイルをHD用ストレージ1に収録する。   In step S73, the HD rendering device 14b edits the HD content in the HD storage 1 based on the rendering information, generates a rendering file (HD content), and records the rendering file in the HD storage 1. To do.

この結果、SDノンリニア編集機12で編集したシーケンス1(レンダリング有り)のファイルが、HDノンリニア編集機11で開かれると、HDノンリニア編集機11は、シーケンス1用編集データに基づいて、HD用ストレージ1内のクリップA、B、Cおよびレンダリングファイルから必要な箇所を抜き出しシーケンス1を参照し表示する。   As a result, when the file of the sequence 1 (with rendering) edited by the SD nonlinear editor 12 is opened by the HD nonlinear editor 11, the HD nonlinear editor 11 stores the HD storage based on the editing data for the sequence 1. Necessary portions are extracted from the clips A, B, C and the rendering file in 1 and displayed with reference to the sequence 1.

図8は、上記(D)のケース(HD用ノンリニア編集機11がHDコンテンツに対してレンダリングが必要な編集を行った場合、その編集結果をSDコンテンツへ反映させる方法)を説明するための説明図である。   FIG. 8 is a diagram for explaining the case (D) (a method in which when the HD nonlinear editing machine 11 performs editing that requires rendering of HD content, the editing result is reflected in the SD content). FIG.

なお、図8において、図6および図7に示した処理と同じ処理には同一符号を付してある。以下、図6に示した処理と異なる点を中心に、上記(D)のケースを説明する。   In FIG. 8, the same processes as those shown in FIGS. 6 and 7 are denoted by the same reference numerals. Hereinafter, the case (D) will be described with a focus on differences from the processing shown in FIG.

ステップS63では、収録・編集系管理サーバー16は、新たに作成されたシーケンス1にレンダリングが必要か否かを判断する。本ケースでは、シーケンス1用編集データにレンダリング情報が含まれているので、収録・編集系管理サーバー16は、レンダリングが必要と判断する。   In step S63, the recording / editing management server 16 determines whether or not the newly created sequence 1 needs to be rendered. In this case, since the rendering information is included in the editing data for sequence 1, the recording / editing management server 16 determines that rendering is necessary.

収録・編集系管理サーバー16は、レンダリングが必要と判断すると、ステップS64およびステップS71を実行し、SDレンダリング装置15bは、レンダリング情報を受け付けると、ステップS72を実行し、HDレンダリング装置14bは、レンダリング情報を受け付けると、ステップS73を実行する。   When the recording / editing management server 16 determines that rendering is necessary, it executes steps S64 and S71. Upon receiving the rendering information, the SD rendering device 15b executes step S72, and the HD rendering device 14b When the information is received, step S73 is executed.

この結果、HDノンリニア編集機11で編集したシーケンス1(レンダリング有り)のファイルが、SDノンリニア編集機12で開かれると、SDノンリニア編集機12は、シーケンス1用編集データに基づいて、SD用ストレージ2内のクリップA、B、Cおよびレンダリングファイルから必要な箇所を抜き出しシーケンス1を参照し表示する。   As a result, when the file of the sequence 1 (with rendering) edited by the HD nonlinear editor 11 is opened by the SD nonlinear editor 12, the SD nonlinear editor 12 stores the SD storage based on the sequence 1 editing data. Necessary portions are extracted from the clips A, B, C and the rendering file in 2 and displayed with reference to the sequence 1.

本実施例によれば、編集反映装置13は、SD用ノンリニア編集機12がSD用ストレージ2内のSDコンテンツを編集した際に、その編集結果に基づいてHDストレージ1内のHDコンテンツを編集し、また、HD用ノンリニア編集機11がHDストレージ1内のHDコンテンツを編集した際に、その編集結果に基づいてSD用ストレージ2内のSDコンテンツを編集する。   According to the present embodiment, when the SD nonlinear editing machine 12 edits the SD content in the SD storage 2, the edit reflection device 13 edits the HD content in the HD storage 1 based on the editing result. Further, when the HD nonlinear editing machine 11 edits the HD content in the HD storage 1, the SD content in the SD storage 2 is edited based on the editing result.

このため、SDコンテンツに対する編集結果を、HDコンテンツに反映させるだけでなく、HDコンテンツに対する編集結果を、SDコンテンツに反映させることが可能になる。よって、例えば、まず、HDコンテンツで編集を行い、その後、その編集結果を反映したSDコンテンツで編集したいという要望に応じることが可能になる。   For this reason, it becomes possible not only to reflect the editing result for the SD content in the HD content but also to reflect the editing result for the HD content in the SD content. Therefore, for example, it is possible to respond to a request for editing with HD content first and then editing with SD content reflecting the editing result.

また、本実施例では、収録・編集系管理サーバー16は、SD用ノンリニア編集機12がSDコンテンツを編集した際に、HDファイル編集管理装置14を用いて、HDコンテンツをSD用ノンリニア編集機12による編集結果に基づいて編集し、HD用ノンリニア編集機11がHDコンテンツを編集した際に、SDファイル編集管理装置15を用いて、SDコンテンツをHD用ノンリニア編集機11による編集結果に基づいて編集する。   In the present embodiment, the recording / editing management server 16 uses the HD file editing management device 14 when the SD nonlinear editor 12 edits the SD content, and uses the HD file editing management device 14 to convert the HD content into the SD nonlinear editor 12. When the HD nonlinear editing machine 11 edits the HD content, the SD file editing management device 15 is used to edit the SD content based on the editing result by the HD nonlinear editing machine 11. To do.

この場合、収録・編集系管理サーバー16にて編集結果の反映を管理できる。   In this case, reflection of the edited result can be managed by the recording / editing management server 16.

また、本実施例では、編集反映装置13は、HD用ノンリニア編集機11がHD用ストレージ1内のHDコンテンツを編集して所定名のコンテンツを作成している間、SD用ノンリニア編集機12がSD用ストレージ2内のSDコンテンツを編集してその所定名のコンテンツを作成することを禁止する。   Further, in this embodiment, the editing reflection device 13 is configured so that the SD nonlinear editing machine 12 creates the predetermined name content while the HD nonlinear editing machine 11 edits the HD content in the HD storage 1. It is prohibited to edit the SD content in the SD storage 2 to create the content with the predetermined name.

また、編集反映装置13は、SD用ノンリニア編集機12がSD用ストレージ2内のSDコンテンツを編集して特定名のコンテンツを作成している間、HD用ノンリニア編集機11がHD用ストレージ1内のHDコンテンツを編集してその特定名のコンテンツを作成することを禁止する。   In addition, the editing / reflecting device 13 is configured such that the HD nonlinear editing machine 11 is in the HD storage 1 while the SD nonlinear editing machine 12 edits the SD content in the SD storage 2 to create a content with a specific name. It is forbidden to edit the HD content and create the content with the specific name.

この場合、同一名称のコンテンツが、HD用ノンリニア編集機11およびSD用ノンリニア編集機12で同時に編集されて作成されることを防止できる。   In this case, it is possible to prevent content having the same name from being simultaneously edited and created by the HD nonlinear editor 11 and the SD nonlinear editor 12.

このため、同一名称のコンテンツが、HD用ノンリニア編集機11およびSD用ノンリニア編集機12で同時に作成され、先に編集が完了したコンテンツが、後で編集が完了したコンテンツに上書きされ、先に編集が完了したコンテンツの内容が消去されてしまうという不都合を回避可能となる。   For this reason, content with the same name is created at the same time by the HD nonlinear editor 11 and the SD nonlinear editor 12, and the content that has been edited first is overwritten by the content that has been edited later. It is possible to avoid the inconvenience that the contents of the content that has been completed are deleted.

また、本実施例では、編集反映装置13は、HD用ノンリニア編集機11またはSD用ノンリニア編集機12が映像効果を伴う編集を行った場合に、その映像効果に基づいて、HD用ストレージ1内のHDコンテンツからレンダリングファイルを生成し、そのレンダリングファイルをHD用ストレージ1に収録するとともに、その映像効果に基づいて、SD用ストレージ2内のSDコンテンツからレンダリングファイルを生成し、そのレンダリングファイルをSD用ストレージ2に収録する。   Also, in this embodiment, the editing reflection device 13 is used in the HD storage 1 based on the video effect when the HD nonlinear editor 11 or the SD nonlinear editor 12 performs editing with the video effect. A rendering file is generated from the HD content, and the rendering file is recorded in the HD storage 1, and a rendering file is generated from the SD content in the SD storage 2 based on the video effect. Recorded in storage 2.

この場合、映像効果に基づいたレンダリングファイルを生成することが可能になる。このため、例えば、レンダリングファイルを再利用することが可能になる。   In this case, a rendering file based on the video effect can be generated. For this reason, for example, a rendering file can be reused.

また、本実施例では、第1精細度は、HDTV方式に対応する精細度であり、第2精細度は、SDTV方式に対応する精細度である。   In the present embodiment, the first definition is a definition corresponding to the HDTV system, and the second definition is a definition corresponding to the SDTV system.

この場合、第2精細度のコンテンツは、SDTV方式に準じることになり、例えば、第2精細度のコンテンツが、放送番組として送出されても、視聴者は、その放送番組を、地上波アナログ放送用の番組と同様に認識することが可能になる。   In this case, the second definition content conforms to the SDTV system. For example, even if the second definition content is transmitted as a broadcast program, the viewer can transmit the broadcast program to the terrestrial analog broadcast. It can be recognized in the same way as a program for the use.

以上説明した実施例において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。   In the embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.

本発明の一実施例の編集システムを示したブロック図である。It is the block diagram which showed the editing system of one Example of this invention. レンダリング無しシーケンスを生成するための編集データの一例を示した説明図である。It is explanatory drawing which showed an example of the edit data for producing | generating a sequence without a rendering. レンダリング有りシーケンスを生成するための編集データの一例を示した説明図である。It is explanatory drawing which showed an example of the edit data for producing | generating a sequence with rendering. HDコンテンツとSDコンテンツとを模式的に示した説明図である。It is explanatory drawing which showed HD content and SD content typically. 編集反映動作を説明するための説明図である。It is explanatory drawing for demonstrating edit reflection operation | movement. 編集反映動作を説明するための説明図である。It is explanatory drawing for demonstrating edit reflection operation | movement. 編集反映動作を説明するための説明図である。It is explanatory drawing for demonstrating edit reflection operation | movement. 編集反映動作を説明するための説明図である。It is explanatory drawing for demonstrating edit reflection operation | movement.

符号の説明Explanation of symbols

1 HD用ストレージ
2 SD用ストレージ
3 マトリクススイッチャー
4 マトリクススイッチャー制御装置
5 信号分配装置
6 信号変換装置
7 HD用収録サーバー
8 SD用収録サーバー
9 収録制御装置
10 ファイル変換装置
11 HD用ノンリニア編集機
12 SD用ノンリニア編集機
13 編集反映装置
14 HDファイル編集管理装置
14a HDファイル管理サーバー
14b HDレンダリング装置
15a SDファイル管理サーバー
15b SDレンダリング装置
16 収録・編集系管理サーバー
16 ファイル変換装置
DESCRIPTION OF SYMBOLS 1 HD storage 2 SD storage 3 Matrix switcher 4 Matrix switcher control device 5 Signal distribution device 6 Signal conversion device 7 HD recording server 8 SD recording server 9 Recording control device 10 File conversion device 11 HD non-linear editing machine 12 SD Nonlinear Editing Machine 13 Editing Reflection Device 14 HD File Editing Management Device 14a HD File Management Server 14b HD Rendering Device 15a SD File Management Server 15b SD Rendering Device 16 Recording / Editing Management Server 16 File Conversion Device

Claims (7)

コンテンツを編集する編集システムであって、
前記コンテンツを第1精細度で保持する第1格納装置と、
前記コンテンツを前記第1精細度より粗い第2精細度で保持する第2格納装置と、
前記第1格納装置に保持された第1精細度のコンテンツを編集する第1編集装置と、
前記第2格納装置に保持された第2精細度のコンテンツを編集する第2編集装置と、
前記第2編集装置が前記第2精細度のコンテンツを編集した際に、前記第2編集装置による編集結果に基づいて前記第1精細度のコンテンツを編集し、前記第1編集装置が前記第1精細度のコンテンツを編集した際に、前記第1編集装置による編集結果に基づいて前記第2精細度のコンテンツを編集する編集反映装置と、を含み、
前記編集反映装置は、前記第1編集装置または前記第2編集装置から映像効果を伴う編集データを受け付けた場合に、前記映像効果に基づいて前記第1精細度のコンテンツから前記第1精細度の第1映像効果コンテンツを生成し該第1映像効果コンテンツを前記第1格納装置に収録する動作と、前記映像効果に基づいて前記第2精細度のコンテンツから前記第2精細度の第2映像効果コンテンツを生成し該第2映像効果コンテンツを前記第2格納装置に収録する動作とを、並列して行う、編集システム。
An editing system for editing content,
A first storage device for holding the content at a first definition;
A second storage device for holding the content at a second definition coarser than the first definition;
A first editing device for editing the content of the first definition held in the first storage device;
A second editing device that edits content of the second definition held in the second storage device;
When the second editing device edits the second definition content, the first editing device edits the first definition content based on an editing result by the second editing device, and the first editing device uses the first editing device to edit the first definition content. An edit reflection device that edits the content of the second definition based on the editing result by the first editing device when editing the content of the definition,
When the editing reflection device receives editing data accompanied by a video effect from the first editing device or the second editing device, the editing reflection device converts the first definition content from the first definition content based on the video effect. an act of recording the first storage device the generated said first video effect contents of the first video effect contents, second video effects of the second resolution from the contents of the second resolution on the basis of the video effect generating the operation for recording the second video effect contents to the second storage device the content and performed in parallel, the editing system.
請求項1に記載の編集システムにおいて、
前記編集反映装置は、
前記第1精細度のコンテンツを編集するための第3編集装置と、
前記第2精細度のコンテンツを編集するための第4編集装置と、
前記第2編集装置が前記第2精細度のコンテンツを編集した際に、前記第3編集装置を用いて、前記第1精細度のコンテンツを前記第2編集装置による編集結果に基づいて編集し、前記第1編集装置が前記第1精細度のコンテンツを編集した際に、前記第4編集装置を用いて、前記第2精細度のコンテンツを前記第1編集装置による編集結果に基づいて編集する編集管理装置と、を含む、編集システム。
The editing system according to claim 1,
The edit reflection device is
A third editing device for editing the first definition content;
A fourth editing device for editing the content of the second definition;
When the second editing device edits the second definition content, the third editing device is used to edit the first definition content based on the editing result by the second editing device, When the first editing device edits the first definition content, the fourth editing device is used to edit the second definition content based on the editing result by the first editing device. And an editing system.
請求項1または2に記載の編集システムにおいて、
前記編集反映装置は、前記第1編集装置が前記第1精細度のコンテンツを編集してコンテンツを作成している間、前記第2編集装置が、前記第1編集装置が作成中のコンテンツと同じ名称のコンテンツを作成することを禁止し、また、前記第2編集装置が前記第2精細度のコンテンツを編集してコンテンツを作成している間、前記第1編集装置が、前記第2編集装置が作成中のコンテンツと同じ名称のコンテンツを作成することを禁止する、編集システム。
The editing system according to claim 1 or 2,
The editing / reflecting device is the same as the content being created by the first editing device while the first editing device is creating the content by editing the first definition content. The creation of content with a name is prohibited, and while the second editing device is editing the second definition content to create the content, the first editing device is the second editing device. Editing system that prohibits the creation of content with the same name as the content being created.
請求項1ないしのいずれか1項に記載の編集システムにおいて、
前記第1精細度は、HDTV方式に対応する精細度であり、
前記第2精細度は、SDTV方式に対応する精細度である、編集システム。
The editing system according to any one of claims 1 to 3 ,
The first definition is a definition corresponding to the HDTV system,
The editing system, wherein the second definition is a definition corresponding to the SDTV system.
第1および第2格納装置を含み、コンテンツを編集する編集システムが行う編集方法であって、
前記コンテンツを第1精細度で前記第1格納装置に保持する第1保持ステップと、
前記コンテンツを前記第1精細度より粗い第2精細度で前記第2格納装置に保持する第2保持ステップと、
前記第1格納装置に保持された第1精細度のコンテンツを編集する第1編集ステップと、
前記第2格納装置に保持された第2精細度のコンテンツを編集する第2編集ステップと、
前記第2編集ステップで前記第2精細度のコンテンツが編集された際に、前記第2編集ステップによる編集結果に基づいて前記第1精細度のコンテンツを編集し、前記第1編集ステップで前記第1精細度のコンテンツが編集された際に、前記第1編集ステップによる編集結果に基づいて前記第2精細度のコンテンツを編集する編集反映ステップと、
像効果を伴う編集データを受け付けた場合に、前記映像効果に基づいて前記第1精細度のコンテンツから前記第1精細度の第1映像効果コンテンツを生成し該第1映像効果コンテンツを前記第1格納装置に収録する動作と、前記映像効果に基づいて前記第2精細度のコンテンツから前記第2精細度の第2映像効果コンテンツを生成し該第2映像効果コンテンツを前記第2格納装置に収録する動作とを、並列して行う収録ステップと、を含む編集方法。
An editing method performed by an editing system that includes first and second storage devices and edits content,
A first holding step of holding the content in the first storage device at a first definition;
A second holding step of holding the content in the second storage device with a second definition coarser than the first definition;
A first editing step of editing content of the first definition held in the first storage device;
A second editing step of editing content of the second definition held in the second storage device;
When the second definition content is edited in the second editing step, the first definition content is edited based on the editing result in the second editing step, and the first editing step An edit reflecting step of editing the second definition content based on the editing result of the first editing step when the first definition content is edited;
When receiving the edited data with the movies image effect, said generated the first image effect contents of the first video effect contents of the first definition from the content of the first resolution on the basis of the video effect first an act of recording the first storage device, the said second storage device generated the second video effects content of the second video effect contents of the second resolution from the contents of the second resolution on the basis of the video effect An editing method including a recording step in which recording operations are performed in parallel .
請求項に記載の編集方法において、
前記第1編集ステップで前記第1精細度のコンテンツを編集してコンテンツを作成している間、前記第2編集ステップにて、前記第1編集ステップで作成中のコンテンツと同じ名称のコンテンツを作成することを禁止し、また、前記第2編集ステップで前記第2精細度のコンテンツを編集してコンテンツを作成している間、前記第1編集ステップにて、前記第2編集ステップで作成中のコンテンツと同じ名称のコンテンツを作成することを禁止する禁止ステップを、さらに含む編集方法。
The editing method according to claim 5 ,
While the content is created by editing the first definition content in the first editing step, the content having the same name as the content being created in the first editing step is created in the second editing step. In addition, while the content is created by editing the content of the second definition in the second editing step, the content is being created in the second editing step in the first editing step. An editing method further comprising a prohibiting step for prohibiting creation of content having the same name as the content.
請求項5または6に記載の編集方法において、
前記第1精細度は、HDTV方式に対応する精細度であり、
前記第2精細度は、SDTV方式に対応する精細度である、編集方法。
The editing method according to claim 5 or 6 ,
The first definition is a definition corresponding to the HDTV system,
The editing method, wherein the second definition is a definition corresponding to the SDTV system.
JP2006294737A 2006-10-30 2006-10-30 Editing system and editing method Expired - Fee Related JP4748030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006294737A JP4748030B2 (en) 2006-10-30 2006-10-30 Editing system and editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006294737A JP4748030B2 (en) 2006-10-30 2006-10-30 Editing system and editing method

Publications (2)

Publication Number Publication Date
JP2008113216A JP2008113216A (en) 2008-05-15
JP4748030B2 true JP4748030B2 (en) 2011-08-17

Family

ID=39445491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006294737A Expired - Fee Related JP4748030B2 (en) 2006-10-30 2006-10-30 Editing system and editing method

Country Status (1)

Country Link
JP (1) JP4748030B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103525986A (en) * 2013-09-28 2014-01-22 杨立斌 Heat treatment pool using solar

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001238193A (en) * 2000-02-18 2001-08-31 Sony Corp Video display device and video supply method
JP2002191011A (en) * 2000-12-20 2002-07-05 Matsushita Electric Ind Co Ltd Coordinative edit system
JP2004153763A (en) * 2002-11-01 2004-05-27 Matsushita Electric Ind Co Ltd Content creation system and preview system
JP4117616B2 (en) * 2003-07-28 2008-07-16 ソニー株式会社 Editing system, control method thereof and editing apparatus

Also Published As

Publication number Publication date
JP2008113216A (en) 2008-05-15

Similar Documents

Publication Publication Date Title
JP5112287B2 (en) Method and system for providing distributed editing and storage of digital media over a network
US8532473B2 (en) Reproduction control method, reproduction apparatus, and television set
US20010004417A1 (en) Video editing system
US20120266203A1 (en) Ingest-once write-many broadcast video production system
JP4110528B2 (en) Editing apparatus and editing method
US9025936B2 (en) Video processing apparatus, method of adding time code, and methode of preparing editing list
MXPA04006188A (en) Media foundation media processor.
US11115706B2 (en) Method, client, and terminal device for screen recording
US8364007B2 (en) Improving storage efficiency of high definition digital video recorders
JP4748030B2 (en) Editing system and editing method
KR101250721B1 (en) Transitioning Between Two High Resolution Video Sources
US8731379B1 (en) Systems and methods for recording programs with a network recording device upon failure of a user's equipment
JP4174718B2 (en) Editing apparatus and editing method
US20080077627A1 (en) Data management system
US20080310764A1 (en) Information processing apparatus, information processing method, program, and recording medium
JP2007074687A (en) Terminal device for operating video server
JP4442458B2 (en) Broadcast program composition device, program broadcast system, and broadcast program composition method
JP2007188377A (en) Electronic apparatus, backup system therefor, and method for providing backup service
JP2020053828A (en) Editing system, editing device, and editing method
JP3741215B2 (en) Movie editing method, movie editing system, information processing apparatus
JP5703532B2 (en) Transcoding device
JP2004153763A (en) Content creation system and preview system
KR101000118B1 (en) Preprocessing editorial device and method based on Low resolution
JPH11275526A (en) Video server system
US20170201748A1 (en) Encoder, encoding method, camera, recorder, and camera-integrated recorder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4748030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees