JP2002300523A - Device and method for producing contents - Google Patents

Device and method for producing contents

Info

Publication number
JP2002300523A
JP2002300523A JP2001100644A JP2001100644A JP2002300523A JP 2002300523 A JP2002300523 A JP 2002300523A JP 2001100644 A JP2001100644 A JP 2001100644A JP 2001100644 A JP2001100644 A JP 2001100644A JP 2002300523 A JP2002300523 A JP 2002300523A
Authority
JP
Japan
Prior art keywords
editing
format
epl
edit list
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001100644A
Other languages
Japanese (ja)
Inventor
Yoshihiro Murakami
芳弘 村上
Minoru Kawahara
実 河原
Mitsutoshi Magai
光俊 真貝
Masataka Mukai
正孝 向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001100644A priority Critical patent/JP2002300523A/en
Publication of JP2002300523A publication Critical patent/JP2002300523A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a content producing device which reproduces the last play list of a hierarchy structure by using a distributed play list generated in an other distributed place and produces the content of an arbitrary format, based on the play list. SOLUTION: Two computer terminals 67 and 68 read and decode sub- materials from an intraframe server 71 and display a video, based on obtained vide data on a monitor. An operator controls the intraframe server 71 via the computer terminal, views and confirms the video displayed on the monitor, while the intraframe server 71 is caused to perform a desired operation (reproduction, rewinding or fast-forwarding) and generates EPL. EPL has identification information for specifying the material used for editing and outputting, and a format declaration statement for defining the format of a part of the material.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンテンツ制作装
置及び方法に関し、特に複数の映像及び/又は音声の素
材を用いてコンテンツを制作するためのコンテンツ制作
装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a content production apparatus and method, and more particularly to a content production apparatus and method for producing content using a plurality of video and / or audio materials.

【0002】[0002]

【従来の技術】動画像の編集は、映画フィルムのスプラ
イサー+セメントに始まったが、ビデオ編集において
は、デルマト+はさみ+スプライシングテープという黎
明期を経て、ダビングによる電子編集時代が長く続いて
いる。
2. Description of the Related Art Moving picture editing began with splicers and cements for movie films, but in video editing, the era of electronic editing by dubbing has continued for a long time after the dawn of dermato + scissors + splicing tape.

【0003】ここ十年ほどで普及したノンリニア編集
(non-linear editor)も、その延長線上にあるといえ
る。すなわち、メディアから得た画像を見ながら、主に
ダビングによって繋ぎ合わせ、必要に応じて画像処理を
施し、編集結果を再びメディアに収める、以上一連の作
業、あるいはその繰り返しという作業であり、何十年も
踏襲されている。
[0003] Non-linear editors, which have become popular over the last decade or so, can be said to be on an extension of that. That is, while viewing images obtained from the media, they are mainly connected by dubbing, image processing is performed as necessary, and the edited result is again stored in the media. Years have been followed.

【0004】しかし、このような伝統手法には以下のよ
うな問題点がある。まず、データ圧縮と伸長を繰り返す
ことが原因での画質劣化が起こることである。アナログ
で編集を行う時代では、ダビングを繰り返すことにより
電子編集でも画質劣化が起きたが、ベースバンド・デジ
タルの時代に至ってほぼ完璧に解消されたはずであっ
た。しかし、昨今の画像圧縮技術の普及浸透によって、
画質問題は再燃することとなった。データ圧縮と伸長を
繰り返すことが原因である。この対策としては、圧縮率
を下げたり、圧縮単位を短くする、といった妥協策が講
じられるが、メディアのコストや通信時間など、多くの
面で不経済であり、しかも画質劣化が完全に解消される
わけでもない。データ圧縮しない場合でも、画像の拡大
縮小やピクセルシフト、合成など、いわゆる特殊効果の
繰り返し処理によっても、画質劣化と不経済をもたら
す。
However, such a traditional method has the following problems. First, image quality is degraded due to repeated data compression and decompression. In the era of analog editing, repeated dubbing caused deterioration in image quality in electronic editing, but it should have been almost completely eliminated in the era of baseband digital. However, with the recent spread of image compression technology,
The problem of image quality was to recur. This is because data compression and decompression are repeated. As a countermeasure, there are compromises such as lowering the compression ratio or shortening the compression unit, but it is uneconomical in many aspects such as media cost and communication time, and image quality degradation is completely eliminated. Not necessarily. Even without data compression, image quality degradation and uneconomical effects are caused by repetitive processing of so-called special effects such as image enlargement / reduction, pixel shift, and synthesis.

【0005】次の問題は、従来の編集においては、単一
の画像フォーマットにしか対応できなかったことであ
る。NTSCなどの画像フォーマットは、受像機や電波割り
当てを主眼に考案・統一された。しかし、昨今HDVSやPC
上のウィンドウなど、複数の画像フォーマットが混在で
使われるのが、むしろ一般的である。単一のフォーマッ
トしか対応できないことは、素材の収集においても完パ
ケの提供においても大きな弊害となってきた。しかも、
とくにコンピュータ上では、ユーザーが勝手な仕様のウ
ィンドウを作れるため、用意されたフォーマットの中か
ら選ぶ方式では対応しきれない。
[0005] The next problem is that in the conventional editing, only a single image format can be handled. Image formats such as NTSC were devised and unified with a focus on receivers and radio wave allocation. However, these days HDVS and PC
It is rather common to use multiple image formats, such as the window above. The fact that only a single format can be handled has been a great problem both in collecting materials and providing complete packages. Moreover,
Especially on a computer, users can create windows with arbitrary specifications, so it is not possible to select a format from the available formats.

【0006】次の問題は、従来の編集では、素材を手許
に一旦溜めてから使うしかなかったことである。編集
時、目的とする画を特定するためタイムコードが使われ
るが、一巻中の位置を示すに過ぎず、メディアを特定す
ることは基本的に不可能であった。リール番号などでメ
ディアを特定する方法も使われるが、あくまでローカル
な運用範囲に留まる。したがって、素材は手許に一旦溜
めてから使うしかなく、手間とコストを要する。同様に
特殊効果やタイトル挿入なども機種依存で、手許の装置
が対応していない加工は不可能なため、編集結果も手許
のメディアに記録せざるを得ない。
[0006] The next problem is that in the conventional editing, materials have to be temporarily stored at hand and then used. At the time of editing, a time code is used to specify a target image. However, it merely indicates a position in one volume, and it is basically impossible to specify a medium. Although a method of specifying the media by a reel number or the like is also used, it is limited to a local operation range. Therefore, the material must be stored once and used beforehand, which requires labor and cost. Similarly, special effects, title insertion, and the like also depend on the model, and processing that is not compatible with the device at hand is impossible. Therefore, the editing result must be recorded on the medium at hand.

【0007】以上の問題点の全てを解決するわけではな
いが、近年、編集リストとしてEDL(Edit Decision L
ist)を作成し、このEDLに記載されたプログラムに従
い自動的に電子編集を行うシステムが採用されてきてい
る。
[0007] Although not all of the above problems can be solved, in recent years, an EDL (Edit Decision L
ist), and a system for automatically performing electronic editing according to a program described in the EDL has been adopted.

【0008】ところで、前記EDLには、特殊効果な
ど、互換性のない項目も記述されており、システム限定
となっている。また、テープの架け替えなどもあり、人
手に頼ることが多い。融通が利きにくい点では、完パケ
を修正したい場合の対応も面倒であり、たとえば最初の
コマの前に1コマ挿入するだけでも、全編の再編集もし
くはダビングが必要となる。
By the way, in the EDL, items which are not compatible with each other, such as special effects, are described, and the system is limited. In addition, there is a need to change tapes, etc., and often relies on manual labor. The point of difficulty in flexibility is that it is troublesome to correct a complete packet. For example, even if one frame is inserted before the first frame, it is necessary to re-edit or dub the entire volume.

【0009】このように、現状の編集システムは、現時
点でも不経済・不効率な面が多いが、それ以上に、ネッ
トワークのメリットを享受できないという一面がある。
現状に固執すれば、時代に取り残された後進的システム
になる危険性が高い。それぞれの問題は有機的に絡み合
っているため、部分的な対策を施しても新たな問題を引
き起こすであろうし、複雑さが連鎖的に増すので、現状
の編集システムのままではいずれは使われなくなること
もあり得る。
As described above, the current editing system has many aspects that are uneconomical and inefficient even at present, but there is one aspect that the advantages of the network cannot be enjoyed further.
If you stick to the status quo, there is a high risk that it will become a backward system that has been left behind by the times. Each issue is organically intertwined, so even taking partial measures will cause new problems, and the complexity will increase in cascade, so the current editing system will not be used anymore It is possible.

【0010】[0010]

【発明が解決しようとする課題】本発明は、前記実情に
鑑みてなされたものであり、他の分散場所で作成された
分散編集リストを用いて最終的な階層構造の編集リスト
を再生し、この編集リストに基づいて、データの品質劣
化を防ぎながら、またマルチフォーマットのデータに対
応し、かつ素材を手許に一旦溜めて使うことなく、さら
に処理の互換を可能として、任意のフォーマットのコン
テンツを制作することができるコンテンツ制作装置及び
方法の提供を目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and reproduces a final hierarchically structured edit list by using a distributed edit list created at another distributed location. Based on this edit list, while preventing data quality deterioration, supporting multi-format data, and without having to temporarily store and use materials at hand, it is possible to further process compatibility, and to allow content of any format to be used. It is an object of the present invention to provide a content production apparatus and method capable of producing.

【0011】[0011]

【課題を解決するための手段】本発明に係るコンテンツ
制作装置は、前記実情に鑑みてなされたものであり、複
数の映像及び/又は音声の素材を用いて他の分散場所で
作成された分散編集リストを用いて最終的な階層構造の
編集リストを統合最適化により作成する編集リスト作成
手段と、前記編集リスト作成手段で作成された編集リス
トとそれに対応する素材を用いて前記分散編集リストを
作成する分散編集リスト作成手段と、前記編集リスト作
成手段で作成された前記編集リストに基づいて任意フォ
ーマットのコンテンツを形成するコンテンツ形成手段と
を備え、前記編集リスト及び/又は分散編集リストに
は、編集に使用される素材を特定するための識別情報
と、少なくとも一部の素材のフォーマットを定義するフ
ォーマット宣言文とを有する。
SUMMARY OF THE INVENTION A content producing apparatus according to the present invention has been made in view of the above-mentioned circumstances, and has been developed in a distributed location created by using a plurality of video and / or audio materials. Edit list creating means for creating a final hierarchically structured edit list using an edit list by integrated optimization, and the distributed edit list using the edit list created by the edit list creating means and the corresponding material. A distributed edit list creating means for creating, and content forming means for forming content in an arbitrary format based on the edit list created by the edit list creating means, wherein the edit list and / or the distributed edit list include: Identification information for identifying the material used for editing and a format declaration statement that defines the format of at least some of the material To.

【0012】このコンテンツ制作装置は、他の分散場所
で分散編集リスト作成手段により作成された分散編集リ
ストを用い、編集リスト作成手段において最終的な階層
構造の編集リストを統合最適化により作成し、コンテン
ツ形成手段にて前記編集リストに基づいて任意フォーマ
ットのコンテンツを形成するが、前記編集リスト及び/
又は分散編集リストには、編集に使用される素材を特定
するための識別情報と、少なくとも一部の素材のフォー
マットを定義するフォーマット宣言文とが記載されてい
る。本発明に係るコンテンツ制作方法は、前記課題を解
決するために、複数の映像及び/又は音声の素材を用い
て他の分散場所で作成された分散編集リストを用いて最
終的な階層構造の編集リストを統合最適化により作成す
る編集リスト作成工程と、前記編集リスト作成工程で作
成された編集リストとそれに対応する素材を用いて前記
分散編集リストを作成する分散編集リスト作成工程と、
前記編集リスト作成手段で作成された前記編集リストに
基づいて任意のフォーマットのコンテンツを形成するコ
ンテンツ形成工程とを備え、前記編集リスト及び/又は
分散編集リストには、編集に使用される素材を特定する
ための識別情報と、少なくとも一部の素材のフォーマッ
トを定義するフォーマット宣言文とを有する。
This content production apparatus uses a distributed edit list created by a distributed edit list creating means at another distributed place, and creates a final hierarchically structured edit list in the edit list creating means by integrated optimization. Content forming means forms content in an arbitrary format based on the edit list.
Alternatively, the distributed editing list describes identification information for specifying a material used for editing, and a format declaration statement defining a format of at least a part of the material. In order to solve the above-mentioned problems, the content production method according to the present invention edits a final hierarchical structure using a distributed editing list created in another distributed place using a plurality of video and / or audio materials. An edit list creating step of creating a list by integrated optimization, a distributed edit list creating step of creating the distributed edit list using the edit list created in the edit list creating step and the corresponding material,
A content forming step of forming a content in an arbitrary format based on the edit list created by the edit list creating means. The edit list and / or the distributed edit list specify a material used for editing. And a format declaration statement that defines the format of at least some of the materials.

【0013】このコンテンツ制作方法は、複数の映像及
び/又は音声の素材を用いて他の分散場所で分散編集リ
スト作成工程により作成された分散編集リストを用い
て、編集リスト作成工程が最終的な階層構造の編集リス
トを統合最適化により作成し、コンテンツ形成工程にて
前記編集リストに基づいて任意フォーマットのコンテン
ツを形成するが、前記基準編集リスト及び/又は分散編
集リストには、編集に使用される素材を特定するための
識別情報と、少なくとも一部の素材のフォーマットを定
義するフォーマット宣言文とが記載されている。
In this content production method, an edit list creation step is finally performed by using a distributed edit list created by a distributed edit list creation step at another distribution place using a plurality of video and / or audio materials. An edit list having a hierarchical structure is created by integrated optimization, and a content of an arbitrary format is formed on the basis of the edit list in a content forming step. The reference edit list and / or the distributed edit list include edit lists used for editing. The identification information for specifying the material to be used and a format declaration statement that defines the format of at least a part of the material are described.

【0014】[0014]

【発明の実施の形態】以下、本発明に係るコンテンツ制
作装置及び方法の実施の形態について図面を参照しなが
ら説明する。この実施の形態は、編集手続リスト(Edit
Procecure List;EPL)を数カ所に存在する複数の
グループにより分散して作成し、コンテンツを制作する
コンテンツ制作システムである。EPLを用いた編集作
業では、素材を直接加工しないので、数カ所に存在する
複数のグループで分散して作業を進めることが可能とな
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a content producing apparatus and method according to the present invention will be described with reference to the drawings. In this embodiment, the editing procedure list (Edit
This is a content production system that distributes and creates a Procedure List (EPL) by a plurality of groups existing in several places and produces content. In the editing work using the EPL, since the material is not directly processed, the work can be performed in a distributed manner by a plurality of groups existing in several places.

【0015】図1には、コンテンツ制作システム60の
全体構成図を示す。素材編集グループ66、編集結果保
存・検索グループ74、編集結果利用グループ82がそ
れぞれLANを構成し、それらLANを接続して第1の
編集グループ部を形成している。また、コンピュータグ
ラフィック処理グループ93、クローズドキャプション
処理グループ102、地方局111もそれぞれLANを
構成し、それらLANを接続して第2の編集グループ部
を形成している。
FIG. 1 shows an overall configuration diagram of a content production system 60. The material editing group 66, the editing result storage / retrieval group 74, and the editing result use group 82 each constitute a LAN, and these LANs are connected to form a first editing group unit. The computer graphic processing group 93, the closed caption processing group 102, and the local station 111 also constitute LANs, and these LANs are connected to form a second editing group unit.

【0016】このコンテンツ制作システム60では、ビ
デオカメラ61で記録された映像及び/又は音声からな
る素材ファイル64が、例えばインターネットのような
外部ネットワーク63を介して、第1の編集グループ部
の素材編集グループ66に供給される。
In the content production system 60, a material file 64 composed of video and / or sound recorded by a video camera 61 is edited by a first editing group unit via an external network 63 such as the Internet. Provided to group 66.

【0017】先ず、第1の編集グループ部を構成する、
素材編集グループ66について説明する。素材編集グル
ープ66は、ゲート65とゲート89及び73の中にあ
り、二つのコンピュータ端末67及び68と、素材サー
バー(O)69と、デコーダ・エンコーダ(D)70
と、オフライン編集用のイントラフレームサーバー
(I)71と、EPLサーバー(E)72とからなる。
イントラフレームサーバーは、後述の図2にて示すサブ
素材サーバー14に相当する。
First, a first editing group unit is constructed.
The material editing group 66 will be described. The material editing group 66 is located in the gate 65 and the gates 89 and 73, and has two computer terminals 67 and 68, a material server (O) 69, and a decoder / encoder (D) 70.
, An intraframe server (I) 71 for offline editing, and an EPL server (E) 72.
The intra-frame server corresponds to a sub-material server 14 shown in FIG.

【0018】素材編集グループ66のオペレータは、コ
ンピュータ端末67又は68を用いて、素材ファイル6
4を外部ネットワーク63を介して保管場所から或いは
ビデオカメラ61から、ダウンロードし、素材サーバー
69及びイントラフレームサーバー71に格納する。
The operator of the material editing group 66 uses the computer terminal 67 or 68 to
4 is downloaded from a storage location via the external network 63 or from the video camera 61 and stored in the material server 69 and the intraframe server 71.

【0019】イントラフレームサーバー71には、前述
したように高圧縮のサブ素材として格納される。すなわ
ち、前記素材ファイル64に収納されている素材をデコ
ーダ・エンコーダ70で復号してから間引き処理等を施
し、さらにエンコードして高圧縮のサブ素材にし、この
サブ素材をイントラフレームサーバー71に格納する。
As described above, the intra-frame server 71 stores the compressed sub-material. That is, the material stored in the material file 64 is decoded by the decoder / encoder 70, and then subjected to a thinning process and the like, and further encoded into a high-compression sub-material, and the sub-material is stored in the intraframe server 71. .

【0020】上記二つのコンピュータ端末67及び68
は、後述するエディティングターミナルとしても機能
し、イントラフレームサーバー71からサブ素材を読み
出して復号し、得られた映像データに基づく映像をモニ
タに表示する。このとき、オペレータは、コンピュータ
端末を介してイントラフレームサーバー71を制御し、
イントラフレームサーバー71に所望の動作(再生、巻
き戻し又は早送り等)を実行させながら、モニタに表示
された映像を目視確認してEPLを作成する。このEP
Lは、編集に使用される素材や出力を特定するための識
別情報と、少なくとも一部の素材のフォーマットを定義
するフォーマット宣言文とを有する。ここで、作成され
たEPLは、EPLサーバー72に格納される。このE
PLサーバー72に格納されたEPLは、第1の編集グ
ループ部を構成する他のグループや、第2の編集グルー
プ部を構成する各グループによって、分業のために読み
出される。
The above two computer terminals 67 and 68
Functions as an editing terminal to be described later, reads and decodes sub-materials from the intra-frame server 71, and displays a video based on the obtained video data on a monitor. At this time, the operator controls the intra-frame server 71 via the computer terminal,
While causing the intra-frame server 71 to execute a desired operation (playback, rewind, fast-forward, etc.), the EPL is created by visually checking the video displayed on the monitor. This EP
L has identification information for specifying a material used for editing and an output, and a format declaration statement defining a format of at least a part of the material. Here, the created EPL is stored in the EPL server 72. This E
The EPL stored in the PL server 72 is read for division of labor by another group constituting the first editing group unit or by each group constituting the second editing group unit.

【0021】次に、編集結果保存検索グループ74につ
いて説明する。この編集結果保存検索グループ74は、
ゲート73とゲート81の中にあり、二つのコンピュー
タ端末75及び76と、素材サーバー(O)77と、デ
コーダ・エンコーダ(D)78と、オフライン編集用の
イントラフレームサーバー(I)79と、EPLサーバ
ー(E)80とからなる。
Next, the edit result storage search group 74 will be described. This edit result storage search group 74
Inside the gates 73 and 81, there are two computer terminals 75 and 76, a material server (O) 77, a decoder / encoder (D) 78, an intraframe server (I) 79 for offline editing, and an EPL. And a server (E) 80.

【0022】この編集結果保存検索グループ74は、上
記EPLサーバー72からEPLを取り出してEPLサ
ーバー80に格納し、格納されたEPLに基づいた編集
を行い、仮コンテンツを作成し、保存しておく。これに
よりこのコンテンツ形成システム60は、必要な編集結
果を資料として保存し得るように為される。また、EP
L及び編集結果を検索できる。
The editing result storage / retrieval group 74 takes out the EPL from the EPL server 72, stores it in the EPL server 80, performs editing based on the stored EPL, creates and stores temporary content. As a result, the content forming system 60 is capable of storing necessary editing results as materials. Also, EP
L and editing results can be searched.

【0023】次に、編集結果利用グループ82について
説明する。この編集結果利用グループ82は、ゲート8
1から送出側にあり、二つのコンピュータ端末83及び
84と、素材サーバー(O)85と、EPLサーバー
(E)86と、送出用デコーダ・スイッチャー・エフェ
クター87と、メディア用デコーダ・スイッチャー・エ
フェクター88とからなる。
Next, the editing result utilization group 82 will be described. This editing result utilization group 82
1, two computer terminals 83 and 84, a material server (O) 85, an EPL server (E) 86, a decoder / switcher / effector 87 for transmission, and a decoder / switcher / effector 88 for media. Consists of

【0024】そして、この編集結果利用グループ82
は、上記EPLサーバー72からEPLを取り出してE
PLサーバー86に格納し、格納されたEPLに基づい
たコンテンツを、後述の図2の編集制御部20に対応す
るコンピュータ端末83及び84を用い、素材サーバ8
5に格納されている素材等を使って作成し、図2の編集
実行部32に対応する送出用デコーダ・スイッチャー・
エフェクター87や、メディア用デコーダ・スイッチャ
ー・エフェクター88から、送出したり、メディアとし
て配信する。
The editing result utilization group 82
Retrieves the EPL from the EPL server 72 and
The content server 8 stores the content based on the stored EPL in the PL server 86 by using the computer terminals 83 and 84 corresponding to the editing control unit 20 in FIG.
5 is created using the materials and the like stored in the transmission decoder 5, switcher, switcher, and the like corresponding to the editing execution unit 32 in FIG.
It is transmitted from the effector 87 or the media decoder / switcher / effector 88 or distributed as a medium.

【0025】第2の編集グループ部について説明する。
第2の編集グループ部は、第1の編集グループ部と、ゲ
ート89及び92に接続された外部ネットワーク90を
介して接続しており、プログラムフォルダ91の形態で
EPLを双方向に伝送することができる。
Next, the second editing group will be described.
The second editing group unit is connected to the first editing group unit via an external network 90 connected to the gates 89 and 92, and can transmit EPL bidirectionally in the form of a program folder 91. it can.

【0026】第2の編集グループ部を構成する、コンピ
ュータグラフィック処理グループ93、クローズドキャ
プション処理グループ102、地方局111は、EPL
の作成を分散して行うグループである。
The computer graphic processing group 93, the closed caption processing group 102, and the local station 111, which constitute the second editing group section,
This is a group that distributes the creation of.

【0027】先ず、コンピュータグラフィック処理グル
ープ93について説明する。コンピュータグラフィック
処理グループ93は、二つのコンピュータ端末94及び
95と、素材サーバー(O)96と、デコーダ・エンコ
ーダ(D)97と、オフライン編集用のイントラフレー
ムサーバー(I)98と、EPLサーバー(E)99
と、コンピュータグラフィックサーバー(CG)100
とからなる。イントラフレームサーバー98は、図2に
示すサブ素材サーバー14に相当する。
First, the computer graphic processing group 93 will be described. The computer graphic processing group 93 includes two computer terminals 94 and 95, a material server (O) 96, a decoder / encoder (D) 97, an intraframe server (I) 98 for offline editing, and an EPL server (E). ) 99
And computer graphic server (CG) 100
Consists of The intra-frame server 98 corresponds to the sub-material server 14 shown in FIG.

【0028】コンピュータグラフィック処理グループ9
3のオペレータは、素材編集グループ66のEPLサー
バー72から、EPLをプログラムフォルダに収納して
ダウンロードし、EPLサーバー99に格納する。イン
トラフレームサーバー98には、コンピュータグラフィ
ック処理を行うときに用いる素材が、デコーダ・エンコ
ーダ97により高圧縮の素材とされて格納される。そし
て、コンピュータ端末94又は95により、コンピュー
タグラフィックサーバー(CG)100を用いて、イン
トラフレームサーバー98から読み出したサブ素材にC
G処理を施した編集を行いながら、モニタに表示してE
PLを作成する。ここで、作成されたEPLはEPLサ
ーバー99に格納されると同時に、プログラムフォルダ
に収納されて素材編集グループ66のEPLサーバー7
2に送られる。
Computer Graphics Processing Group 9
The operator No. 3 downloads the EPL from the EPL server 72 of the material editing group 66 by storing it in a program folder and storing it in the EPL server 99. In the intra-frame server 98, a material used when performing computer graphic processing is stored as a highly compressed material by the decoder / encoder 97. Then, the computer terminal 94 or 95 uses the computer graphic server (CG) 100 to add C to the sub-material read from the intra-frame server 98.
While editing with G processing, display it on the monitor and
Create PL. Here, the created EPL is stored in the EPL server 99 and at the same time is stored in the program folder, and the EPL server 7 of the material editing group 66 is stored.
Sent to 2.

【0029】次に、クローズドキャプション処理グルー
プ102について説明する。クローズドキャプション処
理グループ102は、二つのコンピュータ端末103及
104と、素材サーバー(O)105と、デコーダ・エ
ンコーダ(D)106と、オフライン編集用のイントラ
フレームサーバー(I)107と、EPLサーバー
(E)108と、クローズドキャプションサーバー(C
C)109とからなる。
Next, the closed caption processing group 102 will be described. The closed caption processing group 102 includes two computer terminals 103 and 104, a material server (O) 105, a decoder / encoder (D) 106, an intraframe server (I) 107 for offline editing, and an EPL server (E ) 108 and a closed caption server (C
C) 109.

【0030】クローズドキャプション処理グループ10
2のオペレータは、素材編集グループ66のEPLサー
バー72から、EPLをプログラムフォルダに収納して
ダウンロードし、EPLサーバー108に格納する。イ
ントラフレームサーバー107には、クローズドキャプ
ション処理を行うときに用いる素材が、デコーダ・エン
コーダ105により高圧縮の素材とされて格納される。
そして、コンピュータ端末103又は104により、ク
ローズドキャプションサーバー(CC)109を用い
て、イントラフレームサーバー107から読み出したサ
ブ素材にCC処理を施した編集を行いながら、モニタに
表示してEPLを作成する。ここで、作成されたEPL
は、EPLサーバー108に格納されると同時に、プロ
グラムフォルダに収納されて素材編集グループ66のE
PLサーバー72に送られる。
Closed caption processing group 10
The second operator stores the EPL from the EPL server 72 of the material editing group 66 in a program folder, downloads it, and stores it in the EPL server 108. In the intra-frame server 107, a material used when performing closed caption processing is stored as a highly compressed material by the decoder / encoder 105.
Then, the computer terminal 103 or 104 uses the closed caption server (CC) 109 to edit the sub-material read from the intra-frame server 107 while performing CC processing, and displays the edited sub-material on a monitor to create an EPL. Here, the created EPL
Is stored in the program folder at the same time as being stored in the EPL server 108, and the E
It is sent to the PL server 72.

【0031】次に、地方局111について説明する。地
方局111は、二つのコンピュータ端末112及113
と、素材サーバー(O)114と、デコーダ・エンコー
ダ(D)115と、オフライン編集用のイントラフレー
ムサーバー(I)116と、EPLサーバー(E)11
7と、地方独自情報(DI)サーバー118とからな
る。
Next, the local station 111 will be described. The local station 111 has two computer terminals 112 and 113
, A material server (O) 114, a decoder / encoder (D) 115, an intraframe server (I) 116 for offline editing, and an EPL server (E) 11
7 and a local unique information (DI) server 118.

【0032】地方局111のオペレータは、素材編集グ
ループ66のEPLサーバー72から、EPLをプログ
ラムフォルダに収納してダウンロードし、EPLサーバ
ー117に格納する。イントラフレームサーバー116
には、地方局の編集で用いる素材が、デコーダ・エンコ
ーダ115により高圧縮の素材とされて格納される。そ
して、コンピュータ端末112又は113により、地方
独自情報(DI)サーバー118を用いて、イントラフ
レームサーバー116から読み出したサブ素材に独自の
編集を施しながら、モニタに表示してEPLを作成す
る。ここで、作成されたEPLは、EPLサーバー11
8に格納されると同時に、プログラムフォルダに収納さ
れて素材編集グループ66のEPLサーバー72に送ら
れる。
The operator of the local station 111 downloads the EPL from the EPL server 72 of the material editing group 66 by storing it in a program folder and stores it in the EPL server 117. Intraframe server 116
Is stored as a high-compression material by the decoder / encoder 115. Then, the computer terminal 112 or 113 uses the local unique information (DI) server 118 to perform the unique editing on the sub-material read out from the intra-frame server 116 while displaying it on the monitor to create an EPL. Here, the created EPL is stored in the EPL server 11.
8 and at the same time, it is stored in a program folder and sent to the EPL server 72 of the material editing group 66.

【0033】そして、最終的に素材編集グループ66に
て、EPLサーバー72内の各EPLを管理し、各EP
Lを統合・最適化する。編集結果保存・検索グループ7
4、編集結果利用グループ82では、前記素材編集グル
ープ66にて統合・最適化されたEPLを用いる。
Finally, in the material editing group 66, each EPL in the EPL server 72 is managed, and each EPL is managed.
L is integrated and optimized. Edit result storage / search group 7
4. In the editing result utilization group 82, the EPL integrated and optimized by the material editing group 66 is used.

【0034】以上、説明したように、上記図1に示した
コンテンツ制作システムは、編集に使用される素材や出
力画像を特定するためのUMIDや、処理方法を特定す
るためのUTID、さらには入力素材、出力画像のフォ
ーマットを特定するスキャンフォーマットを、EPLに
記述している。このため、編集実行時には、素材をID
で取得できるので、重い画像データを伝送しない運用が
可能となる。また、素材をその都度取得させることで、
著作権保護や課金が可能となる。また、処理方法がID
で引用できるので、編集環境(機材の能力)を選ばな
い。また、処理方法そのものの著作権保護や課金も可能
となる。また、入力素材を自由に選べる。また、複数フ
ォーマットの出力を同時に得られる。また、EPLを作
成する作業は、低画質で進められるので、場所や環境を
選ぶことがない。また、編集作業では、素材を直接加工
しないので、分散したグループにより分業体制で同時に
作業が進められる。
As described above, in the content production system shown in FIG. 1, the UMID for specifying the material used for editing and the output image, the UTD for specifying the processing method, and the input A scan format for specifying the format of the material and the output image is described in the EPL. For this reason, at the time of editing,
, It is possible to operate without transmitting heavy image data. Also, by getting the material each time,
Copyright protection and billing become possible. Also, if the processing method is ID
The editing environment (capacity of equipment) does not matter. Also, copyright protection and billing of the processing method itself can be performed. In addition, input materials can be freely selected. Also, outputs in multiple formats can be obtained simultaneously. In addition, since the operation of creating an EPL proceeds with low image quality, there is no need to select a place or an environment. Further, in the editing work, since the material is not directly processed, the work is simultaneously carried out by a distributed group by a division of labor system.

【0035】次に、コンテンツ制作システム60におけ
る、素材編集グループ66、コンピュータグラフィック
処理グループ93、クローズドキャプション処理グルー
プ102、地方局111に含まれる、各EPLを作成す
るEPL作成部の具体例と、EPL作成部で作成された
EPLからコンテンツを制作するコンテンツ形成部の具
体例を、コンテンツ形成装置として図2を用いて説明す
る。
Next, a specific example of an EPL creating section for creating each EPL included in the material editing group 66, the computer graphic processing group 93, the closed caption processing group 102, and the local station 111 in the content production system 60, and the EPL A specific example of a content forming unit that produces content from the EPL created by the creating unit will be described with reference to FIG. 2 as a content forming device.

【0036】コンテンツ形成装置1は、前記EPLを作
成するEPL作成部10と、EPLに基づいて編集制御
信号を生成する編集制御部20と、所定フォーマットの
コンテンツを形成するコンテンツ形成部30とを備えて
成る。
The content forming apparatus 1 includes an EPL creating section 10 for creating the EPL, an edit control section 20 for generating an edit control signal based on the EPL, and a content forming section 30 for forming content in a predetermined format. Consisting of

【0037】このコンテンツ形成装置1には、複数の映
像及び/音声からなる素材が入力される。例えば、図1
に示したビデオカメラ61で記録された映像及び/又は
音声からなる素材ファイル64が、例えばインターネッ
トのような外部ネットワーク63を介し、入力端子IN
からEPL作成部10及びコンテンツ形成部30に供給
される。
The content forming apparatus 1 is supplied with a plurality of video and / or audio materials. For example, FIG.
A material file 64 composed of video and / or audio recorded by the video camera 61 shown in FIG. 1 is input to an input terminal IN via an external network 63 such as the Internet.
Is supplied to the EPL creating unit 10 and the content forming unit 30 from the server.

【0038】EPL作成部10は、上記素材をデコーダ
11で復号してから、ダウンコンバータ12で例えば間
引きし、エンコーダ13でJPEG(Joint Photograph
ic Experts Group;JPEG)方式などの所定の圧縮方
式で圧縮して高圧縮のサブ素材にし、サブ素材サーバー
14に格納する。サブ素材サーバー14は、ディスクア
レイ構成の記録再生部を有したAVサーバーでなり、入
力する高圧縮サブ素材を順次取り込み、これをファイル
化して記録再生部の指定されたアドレス位置に格納す
る。
The EPL creation unit 10 decodes the above-mentioned material by the decoder 11, thins out the material by, for example, the down converter 12, and JPEG (Joint Photograph) by the encoder 13.
ic Experts Group (JPEG) method or the like, and is compressed into a highly-compressed sub-material and stored in the sub-material server 14. The sub-material server 14 is an AV server having a recording / reproducing unit having a disk array configuration, sequentially takes in high-compression sub-materials to be input, converts them into a file, and stores the file in a designated address position of the recording / reproducing unit.

【0039】そして、このサブ素材サーバー14に格納
された各ファイルの高圧縮サブ素材は、このサブ素材サ
ーバー14に接続された複数台(ここでは3台)の各エ
ディティングターミナル15,16,17に供給され、
EPLの作成に用いられる。
The high-compression sub-material of each file stored in the sub-material server 14 is divided into a plurality of (here, three) editing terminals 15, 16, 17 connected to the sub-material server 14. Supplied to
Used to create EPL.

【0040】エディティングターミナル15,16,1
7は、EPL作成部10の主要部をなすものであり、高
圧縮サブ素材を読み出して復号し、得られた素材データ
に基づく映像をモニタに表示する。このとき、オペレー
タは、エディティングターミナルを介してサブ素材サー
バー14を制御し、サブ素材サーバー14に所望の動作
(再生、巻き戻し又は早送り等)を実行させながら、モ
ニタに表示された映像を目視確認してEPLを作成す
る。EPLは、編集に使用される素材を特定するための
識別情報と、少なくとも一部の素材のフォーマットを定
義するフォーマット宣言文とを有する。
Editing terminals 15, 16, 1
Reference numeral 7 denotes a main part of the EPL creating unit 10, which reads out and decodes the high-compression sub-material, and displays an image based on the obtained material data on a monitor. At this time, the operator controls the sub-material server 14 via the editing terminal, and allows the sub-material server 14 to perform a desired operation (playback, rewind, fast forward, etc.) and visually observe the video displayed on the monitor. Confirm and create EPL. The EPL has identification information for specifying a material used for editing and a format declaration statement that defines a format of at least a part of the material.

【0041】以下、EPL作成部10で作成されるEP
Lについて説明する。EPLには、編集に使用される素
材を特定するための識別情報を記述する。素材の識別情
報は、グローバルユニークな識別コードであり、マテリ
アル識別コード(Material ID;UMID)と呼称され
る。また、このEPLには、上記識別コード体系に準拠
して、素材の処理方法を識別する識別コード、すなわち
画像処理方法を表す識別コードが定められる。この素材
の処理方法を識別する識別コードもグローバルユニーク
な識別コードであり、プロセス(Process)ID又はユ
ニークtransformID(UTID)と呼称される。UT
IDにより、フェード、ミックス、スーパー等の処理を
識別できる。また、このEPLには、出力に関するメタ
データも記述する。これはEPLによる編集結果のID
であり、上記UMIDも含む。また、このEPLには例
えば編集の開始点や終了点を時間で示す、タイムコード
(TimeCode;TC)も記述される。
Hereinafter, an EP created by the EPL creating section 10 will be described.
L will be described. In the EPL, identification information for specifying a material used for editing is described. The material identification information is a globally unique identification code, and is called a material identification code (Material ID; UMID). Further, in the EPL, an identification code for identifying a material processing method, that is, an identification code for indicating an image processing method, is defined in accordance with the identification code system. The identification code for identifying the processing method of this material is also a globally unique identification code, and is called a process (Process) ID or a unique transform ID (UTID). UT
The processing such as fade, mix, and super processing can be identified by the ID. The EPL also describes metadata related to output. This is the ID of the edited result by EPL
And includes the UMID. The EPL also describes a time code (TC) indicating, for example, the start and end points of editing in time.

【0042】さらに、EPLには、少なくとも一部の素
材のフォーマットを定義するフォーマット宣言文を記述
する。このフォーマット宣言文は、入力映像素材の画像
フォーマット及び/又は編集出力の画像フォーマットを
含むものである。このため、コンテンツ形成装置1によ
り形成されたコンテンツは、上記フォーマット宣言文に
より宣言されたフォーマットとされる。フォーマット宣
言文によりフォーマットを宣言すれば、どのようなフォ
ーマットのコンテンツも形成することができる。
Further, the EPL describes a format declaration statement that defines the format of at least a part of the material. This format declaration statement includes the image format of the input video material and / or the image format of the edited output. For this reason, the content formed by the content forming apparatus 1 has a format declared by the format declaration statement. If a format is declared by a format declaration statement, contents of any format can be formed.

【0043】一つのEPLファイルで記述される時間の
範囲は、最小がコマ、最大は無限である。記述の順番は
処理に従い、また、複数の処理を同時に実行させるよう
に記述できる。これは並列処理を記述できる“verilo
g”言語に似るので、それをベースに考えことができ
る。ただし、verilogにはlinkやglobal,structの概念が
ないので、流用は不可能である。
The range of time described in one EPL file is frame at the minimum and infinite at the maximum. The order of description follows the processing, and the description can be made so that a plurality of processes are executed simultaneously. This is a “verilo
It is similar to the g ”language, so you can think of it as a base. However, since verilog has no concept of link, global, or struct, it cannot be used.

【0044】EPLは基本的に変数を持たない。四則演
算や関数文はなく命令文 (処理と制御) のみからなる。
画像データの受渡しは構文中に明記しない。上の行の出
力が下に入力されるだけとなる。
The EPL basically has no variables. There are no four arithmetic operations or function statements, and only command statements (processing and control).
The delivery of image data is not specified in the syntax. The output of the upper line will only be input below.

【0045】以下に、EPLの具体例を説明する。外部
のSD画(525i画)を白黒にし、回想シーンとして
同封の画に挿入し、タイトルを追加するという編集を行
うためのものである。図3及び図4にはEPLの記述例
を示す。図3と図4は、同一のEPL記述例を示すもの
であり、図3は簡略化したもの、図4は詳細なものであ
る。図5にはEPLの実行のイメージ図を示す。図6に
は編集後にできる映像を模式的に示す。
Hereinafter, a specific example of the EPL will be described. This is for editing an external SD picture (525i picture) in black and white, inserting it into the enclosed picture as a reminiscence scene, and adding a title. 3 and 4 show examples of description of the EPL. 3 and 4 show the same EPL description example. FIG. 3 is a simplified example, and FIG. 4 is a detailed one. FIG. 5 shows an image diagram of the execution of the EPL. FIG. 6 schematically shows an image formed after editing.

【0046】先ず、図3及び図4のEPL記述例につい
て説明する。1行目の下線部(1−1)の「epl」は、
後に続く()内に、EPLの単位を示すことを表すもの
であり、出力する画像を定義している。同行の下線部
(1−2)、すなわち「umid」は、上記出力画像の識別
情報であり、グローバルユニークな識別コードUMID
である。具体的には、図4に示すように、「02232203_8
24504F1_0800468A92000201」のように、長いコードであ
り、まさしくグローバルユニークなものである。同行の
下線部(1−3)及び(1−4)は、編集の開始点及び
終了点を示すものであり、ここでは開始フレームのタイ
ムコード及び終了フレームのタイムコードが記述されて
いる。開始点が「00:00:00.00」であり、終了点が「00:
01:00.02」であることを特定している。同行の下線部
(1−5)は、スキャンフォーマットscan_formatであ
り、上述した、フォーマット宣言文の一種である。ここ
では出力のビデオフォーマット(video format)を示
す。「#1080i」は、HD画像のビデオフォーマットであ
る。同行の下線部(1−6)、すなわち「}{」は、23
行目の下線部(23−1)の「}」と一緒になって、{}
で囲んだ範囲内に画像処理を羅列する、ということを示
す。ここでの画像処理は信号の流れに従う。
First, the EPL description examples of FIGS. 3 and 4 will be described. "Epl" in the underlined part (1-1) of the first line is
The following parentheses () indicate that the EPL unit is indicated, and define the image to be output. The underlined part (1-2) in the same row, that is, “umid” is identification information of the output image, and is a globally unique identification code UMID.
It is. Specifically, as shown in FIG. 4, “02232203_8
It is a long code like "24504F1_0800468A92000201", which is truly globally unique. The underlined parts (1-3) and (1-4) in the same line indicate the start and end points of the editing, and here, the time code of the start frame and the time code of the end frame are described. The start point is "00: 00: 00.00" and the end point is "00:
01: 00.02 ". The underlined part (1-5) in the same line is the scan format scan_format, which is a type of the format declaration statement described above. Here, the output video format is shown. “# 1080i” is a video format of an HD image. The underlined part (1-6) of the same line, that is, "} {"
Together with the underlined "}" in the line, {}
Indicates that image processing is listed within the range enclosed by. The image processing here follows the signal flow.

【0047】2行目の下線部(2−1)、すなわち「so
urce」は、後に続く()内に入力素材を指定するという指
定処理を意味する。()内の同行下線部(2−2)のum
idは画像IDであり、具体的には図3に示す「22083102
_95440497_0800468A62000232」のように長いコードであ
る。つまり、グローバルユニークな上記UMIDを用い
て素材を特定している。同行の下線部(2−3)は開始
フレームのタイムコードを示す。図3のように省略され
ているときは、先頭からということを示す。同行下線部
(2−4)の「#embedded.mpg」は素材の取得先、すな
わち素材が保管されている場所を示している。同行下線
部(2−5)の「#1080i」はスキャンフォーマットscan
_formatであり、上述した、フォーマット宣言文の一種
である。ここでは、入力素材のビデオフォーマットを示
している。よって入力素材の画像フォーマットを特定す
ることができる。この2行目の下線部(2−1)〜(2
−5)の記述により、入力素材を、ネットワークに接続
された、図5の素材記憶部40から読み出すことができ
る。
The underlined part (2-1) on the second line, that is, "so
"urce" means a designation process of designating an input material in parentheses that follow. Um of underlined part (2-2) in the same parenthesis
id is an image ID, and specifically, “22083102” shown in FIG.
_95440497_0800468A62000232 ". That is, the material is specified using the globally unique UMID. The underlined part (2-3) in the same line indicates the time code of the start frame. When it is omitted as shown in FIG. 3, it indicates from the top. “# Embedded.mpg” in the underlined part (2-4) in the same line indicates the acquisition source of the material, that is, the place where the material is stored. "# 1080i" in the underlined part (2-5) in the same line is the scan format scan
_format, which is a type of the format declaration statement described above. Here, the video format of the input material is shown. Therefore, the image format of the input material can be specified. Underlined parts (2-1) to (2)
According to the description of -5), the input material can be read from the material storage unit 40 of FIG. 5 connected to the network.

【0048】次に、図3の3行目の下線部(3−1)の
「fork」は、22行目の下線部(22−1)の「join」
と対になり、入力1に対して複数が並列処理され、出力
はjoinで一括加算されることを表す。図5では、符合4
1と加算器42で挟まれた範囲で行われる処理であり、
素材記憶部40からの入力1に対して、複数が並列処理
され、加算器42で一括加算されることを示す。その処
理の内容は4行目、5行目に示すとおりである。
Next, "fork" in the underlined part (3-1) on the third line in FIG. 3 is replaced with "join" in the underlined part (22-1) on the 22nd line.
And a plurality is processed in parallel with respect to the input 1, and the outputs are collectively added by the join. In FIG.
This is a process performed in a range between 1 and the adder 42,
This indicates that a plurality of inputs 1 from the material storage unit 40 are processed in parallel, and the adders 42 collectively add them. The contents of the processing are as shown in the fourth and fifth lines.

【0049】4行目の下線部(4−1)の「@」は、後
に続く()内の数字により、切り抜き位置を入力側の時間
軸で指定していることを示す。そして、()内の同行下
線部(4−2)には、開始点が示される。ここでは、入
力側の時間軸による「02:10:00.00」が示されている。
同行下線部(4−3)の「put」は、後に続く()内に、
上記入力素材から切り抜いた部分の貼り付け位置を出力
側の時間軸で指定する。ここでは、()内の同行下線部
(4−4)及び(4−5)に示すように、出力側の「0
0:05.00」から「00:25.00」に貼り付けることを示す。
これは、入力側の時間軸で指定した切り抜き位置からの
入力素材43(図5に示す)を本編カット1として出力
側の「00:05.00」から「00:25.00」に貼り付ける処理に
なる。
"@" In the underlined part (4-1) in the fourth line indicates that the cutout position is designated on the time base on the input side by the number in parentheses. The start point is shown in the same underlined part (4-2) in parentheses. Here, “02: 10: 00.00” on the input side time axis is shown.
The underlined “put” in the same line (4-3) is shown in parentheses
The pasting position of the portion cut out from the input material is specified on the time axis on the output side. Here, as shown in the underlined portions (4-4) and (4-5) in the same parenthesis in (), "0"
"0: 05.00" to "00: 25.00".
This is a process of pasting the input material 43 (shown in FIG. 5) from the cutout position specified on the time axis on the input side as the main part cut 1 from “00: 05.00” to “00: 25.00” on the output side.

【0050】5行目の下線部(5−1)の「@」も、後
に続く()内の数字により、切り抜き位置を入力側の時間
軸で指定していることを示す。そして、()内の同行下
線部(5−2)には、入力側の時間軸による「02:10:2
0.00」が示される。同行下線部(5−3)の「put」
も、後に続く()内に、上記入力素材から切り抜いた部分
の貼り付け位置を出力側の時間軸で指定することを示
す。ここでは、下線部(5−4)及び(5−5)に示す
ように、出力側の「00:35.00」から「01:00.02」に貼り
付けることを示す。これは、入力側の時間軸で指定した
切り抜き位置からの入力素材44(図5に示す)を本編
カット2として出力側の「00:35.00」から「01:00.02」
に貼り付ける処理になる。
The underscore (@) in the fifth line (5-1) also indicates that the cutout position is specified on the input side time axis by the number in parentheses that follows. The underlined part (5-2) in the parentheses is "02: 10: 2" based on the time axis on the input side.
0.00 "is indicated. "Put" underlined (5-3)
This also indicates that, in the parentheses that follow, the pasting position of the portion cut out from the input material is specified on the time axis on the output side. Here, as shown in the underlined parts (5-4) and (5-5), it is shown that the output side is pasted from "00: 35.00" to "01: 00.02". This means that the input material 44 (shown in FIG. 5) from the cutout position specified on the time axis on the input side is used as the main part cut 2 from “00: 35.00” on the output side to “01: 00.02”.
It is the process of pasting to.

【0051】次に、6行目の下線部(6−1)の「{」
は、11行目の下線部(11−1)の「}」と対をな
し、囲んだ範囲内では、入出力1対1で複数の処理を上
の行から順次実行するということを示す。図4に示す処
理45に相当する。
Next, "{" in the underlined part (6-1) on the sixth line
Is paired with "}" in the underlined part (11-1) on the eleventh line, and indicates that a plurality of processes are sequentially executed in an input / output one-to-one manner from the upper line within the enclosed range. This corresponds to the processing 45 shown in FIG.

【0052】次に、7行目の下線部(7−1)の「sour
ce」により、後に続く()内に入力素材を指定する。()
内の同行下線部(7−2)のumidは、図4に示す「2208
3102_95440497_0800468A62000232」のように長いコード
である。同行の下線部(7−3)の「06:54:32.10」は
開始フレームのタイムコードを示す。同行下線部(7−
4)の「url」は素材の取得先、すなわち素材が保管さ
れている場所を示している。具体的には、図4に示すよ
うに、「ftp://43.14.61.62/source/」である。同行下
線部(7−5)の「#525i」はスキャンフォーマットsca
n_formatであり、上述した、フォーマット宣言文の一種
である。入力素材のビデオフォーマットを示している。
よって入力素材の画像フォーマットを指定することがで
きる。この7行目の下線部(7−1)〜(7−5)の記
述により、図5に示した処理45中にあって、ビデオフ
ォーマットが「#525i」の入力素材を、ネットワーク4
6を介して読み出し、図5の素材記憶部47に格納する
処理を特定できる。同行下線部(7−6)は、このソー
スが何のシーンに使われるのかを示す。ここでは、「//
recollect」であり、回想シーンであることを特定す
る。
Next, "sour" in the underlined part (7-1) of the seventh line
With "ce", the input material is specified in the parentheses that follow. ()
The underlined (7-2) umid in the same box is “2208” shown in FIG.
3102_95440497_0800468A62000232 ". “06: 54: 32.10” in the underlined part (7-3) in the same line indicates the time code of the start frame. Underlined (7-
“Url” in 4) indicates a source of the material, that is, a place where the material is stored. Specifically, as shown in FIG. 4, it is “ftp://43.14.61.62/source/”. "# 525i" underlined in the same line (7-5) is the scan format sca
n_format, which is a type of the format declaration statement described above. This shows the video format of the input material.
Therefore, the image format of the input material can be specified. According to the description of the underlined parts (7-1) to (7-5) on the seventh line, the input material having the video format "# 525i" in the processing 45 shown in FIG.
6 and can be specified to be stored in the material storage unit 47 of FIG. The underlined part (7-6) in the same line indicates to which scene this source is used. here,"//
recollect "and specify that it is a reminiscence scene.

【0053】次に、8行目の下線部(8−1)の「tran
sform」は、後に続く()内にて画像処理を指定するこ
とを示す。同行下線部(8−2)の「utid」は、処理I
Dであり、グローバルユニークな画像処理コード(Tran
sform ID;UTID)が記述される。具体的には、図4
に示すように、「12000000000090001」である。同行下
線部(8−3)の「url」は、処理方法の取得先、すな
わち処理方法が保管されている場所を示している。具体
的には、図4に示すように、「ftp://43.14.61.62/exec
/」というように記述される。同行下線部(8−4)の
「"upconv525to1080"」は、処理の通称であり、取得先
から得られなかったとき、代替え処理を可能にする。こ
こでは、ビデオフォーマットを525ラインから108
0ラインにアップコンバージョンする処理を表す。同行
下線部(8−5)の「#1080i」はスキャンフォーマット
scan_formatであり、上述した、フォーマット宣言文の
一種である。出力のビデオフォーマットを示している。
よって出力の画像フォーマットを指定することができ
る。入力のビデオフォーマットと同じなら省略すること
が可能である。この8行目の下線部(8−1)〜(8−
5)の記述により、図5に示した処理45中にあって、
図5の素材記憶部47に格納したビデオフォーマットが
「#525i」の入力素材を、ビデオフォーマット「#1080
i」にアップコンバージョン部48でアップコンバージ
ョンする処理を特定できる。
Next, "tran" of the underlined part (8-1) on the eighth line
"sform" indicates that image processing is specified in the parentheses that follow. “Utid” in the underlined part (8-2) in the same line indicates the processing I
D, a globally unique image processing code (Tran
sform ID (UTID) is described. Specifically, FIG.
, "12000000000090001". “Url” in the underlined part (8-3) in the same line indicates the acquisition destination of the processing method, that is, the place where the processing method is stored. Specifically, as shown in FIG. 4, "ftp://43.14.61.62/exec
/ ". “Upconv525to1080” in the underlined part (8-4) in the same line is a common name of the processing, and when it cannot be obtained from the acquisition source, the substitute processing is enabled. Here, the video format is changed from 525 lines to 108
Represents the process of up-conversion to 0 line. "# 1080i" in the underlined section (8-5) in the same row is the scan format
scan_format, which is a type of format declaration statement described above. The output video format is shown.
Therefore, the output image format can be specified. If it is the same as the input video format, it can be omitted. Underlined parts (8-1) to (8-
According to the description of 5), in the process 45 shown in FIG.
The input material having the video format “# 525i” stored in the material storage unit 47 of FIG.
The process for up-conversion by the up-conversion unit 48 can be specified as “i”.

【0054】次に、9行目の下線部(9−1)の「tran
sform」で()内に画像処理を指定する。同行下線部
(9−2)の「utid」の具体例としては、図4に示すよ
うに、「120000000001F0001」がある。同行下線部(9
−3)の「url」にて、処理方法が保管されている場所
を示している。具体的には、図4に示すように、「ftp:
//43.14.61.62/exec/」というように記述される。同行
下線部(9−4)の「""monochrome"」は、処理の通称
である。ここでは、1080ラインにアップコンバージ
ョンされた画像を白黒にする処理を表す。なお、ここで
は、前行下線部(8−5)にあった「#1080i」の記述を
省略している。入力と同じなら省略可である。この9行
目の下線部(9−1)〜(9−4)の記述により、図5
に示した処理45中にあって、アップコンバージョン部
48でビデオフォーマット「#1080i」にアップコンバー
ジョンした画像は、モノクロ処理部49にて白黒画像と
される。
Next, "tran" in the underlined part (9-1) of the ninth line
Specify image processing in () with "sform". As a specific example of “utid” in the underlined part (9-2) in the same row, there is “120000000001F0001” as shown in FIG. Underlined (9
The “url” of -3) indicates the location where the processing method is stored. Specifically, as shown in FIG.
//43.14.61.62/exec/ ". "" Monochrome "" underlined in the same line (9-4) is a common name for processing. Here, a process of converting an image up-converted to 1080 lines into black and white is shown. Here, the description of “# 1080i” in the underlined section (8-5) in the previous line is omitted. If it is the same as the input, it can be omitted. According to the description of the underlined parts (9-1) to (9-4) on the ninth line, FIG.
In the processing 45 shown in (1), the image up-converted to the video format “# 1080i” by the up-conversion unit 48 is converted to a monochrome image by the monochrome processing unit 49.

【0055】次に、10行目の下線部(10−1)の
「put」にて、後に続く()内に白黒画像の貼り付け位置
を出力側の時間軸で指定する。()内の同行下線部(10
−2)及び(10−3)にて、出力側の「00:25.00」か
ら「00:35.00」に、貼り付ける処理を特定している。図
6に示す回想シーンの貼り付けである。
Next, in the "put" of the underlined part (10-1) on the tenth line, the pasting position of the black and white image is designated by the time axis on the output side in parentheses (). ()
In -2) and (10-3), the process of pasting from "00: 25.00" to "00: 35.00" on the output side is specified. It is a pasting of the recollection scene shown in FIG.

【0056】次に、12行目の下線部(12−1)の
「{」は、21行目の下線部(21−1)の「}」と対を
なし、囲んだ範囲内では、入出力1対1で複数の処理を
上の行から順次実行するということを示す。図5に示す
処理51に相当する。
Next, "{" in the underlined part (12-1) on the twelfth line is paired with "}" in the underlined part (21-1) on the twenty-first line. One to one indicates that a plurality of processes are sequentially executed from the upper row. This corresponds to the processing 51 shown in FIG.

【0057】次に、13行目の下線部(13−1)の
「source」により、後に続く()内に入力素材を指定す
る。()内の同行下線部(13−2)のumidは、図4に
示す「00000000_8244041D_0800468A940000522」のよう
に長いコードである。同行の下線部(13−3)の「0
0:00:00.00」は開始フレームのタイムコードを示す。同
行下線部(13−4)の「url」は画像の取得先であ
り、具体的には、図4に示すように、「ftp://43.14.6
1.62/source/*.jpg」である。同行下線部(13−5)
の「#1080i」は入力素材のビデオフォーマットを示して
いる。よって入力素材の画像フォーマットを指定するこ
とができる。この13行目の下線部(13−1)〜(1
3−5)の記述により、図5に示した処理51中にあっ
て、ビデオフォーマットが「#1080i」の入力素材を、ネ
ットワーク52を介して読み出し、図5の素材記憶部5
3に格納する処理を特定できる。同行下線部(13−
6)は、このソースが何のシーンに使われるのかを示
す。ここでは、「// title」であり、タイトルに使われ
ることを特定する。
Next, the input source is designated in the parentheses () following “source” in the underlined part (13-1) on the thirteenth line. The underlined (13-2) umid in parentheses is a long code such as "00000000_8244041D_0800468A940000522" shown in FIG. "0" in the underlined section (13-3) of the bank
"0: 00: 00.00" indicates the time code of the start frame. “Url” in the underlined part (13-4) in the same line is the acquisition destination of the image, and specifically, as shown in FIG. 4, “ftp: //43.14.6
1.62 / source / *. Jpg ". Underlined section (13-5)
“# 1080i” indicates the video format of the input material. Therefore, the image format of the input material can be specified. The underlined parts (13-1) to (1
According to the description of 3-5), the input material having the video format “# 1080i” in the process 51 shown in FIG. 5 is read out via the network 52, and the material storage unit 5 shown in FIG.
3 can be specified. (13-
6) shows what scene this source is used for. Here, it is "// title" and specifies that it is used for the title.

【0058】次に、14行目の下線部(14−1)の
「fork」は、20行目の下線部(20−1)の「join」
と対になり、入力1に対して複数が並列処理され、出力
はjoinで一括加算されることを表す。図5では、素材記
憶部53から読み出された素材が2系統で処理され、加
算器57で加算されるまでである。2系統での処理内容
は、以下のとおりである。
Next, "fork" in the underlined part (14-1) of the 14th line is replaced with "join" in the underlined part (20-1) of the 20th line.
And a plurality is processed in parallel with respect to the input 1, and the outputs are collectively added by the join. In FIG. 5, the material read from the material storage unit 53 is processed by two systems and is added by the adder 57. The processing contents of the two systems are as follows.

【0059】先ず、15行目の下線部(15−1)の
「put」にて、後に続く()内に、素材記憶部53から読
み出されたタイトル素材54の貼り付け位置を出力側の
時間軸で指定する。()内の同行下線部(15−2)及び
(15−3)にて、出力側の「00:00.00」から「00:04.
00」に、貼り付ける処理を特定している。
First, in the “put” of the underlined part (15-1) on the fifteenth line, in the following parentheses (), the pasting position of the title material 54 read from the material storage unit 53 is set to the time on the output side. Specify by axis. In the same underlined sections (15-2) and (15-3) in parentheses (), "00: 00.00" to "00:04.
“00” specifies the pasting process.

【0060】次に、16行目の下線部(16−1)の
「{」は、19行目の下線部(19−1)の「}」と対を
なし、囲んだ範囲内では、入出力1対1で複数の処理を
上の行から順次実行するということを示す。図4に示す
処理51の上半分の処理に相当する。
Next, "{" in the underlined part (16-1) on the 16th line is paired with "}" in the underlined part (19-1) on the 19th line. One to one indicates that a plurality of processes are sequentially executed from the upper row. This corresponds to the upper half of the processing 51 shown in FIG.

【0061】17行目の下線部(17−1)の「transf
orm」は、後に続く()内にて画像処理を指定する。同
行下線部(17−2)の「utid」は、具体的には、図4
に示すように、「1200000000080001」である。同行下線
部(17−3)の「url」は、具体的には、図4に示す
ように、「ftp://43.14.61.62/exec/」である。同行下
線部(17−4)の「"fadeout"」は、フェードアウト
処理を表す。同行下線部(17−5)では、出力のビデ
オフォーマットを省略している。入力のビデオフォーマ
ットと同様であるため省略できる。同行下線部(17−
6)の「1.0」は固有の因数であり、その処理が必要と
する固有の設定値を列挙したものである。17行目の下
線部(17−1)〜(17−6)の記述により、図5に
示した処理51中にあって、素材記憶部53から供給さ
れた「#1080i」の入力素材を、フェードアウト処理部5
5でフェードアウトする処理を特定できる。
The "transf" in the underlined part (17-1) of the 17th line
"orm" specifies image processing in parentheses that follow. "Utid" in the underlined part (17-2) in the same line is specifically shown in FIG.
, It is “1200000000080001”. “Url” in the underlined part (17-3) in the same line is, specifically, “ftp://43.14.61.62/exec/” as shown in FIG. “Fadeout” in the underlined part (17-4) in the same line represents a fade-out process. In the underlined part (17-5) in the same row, the output video format is omitted. Since it is the same as the input video format, it can be omitted. Underlined (17-
“1.0” in 6) is a unique factor, which lists unique set values required for the processing. According to the description of the underlined parts (17-1) to (17-6) on the 17th line, the input material of “# 1080i” supplied from the material storage unit 53 in the processing 51 shown in FIG. Processing unit 5
In step 5, the fade-out process can be specified.

【0062】次に、18行目の下線部(18−1)の
「put」にて、後に続く()内に、フェードアウト処理部
55からの処理出力56の貼り付け位置を出力側の時間
軸で指定する。()内の同行下線部(18−2)及び(1
8−3)にて、出力側の「00:04.00」から「00:05.00」
に、貼り付ける処理を特定している。
Next, in the "put" of the underlined part (18-1) of the 18th line, the pasting position of the processing output 56 from the fade-out processing unit 55 is indicated by the time axis on the output side in (). specify. (18-2) and (1)
In 8-3), from "00: 04.00" on the output side to "00: 05.00"
The process for pasting is specified.

【0063】そして、加算器57にてタイトル素材54
+フェードアウト処理出力56を加算し、その加算出力
を加算器42に供給する。加算器42は、図6に示すよ
うに、フェードアウトするタイトルに続いて本編カット
1を入れ、白黒の回想シーンを挟んで、本編カット2を
入れた、編集結果を出力する。
Then, the title material 54 is added by the adder 57.
+ Fade-out processing output 56 is added, and the added output is supplied to the adder 42. As shown in FIG. 6, the adder 42 inserts the main part cut 1 following the title to be faded out, and outputs the edited result in which the main part cut 2 is inserted across the black and white reminiscence scene.

【0064】次に、図4の下段の構文について説明す
る。下線部(25−1)の「format」は、後に続く{}に
て画像フォーマットを指定する。下線部(25−2)の
「1001/60000」や、下線部(25−3)の「Capturing
interval (long/long) [s]」(パラメータ)、或いは下
線部(26−1)の「"1080/59.94i"」、下線部(26
−2)の「// Name of format (char)」によって画像フ
ォーマットを指定している。
Next, the syntax in the lower part of FIG. 4 will be described. “Format” in the underlined part (25-1) designates an image format by following {}. Underlined (25-2) "1001/60000" and underlined (25-3) "Capturing
interval (long / long) [s] ”(parameter), or“ 1080 / 59.94i ”in the underlined part (26-1),
The image format is specified by “// Name of format (char)” in -2).

【0065】また、下線部(27−1)の「format」
も、後に続く{}にて画像フォーマットを指定する。下線
部(27−2)の「1001/60000」や、下線部(27−
3)の「Capturing interval (long/long) [s]」(パラ
メータ)、或いは下線部(28−1)の「"480/59.94
i"」、下線部(28−2)の「// Name of format (cha
r)」によって画像フォーマットを指定しているのは上記
と同様である。
The "format" in the underlined part (27-1)
Also, specify the image format with {} that follows. Underlined (27-2) "1001/60000" and underlined (27-
3) "Capturing interval (long / long) [s]" (parameter) or underlined (28-1) "480 / 59.94
i "" and "// Name of format (cha
The image format is designated by “r)” in the same manner as described above.

【0066】そして、図4のEPLは、下線部(29−
1)の「image」にて同封の画像データの詳細を規定す
る。()内の下線部(29−2)には、バイナリ部分のバ
イト数を示す。ここでは、(bit+7)*8/8である。下線
部(29−3)は、ファイル内での名称であり、ここで
は「embedded」としている。下線部(29−4)の「bi
nary data...」は、データ本体を特定している。
The EPL shown in FIG. 4 is underlined (29-
The details of the enclosed image data are defined in “image” of 1). The underlined part (29-2) in () indicates the number of bytes of the binary part. Here, it is (bit + 7) * 8/8. The underlined part (29-3) is the name in the file, which is "embedded" here. Underlined (29-4) "bi
"nary data ..." specifies the data body.

【0067】以上により、EPLの具体例を説明した。
EPLは通常、文字列のままインタープリター(interp
reter)で処理される。編集等も文字列のままで行われ
る。コンパイル(Compile)等する際は、その機材固有
のコードとなるので、本書式には定義しない。保存等で
圧縮する際は、通常の無損失圧縮 (zip, lha の huffma
n など) を用いる。
The specific example of the EPL has been described above.
EPLs are usually interpreted as strings.
reter). Editing and the like are performed with the character string unchanged. When compiling, it is not defined in this format because it is a code unique to the device. When compressing for storage etc., use normal lossless compression (zip, lha huffma
n etc.).

【0068】また、UMIDはSMPTE330M basic UMID 3
2Bytesである。ユニバーサルレベル(Universal labe
l)やインスタンス(Instance)などを省き、マテリア
ルナンバー(Material number)16Bytes だけでもよ
い。出力画像は実行処理で発生するが、EPL生成で素
材発生と見做し、そこで付加する。
The UMID is SMPTE330M basic UMID 3
2Bytes. Universal level
l) and Instance (Instance) may be omitted, and only the material number (Material number) 16Bytes may be used. The output image is generated in the execution process, but is regarded as material generation in EPL generation, and is added there.

【0069】表記は16進法(hexadecimal)で、目視
のため任意にアンダースコア(underscore '_')を挿入
できる。括弧 ( ) で括った場合、素材そのものでな
く、加工した後の画像を示す。取得先 (source や tran
sform の引数) は、文字列の先頭で在り処を区別する。
UMIDが予めデータベース登録してあれば取得先は省
略可能となる。
The notation is hexadecimal, and an underscore (underscore '_') can be arbitrarily inserted for visual observation. When enclosed in parentheses (), it indicates the processed image, not the material itself. Source (source or tran
The argument of sform) distinguishes where at the beginning of the string.
If the UMID is registered in the database in advance, the acquisition source can be omitted.

【0070】また、タイムコードTCは、一般的な時:
分:秒.Frame で、不要な上位桁は省くことができる。入
力側は IN点TCのみを記述し、出力側はIN/OUT両方の
TCを記述する。出力側は、put() で挿入位置を記述す
るが、省略するとepl() で示す全編に有効となる。入力
側は、source() 中の引数、もしくは @() を用いて切り
出し位置を記述する。カット編集をする場合は、当然必
ず入出力両方のTCを記述する必要がある。入力側のT
Cは、エフェクト類のみなど、指定する必要のない場
合、省略できる。
The time code TC is a general time code:
Minutes: seconds.Frame allows you to omit unnecessary upper digits. The input side describes only the IN point TC, and the output side describes both the IN / OUT TC. On the output side, the insertion position is described with put (), but if omitted, it will be valid for the whole volume indicated by epl (). The input side describes the extraction position using the argument in source () or @ (). When performing cut editing, it is necessary to describe both input and output TCs. Input side T
C can be omitted when it is not necessary to specify only the effects or the like.

【0071】上から下の行に受け渡す画像データは、R/
G/B/tl か Y/Pb/Pr/tl である。たとえば、Y色差 4:2:
2 なら左上画素から Y tl Pb Pr Y tlの繰り返しとな
る。また、format{} 指定の総ビット幅より細い経路を
通す際は、LSB first で詰め込む。
The image data transferred from the top to the bottom row is R /
G / B / tl or Y / Pb / Pr / tl. For example, Y color difference 4: 2:
If it is 2, Y tl Pb Pr Y tl is repeated from the upper left pixel. Also, when passing through a path narrower than the total bit width specified by format {}, stuff with LSB first.

【0072】透過率tl(translucent) は Y 毎に付き、
通常画像では値が 0 (不透明) である。このtl は中間
的に用いるだけで、通常の epl() 実行出力には載せな
い。
The transmittance tl (translucent) is given for each Y,
Normal images have the value 0 (opaque). This tl is used only in the middle and is not included in the normal epl () output.

【0073】入力画像のデータ形式はファイルの拡張子
で判別する。省略可能である。例えば、eplはEPL file
を示す。また、eivはEPLL Intermediate Videoを示す。
また、ybrはY/Pb/Prを示す。また、rgbは、Red/Green/B
lueを示す。またjpgはJPEGwp示す。また、mpgはMPEG1
を示す。
The data format of the input image is determined by the file extension. It can be omitted. For example, epl is EPL file
Is shown. Eiv indicates EPLL Intermediate Video.
Ybr indicates Y / Pb / Pr. Rgb is Red / Green / B
Indicates lue. Jpg indicates JPEGwp. Also, mpg is MPEG1
Is shown.

【0074】このように入力画像のデータ形式は、各種
あるが、標準的にサポートするのは上記とMPEG2全プロ
フィールである。標準以外の圧縮は、source()直後にtr
ansfrom()で伸長処理を記述する。上記eiv は、tlまで
含む非圧縮にformat{} header が付いたものである。こ
のeiv は、plug()をoptimizeで解消しないまま実行する
と発生する。通常はサーバーが UMID 基準で管理してお
り、EPL上にはファイル名は記述しない。したがって、
拡張子を記述するには、wild card '*' を用いる。
As described above, there are various data formats of the input image, but the above and the entire MPEG2 profile are standardly supported. Non-standard compression is tr
Describe decompression processing with ansfrom (). The above eiv is uncompressed up to tl with format {} header. This eiv occurs when plug () is executed without being canceled by optimize. Normally, the server manages the file based on the UMID standard, and does not write the file name on the EPL. Therefore,
To describe the extension, use wild card '*'.

【0075】なお、出力画像はモニターや放送用のエン
コーダ(encode)にだけ供給されるので、非圧縮のみで
ある。ただし、epl() { } の最後の行に transform()
を記述して、圧縮を定義できる。
Since the output image is supplied only to the monitor or the encoder for broadcasting, the output image is only uncompressed. However, the last line of epl () {} has transform ()
To define the compression.

【0076】次に、EPLに載せるビデオスキャンフォ
ーマット(video scan format)の書式について説明す
る。
Next, the format of the video scan format to be placed on the EPL will be described.

【0077】将来性や汎用性を考慮し、詳細仕様をいち
いち記述する。つまり、通称の "NTSC" と同時に、720x
480, 60/1.001, colorimetry,... を列挙する。
Detailed specifications are described one by one in consideration of future and general versatility. In other words, at the same time as "NTSC"
480, 60 / 1.001, colorimetry, ...

【0078】ただし、将来と言っても、あくまでラスタ
で、ピクセルとコマという概念は固持する。つまり本発
明のビデオフォーマットは、ラスタ映像フォーマットの
一般化表現である。
However, even in the future, the concept of a pixel and a frame is always maintained in a raster. That is, the video format of the present invention is a generalized expression of the raster video format.

【0079】EPL上にformat{}文で載せる際は、以下
の例に示す如く、ASCII文字列で記述する。映像信号に
載せる際は、指定データ型の binary 128bytesを、クリ
ップ毎に入れる。 ・ Capturing interval … 撮影時の1コマの時間を示
す。 long/long [s] ・ Shutter speed … 撮影時のシャッタースピードを示
す。 float [s] ・ Shutter timing … シャッターを開けた時刻を示
す。 float [s] ・ Display interval … 表示時の1コマの時間を示
す。 long/long [s] ・ RGB on chromaticity … 三原色RGBと白の色度図上
の座標を示す。fixed x 2x 4 ・ Matrix coefficients … Y/Pb/Pr への変換マトリク
スを示す。 fixed x 9 ・ Gamma code … ガンマ変換の記号を示す。 char ・ Interlace code … インターレースの記号を示す。
char ・ padding … バイト数あわせ。 char x 4 ・ Picture size … 縦横の有効画素数を示す。 short*
short ・ Active size … 黒ベタを除いた範囲を示す。 short
*short ・ Clean aperture … 画質を保証する範囲を示す。 sh
ort*short ・ Pixel aspect ratio … 各ピクセルの縦横比を示
す。 float ・ Luminance offset … 輝度を開始する位置を示す。
float x 2 ・ Chrominance offset … 色差を開始する位置を示
す。 float x 2 ・ Luminance pitch … 輝度の画素の間引きを示す。 c
har x 2 ・ Chrominance pitch … 色差の画素の間引きを示す。
char x 2 ・ Bit width … Y/Pb/Pr/tl のデータビット幅を示
す。 char x 4 ・ Y range … 輝度 100% 白と 0% 黒の値を示す。 sho
rt x 2 ・ Other range … 輝度以外の最大値と最小値を示す。
short x 2 ・ Name of format … フォーマットの通称を示す。 ch
ar x 16 ここで、longは4バイトbytes, shortは2バイトbytes,ch
arは1バイトbyteのアンサインインテジャーunsigned in
tegerである。fixedは2bytes固定小数点で、0x7fff=1
と見做す。0x0001≒0.00003になる。また、floatは値と
して全項目で正のみだが、通常の4bytes IBM浮動小数点
となる。
When a format {} statement is placed on the EPL, an ASCII character string is used as shown in the following example. When placing on a video signal, the specified data type binary 128 bytes is inserted for each clip. -Capturing interval ... Indicates the time of one frame at the time of shooting. long / long [s]-Shutter speed ... Indicates the shutter speed at the time of shooting. float [s]-Shutter timing ... Indicates the time when the shutter was opened. float [s]-Display interval ... Indicates the time of one frame during display. long / long [s]-RGB on chromaticity ... Indicates the coordinates of the three primary colors RGB and white on the chromaticity diagram. fixed x 2x 4 • Matrix coefficients ... Indicates the conversion matrix to Y / Pb / Pr. fixed x 9 • Gamma code… Indicates the gamma conversion symbol. char / Interlace code ... Indicates the interlace symbol.
char / padding ... Adjust the number of bytes. char x 4-Picture size ... Indicates the number of effective pixels in the vertical and horizontal directions. short *
short / Active size: Indicates the range excluding solid black. short
* short ・ Clean aperture… Indicates the range that guarantees image quality. sh
ort * short-Pixel aspect ratio ... Indicates the aspect ratio of each pixel. float ・ Luminance offset ... Indicates the position where luminance starts.
float x 2 · Chrominance offset ... Indicates the position where the color difference starts. float x 2 · Luminance pitch… Indicates the thinning out of luminance pixels. c
har x 2 · Chrominance pitch… Indicates the thinning out of pixels for color difference.
char x 2-Bit width ... Indicates the data bit width of Y / Pb / Pr / tl. char x 4 • Y range… Indicates the values of 100% white and 0% black. sho
rt x 2 • Other range… Indicates the maximum and minimum values other than luminance.
short x 2-Name of format ... Indicates the common name of the format. ch
ar x 16 where long is 4 bytes bytes, short is 2 bytes bytes, ch
ar is unsigned in 1 byte byte
teger. fixed is 2 bytes fixed point, 0x7fff = 1
Is considered. 0x0001 ≒ 0.00003. Also, float is a positive value for all items, but it is a normal 4 bytes IBM floating point.

【0080】透過率tlは中間処理に用いるだけで、通常
のepl()実行出力信号には載せない。ガンマは、ほかと
同様に係数 (0.018, 4.5, 1.099, 0.45, 0.099)での表
現も可能だが、実運用は変換テーブルである。色差は、
2's comp, オフセットバイナリ(offset binary)のい
ずれも可とし、レンジrangeの大小で表現する。
The transmittance tl is used only for the intermediate processing and is not included in the normal epl () execution output signal. Gamma can be represented by coefficients (0.018, 4.5, 1.099, 0.45, 0.099) as in other cases, but the actual operation is a conversion table. The color difference is
Either 2's comp or offset binary is allowed, and it is expressed by the range range.

【0081】図7には具体例を示す。これは、(1080/5
9.95i)に関するものである。詳細な説明は省略する。
FIG. 7 shows a specific example. This is (1080/5
9.95i). Detailed description is omitted.

【0082】ここで、図2に戻る。エディティングター
ミナル15,16,17で作成されたEPLは、EPL
記憶部18に格納される。このEPL記憶部18に格納
されたEPLは、編集制御部20に読み出される。編集
制御部20は、EPLに基づいて編集制御信号を生成
し、編集制御信号をコンテンツ形成部30に供給する。
Now, return to FIG. The EPL created at the editing terminals 15, 16, 17 is the EPL
It is stored in the storage unit 18. The EPL stored in the EPL storage unit 18 is read out by the editing control unit 20. The edit control unit 20 generates an edit control signal based on the EPL, and supplies the edit control signal to the content forming unit 30.

【0083】コンテンツ形成部30は、編集制御部20
から供給された編集制御信号に基づいて素材から所定フ
ォーマットのコンテンツを形成する。コンテンツ形成部
30には、上述したように入力端子INを介して入力素
材が供給される。
[0097] The content forming section 30 is
The content of the predetermined format is formed from the material based on the editing control signal supplied from the. The input material is supplied to the content forming unit 30 through the input terminal IN as described above.

【0084】コンテンツ形成部30は、上記入力素材を
原素材サーバー31に格納しておく。原素材サーバー3
1は、ディスクアレイ構成の記録再生部と、AVサーバ
ーでなり、供給される各原素材のなかから指定された複
数系統の映像音声データを同時に取り込み、これをそれ
ぞれファイル化して記録再生部内の指定されたアドレス
位置に格納する。
The content forming section 30 stores the input material in the source material server 31. Raw material server 3
Reference numeral 1 denotes a recording / reproducing unit having a disk array configuration and an AV server. Simultaneously fetches a plurality of designated video / audio data from among the supplied original materials, converts them into files, and designates them as files to be designated in the recording / reproducing unit. At the specified address location.

【0085】原素材サーバー31は、編集制御部20か
ら供給される編集制御信号に基づいて、格納された各フ
ァイルの原素材を読み出し、原素材サーバー31に接続
された編集実行部32に供給する。
The original material server 31 reads out the stored original material of each file based on the edit control signal supplied from the edit control unit 20 and supplies it to the edit execution unit 32 connected to the original material server 31. .

【0086】編集実行部32は、複数台(ここでは2
台)の各デコーダ33,34と、この編集実行部32の
主要部であるスイッチャー&エフェクター35と、エン
コーダ36からなる。各デコーダ33,34で復号され
た原素材は、スイッチャー&エフェクター35にて、編
集制御部20から供給される編集制御信号に基づいて、
編集処理が施された後、エンコーダ36に供給される。
エンコーダ36は、編集制御部20から供給される編集
制御信号に基づいたフォーマットで、編集処理が施され
た編集データにエンコード処理を施してから出力端子O
UTに供給する。
[0086] A plurality of editing execution units 32 (here, 2
), A switcher & effector 35, which is a main part of the editing execution unit 32, and an encoder 36. The original material decoded by each of the decoders 33 and 34 is processed by a switcher & effector 35 based on an edit control signal supplied from the edit control unit 20.
After the editing process, the data is supplied to the encoder 36.
The encoder 36 encodes the edited edit data in a format based on the edit control signal supplied from the edit control unit 20 and then outputs the encoded data to the output terminal O.
Supply to UT.

【0087】編集実行部32内にあって、スイッチャー
&エフェクター35は、デコーダ33及び34から2つ
の原素材出力が同時に与えられると、A/Bロール編
集、すなわち2つの信号を使用した切換編集や挿入編
集、或いは重ね合わせ編集等を行う際、その入力される
二つの原素材出力を使用してリアルタイムで編集処理を
行うようになされている。また、スイッチャー&エフェ
クター35は、デコーダ33又は34から一つの原素材
出力が与えられると、A/Bロール編集を行う際、必要
な二つの原素材を時間的に順番に読み出し、先に入力さ
れた原素材を一旦内部のバッファに蓄積しておき、続い
て入力される原素材と先に蓄積した原素材とを使用して
ノンリアルタイムで編集処理を行うようになされてい
る。
In the editing execution section 32, when two original material outputs are simultaneously supplied from the decoders 33 and 34, the switcher & effector 35 performs A / B roll editing, that is, switching editing using two signals, When performing insertion editing or superimposition editing, editing processing is performed in real time using the two original material outputs that are input. In addition, when one source material output is given from the decoder 33 or 34, the switcher & effector 35 reads out two necessary source materials in time order when performing A / B roll editing, and inputs the two source materials first. The original material is temporarily stored in an internal buffer, and a non-real-time editing process is performed by using the subsequently input original material and the previously accumulated original material.

【0088】以上に説明したように、図2に示したコン
テンツ形成装置1は、編集に使用される素材や出力を特
定するためのUMIDや、処理方法を特定するためのU
TID、さらには入力素材、出力のフォーマットを特定
するスキャンフォーマットを、EPLに記述している。
このため、編集実行時には、素材をIDで取得できるの
で、重い画像データを伝送しない運用が可能となる。ま
た、素材をその都度取得させることで、著作権保護や課
金が可能となる。また、処理方法がIDで引用できるの
で、編集環境(機材の能力)を選ばない。また、処理方
法そのものの著作権保護や課金も可能となる。また、入
力素材を自由に選べる。また、複数フォーマットの出力
を同時に得られる。また、EPLを作成する作業は、低
画質で進められるので、場所や環境を選ぶことがない。
As described above, the content forming apparatus 1 shown in FIG. 2 uses the UMID for specifying the material used for editing and the output, and the UMID for specifying the processing method.
The EID describes the TID, as well as the scan format for specifying the input material and the output format.
For this reason, at the time of editing execution, since the material can be acquired by the ID, it is possible to operate without transmitting heavy image data. In addition, by acquiring the material each time, copyright protection and charging can be performed. Further, since the processing method can be cited by ID, the editing environment (capacity of the equipment) is not selected. Also, copyright protection and billing of the processing method itself can be performed. In addition, input materials can be freely selected. Also, outputs in multiple formats can be obtained simultaneously. In addition, since the operation of creating an EPL proceeds with low image quality, there is no need to select a place or an environment.

【0089】このコンテンツ形成装置1の内部にあって
EPL作成部10は、画像データの品質劣化を防ぎなが
ら、またマルチフォーマットの画像データに対応し、か
つ素材を手許に一旦溜めて使うことなく、さらに処理の
互換を可能として、コンテンツを形成するための編集リ
ストを作成している。
The EPL creation unit 10 inside the content forming apparatus 1 prevents the quality of the image data from deteriorating, supports the multi-format image data, and uses the material temporarily without storing it. Further, an edit list for forming the content is created so as to make the processing compatible.

【0090】次に、EPL編集作業の分業の他の具体例
について図8〜図14を用いて説明する。インタビュー
収録生素材を粗編集してEPL(1)を作成したあと、
カット編集のEPL(2−a)、モザイク編集のEPL
(2−b)、日本語字幕のEPL(2−c)、英訳字幕
のEPL(2−d)を並行して作成し、最後にまとめて
オプティマイズしたEPL(3)を作成したのち、実行
(完パケ映像信号の出力) する、という想定である。な
お、この例では format{} や表現が似る個々の処理を省
略して書いている。
Next, another specific example of the division of labor of the EPL editing work will be described with reference to FIGS. After roughly editing the interview recording raw material and creating EPL (1),
EPL (2-a) for cut editing, EPL for mosaic editing
(2-b), EPL (2-c) of Japanese subtitles and EPL (2-d) of English subtitles are created in parallel, and finally, optimized EPL (3) is created and executed.
(Output of a complete package video signal). In this example, format {} and individual processes with similar expressions are omitted.

【0091】図8は、EPL編集作業を分業する、コン
テンツ制作システム120の機能ブロック図を示す。ビ
デオカメラ121で撮影した映像及び/又は音声からな
る素材を、ロッギング部(粗編集部)122で粗編集し
てEPL(1)を作成する。このEPL(1)を用い、
カッティング編集部123,モザイク編集部124,サ
ブタイトル日本語編集部125、サブタイトル英語編集
部126が並行して、それぞれの編集を進めて、カット
編集のEPL(2−a)、モザイク編集のEPL(2−
b)、日本語字幕のEPL(2−c)、英訳字幕のEP
L(2−d)を作成する。もちろん、粗編集部122、
カッティング編集部123、モザイク編集部124、サ
ブタイトル日本語編集部125及びサブタイトル英語編
集部126は、上記図2に示したEPL作成部10と同
様の構成、機能を備えている。
FIG. 8 is a functional block diagram of the content production system 120 that divides the EPL editing work. A material composed of video and / or audio captured by the video camera 121 is roughly edited by a logging unit (rough editing unit) 122 to create an EPL (1). Using this EPL (1),
The cutting editing unit 123, the mosaic editing unit 124, the subtitle Japanese editing unit 125, and the subtitle English editing unit 126 proceed in parallel with each other to edit the EPL (2-a) for the cut editing and the EPL (2) for the mosaic editing. −
b), EPL with Japanese subtitles (2-c), EP with English subtitles
Create L (2-d). Of course, the rough editing unit 122,
The cutting editing unit 123, the mosaic editing unit 124, the subtitle Japanese editing unit 125, and the subtitle English editing unit 126 have the same configuration and functions as those of the EPL creating unit 10 shown in FIG.

【0092】そして、日本語及び英語統合・最適化部1
27等が各編集部からのEPL(2−a),(2−
b)、(2−c),(2−d)を統合して最適化し、E
PL(3)を生成する。日本語及び英語統合・最適化部
127等は、上記図2に示した編集制御部20の機能も
備えている。EPL(3)は、実際に編集を行う、編集
実行部128に送られる。
Then, the Japanese and English integration / optimization unit 1
27 etc. are EPLs (2-a), (2-
b), (2-c) and (2-d) are integrated and optimized, and E
PL (3) is generated. The Japanese / English integration / optimization unit 127 and the like also have the function of the edit control unit 20 shown in FIG. The EPL (3) is sent to the edit execution unit 128 that actually edits.

【0093】編集実行部128は、上記図2に示したコ
ンテンツ形成部30と同様の、構成機能を備えてなり、
ビデオカメラ121からの素材を内部サーバーに蓄えて
おいてあるので、上記EPL(3)を用いて編集を実行
できる。
The editing execution unit 128 has the same configuration functions as those of the content forming unit 30 shown in FIG.
Since the material from the video camera 121 is stored in the internal server, editing can be performed using the EPL (3).

【0094】図9は、粗編集部122にて作成された粗
編集EPL(1)である。UMID「12345608_2345046
7_0800468A88000021」にて、出力を指定している。そし
て、編集の開始点及び終了点を、開始フレームのタイム
コード及び終了フレームのタイムコードで記述する。こ
こでは、開始点が「00:00:00.00」であり、終了点が「0
0:01:03.12」である。この出力のビデオフォーマットは
「#1080i」という記述で特定することができる。
FIG. 9 shows a rough edit EPL (1) created by the rough edit unit 122. UMID "12345608_2345046
7_0800468A88000021 "specifies the output. The start and end points of the editing are described by the time code of the start frame and the time code of the end frame. Here, the start point is "00: 00: 00.00" and the end point is "00:00
0: 01: 03.12 ". The video format of this output can be specified by the description “# 1080i”.

【0095】次に、UMID「29543202_234504C0_0800
468A72000098」により入力素材を識別し、保管場所「fi
le://43.14.61.62/source/」からビデオフォーマット
「#1080i」の入力素材を読み出すことを特定している。
Next, the UMID "29543202_234504C0_0800
468A72000098 '' to identify the input material,
le: //43.14.61.62/source/ "specifies that input material of video format"# 1080i "is read.

【0096】次に、「fork」と「join」の対により、入
力1に対して5つの並列処理が行われ、出力はjoinで一
括加算されることを表す。先ず第1の処理は、入力側の
時間軸「10:00:00.12」からのインタビューワーと一緒
の素材を、出力側の時間軸「00:00.00」から「00:03.0
0」までに貼り付けるものである。第2の処理は、入力
側の時間軸「10:01:05.23」からの話しているときの素
材を、出力側の時間軸「00:03.00」から「00:20.13」ま
でに貼り付けるものである。第3の処理は、入力側の時
間軸「10:02:54.11」からの話しているときの素材を、
出力側の時間軸「00:20.13」から「00:40.09」までに貼
り付けるものである。第4の処理は、入力側の時間軸
「10:05:18.19」からの話し手の頭の背景画像を、出力
側の時間軸「00:40.09」から「00:43.10」までに貼り付
けるものである。第5の処理は、入力側の時間軸「10:0
7:33.03」からの話しているときの素材を、出力側の時
間軸「00:43.10」から「01:03.12」までに貼り付けるも
のである。
Next, a pair of “fork” and “join” indicates that five parallel processes are performed on the input 1 and the outputs are collectively added by the join. First, in the first process, the material along with the interviewer from the time axis "10: 00: 00.12" on the input side is converted from "00: 00.00" to "00: 03.0" on the output side.
"0". The second process is to paste the material from the time axis "10: 01: 05.23" on the input side to the time axis "00: 03.00" to "00: 20.13" on the output side. is there. In the third process, the material when talking from the input side time axis "10: 02: 54.11"
It is pasted from the time axis "00: 20.13" on the output side to "00: 40.09". The fourth process is to paste the background image of the speaker's head from the time axis "10: 05: 18.19" on the input side to the time axis "00: 40.09" to "00: 43.10" on the output side. is there. The fifth process is based on the time axis “10: 0” on the input side.
7: 33.03 is pasted from the time axis "00: 43.10" to "01: 03.12" on the output side.

【0097】図10は、カッティング編集部123にて
作成されたカット編集用のEPL(2−a)である。U
MID「00521209_234504A3_0800468A89000128」にて、
出力を特定し、編集の開始点及び終了点を、「00:00:0
0.00」及び「00:00:45.00」と特定している。また、出
力のビデオフォーマットも「#1080i」という記述で特定
することができる。
FIG. 10 shows an EPL (2-a) for cut editing created by the cutting editing unit 123. U
With MID "00521209_234504A3_0800468A89000128",
Specify the output, and specify the start and end points of editing as "00: 00: 0
0.00 "and" 00: 00: 45.00 ". The output video format can also be specified by the description “# 1080i”.

【0098】次に、UMID「12345608_23450467_0800
468A88000021」で、ビデオフォーマット「#1080i」の入
力素材を、保管場所「file://43.14.61.62/source/」か
ら取り出すことを特定している。
Next, the UMID "12345608_23450467_0800
468A88000021 "specifies that the input material of the video format"# 1080i "is to be extracted from the storage location" file: //43.14.61.62/source/ ".

【0099】そして、上記入力素材を用いて、以下の5
つのカット編集を行う。先ず第1の処理は、入力側の時
間軸「00:00:00.07」からの素材を、出力側の時間軸「0
0:00.00」から「00:23.04」までに貼り付ける。第2の
処理は、入力側の時間軸「00:00:32.23」からの素材
を、出力側の時間軸「00:23.04」から「00:28.17」まで
に貼り付ける。第3の処理は、入力側の時間軸「00:00:
40.09」からの素材を、出力側の時間軸「00:28.17」か
ら「00:31.18」までに貼り付ける。第4の処理は、入力
側の時間軸「00:00:44.12」からの素材を、出力側の時
間軸「00:31.18」から「00:37.29」までに貼り付ける。
第5の処理は、入力側の時間軸「00:00:52.21」からの
素材を、出力側の時間軸「00:37.29」から「00:45.00」
までに貼り付ける。これら5つのカット編集は一括加算
される。
Then, using the above input material, the following 5
Make one cut edit. First, in the first process, the material from the time axis “00: 00: 00.07” on the input side is converted to the time axis “0” on the output side.
Paste from "0: 00.00" to "00: 23.04". In the second process, the material from the time axis “00: 00: 32.23” on the input side is pasted on the time axis “00: 23.04” to “00: 28.17” on the output side. In the third process, the time axis “00:00:
Paste the material from "40.09" to the time axis "00: 28.17" to "00: 31.18" on the output side. In the fourth process, the material from the time axis “00: 00: 44.12” on the input side is pasted on the time axis “00: 31.18” to “00: 37.29” on the output side.
In the fifth process, the material from the input-side time axis “00: 00: 52.21” is converted from the output-side time axis “00: 37.29” to “00: 45.00”.
Paste by. These five cut edits are added together.

【0100】上記5つの処理を括った「fork」と「joi
n」という記述の後に、「jack(mosaic)」及び「jack
(super)」という記述がある。「jack」は、統合・最適
化部127にてオプティマイズ時に「child EPL」から
の受け取り位置を示すものである。(mosaic)及び(sup
er)は、ユーザ任意で与える仮のIDである。ここで
は、モザイク編集部124で行うモザイク編集で作成し
たEPLを受け取る位置を示すので、(mosaic)を用い
た。また、サブタイトル日本語編集部125で行う日本
語字幕編集で作成したEPLを受け取る位置を示すので
(super)を用いた。オプティマイズした後、「jack(mo
saic)」及び「jack(super)」という記述は消える。
The "fork" and "joi"
n ”followed by“ jack (mosaic) ”and“ jack
(Super) ". “Jack” indicates a receiving position from “child EPL” at the time of optimization by the integration / optimization unit 127. (Mosaic) and (sup
er) is a temporary ID given by the user. Here, (mosaic) is used because it indicates the position where the EPL created by the mosaic editing performed by the mosaic editing unit 124 is received. In addition, (super) is used because it indicates the position to receive the EPL created by the Japanese subtitle editing performed by the Japanese subtitle editing unit 125. After optimization, "jack (mo
saic) ”and“ jack (super) ”disappear.

【0101】図11は、モザイク編集部124にて作成
されたモザイク編集用のEPL(2−b)である。UM
ID「21341109_23450411_0800468A9B000032」にて、出
力を特定し、編集の開始点及び終了点を、「00:00:00.0
0」及び「00:01:03.12」と特定している。また、出力映
像のビデオフォーマットも「#1080i」という記述で特定
することができる。
FIG. 11 shows a mosaic editing EPL (2-b) created by the mosaic editing section 124. UM
With the ID “21341109_23450411_0800468A9B000032”, the output is specified, and the editing start and end points are set to “00: 00: 00.0
0 "and" 00: 01: 03.12 ". Also, the video format of the output video can be specified by the description “# 1080i”.

【0102】次に、UMID「12345608_23450467_0800
468A88000021」で、ビデオフォーマット「#1080i」の入
力素材を、保管場所「file://43.14.61.62/source/」か
ら取り出すことを特定している。
Next, the UMID "12345608_23450467_0800
468A88000021 "specifies that the input material of the video format"# 1080i "is to be extracted from the storage location" file: //43.14.61.62/source/ ".

【0103】そして、上記入力素材を用いて、以下の2
つのモザイク編集を行う。先ず第1のモザイク編集は、
保管場所「ftp://43.14.61.62/exec/」に保管されてい
る、「12000000000C0004」という処理ID(UTID)
で特定された画像処理を使って、入力素材と同様のビデ
オフォーマット「#1080i」で、「=384x232+880+128」と
いう設定値で行う。このモザイク編集で得られた編集結
果は、開始点「00:03.00」から終了点「00:40.09」に貼
り付ける。第2のモザイク編集は、保管場所「ftp://4
3.14.61.62/exec/」に保管されている、「12000000000C
0004」という処理ID(UTID)で特定された画像処
理を使って、入力素材と同様のビデオフォーマット「#1
080i」で、「=400x256+864+96」という設定値で行う。
このモザイク編集で得られた編集結果は、開始点「00:4
3.00」から終了点「01:03.12」に貼り付ける。これら2
つのモザイク編集は一括加算される。
Then, using the above input material, the following 2
Perform one mosaic edit. First, the first mosaic editing,
Processing ID (UTID) of "12000000000C0004" stored in storage location "ftp://43.14.61.62/exec/"
Using the image processing specified in, the same video format as the input material, “# 1080i”, and setting values of “= 384 × 232 + 880 + 128”. The editing result obtained by this mosaic editing is pasted from the start point “00: 03.00” to the end point “00: 40.09”. The second mosaic edit is the storage location "ftp: // 4
`` 12000000000C '' stored in `` 3.14.61.62/exec/ ''
Using the image processing specified by the processing ID (UTID) of “0004”, the video format “# 1
080i ”with the setting value of“ = 400x256 + 864 + 96 ”.
The editing result obtained by this mosaic editing is the starting point "00: 4
3.00 ”to the end point“ 01: 03.12 ”. These two
Two mosaic edits are added together.

【0104】上記2つの処理を括った「fork」と「joi
n」という記述の後に、「plug(mosaic)」という記述
がある。「plug」は、統合・最適化部127にてオプテ
ィマイズ時に「parent EPL」への受け渡し位置を示すも
のである。「(mosaic)」は、ユーザ任意で与える仮の
IDである。オプティマイズした後、「plug(mosai
c)」という記述は消える。
"Fork" and "joi"
After the description “n”, there is a description “plug (mosaic)”. “Plug” indicates a transfer position to “parent EPL” at the time of optimization by the integration / optimization unit 127. “(Mosaic)” is a temporary ID given by the user. After optimizing, "plug (mosai
c) "disappears.

【0105】図12は、サブタイトル日本語編集部12
5にて作成された日本語字幕編集用のEPL(2−c)
である。UMID「12221109_234504FB_0800468AC10003
41」にて、出力を特定し、編集の開始点及び終了点を、
「00:00:00.00」及び「00:01:03.12」と特定している。
また、出力のビデオフォーマットも「#1080i」という記
述で特定することができる。
FIG. 12 shows the subtitle Japanese editor 12
EPL (2-c) for editing Japanese subtitles created in 5
It is. UMID `` 12221109_234504FB_0800468AC10003
41), specify the output, and specify the start and end points of the edit.
"00: 00: 00.00" and "00: 01: 03.12".
The output video format can also be specified by the description “# 1080i”.

【0106】次に、UMID「12345608_23450467_0800
468A88000021」で、ビデオフォーマット「#1080i」の入
力素材を、保管場所「file://43.14.61.62/source/」か
ら取り出すことを特定している。
Next, the UMID "12345608_23450467_0800
468A88000021 "specifies that the input material of the video format"# 1080i "is to be extracted from the storage location" file: //43.14.61.62/source/ ".

【0107】そして、上記入力素材を用いて、以下の編
集を行う。先ず、保管場所「ftp://43.14.61.62/exec
/」に保管されている、「1200000000130081」という処
理ID(UTID)で特定された処理方法を使って、入
力素材と同様のビデオフォーマット「#1080i」で、「飛
行機に乗った男」というサブタイトルを作成する。この
サブタイトル作成の結果は、開始点「00:00.00」から終
了点「00:10.00」に貼り付ける。次に、保管場所「ftp:
//43.14.61.62/exec/」に保管されている、「120000000
0120081」という処理ID(UTID)で特定された処
理方法を使って、入力素材と同様のビデオフォーマット
「#1080i」で、「離陸したとたん、気を失った。」とい
う日本語字幕を、開始点「00:01.00」から終了点「00:0
4.02」にスーパーインポーズ(貼り付ける)する。次
に、同じ保管場所に保管されている、同じ処理方法を使
って、同じビデオフォーマットで、「目覚めたのは南の
島だった、」という日本語字幕を、開始点「00:04.12」
から終了点「00:07.29」にスーパーインポーズする。そ
して、いくつかの日本語字幕を画像に貼り付け、最後
に、同じ保管場所に保管されている、同じ処理方法を使
って、同じビデオフォーマットで、「いつか夢で見たは
ずの景色が広がっていた。」という日本語字幕を、開始
点「01:00.12」から終了点「01:03.12」にスーパーイン
ポーズする。これらの編集は一括加算される。
The following editing is performed using the input material. First, the storage location "ftp://43.14.61.62/exec
Using the processing method specified by the processing ID (UTID) of “1200000000130081” stored in “/”, the subtitle “Men in an airplane” in the video format “# 1080i” similar to the input material create. The result of this subtitle creation is pasted from the start point “00: 00.00” to the end point “00: 10.00”. Next, the storage location "ftp:
//43.14.61.62/exec/ '', `` 120000000
Using the processing method specified by the processing ID (UTID) of “0120081”, the Japanese subtitle “I just lost my mind and took off” in the same video format “# 1080i” as the input material was started. From the point "00: 01.00" to the end point "00: 0
4.02 ". Next, using the same processing method and the same video format, stored in the same storage location, the Japanese subtitle "Woke up on the southern island", starting at "00: 04.12"
From the end point "00: 07.29". Then, paste some Japanese subtitles into the image, and finally, using the same processing method and the same video format, stored in the same storage location, saying, Is superimposed from the start point "01: 00.12" to the end point "01: 03.12". These edits are added together.

【0108】上記処理を括った「fork」と「join」とい
う記述の後に記述している、「plug(super)」は、既
に説明したように、統合・最適化部127にてオプティ
マイズ時に「parent EPL」への受け渡し位置を示すもの
である。
As described above, “plug (super)” described after “fork” and “join” that enclose the above processing is “parent” during optimization by the integration / optimization unit 127 at the time of optimization. It indicates the delivery position to the "EPL".

【0109】図13には、サブタイトル英語編集部12
6にて作成された英訳字幕編集のEPL(2−d)を示
す。このEPLは、上記図12を用いて説明した日本語
字幕編集のEPLの英語版である。サブタイトルや翻訳
処理のIDが異なっているが、略同じような内容である
ので、ここでは説明を省略する。
FIG. 13 shows the subtitle English editor 12
6 shows an EPL (2-d) of English subtitle editing created in 6. This EPL is an English version of the EPL of Japanese subtitle editing described with reference to FIG. Although the subtitle and the ID of the translation process are different, they have substantially the same contents, and thus the description is omitted here.

【0110】そして、図14には、日本語統合・最適化
部127が各編集部からのEPL(2−a),(2−
b)、(2−c)を統合・最適化して作成した、EPL
(3)を示す。図10〜図12にて説明した、カット編
集、モザイク編集、日本語字幕編集を統合・最適化する
ことによって得たEPLである。詳細な説明は省略す
る。
In FIG. 14, the Japanese language integration / optimization unit 127 sends EPLs (2-a), (2-
b), EPL created by integrating and optimizing (2-c)
(3) is shown. This is an EPL obtained by integrating and optimizing cut editing, mosaic editing, and Japanese subtitle editing described with reference to FIGS. Detailed description is omitted.

【0111】このほかに、英語統合・最適化部128で
EPL(2−a),(2−b),(2−d)を統合・最
適化することにより、同様な英語版が生成できるが、こ
こでは省略した。
In addition, by integrating and optimizing the EPLs (2-a), (2-b), and (2-d) in the English integration / optimization unit 128, a similar English version can be generated. , Omitted here.

【0112】以上の例では、二段階のカット編集を経て
おり、仮編集の継ぎ目を本編集で継ぎ直さず、そのまま
活かしている箇所があるため、両者を統合したときの編
集点が多くなった。
In the above example, since the two-stage cut editing has been performed, the seam of the temporary editing is not reconnected in the main editing, and there is a portion that is utilized as it is, so that the number of editing points when the two are integrated is increased. .

【0113】また、ここでは、素材もタイトラーもエフ
ェクターも、全て同じサーバーから取得している。しか
も、明記してないが、編集実行する装置と同一のLAN
に置かれている。運用上、安全な方法ではあるが、遠く
のサーバーから取得することが多くなると予想される。
Here, the material, the titler, and the effector are all obtained from the same server. Moreover, although not specified, the same LAN as the device that performs the editing is used.
Has been placed. Although operationally secure, it is expected that it will be more likely to be obtained from distant servers.

【0114】なお、参考までに、統合・最適化を、NT
SC用に変換する例を、図15に示す。素材の入力元の
ビデオフォーマットは、「#1080i」であるが、NTSC
用への変換であるので、処理と出力のフォーマットは、
「#525ii」となる。したがって、これを統合すると、E
PL(3)の最後に「down converter」の付いたものが
生成される。また、処理順が明らかな場合は、plug(),
jack() による接続は不要である。
For reference, integration / optimization is based on NT
An example of conversion for SC is shown in FIG. The input source video format is “# 1080i”, but NTSC
The format of processing and output is
"# 525ii". Therefore, when this is integrated, E
The one with “down converter” at the end of PL (3) is generated. If the processing order is clear, plug (),
No connection by jack () is required.

【0115】このように、図8に構成を示した、コンテ
ンツ形成システム120は、EPL編集作業を分業する
ことができる。編集作業では、素材を直接加工しないの
で、分業体制で同時に作業を進められるためである。ま
た、各編集部で作成されたEPLには、入力素材、出力
映像のフォーマットをスキャンフォーマットで特定して
いる。このため、入力素材は自由に選べる。また、複数
フォーマットの出力映像が同時に得られる。
As described above, the content forming system 120 shown in FIG. 8 can divide the EPL editing work. In the editing work, since the material is not directly processed, the work can be simultaneously performed in a division of labor system. In the EPL created by each editing unit, the format of the input material and output video is specified by the scan format. Therefore, the input material can be freely selected. Also, output videos in a plurality of formats can be obtained simultaneously.

【0116】なお、遠隔地で編集作業をする具体例とし
ては、上記図1に示したシステムの他にも、図16に示
すようなコンテンツ形成システム130を構成すること
ができる。ビデオカメラ131で撮影した映像及び/又
は音声からなる素材を、低レートエンコーダ132にて
圧縮し、サブ素材として携帯電話133又はインターネ
ット134で編集部135に送る。編集部135では、
サブ素材を、所望の動作(再生、巻き戻し又は早送り
等)で実行させながら、モニタに表示された映像を目視
確認してEPLを作成する。EPLは、編集に使用され
る素材や出力画像を特定するための識別情報と、少なく
とも一部の素材のフォーマットを定義するフォーマット
宣言文とを有する。そして、生成したEPLを携帯電話
136又はインターネット137で、編集実行部140
に送る。編集実行部140には、ビデオカメラ131か
らの素材も、ビデオテープ138のハンドキャリー又は
インターネット139により送られる。そして、編集実
行部140は、上記素材を内部サーバーに蓄えているの
で、上記EPLを用いて、編集を実行できる。
As a specific example of editing at a remote location, a content forming system 130 as shown in FIG. 16 can be configured in addition to the system shown in FIG. A material composed of video and / or audio captured by the video camera 131 is compressed by the low-rate encoder 132 and sent to the editing unit 135 via the mobile phone 133 or the Internet 134 as sub-material. In the editing unit 135,
While executing the sub-material in a desired operation (playback, rewind, fast-forward, etc.), an EPL is created by visually checking the video displayed on the monitor. The EPL has identification information for specifying a material or an output image used for editing and a format declaration statement that defines a format of at least a part of the material. Then, the generated EPL is sent to the mobile phone 136 or the Internet 137 for editing by the editing unit 140.
Send to The material from the video camera 131 is also sent to the editing execution unit 140 via the hand carry of the video tape 138 or the Internet 139. And since the edit execution part 140 stores the said material in an internal server, it can edit using said EPL.

【0117】ここまでの説明は、編集に使用される素材
や出力を特定するためのUMIDや、処理方法を特定す
るためのUTID、さらには入力素材、出力映像のフォ
ーマットを特定するスキャンフォーマットを、EPLに
記述したことによって課題を解決できたことについて説
明した。
The description so far has described the UMID for specifying the material and output used for editing, the UTD for specifying the processing method, and the scan format for specifying the input material and the format of the output video. It was explained that the problem was solved by the description in the EPL.

【0118】しかし、従来の課題としては、画質の劣化
に関するものもあった。例えば、ビデオカメラで収録し
た映像にいくつかのカット(映像シーン)をつなぎ合わ
せるカット編集と、テロップ文字をスーパインポーズす
るテロップ編集を施してから、完成した映像を放送する
までにも、データ圧縮と伸張を繰り返すことになり、画
質の劣化が生じる。この具体例を、図17の処理遷移図
を用いて説明する。先ず、ビデオカメラ150で撮影さ
れた映像は、ビット・レート・リダクション(Bit Rate
Reduction:BRR)エンコード(enc)処理151に
て圧縮され、ビデオテープに映像素材152として収録
される。この映像素材152に対してカット編集を施す
ときには、圧縮されている映像素材を一旦、デコード
(dec)処理153により伸長してから、編集処理(Edi
t1)154にてカット編集する。カット編集を施した映
像素材は、再度、エンコード処理155で圧縮されてか
ら映像素材156としてビデオテープに記録される。次
に、この映像素材156に対してテロップ編集を施すと
きには、圧縮されている映像素材をまた、デコード(de
c)処理157により伸長してから、編集処理(Edit2)
158にてテロップをスーパーインポーズする。テロッ
プ編集を施した映像素材は、再々度、エンコード処理1
59で圧縮されてから映像素材160としてビデオテー
プに記録される。そして、この映像素材160は、放送
日に合わせて、放送用のNTSCフォーマットに変換さ
れるため、一旦、デコード処理161されてから、NT
SCエンコード処理152され、例えば地上波用のアン
テナ163からテレビジョン放送波として送出される。
この一連の処理において、映像素材に対して4回の圧縮
処理が施されている。伸長処理は3回である。ここに画
質劣化が生じることとなる。
However, as a conventional problem, there is also a problem relating to deterioration of image quality. For example, cut editing to connect several cuts (video scenes) to video recorded by a video camera, and telop editing to superimpose telop characters, and then compress the data before broadcasting the completed video And expansion are repeated, and the image quality is degraded. This specific example will be described with reference to the processing transition diagram of FIG. First, an image captured by the video camera 150 is a bit rate reduction (Bit Rate reduction).
The data is compressed in a reduction (BRR) encoding (enc) process 151 and recorded on a video tape as a video material 152. When performing cut editing on the video material 152, the compressed video material is temporarily expanded by a decoding (dec) process 153, and then edited (Edi).
t1) Edit the cut in 154. The video material that has been cut and edited is compressed again by the encoding process 155 and then recorded on a video tape as a video material 156. Next, when performing telop editing on the video material 156, the compressed video material is decoded again (de-
c) After decompression by processing 157, edit processing (Edit2)
At 158, the telop is superimposed. The video material that has been subjected to telop editing is re-encoded,
After being compressed at 59, it is recorded on a video tape as a video material 160. The video material 160 is converted into a broadcast NTSC format in accordance with the broadcast date.
The signal is subjected to SC encoding 152 and transmitted as a television broadcast wave from, for example, a terrestrial antenna 163.
In this series of processing, the video material is subjected to compression processing four times. The extension process is performed three times. Here, the image quality deteriorates.

【0119】この画質劣化という問題を解決するために
も、前記コンテンツ形成装置は有効である。図18に
は、その具体例を示す。この具体例は、ビデオカメラ1
70で撮影された映像及び/又は音声からなる素材を、
ビット・レート・リダクション(Bit Rate Reduction:
BRR)エンコード(enc)処理171にて圧縮し、ビ
デオテープに映像素材172として収録する。この映像
素材172は、EPL作成処理173に送られる。
The content forming apparatus is effective for solving the problem of image quality deterioration. FIG. 18 shows a specific example thereof. This specific example is a video camera 1
The material consisting of the video and / or audio taken at 70
Bit Rate Reduction (Bit Rate Reduction:
The image data is compressed in a BRR (encode) process 171 and recorded on a video tape as a video material 172. This video material 172 is sent to the EPL creation processing 173.

【0120】EPL作成処理173は、カット編集とテ
ロップ編集をEPLを生成することによって行う。映像
素材172に対してカット編集を施すときには、圧縮さ
れている映像素材を一旦、デコード(dec)処理174
により伸長してから、編集処理(Edit1)175にてカ
ット編集を行う。このカット編集は、EPLを作成する
ことによって行われる。また、テロップ編集は、カット
編集処理175により作成されたEPLを用いて、テロ
ップ編集処理177により行われる。具体的には、テロ
ップ編集処理177は、デコーダ176でデコードされ
た素材をモニタしながら、テロップ編集のEPLを作成
する。
The EPL creation processing 173 performs cut editing and telop editing by generating an EPL. When performing cut editing on the video material 172, the compressed video material is temporarily decoded (dec) processing 174.
Then, cut editing is performed in the editing process (Edit1) 175. This cut editing is performed by creating an EPL. The telop editing is performed by the telop editing process 177 using the EPL created by the cut editing process 175. Specifically, the telop editing process 177 creates an EPL for telop editing while monitoring the material decoded by the decoder 176.

【0121】EPL作成処理173で作成された、EP
Lは、編集実行処理179に送られる。編集実行処理1
79には、デコード処理178によりデコードされた素
材も供給されている。そして、編集実行処理179は、
前記素材に対し、前記EPLにしたがった、カット編集
及びテロップ編集を施し、その編集結果をNTSCエン
コード処理180に送る。そして、NTSCエンコード
処理180により、NTSCフォーマットとされたデー
タが、例えば地上波用のアンテナ181からテレビジョ
ン放送波として送出される。この一連の処理において
は、映像素材に対して2回の圧縮処理が施されただけで
ある。また、デコード処理も実質的には1回だけしか行
われてない。
The EP created in the EPL creation process 173
L is sent to the edit execution process 179. Edit execution processing 1
The material decoded by the decoding process 178 is also supplied to 79. Then, the edit execution process 179
The material is subjected to cut editing and telop editing according to the EPL, and sends the edited result to the NTSC encoding process 180. Then, in the NTSC encoding process 180, the data in the NTSC format is transmitted as a television broadcast wave from, for example, a terrestrial antenna 181. In this series of processing, only the compression processing has been performed twice on the video material. Also, the decoding process is substantially performed only once.

【0122】したがって、この図18に示す、コンテン
ツ形成システムは、画質の劣化を上記図17に示した従
来方式よりも抑えることができる。すなわち、編集途中
で圧縮伸長を従来ほど繰り返さないので、画質を保つこ
とができる。
Therefore, the content forming system shown in FIG. 18 can suppress the deterioration of the image quality more than the conventional system shown in FIG. That is, compression and decompression are not repeated during editing as in the past, so that image quality can be maintained.

【0123】また、前記コンテンツ形成装置は、例え
ば、共通番組を、フォーマットを異ならせた2系統で、
サイマルキャスト(Simulcast)放送するときにも、画
質を保つことができる。図19及び図20を用いてサイ
マルキャスト放送について説明する。
Further, the content forming apparatus, for example, converts a common program into two systems having different formats.
The image quality can be maintained even when broadcasting Simulcast. The simulcast broadcasting will be described with reference to FIGS. 19 and 20.

【0124】図19は、NTSCフォーマットとハイビ
ジョンフォーマットの両方でサイマルキャスト放送をす
るための、従来のシステムである。このサイマルキャス
ト放送システム190は、ビデオテープ191から読み
出した「1080i」のハイビジョンフォーマットの映像
と、ビデオテープ192から読み出した「525i」のNT
SCフォーマットの映像をアップコンバージョン部19
3により「1080i」した映像とを用いて編集処理194
する。編集処理194は「1080i」フォーマットで行
い、ハイビジョンフォーマットの出力映像を生成する。
そして、ハイビジョン用に一方を、アンテナ195から
放送波として送出する。他方、NTSC用には、ダウン
コンバージョン196で525iにした映像をアンテナ19
7から放送波として送出する。
FIG. 19 shows a conventional system for performing simulcast broadcasting in both the NTSC format and the HDTV format. The simulcast broadcasting system 190 includes a “1080i” high-definition format video read from the video tape 191 and a “525i” NT video read from the video tape 192.
Upconverter 19 for SC format video
3. Editing process 194 using the video “1080i” by step 3
I do. The editing process 194 is performed in the “1080i” format to generate an output video in a high definition format.
Then, one of them is transmitted as a broadcast wave from the antenna 195 for high vision. On the other hand, for NTSC, the image converted to 525i by down conversion
7 is transmitted as a broadcast wave.

【0125】よって、このシステム190では、「525
i」のNTSCフォーマットの映像を一旦、「1080i」に
アップコンバージョンしたのち、「1080i」で編集し、
再度「1080i」出力を「525i」にダウンコンバーション
してNTSC用としている。NTSC用の映像について
も編集処理は「1080i」で行い、放送前に「525i」にし
ている。
Therefore, in this system 190, "525
i) NTSC format video once up-converted to “1080i”, then edited with “1080i”
The "1080i" output is again down-converted to "525i" for NTSC use. Editing processing for NTSC video is also performed at "1080i", and is set to "525i" before broadcasting.

【0126】これに対して、前記コンテンツ形成装置を
適用した、図20に示すサイマルキャスト放送システム
200によれば、NTSC用の映像の画質を劣化させる
ことがない。すなわち、図示しない、例えば図2に示し
たEPL作成部10により作成したEPLに基づいて編
集実行部203及び編集実行部204が編集を実行した
とき、本システム200では、編集後のNTSC用の映
像(「525i」)を、アップコンバージョンとダウンコン
バージョンを繰り返すことなく、生成できる。
On the other hand, according to the simulcast broadcasting system 200 shown in FIG. 20 to which the above-mentioned content forming apparatus is applied, the picture quality of NTSC video is not degraded. That is, when the editing execution unit 203 and the editing execution unit 204 execute editing based on the EPL created by the EPL creation unit 10 shown in FIG. ("525i") can be generated without repeating up-conversion and down-conversion.

【0127】このシステム200の編集実行部203又
は204で行われる、HD画像(1080i)からSD画像
(525i)へ、またSD画像からHD画像へのビデオフォ
ーマット変換について図21を用いて説明する。
The video format conversion from the HD image (1080i) to the SD image (525i) and from the SD image to the HD image, which is performed by the editing execution unit 203 or 204 of the system 200, will be described with reference to FIG.

【0128】この図21において、入力ビデオ信号は、
フィールドメモリ211とフィールドメモリ212に順
番に蓄えられる。動き検出部210は、二つのフィール
ドメモリ211及び212により、時間軸上での差が与
えられた、フィールド画像から動きを検出する。この動
き検出部210による動き検出の結果、すなわちフレー
ム画像に動きがあった/フィールド画像に動きがあった
ということを示す、フレーム/フィールドのtap選択信
号は、トランスバーサル型の垂直フィルタ213に供給
される。トランスバーサル型の垂直フィルタ213は、
二つのフィールドメモリ211及び212によって時間
差が与えられた前記フィールド画像に、前記フレーム/
フィールドのtap選択信号に基づいて垂直フィルタ処理
を施す。前記垂直フィルタ213のフィルタ出力は、ト
ランスバーサル型の水平フィルタ214に供給される。
前記水平フィルタ214は、前記垂直フィルタ出力に水
平フィルタ処理を施す。この水平フィルタ214の水平
フィルタ出力は、イメージエンハンス部215に供給さ
れる。
In FIG. 21, the input video signal is
It is stored in the field memory 211 and the field memory 212 in order. The motion detector 210 detects motion from a field image given a difference on the time axis by the two field memories 211 and 212. The result of the motion detection by the motion detecting unit 210, that is, the frame / field tap selection signal indicating that the frame image has moved / the field image has moved is supplied to the transversal vertical filter 213. Is done. The transversal vertical filter 213 is
The frame / frame image is added to the field image given a time difference by the two field memories 211 and 212.
Vertical filter processing is performed based on the tap selection signal of the field. The filter output of the vertical filter 213 is supplied to a transversal horizontal filter 214.
The horizontal filter 214 performs horizontal filtering on the output of the vertical filter. The horizontal filter output of the horizontal filter 214 is supplied to the image enhancer 215.

【0129】イメージエンハンス部215は、前記水平
フィルタ出力の高域成分を強調する。イメージエンハン
ス部215からのエンハンス出力は、画像信号変換部2
16に供給される。画像信号変換部216は、Y/Pb
/Pr信号をRGB信号に変換する。このRGB信号
は、逆ガンマ補正部217に供給され、逆ガンマ補正が
かけられる。この逆ガンマ補正出力は、色彩変換部(カ
ラーリメトリコンバージョン部)218に供給される。
カラーリメトリコンバージョン部218は、前記逆ガン
マ補正出力に色彩変換処理を施す。この色彩変換処理出
力は、ガンマ補正部219に供給される。
The image enhancer 215 emphasizes the high frequency component of the output of the horizontal filter. The enhanced output from the image enhancer 215 is output to the image signal converter 2
16. The image signal conversion unit 216 has a Y / Pb
/ Pr signal is converted to an RGB signal. The RGB signals are supplied to the inverse gamma correction unit 217, and are subjected to inverse gamma correction. This inverse gamma correction output is supplied to a color conversion unit (color remetry conversion unit) 218.
The colorimetry conversion unit 218 performs a color conversion process on the inverse gamma correction output. The output of the color conversion processing is supplied to the gamma correction unit 219.

【0130】ガンマ補正部219は、前記色彩変換処理
出力にガンマ補正処理を施し、画像信号変換部220に
供給する。画像信号変換部220は、RGB信号をY/
Pb/Pr信号に変換する。このY/Pb/Pr信号が
出力ビデオ信号となる。
The gamma correction section 219 performs gamma correction processing on the color conversion processing output, and supplies the output to the image signal conversion section 220. The image signal converter 220 converts the RGB signals into Y /
Convert to Pb / Pr signal. This Y / Pb / Pr signal becomes the output video signal.

【0131】したがって、この図21に示した構成にお
いて、画質変換処理部216又は画質変換処理部220
での変換処理等を換えることによって、ダウンコンバー
ジョン処理又はアップコンバージョン処理に対応するこ
とができる。
Therefore, in the configuration shown in FIG. 21, image quality conversion processing section 216 or image quality conversion processing section 220
By changing the conversion processing and the like in the above, it is possible to cope with down conversion processing or up conversion processing.

【0132】[0132]

【発明の効果】以上、本発明に係るコンテンツ制作装置
は、他の分散場所で分散編集リスト作成手段により作成
された分散編集リストを用い、編集リスト作成手段にお
いて最終的な階層構造の編集リストを統合最適化により
作成し、コンテンツ形成手段にて前記編集リストに基づ
いて任意フォーマットのコンテンツを形成するが、前記
編集リスト及び/又は分散編集リストには、編集に使用
される素材を特定するための識別情報と、少なくとも一
部の素材のフォーマットを定義するフォーマット宣言文
とを記載しているので、マルチフォーマットのデータに
対応し、かつ素材を手許に一旦溜めて使うことなく、さ
らに処理の互換を可能として、任意のフォーマットのコ
ンテンツを制作することができる。
As described above, the content production apparatus according to the present invention uses the distributed edit list created by the distributed edit list creating means at another distributed place, and the edit list creating means generates the final hierarchically structured edit list. The content is created by integrated optimization, and the content forming means forms the content of an arbitrary format based on the edit list. The edit list and / or the distributed edit list include a material for specifying a material used for editing. Since identification information and a format declaration statement that defines the format of at least some of the materials are described, it is compatible with multi-format data, and the compatibility of processing is further improved without using and temporarily storing materials. If possible, content in any format can be produced.

【0133】また、本発明に係るコンテンツ制作方法
は、複数の映像及び/又は音声の素材を用いて他の分散
場所で分散編集リスト作成工程により作成された分散編
集リストを用いて、編集リスト作成工程が最終的な階層
構造の編集リストを統合最適化により作成し、コンテン
ツ形成工程にて前記編集リストに基づいて任意フォーマ
ットのコンテンツを形成するが、前記基準編集リスト及
び/又は分散編集リストには、編集に使用される素材を
特定するための識別情報と、少なくとも一部の素材のフ
ォーマットを定義するフォーマット宣言文とを記載して
いるので、マルチフォーマットのデータに対応し、かつ
素材を手許に一旦溜めて使うことなく、さらに処理の互
換を可能として、任意のフォーマットのコンテンツを制
作することができる。
[0133] Further, the content production method according to the present invention provides a method for creating an edit list by using a distributed edit list created by a distributed edit list creating process at another distributed place using a plurality of video and / or audio materials. The process creates a final hierarchically structured edit list by integrated optimization, and forms a content in an arbitrary format based on the edit list in the content forming process. Since it describes identification information for identifying the material used for editing and a format declaration statement that defines the format of at least some of the materials, it is compatible with multi-format data and You can create content in any format without having to use it once and make it possible to further process compatibility.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態となる、コンテンツ制作シ
ステムの全体構成を示す図である。
FIG. 1 is a diagram showing an overall configuration of a content production system according to an embodiment of the present invention.

【図2】コンテンツ形成装置の構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a configuration of a content forming apparatus.

【図3】EPLの記述例を示す図である。FIG. 3 is a diagram illustrating a description example of an EPL.

【図4】EPLの記述例を示す図である。FIG. 4 is a diagram showing a description example of an EPL.

【図5】EPLの実行イメージを示す図である。FIG. 5 is a diagram showing an execution image of EPL.

【図6】EPLを用いた編集後にできた映像を模式的に
示す図である。
FIG. 6 is a diagram schematically showing an image formed after editing using the EPL.

【図7】ビデオスキャンフォーマット(video scan for
mat)の具体例を示す図である。
[Fig. 7] Video scan format (video scan for
FIG. 4 is a diagram showing a specific example of mat).

【図8】EPLによる編集の分業を行う、コンテンツ形
成システムを示す図である。
FIG. 8 is a diagram illustrating a content forming system that performs division of labor of editing by EPL.

【図9】上記図8のコンテンツ形成システムの粗編集部
にて作成された粗編集EPL(1)を示す図である。
FIG. 9 is a diagram showing a rough edit EPL (1) created by a rough edit unit of the content forming system of FIG. 8;

【図10】上記図8のコンテンツ形成システムのカット
編集部にて作成されたカット編集EPL(2−a)を示
す図である。
FIG. 10 is a diagram showing a cut editing EPL (2-a) created by a cut editing unit of the content forming system of FIG. 8;

【図11】上記図8のコンテンツ形成システムのモザイ
ク編集部にて作成されたモザイク編集EPL(2−b)
を示す図である。
11 is a mosaic editing EPL (2-b) created by the mosaic editing unit of the content forming system of FIG.
FIG.

【図12】上記図8のコンテンツ形成システムの日本語
字幕編集部にて作成された日本語字幕編集EPL(2−
c)を示す図である。
FIG. 12 is a Japanese subtitle editing EPL (2-) created by the Japanese subtitle editing unit of the content forming system of FIG. 8;
It is a figure showing c).

【図13】上記図8のコンテンツ形成システムの英語字
幕編集部にて作成された英語字幕編集EPL(2−d)
を示す図である。
13 is an English subtitle editing EPL (2-d) created by the English subtitle editing unit of the content forming system of FIG. 8;
FIG.

【図14】上記図8のコンテンツ形成システムの日本語
統合・最適化部にて作成された最適化EPL(3)を示
す図である。
FIG. 14 is a diagram showing an optimized EPL (3) created by the Japanese language integration / optimization unit of the content forming system of FIG. 8;

【図15】統合・最適化を、NTSC用に変換したEP
Lを示す図である。
FIG. 15 EP converted from NTSC for integration and optimization
FIG.

【図16】遠隔地で編集作業をする他の具体例を示す図
である。
FIG. 16 is a diagram showing another specific example of performing editing work at a remote place.

【図17】収録から放送までに生じる画質劣化という課
題を説明するための図である。
FIG. 17 is a diagram for explaining a problem of image quality deterioration occurring from recording to broadcasting.

【図18】上記画質劣化を解決する、本発明のコンテン
ツ形成装置及び方法の具体例を示す図である。
FIG. 18 is a diagram showing a specific example of the content forming apparatus and method of the present invention for solving the above-described image quality deterioration.

【図19】NTSCフォーマットとハイビジョンフォー
マットの両方でサイマルキャスト放送を行う、従来のシ
ステムの構成図である。
FIG. 19 is a configuration diagram of a conventional system that performs simulcast broadcasting in both the NTSC format and the Hi-Vision format.

【図20】本発明のコンテンツ形成装置及び方法を適用
した、サイマルキャスト放送システムの構成図である。
FIG. 20 is a configuration diagram of a simulcast broadcasting system to which the content forming apparatus and method of the present invention are applied.

【図21】ビデオフォーマット変換を説明するための図
である。
FIG. 21 is a diagram for explaining video format conversion.

【符号の説明】[Explanation of symbols]

1 コンテンツ制作システム、61 ビデオカメラ、6
3 インターネット、64 素材ファイル、66 素材
編集グループ、74 編集結果保存・検索グループ、8
2 編集結果利用グループ、93 コンピュータグラフ
ィック処理グループ、102 クローズドキャプション
処理グループ、111 地方局
1 content production system, 61 video cameras, 6
3 Internet, 64 material files, 66 material editing group, 74 editing result storage / search group, 8
2 Editing result utilization group, 93 Computer graphic processing group, 102 Closed caption processing group, 111 Local stations

───────────────────────────────────────────────────── フロントページの続き (72)発明者 真貝 光俊 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 向 正孝 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C053 FA14 GA11 GB05 GB36  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Mitsutoshi Makai 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Masataka Muko 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F term (reference) 5C053 FA14 GA11 GB05 GB36

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 複数の映像及び/又は音声の素材を用い
て他の分散場所で作成された分散編集リストを用いて最
終的な階層構造の編集リストを統合最適化により作成す
る編集リスト作成手段と、 前記編集リスト作成手段で作成された編集リストとそれ
に対応する素材を用いて前記分散編集リストを作成する
分散編集リスト作成手段と、 前記編集リスト作成手段で最終的に作成された前記編集
リストに基づいて任意フォーマットのコンテンツを形成
するコンテンツ形成手段とを備え、 前記編集リスト及び/又は分散編集リストには、編集に
使用される素材を特定するためのグローバルユニークな
同一体系の識別情報と、少なくとも一部の素材のフォー
マットを定義するフォーマット宣言文とを有することを
特徴とするコンテンツ制作装置。
An edit list creating means for creating a final hierarchically structured edit list by integrated optimization using a distributed edit list created at another distributed location using a plurality of video and / or audio materials. A distributed edit list creating means for creating the distributed edit list using the edit list created by the edit list creating means and the corresponding material; and the edit list finally created by the edit list creating means And content forming means for forming a content in an arbitrary format based on the editing list and / or the distributed editing list, wherein identification information of a globally unique same system for specifying a material used for editing, A content declaration device for defining a format of at least a part of the material.
【請求項2】 前記編集リスト作成手段で作成された編
集リスト及び/又は前記分散編集リスト作成手段で作成
された分散編集リストは、プログラムホルダにファイル
として格納され、ネットワークを介して伝送されること
を特徴とする請求項1記載のコンテンツ制作装置。
2. The editing list created by the editing list creating means and / or the distributed editing list created by the distributed editing list creating means is stored as a file in a program holder and transmitted via a network. The content production device according to claim 1, wherein:
【請求項3】 複数の前記分散編集リスト作成手段を備
えることを特徴とする請求項1記載のコンテンツ制作装
置。
3. The content production apparatus according to claim 1, further comprising a plurality of said distributed editing list creating means.
【請求項4】 前記編集リスト作成手段で作成された前
記編集リストに基づいて作成した所定フォーマットのコ
ンテンツを保存・検索するコンテンツ保存検索手段を備
えることを特徴とする請求項1記載のコンテンツ制作装
置。
4. A content production apparatus according to claim 1, further comprising a content storage / retrieval means for storing / retrieving a content of a predetermined format created based on said edit list created by said edit list creation means. .
【請求項5】 前記グローバルユニークな同一体系の識
別情報に準拠して、素材の処理方法を識別する識別コー
ドが定められていることを特徴とする請求項1記載のコ
ンテンツ制作装置。
5. The content producing apparatus according to claim 1, wherein an identification code for identifying a material processing method is determined based on the globally unique identification information of the same system.
【請求項6】 前記フォーマット宣言文は、入力映像素
材の画像フォーマット及び/又は編集出力の画像フォー
マットを含むことを特徴とする請求項1記載のコンテン
ツ制作装置。
6. The content production apparatus according to claim 1, wherein the format declaration statement includes an image format of an input video material and / or an image format of an edited output.
【請求項7】 前記画像フォーマットは、撮影時の1コ
マの時間、画像の縦横の有効画素数、各画素の縦横比の
項目を少なくとも含むスキャンフォーマットであること
を特徴とする請求項6記載のコンテンツ制作装置。
7. The image format according to claim 6, wherein the image format is a scan format including at least items of one frame time at the time of shooting, the number of effective pixels in the vertical and horizontal directions of the image, and the aspect ratio of each pixel. Content production equipment.
【請求項8】 前記編集リスト作成時には、前記素材を
高圧縮したサブ素材を用いることを特徴とする請求項1
記載のコンテンツ制作装置。
8. The method according to claim 1, wherein when the edit list is created, a sub material obtained by highly compressing the material is used.
Content production device as described.
【請求項9】 前記素材の取得先は、前記編集リスト又
は分散編集リストに同封、編集システム内のパス、ネッ
トワークを介した外部サーバのアドレスのいずれかによ
り指定されることを特徴とする請求項1記載のコンテン
ツ制作装置。
9. The acquisition source of the material is specified by any of a path enclosed in the editing list or the distributed editing list, a path in an editing system, and an address of an external server via a network. 1. The content production device according to 1.
【請求項10】 複数の映像及び/又は音声の素材を用
いて他の分散場所で作成された分散編集リストを用いて
最終的な階層構造の編集リストを統合最適化により作成
する編集リスト作成工程と、 前記編集リスト作成工程で作成された編集リストとそれ
に対応する素材を用いて前記分散編集リストを作成する
分散編集リスト作成工程と、 前記編集リスト作成手段で作成された前記編集リストに
基づいて任意のフォーマットのコンテンツを形成するコ
ンテンツ形成工程とを備え、 前記編集リスト及び/又は分散編集リストには、編集に
使用される素材を特定するためのグローバルユニークな
同一体系の識別情報と、少なくとも一部の素材のフォー
マットを定義するフォーマット宣言文とを有することを
特徴とするコンテンツ制作方法。
10. An edit list creating step of creating a final hierarchically structured edit list by integrated optimization using a distributed edit list created at another distributed location using a plurality of video and / or audio materials. A distributed edit list creating step of creating the distributed edit list using the edit list created in the edit list creating step and the material corresponding thereto, based on the edit list created by the edit list creating means A content forming step of forming content in an arbitrary format, wherein the edit list and / or the distributed edit list include globally unique identification information for identifying a material used for editing, and at least one of And a format declaration statement for defining a format of the material of the part.
JP2001100644A 2001-03-30 2001-03-30 Device and method for producing contents Pending JP2002300523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001100644A JP2002300523A (en) 2001-03-30 2001-03-30 Device and method for producing contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001100644A JP2002300523A (en) 2001-03-30 2001-03-30 Device and method for producing contents

Publications (1)

Publication Number Publication Date
JP2002300523A true JP2002300523A (en) 2002-10-11

Family

ID=18954068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001100644A Pending JP2002300523A (en) 2001-03-30 2001-03-30 Device and method for producing contents

Country Status (1)

Country Link
JP (1) JP2002300523A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004049709A1 (en) * 2002-11-22 2004-06-10 Sony Corporation System and method for referencing av data accumulated in av server
WO2004051999A1 (en) * 2002-11-29 2004-06-17 Sony Corporation Video signal processor, video signal recorder, video signal reproducer, video signal processor processing method, video signal recorder processing method, video signal reproducer processing method, recording medium
WO2004057607A1 (en) * 2002-12-20 2004-07-08 Virtual Katy Development Limited Method of film data comparison
WO2004112031A1 (en) * 2003-06-13 2004-12-23 Sony Corporation Edition device and method
JP2008219908A (en) * 2008-03-21 2008-09-18 Sony Corp Information processing apparatus and method, and program
JP2009201111A (en) * 2008-02-22 2009-09-03 Square Enix Co Ltd Video creating system and program product for creating video
US7814416B2 (en) 2004-01-13 2010-10-12 Sony Corporation Information processing apparatus, method, program, and system for data searching using linking information

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004049709A1 (en) * 2002-11-22 2004-06-10 Sony Corporation System and method for referencing av data accumulated in av server
US8032613B2 (en) 2002-11-22 2011-10-04 Sony Corporation System and method for previewing AV data stored in AV server
US7747700B2 (en) 2002-11-22 2010-06-29 Sony Corporation System and method for referencing AV data accumulated in AV server
WO2004051999A1 (en) * 2002-11-29 2004-06-17 Sony Corporation Video signal processor, video signal recorder, video signal reproducer, video signal processor processing method, video signal recorder processing method, video signal reproducer processing method, recording medium
US8126308B2 (en) 2002-11-29 2012-02-28 Sony Corporation Video signal processor, video signal recorder, video signal reproducer, video signal processor processing method, video signal recorder processing method, video signal reproducer processing method, recording medium
KR101007508B1 (en) * 2002-11-29 2011-01-12 소니 주식회사 Video signal processor, video signal recorder, video signal reproducer, video signal processor processing method, video signal recorder processing method, video signal reproducer processing method, recording medium
WO2004057607A1 (en) * 2002-12-20 2004-07-08 Virtual Katy Development Limited Method of film data comparison
GB2413000A (en) * 2002-12-20 2005-10-12 Virtual Katy Dev Ltd Method of film data comparison
WO2004112031A1 (en) * 2003-06-13 2004-12-23 Sony Corporation Edition device and method
US7844648B2 (en) 2004-01-13 2010-11-30 Sony Corporation Information processing apparatus, information processing method, and program facilitating editing and checking of data
US7814416B2 (en) 2004-01-13 2010-10-12 Sony Corporation Information processing apparatus, method, program, and system for data searching using linking information
JP2009201111A (en) * 2008-02-22 2009-09-03 Square Enix Co Ltd Video creating system and program product for creating video
JP2013191222A (en) * 2008-02-22 2013-09-26 Square Enix Co Ltd Video creating system and video creation program
JP4591527B2 (en) * 2008-03-21 2010-12-01 ソニー株式会社 Information processing apparatus and method, and program
JP2008219908A (en) * 2008-03-21 2008-09-18 Sony Corp Information processing apparatus and method, and program

Similar Documents

Publication Publication Date Title
JP4713060B2 (en) Content forming apparatus and method
JP4777583B2 (en) Image sequence compression featuring independent coding regions
CN1127852C (en) Wide-band multi-format audio/video prodn system with frame-rate conversion
JP5206838B2 (en) Image processing apparatus and image processing method
JP3159329B2 (en) Digital signal processor
US5786864A (en) Moving picture processing apparatus and method wherein image data and special effects data are transmitted in common
US8811802B2 (en) Insertion and usage of metadata in digital video
KR20000029851A (en) Non-linear editing system for home entertainment environments
JP2003534684A (en) How to edit compressed video downstream
JP2009514338A (en) System and method for determining and communicating correction information about a video image
JP2001078166A (en) Program providing system
JP2002300523A (en) Device and method for producing contents
JP2020017945A (en) Automated media publishing
TW200423744A (en) Apparatus and method for signal processing of format conversion and combination of video signals
KR100507790B1 (en) Audio/video data recording/reproducing device and method, and audio/video data reproducing device and method
JP4496661B2 (en) How to create an edit list
US20040190878A1 (en) Video data conversion apparatus and video data conversion
JP2001268505A (en) Image edition system
Smith et al. The Media Workflow Puzzle: How It All Fits Together
Bancroft A Multi-Frame Rate, Compression-Free, Video Recorder for Universal DTV Mastering in High Resolution
JP3880596B2 (en) Multimedia information editing device
Carey et al. The Mastering Process
JP2006246210A (en) Reproducing device and method, and imaging apparatus and imaging signal processing method
Stump Color Management, Compression, and Workflow: Color Management—Image Manipulation Through the Production Pipeline
Wiswell 24-Frame and Multiple Frame-rate Post Systems and Equipment Design Considerations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223