JP4433559B2 - Production system and production method - Google Patents

Production system and production method Download PDF

Info

Publication number
JP4433559B2
JP4433559B2 JP2000113280A JP2000113280A JP4433559B2 JP 4433559 B2 JP4433559 B2 JP 4433559B2 JP 2000113280 A JP2000113280 A JP 2000113280A JP 2000113280 A JP2000113280 A JP 2000113280A JP 4433559 B2 JP4433559 B2 JP 4433559B2
Authority
JP
Japan
Prior art keywords
metadata
essence
data
production
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000113280A
Other languages
Japanese (ja)
Other versions
JP2001292414A (en
Inventor
聡 高木
昇 ▲柳▼田
惠子 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000113280A priority Critical patent/JP4433559B2/en
Publication of JP2001292414A publication Critical patent/JP2001292414A/en
Application granted granted Critical
Publication of JP4433559B2 publication Critical patent/JP4433559B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、エッセンスからプロジェクトを制作するプロダクションシステム及びプロダクション方法に関する。
【0002】
【従来の技術】
近年、SMPTE(Society of Motion Picture and Television Engineers)において、メタデータについて標準化が進められており、コンテンツを示すエッセンス(Essence)、メタデータとエッセンスを併せたラッパー(Wrapper)等の語義が定義されている。さらに、メタデータのデータ構造であるKLV(Key Length Value)プロトコルやUMID(Unique Material Identifier)等が提唱され、さらに、具体的なメタデータ自体を集めたメタデータディクショナリ(Meta data Dictionary)等が提案され標準化が進められている。
【0003】
【発明が解決しようとする課題】
ところで、放送局では、マルチチャンネル化、マルチメディア化による番組ソフトの不足が問題になっており、コスト負担を最小限に抑えつつ、番組の質(コンテンツの内容)を落とさず、サービスの向上を図るために如何にして番組ソフトを確保するかが重要な課題となっている。このことは、収録・作成から編集、送出、アーカイブまで一連のプロセスの中で、如何に映像/音声データを効率的に処理することができるか、ということでもあり、過去の番組を再利用するためのアーカイブシステム構築を含むメディアアセットマネージメントが最大の課題となっている。
【0004】
そこで、本発明の目的は、このような従来の実状に鑑み、エッセンスからプロジェクトを効率よく制作することができるようにしたプロダクションシステム及びプロダクション方法を提供することにある。
【0005】
【課題を解決するための手段】
本発明は、エッセンスからプロジェクトを制作するプロダクションシステムにおいて、上記エッセンスに関するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成する手段と、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして上記複数のメタデータを伝送する手段とを有し、上記エッセンスを説明するメタデータを生成するプリプロダクションと、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するプロダクションと、上記プリプロダクション時に生成されたメタデータを利用して、上記エッセンスから上記プロジェクトを制作するポストプロダクションとを備えたことを特徴とする。
【0006】
また、本発明は、エッセンスからプロジェクトを制作するプロダクションシステムにおいて、上記エッセンスに関するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成する手段と、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして上記複数のメタデータを伝送する手段とを有し、上記エッセンスを説明するメタデータを生成するプリプロダクションと、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するプロダクションと、上記エッセンスから上記プロジェクトを制作するポストプロダクションとを備え、上記プリプロダクション時に生成されたメタデータを使用して、上記ポストプロダクションのオペレーションをコントロールすることを特徴とする。
【0007】
また、本発明は、エッセンスからプロジェクトを制作するプロダクションシステムにおいて、上記エッセンスに関するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成する手段と、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして上記複数のメタデータを伝送する手段とを有し、上記エッセンスを説明するメタデータを生成するプリプロダクションと、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するプロダクションと、上記エッセンスから上記プロジェクトを制作するポストプロダクションとを備え、上記プリプロダクション時に生成されたメタデータと関連付けて、上記ポストプロダクションのオペレーションが行われることを特徴とする。
【0008】
また、本発明は、エッセンスからプロジェクトを制作するプロダクション方法において、上記エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送するステップと、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するステップと、プリプロダクション時に生成されたメタデータを利用して、上記エッセンスから上記プロジェクトを制作するステップとを有することを特徴とする。
【0009】
また、本発明は、エッセンスからプロジェクトを制作するプロダクション方法において、上記エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送するステップと、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するステップと、プリプロダクション時に生成されたメタデータを使用して、上記エッセンスから上記プロジェクトを制作するポストプロダクションのオペレーションをコントロールするステップとを有することを特徴とする。
【0010】
さらに、本発明は、エッセンスからプロジェクトを制作するプロダクション方法において、上記エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送するステップと、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するステップと、プリプロダクション時に生成されたメタデータと関連付けて、上記エッセンスから上記プロジェクトを制作するポストプロダクションのオペレーションを行うステップとを有することを特徴とする。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して詳細に説明する。
【0012】
本発明は、例えば図1に示すような構成の番組作成配給システム100に適用される。
【0013】
この番組作成配給システム100は、ギガビットイサーネット1を介して接続された配給番組編成システム10、プロダクションシステム20、ニュースシステム30、アーカイブシステム40、番組配給システム50を備えるとともに、上記プロダクションシステム20に提供する映像や音声を取得するアクイジョンシステム60を備える。
【0014】
配給番組編成システム10は、プロデューサー,ディレクター,作成スタッフ等の関係者が、番組の配給内容等を関する打合せを行う撮影前のいわゆるプリプロダクション(Pri-Production)処理のためのシステムであって、ギガビットイサーネット1に接続された複数台のワークステーション10Aを介して、番組関係者が番組の配給内容等を関する打合せを行うことができるようになっている。
【0015】
プロダクションシステム20は、映像及び音声の収集を行う撮影制作処理のためのシステムであって、例えば、図2に示すように、収録関係者が必要事項を入力するための収録管理システム21、プロダクション管理システム22、アクイジョンシステム60により取得された映像や音声を蓄積するインジェストシステム23、映像や音声のコーディング処理を行うコーディングシステム24、映像や音声の編集処理を行うエディッティング/プロセッシングシステム25、CG(Computer Graphics) による映像を作成や映像に重ねて表示する地図,天気図,文字等を作成するCGクリエーションシステム26などからなる。
【0016】
収録管理システム21は、ギガビットイサーネット1に接続された複数台のワークステーション21Aからなり、上記ワークステーション21Aを介して記者が記事を入力できるようになっている。プロダクション管理システム22は、ギガビットイサーネット1に接続されたデバイスコントローラ22AやA/Vサーバ22B等からなる。インジェストシステム23は、ビデオテープに記録された映像や音声を再生する再生装置23A、フィルム撮影された映像をビデオ信号に変換するテレシネ装置23B、ギガビットイサーネット1に接続された複数台のインジェストクライアント23Cなどからなり、アクイジョンシステム60により取得された映像や音声を再生装置23Aやテレシネ装置23Bを介してインジェストクライアント23Cに蓄積することができるようになっている。コーディングシステム24は、ギガビットイサーネット1に接続されたコーディングコントローラ24A、MPEGエンコーダ24B及びMPEGデコーダ24Cからなる。エディッテング/プロセッシングシステム25は、ギガビットイサーネット1に接続されたオフライン編集装置25A、オンライン編集装置25B、映像処理装置25C及び音声処理装置25Dからなる。
【0017】
ニュースシステム30は、ニュース情報を統括管理するシステムであって、オンエア項目の管理及びどの素材がどの段階の処理を受けているか等の素材管理が行われている。
【0018】
アーカイブシステム40は、映像データ及び音声データを保管するシステムであって、ギガビットイサーネット1に接続されたアーカイブマネージャ40Aやペタサイト40Bからなる。エッセンスやメタデータが上記ペタサイト40Bに保管される。
【0019】
番組配給システム50は、ギガビットイサーネット1に接続されたサーバコントローラ51、オーサリングシステム52、Webシステム53、オンエアサーバ54を備えるとともに、オンエアプログラムを選択するルーティングスイッチ55を備える。
【0020】
アクイジョンシステム60は、ビデオカメラ61や中継車62などからなる。
【0021】
この番組作成配給システム100は、例えば放送局,映像制作会社等において、映像及び音声等(以下、素材と記す。)を収録し、これらの素材を編集・加工して配給用の映像を制作し、更にこの映像を保管する機能を有する画像処理システムであって、素材の収録,編集,保管等の各画像処理工程において、素材を詳細に識別するための付加情報を記録媒体、或いは専用の記録サーバに入力するものである。
【0022】
なお、付加情報としては、メタデータが用いられる。メタデータとは、例えば収録時刻,収録ID,収録題目,撮影者名,レポータ名等、収録によって得られた素材を識別するために必要な情報を記述するためのデータである。
【0023】
この番組作成配給システム100において、映像データ,音声データ及びメタデータを伝送するための伝送フォーマットとしては、SMPTEによって規格化されているデジタルデータ伝送フォーマットであるSDI(Serial Digital Interface)を使用する。図3(a)に、SDIフォーマットデータ全体の構成を示す。
【0024】
SDIフォーマットは、終了同期を示す4ドットのEAV(End of Video)領域と、268ドットのANS(Ancillary) 領域と、開始同期を示す4ドットのSAV(Start of Video)領域と、1440ドットのアクティブビデオ領域とを有し、ライン数525で構成されている。ただし、括弧内の数字は、PAL(Phase Alternation Line)方式で定義される値を示している。
【0025】
アクティブビデオ領域は、9ラインの垂直ブランキング部(VBK1 )と、10ラインのオプショナルブランキング部(OBK1 )と、244ラインのアクティブビデオ部(ACV1)と、9ラインの垂直ブランキング部(VBK2)と、10ラインのオプショナルブランキング部(OBK2 )と、243ラインのアクティブビデオ領域(ACV2 )とを有する。
【0026】
SDIは、いわゆるD1フォーマット,D2フォーマットのような非圧縮デジタルデータを伝送するためのフォーマットであり、アンシラリ領域に音声データを格納し、アクティブビデオ領域にD1やD2のようなビデオデータを格納して伝送している。SDIフォーマットにおいて、メタデータは、アンシラリ領域に挿入されて伝送される。
【0027】
図3(b)は、SDIフォーマットの1ラインを示したものである。伝送される際には、1ライン10ビット幅のデータがパラレル―シリアル変換及び伝送路符号化されて伝送される。
【0028】
また、画像処理システム1において映像データ、音声データ及びメタデータを伝送するための伝送フォーマットとしては、上述のSDIフォーマットのほか、MPEG方式,DV方式等で圧縮された圧縮データを伝送するためのSDTI(Serial Digital Transfer Interface) フォーマットや、SDTIフォーマットを更に限定したSDTI−CP(Serial Digital Transfer Interface - Content Package) フォーマットを用いても良い。
【0029】
図4(a)に、SDTIフォーマットのデータ構造を示す。SDTIフォーマットは、SDIフォーマットと同様に、終了同期を示す4ドットのEAV(End of Video)領域と、268ドットのANC(Ancillary) 領域と、開始同期を示す4ドットのSAV(Start of Video)領域とを有しているが、SDIフォーマットにおいてライン数525で構成されるアクティブビデオ領域が、ペイロード領域と定義されている。ただし、括弧内の数字は、PAL(Phase Alternation Line)方式で定義される値を示している。
【0030】
SDTIフォーマットにおいてペイロード領域は、ブランクデータ部(BDT1、BDT2)と、データ部(DT1、DT2)とを有するが、各データ部のライン数は定義されていない。
【0031】
図4(b)は、SDTIフォーマットの1ラインを示したものである。SDTIフォーマットで伝送される際には、1ライン10ビット幅のデータがパラレル―シリアル変換及び伝送路符号化されて伝送される。
【0032】
SDTIフォーマットでは、アンシラリ領域に、送信元アドレス、宛先アドレス、ラインナンバCRC等が挿入される53ワードのSDTIヘッダデータが含まれている。SDTIフォーマットにおいてメタデータは、アンシラリ領域のSDTIヘッダデータを除いた部分の領域に挿入される。
【0033】
図5に、SDTI−CPフォーマットのデータ構造を示す。SDTI−CPにおけるパケット構成は、SDTIフォーマットを更に限定したものであり、ペイロードの構成に変更を加えて各種データが挿入しやすいようにされている。
【0034】
SDTI−CPフォーマットによって伝送されるデータは、MPEG(Moving Picture Expert Group)2 Video Elementary Stream 等を含むほか、音声やメタデータを含む補助データ等の種々のデータをまとめて伝送することができる。
【0035】
ペイロードに挿入するデータは、「アイテム」で区切られ、各種データは、各アイテムに挿入されている。具体的に、アイテムには、System Item、Picture Item、Audio Item、Auxiliary Itemの4種類がある。
【0036】
System Itemは、System Item Bitmap, Content Package rate,SMPTE Universal Label,Package Metadata Set,Picture Metadata Set,Audio Metadata Set,Auxiliary Metadata Set等の領域を有している。
【0037】
SDTI−CPフォーマットにおいてメタデータは、System ItemのPackage Metadata Set,Picture Metadata Set,Audio Metadata Set,Auxiliary Metadata Set領域に挿入されて伝送される。
【0038】
メタデータは、映像データ及び音声データ等の素材を識別するために付加され、入力される固有のデータであって、SMPTE規格に基づくKLV(Key Length Value)プロトコル及びUMID(Unique Material Identifier)のデータフォーマットによって伝送される。
【0039】
KLVフォーマットとは、Universal Label Dataを記述する16バイトのUniversal Label Data Keyと、Value領域に格納されるメタデータのデータ長を示すValue Lengthと、SMPTE Dictionaryに対応する実際のメタデータが格納されるValue の3つの領域を備えたデータ伝送フォーマットである。図6にKLVフォーマットを示す。
【0040】
Universal Label Data Keyは、格納されるメタデータに対してユニークなラベリングを施すためのデータ領域である。Universal Label Data Keyは、更に、それぞれ1バイトのObject IDと、UL(Universal Label) Sizeとを含むUL(Unibersal Label) Header領域,それぞれ1バイトのUL(Universal Label) Codeと、SMPTE Designと、Registry Designと、Data Designと、Reference Version とを含むUL(Universal Label) Designatores領域,9バイトのData Element Tag領域の各領域に分けられてる。
【0041】
UMIDは、映像データ,オーディオ(音声)データ及びその他の素材データを識別するために唯一的に決定される識別子である。図7にUMIDのデータ構造を示す。
【0042】
UMIDは、一連の映像、音声及びメタデータ(以下、コンテンツと記す。)から構成される素材データを識別するためのIDとしてのBasic UMIDと、素材データ内の各コンテンツを識別するためのシグネイチャとしての Extended UMIDとから構成されている。
【0043】
Basic UMIDは、32バイトのデータ領域を有し、12バイトのUniversal Label領域と、1バイトのLength Value 領域と、3バイトのInstance Number領域と、16バイトで示されるMaterial Number領域とから構成されている。
【0044】
Universal Label領域は、デジタルデータを識別するための符号が格納しており、詳細は、SMPTE−298Mにおいて規格化されている。Length Value領域は、UMIDの長さを示す。Basic UMIDと、Extended UMIDとでは符号の長さは異なるため、Basic UMIDの場合、13hで示され、Extended UMIDの場合、33hで示される。Instance Number領域は、素材データに上書き処理や、編集処理が施されたか否かを示している。Material Number領域は、3つの領域を有し、素材データを区別するための符号が格納される。
【0045】
4バイトで示されるTime Snapは、1日のスナップクロックサンプル数を示している。クロック単位で素材データの作成時刻等を示すものである。8バイトのRnd(Random Number)は、正確でない時刻をセットした場合や、例えばIEEE(The Institute of Electrical and Electronics Engineers) で定義された機器のネットワークアドレスが変化した場合に、2重の番号が付されないようにするためのランダムナンバである。
【0046】
一方、 Extended UMIDは、素材が生成された時間と日付とを識別するための8バイトのTime/Date Codeと、素材が生成された時間に関する補正(時差情報)や、緯度、経度、高度で表される位置情報を定義する12バイトのSpatial Co-oredinates と、省略されたアルファベット等の文字や記号によって、国名4を定義するバイトのAlphnumeric Code(Country) と、省略されたアルファベット等の文字や記号によって、組織名を定義する4バイトのAlphnumeric Code(Organization)と、素材を生成したユーザ名を定義する4バイトのAlphnumeric Code(User)とで構成されている。
【0047】
以上説明したBasic UMID及び Extended UMIDは、映像サイズ、ジェネレーションナンバ等を示すメタデータは含まない。特に、Material Number は、素材の状態や素材の映像に関する他の情報を示すものではない。映像サイズ、ジェネレーションナンバ等を示すメタデータは、KLVフォーマットに基づいて伝送される。
【0048】
ここで、SMPTE298Mにおいて標準化されているユニバーサルラベルをキーに取り込んだ辞書規定であるメタデータディクショナリーには、次のようなデータエレメント名のメタデータが規定されている。
【0049】
すなわち、SMPTEラベルに対応したデータエレメント名として、図8に#1〜#33として示すように、クラス1IDとロケータ(IDENTIFIERS & LOCATORS)と、グローバリーユニークID(Globally Unique Identifiers)と、UMIDビデオ(UMID Video)と、UMIDオーディオ(UMID Audio)と、UMIDデータ(UMID Data)と、UMIDシステム(UMID System)と、国際放送局ID(International broadcasting organisation identifiers)と、組織区分(Organisation Identifiers)と、プログラムID(Programme Identifiers)と、UPID(UPID) と、UPN(UPN) と、メディアID(Physical Media identifiers) と、テープID(Tape Identifiers) と、EBU ID NO(IBTN) と、ISO ID(ISO Identifiers) と、ISO オーディオヴィジュアルNO(ISAN) と、ISO ブックNO(ISBN) と、ISO シリアルNO(ISSN) と、ISO ミュージカルワークコード(ISWC) と、ISO プリンテッドミュージックNO(ISMN) と、ISO コマーシャルID(ISCI) と、ISO レコーディングコード(ISRC) と、ISOレポートNO(ISRN) と、ISO 用語解説(ISBD) と、ISO テキスチャルワークコード(ISTC) と、デジタルオブジェクトID(DOI) と、複合ID(Compound IDs) と、 シリアルアイテムとコントリビューションID(SICI) と、ブックアイテムとコンポーネントID(BICI) と、オーディオヴィジュアルアイテムとコンポーネントID(AICI) と、配布元ID(PII) と、 オブジェクトID(Object identifiers)と、インターネットグローバルユニークID(GUID)が規定されている。
【0050】
また、SMPTEラベルに対応したデータエレメント名として、図9に#34〜#66として示すように、SMPTEラベル(GUID and SMPTE label identifiers) と、メタデータオブジェクトのID(MobID) と、オブジェクトIDの詳細(Definition object identifiers) と、オブジェクトIDの詳細(DefinitionObject_Identification) と、コンテナーのバージョン表示(GenerationAUID) と、CNRI(CNRI Handles) と、デバイスID(Device Identifiers) と、デバイス指定(Device Designation) と、デバイス作成(Device Make) と、デバイスのモデル(Device Model) と、デバイスのシリアルNO(Device Serial Number) と、グローバリーユニークロケーター(Globally Unique Locators)と、ユニークリソースID(UR locators (and "identifiers")) と、ユニークリソースロケーター(URL)と、ユニークリソースロケーター(URL) と、ユニコードURLストリング(URLString) と、継続URL(PURL) と、リソース名(URN) と、メディアロケーター(Media locators) と、ローカルID(Local Identifiers) と、管理ID(Administrative identifiers) と、送信ID(Transmission Identifier) と、アーカイブID(Archive Identifier) と、アイテムID(Item ID) と、経理参照NO(Accounting Reference) と、送信課金(Traffic) と、フィジカルメディアID(Physical Media identifiers) と、フィルムコード(Film codes) と、リールNO(Reel/Roll number) と、テープID(Tape identifiers) と、テープNO(Tape number)と、オブジェクトID(Object identifiers) と、ローカリーユニークID(LUID) が規定されている。
【0051】
また、SMPTEラベルに対応したデータエレメント名として、図10に#67〜#99として示すように、スロットID(SlotID)と、オブジェクトテキストID(Object text identifiers) と、群の名前(Mob_Name) と、スロットの名前(SlotName) と、オブジェクト名(DefinitionObject_Name) と、ローカルロケーター(Local Locators) と、ローカルメディアロケーター(Local Media locators) と、ローカルファイルパス(Local File Path) と、フィルムロケーター(Film Locators) と、エッジコード(Edge Code)と、フレームコード(Frame Code) と、キーコード(Key code) と、Ink NO(Ink number) と、セグメント開始コード(EdgeCode_Start) と、プロキシロケーター(Proxy locators) と、プロキシキーテキスト(Key text)と、プロキシキーフレーム(Key Frame) と、プロキシキーサウンド(Key Sound) と、キーデータ(Key data or program) と、手書き(Free-form, human readable locator) と、手書き名(TextLocator_Name) と、タイトル(Titles) と、タイトルの種類(Title kind) と、主題(Main title) と、副題(Secondary title) と、シリーズNO(Series number) と、エピソードNO(Episode Number) と、シーンNO(Scene number) と、テイクNO(Take Number) と、所有権者(Unique IPR Identifiers) と、CISACによる所有権者(IPI (SUISA/CISAC)) と、窓口担当者(Natural Person / legal entity) と、AGICOAによるID(AGICOA/MPAA) が規定されている。
【0052】
また、SMPTEラベルに対応したデータエレメント名として、図11に#100〜#132として示すように、AGICOA ID(AGICOA/MPAA Identifier) と、クラス2管理(ADMINISTRATION) と、供給者(Supplier) と、ソース会社(Source Organization) と、契約NO(Supply contract number) と、原作品名(Original Producer Name) と、プロダクト(Product) と、トータルの編数(Total number of Episodes in a Series) と、権利(Rights) と、著作権(Copyright) と、著作権状況(Copyright Status) と、著作権者(Copyright Owner) と、知財権(Intellectual rights) と、知財権のタイプ(IP Type) と、知財権の詳細(IP Right)と、法的代表者(Legal personalities)と、オーナー(Rights Owner) と、経営権者(Rights Management Authority) と、使用希望者(Interested parties)と、所有権の附属情報(IP Right options) と、最大使用回数(Maximum Number Of Usages) と、ライセンスのオプション(License options) と、経理情報(Financial information) と、金種(Currency) と、支払とコスト情報(Payments and costing) と、ロイヤリティー情報(Royalty Financial Information) と、利益情報(Income)と、ロイヤリティー利益情報(Royalty Financial Information) と、アクセス許可(Permitted Access) と、アクセスレベル(Restrictions on Use)と、セキュリティー(Security) と、技術アクセスの程度(System Access)が規定されている。
【0053】
また、SMPTEラベルに対応したデータエレメント名として、図12に#133〜#165として示すように、ユーザー名(Username) と、ユーザー名(Username) と、パスワード(Password) と、パスワード(Password) と、映画フィルム(Film)と、スクランブルキーの種類(Scrambling key kind) と、スクランブルキーの種類(Scrambling key kind) と、スクランブルキーの値(Scrambling key value) と、販路(Publication Outlet) と、放送販路情報(Broadcast) と、放送業者(Broadcaster) と、名前(Name) と、チャンネル(Channel) と、伝送路(Transmission Medium)と、放送地域(Broadcast Region) と、放送回数(Broadcast and Repeat Statistics)と、第1回目使用(First Broadcast Flag)と、繰り返し回数(Repeat number) と、現在の繰り返し回数(Current repeat number) と、前回までの使用回数(Previous repeat number)と、レイティング(Ratings) と、視聴者レイティング(Audience rating) と、視聴者リーチ(Audience reach)と、他のレイティング(Other ratings) と、参加パーティー(Participating parties) と、代表者(Persons (Groups and Individuals)) と、窓口担当者(Nature of Person (Group or individual)) と、タレント、スタッフ等(Production)と、タレント、スタッフ等(Contribution Status) と、協力と管理(Support and Administration) と、協力管理スタッフ(Support/Administration Status) と、組織と販社(Organisations and Public Bodies) と、販社の種類(Kind of Organisation or Public Body) が規定されている。
【0054】
また、SMPTEラベルに対応したデータエレメント名として、図13に#166〜#198として示すように、プロダクション(Production) と、フィルムラボ(Contribution Status) と、協力と管理(Support and Administration)と、協力管理スタッフ(Support/Administration Status) と、職能(Job Function Information) と、職能(Job Function) と、ロール(Role/Identity) と、情報入手(Contact information) と、コンタクトの種類(Contact kind)と、コンタクトの部署(Contact Department) と、代表者(Person or Organisation Details) と、窓口担当者(Person name)と、ファミリー名(Family name) と、第1任者(First Given name)と、第2任者(Second Given name) と、第3任者(Third Given name)と、グループ名(Group name) と、主たる名前(Main name) と、補助的な名前(Supplementary name) と、組織名(Organisation name) と、主たる名前(Main name) と、補助的な名前(Supplementary organisational name) と、クラス3通訳(INTERPRETIVE) と、基礎情報(Fundamental) と、国名(Countries) と、ISO3166 カントリーコード(ISO 3166 Country Code System)と、ISO 3166 カントリーコード(ISO 3166 Country Code System)と、ISO 言語コード(ISO Language Code) と、ISO 言語コード(ISO Language Code) と、通訳パラメータ(Data Interpretations) と、OSの特性(Operating system interpretations) と、基本4定義(Fundamental Dimensions)と、長さ(Length)が規定されている。
【0055】
また、SMPTEラベルに対応したデータエレメント名として、図14に#199〜#231として示すように、 長さのシステム(Length System)と、長さのシステム(Length System) と、長さの単位(Length Units) と、長さの単位(Length Units) と、時間(Time) と、時間システム(Time system) と、時間システム(Time system)と、時間の単位(Time Units) と、時間の単位(Time Units) と、容積(Mass) と、エネルギー(Energy) と、ヒューマンアサインド(Descriptive-Human Assigned) と、カテゴライズ(Categorisation) と、内容のクラス(Content Classification) と、タイプ(Type) と、ジャンル(Genre) と、〜向け(Target Audience) と、カタロギング(Cataloguing and Indexing) と、監査カタログ(Catalogue History) と、メタデータの現状(Status of Data Set) と、メタデータの現状(Status of Data Set) と、使用中のID(Cataloguing, Indexing or Thesaurus system used) と、テーマ(Theme) と、ジャンル(Genre) と、副コード(Subject Code) と、キーワード(Keywords) と、キーフレーム(Key Frames) と、キーサウンド(Key Sounds) と、キーデータ(Key data)と、文字列の特徴(Textual Description) と、概要(Abstract) と、目的(Purpose) と、説明(Description)が規定されている。
【0056】
また、SMPTEラベルに対応したデータエレメント名として、図15に#232〜#264として示すように、カラー情報(Colour descriptor) と、フォーマット情報(Format descriptor) と、階層(Stratum) と、階層の種類(Stratum kind) と、追加情報(Supplemental Information) と、アセスメント(Assessments) と、アワード(Awards) と、独立(Individual) と、プログラム(Programme) と、品質に関するパラメータ(Qualitative Values) と、財産価値(Asset Values) と、内容価値(Content Value) と、人文的価値(Cultural Quality) と、芸術的価値(Asthetic Value) と、歴史価値(Historic Value) と、技術価値(Technical Value) と、その他の価値(Other Values) と、ディスクリプター(Descriptors (Machine Assigned or Computed)) と、カテゴライゼーション(Categorisation)と、コンテントのクラス(Content Classification) と、カタロギング(Cataloguing and Indexing) と、監査カタログ(Catalogue History) と、メタデータの現状(Status of Data Set) と、カタロギング(Cataloguing, Indexing or Thesaurus system used) と、キーワード(Keywords) と、キーフレーム(Key Frames) と、キーサウンド(Key Sounds) と、キーデータ(Key data)と、文字列の特徴(Textual Description) と、階層(Stratum) と、階層の種類(Stratum kind) と、クラス4パラメータ(PARAMETRIC) と、ビデオエンコードパラメータ(Video Essence Encoding Characteristics) が規定されている。
【0057】
また、SMPTEラベルに対応したデータエレメント名として、図16に#265〜#297として示すように、ビデオ基本特性(Video Fundamental Characteristics) と、ビデオソース機材(Video Source Device) と、OE変換方式(Fundamental opto-electronic formulation) と、ガンマ特性(Gamma information) と、ガンマ計算式(Gamma Equation) と、ガンマ(Gamma) と、輝度計算(Luma Equation) と、カラリメトリーコード(Colorimetry Code) と、スキャニング情報(Fundamental sequencing and scanning) と、コンポーネントシーケンス(Signal Form Code) と、カラーフレームインデックス(Color Field Code) と、ヴァーティカルレート(Vertical Rate) と、フレームレート(Frame Rate) と、縦横比(Image dimensions) と、ライン数(Image lines) と、トータルライン数/フレーム(Total Lines per Frame) と、アクティブライン/フレーム(Active Lines per Frame) と、立ち上がり(Leading Lines) と、立ち下がり(Trailing Lines) と、縦横規格(Horizontal and Vertical dimensions) と、アスペクト比(Display Aspect Ratio)と、イメージアスペクト比(Image Aspect Ratio) と、センサーによる縦横比(Capture aspect ratio) と、保存高さ(Stored Height) と、保存幅(StoredWidth) と、サンプル高さ(Sampled Height) と、サンプル幅(Sampled Width) と、サンプルXオフセット(Sampled X Offset) と、サンプルYオフセット(Sampled Y Offset) と、表示高さ(Display Height) と、表示幅(Display Width)と、表示Xオフセット(Display X Offset) が規定されている。
【0058】
また、SMPTEラベルに対応したデータエレメント名として、図17に#298〜#330として示すように、表示Yオフセット(Display Y Offset)と、ビデオ原信号特性(Video Coding Characteristics) と、アナログビデオ特性(Analogue Video System)と、輝度サンプルレート(Luminance Sample rate) と、有効画素/ライン(Active Samples per Line) と、総サンプル/ライン(Total Samples per Line) と、1ピクセル当たりのビット数(Bits Per Pixel) と、サンプリング情報(Sampling Information) と、サンプリングヒエラルキーコード(Sampling Hierarchy Code) と、ホリゾンタルサンプリング比(HorizontalSubsampling)と、カラーサイティング(ColorSiting)と、丸め法コード(Rounding Method Code)と、フィルタリングコード(Filtering Code) と、サンプリング構造(Sampling Structure) と、サンプリング構造コード(Sampling Structure Code) と、フレームレイアウト(FrameLayout) と、ライン・フィールド情報(VideoLineMap)と、信号の擬似性(AlphaTransparency) と、コンポーネントの幅(ComponentWidth)と、黒リファレンスのレベル(BlackReferenceLevel) と、白リファレンスのレベル(WhiteReferenceLevel) と、カラーのダイナミックレンジ(ColorRange)と、色成分の順番(PixelLayout) と、カラーパレット(Palette) と、パレットレイアウト(PaletteLayout) と、原信号の横方向の同一データ数(Is Uniform)と、隣接バイトのストア数(Is Contiguous) と、JOEGテーブル(JPEG Table ID) と、TIFFのパラメータ(TIFFDescriptor_Summary) と、MPEGコーディング特性(MPEG Coding Characteristics) と、MPEG−2コーディング特性(MPEG-2 Coding Characteristics)と、フィールドフレームタイプコード(Field Frame Type Code) と、フィルム特性(Film parameters) が規定されている。
【0059】
また、SMPTEラベルに対応したデータエレメント名として、図18に#331〜#363として示すように、フィルムビデオ特性(Film to Video parameters) と、フィールド位置優先(Field Dominance)と、フレームフェーズシーケンス(Framephase sequence) と、フィルムプルダウン特性(Film Pulldown characteristics) と、プルダウンシーケンス(Pulldown sequence) と、プルダウン位相(Pull down phase) と、プルダウンの種類(Pulldown Kind) と、プルダウンの方向(Pulldown Direction) と、プルダウンのフェーズ(Phase Frame) と、フィルムフレームレート(Film Frame Rates) と、24.00fps(Capture Film Frame rate) と、23.976fps(Transfer Film Frame rate) と、特別なフレームレート(FilmDescriptor_FrameRate) と、フィルム特性(Film characteristics) と、フィルムアパーチャー特性(Film capture aperture) と、フィルムカラー行程(Film Colour Process) と、エッジコードフォーマット(CodeFormat) と、ヘッダーのテキスト(Header) と、ビデオとフィルムのテスト情報(Video and Film test parameters) と、ビデオテストパラメータ(Video test parameters) と、テストパラメータ(Test parameter) と、テスト結果(実数)(Test Result (real)) と、テスト結果(整数)(Test Result (integer)) と、フィルムテストパラメータ(Film test Parameters) と、テストパラメータ(Test parameter) と、テスト結果(実数)(Test Result (real)) と、テスト結果(整数)(Test Result (integer)) と、ストレージアラインメント(Video digital storage alignment) と、フレームストア時のバッファサイズ(Image Alignment Factor) と、前詰めバイト(Client Fill Start) と、後詰めバイト(Client Fill End) と、パッディングビット(Padding Bits) と、オーディオ信号機材の特性(Audio Essence Encoding Characteristics) が規定されている。
【0060】
また、SMPTEラベルに対応したデータエレメント名として、図19に#364〜#396として示すように、オーディオ基本特性(Audio Fundamental Characteristics) と、オーディオのソース機材(Audio Source Device) と、オーディオの基本制御(Fundemental audio formulation) と、オーディオのチャンネル区分(Electro-spatial formulation) と、オーディオのフィルタリング特性(Filtering applied) と、オーディオのリファレンスレベル(Audio reference level) と、オーディオのミキシングチャンネル数(Number of audio channels in mix) と、モノチャンネルの数(Mono channels) と、ステレオチャンネルの数(Stereo channels) と、トラック数(Physical Track Number) と、フィルムからのオーディオ(Film sound source)と、光記録(Optical track) と、磁気記録(Magnetic track) と、アナログオーディオの特性(Analogue Audio Coding Characteristics) と、アナログシステム(Analogue system) と、オーディオサンプリング特性(Digital Audio Sampling Characteristics) と、サンプルレート(Sample rate) と、クロック周波数(Reference clock frequency) と、1サンプル当たりのビット数(Bits per Sample) と、丸め(Rounding law) と、ディザー(Dither) と、オーディオのコーディング特性(Digital Audio Coding Characteristics) と、コーディングの種類(Coding Law) と、レイヤー数(Layer number) と、平均ビットレート(Average Bit rate) と、固定レート(Fixed bitrate) と、オーディオテスト特性(Audio test parameters) と、SNR(Signal to noise ratio) と、ウェイティング(Weighting) と、オーディオサマリーインフォメーション(Audio summary information) と、AIFCフォーマットサマリー(AIFCDescriptor_Summary) と、WAVEフォーマットサマリー(WAVEDescriptor_Summary) と、エンコーディング法(Data Essence Encoding Characteristics) が規定されている。
【0061】
また、SMPTEラベルに対応したデータエレメント名として、図20に#397〜#429として示すように、基本特性(Data Essence Fundamental Characteristics) と、原オリジナル信号の情報(Analogue Data Essence Coding Characteristics) と、アナログデータコーディング(Analogue Data Coding) と、デジタルコーディング特性(Digital Data Coding Characteristics) と、原記録のデータ(Data test parameters) と、メタデータ機材の特性(Metadata Encoding Characteristics) と、メタデータ基本特性(Metadata Fundamental Characteristics) と、タイムコードの特性(Timecode Characteristics) と、タイムコードの種類(Timecode Kind) と、タイムコードの種類(Timecode Kind) と、ドロップフレーム(Drop) と、LTC/VITC(Source Type) と、タイムコードのタイムベース(Timecode Timebase) と、フレーム/秒(FPS) と、ユーザービット ON/OFF(Timecode User bits flag) と、開始番地(Start) と、タイムコードのサンプルレート(TimecodeStream_Sample Rate) と、タイムコードデータそのもの(Source) と、同期信号付タイムコード(IncludeSync) と、アナログメタデータ情報(Analogue Metadata Coding Characteristics) と、アナログメタデータキャリア(Analogue Metadata Carrier) と、デジタルメタデータ情報(Digital Metadata Coding Characteristics) と、デジタルメタデータキャリア(Digital Metadata Carrier) と、メタデータテスト特性(Metadata test parameters) と、機材特性(System & Control Encoding Characteristics) と、メタデータ基本特性(System & Control Fundamental Characteristics) と、原アナログ信号情報(Analogue System & Control Coding Characteristics) と、アナログシステム(Analogue System & Control Coding) と、原デジタル信号情報(Digital System Coding Characteristics) と、デジタルメタデータの情報(Digital System Metadata Sampling Characteristics) と、原信号のメタデータの特性(System Metadata test parameters) と、一般エンコーディング特性(General Encoding Characteristics) が規定されている。
【0062】
また、SMPTEラベルに対応したデータエレメント名として、図21に#430〜#462として示すように、一般エッセンスエンコーディング特性(General Essence Encoding Characteristics) と、サンプルレート(SampleRate) と、長さ(Length) と、コンテナーエンコーディング特性(Container encoding characteristics) と、バイトの順序(ByteOrder) と、保存機材情報(Storage Medium parameters)と、テープカートリッジフォーマット(Tape cartridge format) と、ビデオテープゲージ(Videotape gauge and format) と、テープサイズ(FormFactor) と、信号形式(VideoSignal) と、テープフォーマット(TapeFormat) と、記録時間(Length) と、テープ制作会社(TapeDescriptor_ManufacturerID) と、テープ品番(Model) と、ディスクレコーダー機材情報(Disc recorder parameters) と、ディスクの種類(Disc kind and format)と、フィルム材料情報(Film Medium Parameters) と、製造会社名(Film stock manufacturer) と、品番(Film Stock type) と、パーフォレーション情報(PerforationsPerFrame) と、フィルムの種類(FilmKind) と、フィルムのフォーマット(FilmFormat) と、フィルムのアスペクト比(FilmAspectRatio) と、製造会社(Manufacturer) と、品番(Model) と、フィルムのゲージ(Film gauge and format) と、(Object Characteristics (Placeholder)) と、機材特性(Device Characteristics) と、カメラ特性(Camera Characteristics) と、光特性(Optical Characteristics) と、焦点深度(Focal Length) と、CCDサイズ(Sensor Size) と、レンズ(Lens Aperture) が規定されている。
【0063】
また、SMPTEラベルに対応したデータエレメント名として、図22に#463〜#495として示すように、原信号のCCDサイズ(Sensor Type Code) と、視野(Field of View) と、特殊レンズ(Anamorphic lens characteristic) と、光テスト特性(Optical Test parameters) と、センサー特性(Optical Sensor Characteristics) と、フレアー特性(Flare) と、マイクロフォン特性(Microphone Characteristics) と、タイプ(Sensor type) と、指向性(Polar characteristic) と、イメージ特性(Image Characteristics) と、イメージカテゴリー(Image Category) と、クラス5制作過程(PROCESS)と、プロセスステータスのフラグ(Process indicators) と、基本情報(Fundamental) と、ショット、クリップ、セグメントの表示(Integration Indication) と、複製性能(Quality Flag) と、複製の目的(Physical Instance Category) と、収録(Capture) と、原収録アナログ/デジタル(Digital or analogue origination) と、マイクロフォンの位置(Microphone Placement techniques) と、ダビング情報(Manipulation) と、変更回数(Simple Flagging) と、コピー回数(Copy Number) と、クローン数(Clone number) と、改訂中フラグ(Work in Progress Flag) と、アナログデジタル混合(Digital or analogue mix) と、ペイロードの圧縮歴(Downstream Processing History) と、ビデオペイロードの圧縮歴(Video Compression History) と、ビデオ圧縮法(Video Compression Algorithm) と、圧縮履歴データセット(MPEG-2 dynamic coding historical dataset) と、ノイズリダクションアルゴリズム(Video Noise Reduction Algorithm) と、圧縮(Compression) が規定されている。
【0064】
また、SMPTEラベルに対応したデータエレメント名として、図23に#495〜#528として示すように、オーディオ圧縮歴(Audio Compression History) と、オーディオ圧縮アルゴリズム(Audio Compression Algorithm) と、オーディオ圧縮履歴データ(MPEG-2 Audio dynamic coding history)と、ノイズリダクションアルゴリズム(Audio Noise Reduction Algorithm) と、データの圧縮歴(Data Compression History) と、メタデータ圧縮歴(Metadata Compression History) と、MPEGプロセス(MPEG Processing) と、メタデータによるスプライシング(Splicing Metadata) と、エッセンスの修正(Enhancement or Modification) と、ビデオ信号の修正(Video processing) と、修正の詳述(Enhancement or Modification Description) と、機材の指定(Video processor settings (Device-specific)) と、機材の種類(Device kind) と、機材のパラメータ(Device parameter) と、機材のパラメータセット(Device parameter setting) と、オーディオ修正(Audio Processing) と、修正内容の説明(Enhancement or Modification Description) と、オーディオ機材のセット(Audio processor settings (Device-specific)) と、機材の種類(Device kind) と、機材のパラメータ(Device parameter) と、機材のセット(Device parameter setting) と、データの修正(Data Processing) と、修正内容の説明(Enhancement or Modification Description) と、機材の設定(Data processor settings (Device-specific)) と、機材の種類(Device kind) と、機材のパラメータ(Device parameter) と、機材のセット(Device parameter setting) と、編集情報(Editing Information) と、編集バージョン情報(Editing version information) と、
ファイルフォーマットのバージョン(Version) と、編集の詳細(Editing decisions) と、変更内容(RelativeScope) と、変更スロット(RelativeSlot) が規定されている。
【0065】
また、SMPTEラベルに対応したデータエレメント名として、図24に#529〜#561として示すように、原信号グループ(SourceMobSlotID) と、フェード情報のデフォルト(DefFadeType) と、編集マット情報(Editing matte information) と、編集マットの種類(HotSpotRect) と、編集イベントの情報(Editing event information) と、コメント(Event_Comment) と、イベントのON/OFF情報(ActiveState) と、エディットエフェクト情報(Editing effect information) と、オーディオフェードインのタイプ(FadeInType) と、オーディオフェードアウトのタイプ(FadeOutType) と、コントロールポイント(ControlPoint_Value) と、一定値(ConstantValue_Value) と、ヒント(EditHint) と、トランジェント情報(IsTimeWarp) と、カテゴリー情報(Category) と、入力セグメント数(NumberInputs) と、バイパス情報(Bypass) と、編集web情報(Editing web information) と、開始(BeginAnchor) と、終了(EndAnchor) と、編集ノート(Editing user notes) と、タグ情報(TaggedValue_Name) と、バリュー情報(TaggedValue_Value) と、クラス6データ間情報(RELATIONAL) と、関係(Relationships) と、リレーションの種類(Relatives) と、相関値(Essence to Essence) と、ソース材料(Source Material) と、UMID(Source Material UMID) と、ソース材料(Source Material) と、最終編集テキスト(Most Recent Edit text) と、最終UMID(Most recent edit UMID) が規定されている。
【0066】
また、SMPTEラベルに対応したデータエレメント名として、図25に#562〜#594として示すように、エッセンスに関するメタデータ(Metadata to Essence) と、メタデータ相互(Metadata to Metadata) と、オブジェクト相互(Object to Object) と、オブジェクトに関するメタデータ(Metadata to Object)と、プロダクションマテリアルとの関係(Related production material) と、サポート材料関連(Programme support material) と、宣伝材料との関連(Programme advertising material) と、CMとの関連(Programme commercial material) と、秒読み情報(Numerical sequence) と、秒読み(Numerical position in sequence) と、オフセット情報(Relative position in sequence (value)) と、プリビュー、ネクスト情報(Relative position in sequence (descriptive)) と、プリビュー、ネクスト情報(Relative position in sequence (descriptive)) と、構造的な関連(Relationship structures) と、内容的な関連(Containing relations) と、内容そのもの(Contains one) と、静止画(Still Frame) と、ホットスポットマット(Hot Spot Matte) と、注釈(Annotation) と、翻訳文(Rendering) と、引き込み(InputSegment) と、抽出(Selected) と、トランジッション用効果(Operation Group) と、webのアドレス(Manufacturer Info) と、コンテンツのグループ(Content) と、コンテンツの説明(Dictionary) と、エッセンスの説明(Essence Description) と、セグメントの説明(Segment) と、コンテインズのセット(Contains set) と、パラメータ(Parameters) と、交換セグメント(Alternates) と、グループ(Mobs) と、エッセンスデータ(Essence Data) が規定されている。
【0067】
また、SMPTEラベルに対応したデータエレメント名として、図26に#595〜#627として示すように、プロパティ(Properties) と、ロケーター(Locators) と、クラスディフィニション(Class Definitions) と、タイプディフィニション(Type Definitions) と、オペレーティングディフィニション(Operation Definitions) と、パラメータディフィニション(Parameter Definitions) と、データディフィニション(Data Definitions) と、プラグイン解説(Plugin Descriptors) と、コーデック説明(Codec Definitions) と、コンテナー説明(Container Definitions) と、通訳説明(Interpolation Definitions) と、コメント(User Comments) と、コンテインズ順(Contains ordered set) と、異フォーマットの仕様(Choices) と、入力セグメント(Input Segments) と、ネスティング情報(NestedScope_Slots) と、コンポーネント(Components) と、ロケーター(Locator) と、IDリスト(Identification List) と、グループスロット(Mob_Slots)と、ポイントバリュー(PointList) と、データのコンテインズストリーム(Contains stream of data) と、データ(Data) と、ID(Sample Index) と、問題箇所(Weak reference relation) と、オブジェクトの問題箇所(Weak reference to one object) と、ジェネレーション(Generation) と、データ説明(Data Definition) と、操作説明(Operation Definition) と、ソースID(SourceID) と、エフェクトの種類(Control Point_Type) と、編集後のID(Operation Definition_DataDefinition) と、コントロールのタイプ(Parameter Definition_Type) が規定されている。
【0068】
また、SMPTEラベルに対応したデータエレメント名として、図27に#628〜#660として示すように、プロパティ(Property Definition_Type) と、カテゴリー(Category Class) と、ファイルディスクリプタ(FileDescriptor Class) と、グループ名(MobID) と、コンテナーフォーマット(Container Format)と、パラメータの説明(Definition) と、パラメータタイプ(Parameter_Type) と、通訳(Interpolation) と、データタイプ(TaggedValue_Type) と、オブジェクトの強い関連(Type Definition Strong Object Reference_Referenced Class)と、オブジェクトの弱い関連(Type Definition Weak Object Reference_Referenced Class) と、アンダーラインエレメントのタイプ(Type Definition Enumeration_Element Type) と、可変アレイエレメントのタイプ(Type Definition FixedArray_Element Type) と、固定アレイエレメントのタイプ(Type Definition Variable Array_Element Type) と、エレメントタイプの説明(Type Definition Set_Element Type) と、ストリングエレメント(Type Definition String_Element Type) と、ストリームエレメント(Type Definition Stream_Element Type) と、リネーム(Renamed Type) と、ウィークリファレンスのセット(Set of weak references) と、プラグインディスクリプター(Plugin Descriptors) と、パラメータ(ParametersDefined) と、データ説明(Data Definitions) と、ウィークリファレンスの順番(Ordered set of weak references) と、性能劣化(Degrade To) と、メンバータイプ(Member Types) と、クラス関連(Class relations) と、親関連(Parent class) と、親のクラス(Parent Class) と、子のクラス(Child class) と、クラスの実例(Instance of class) と、オブジェクトクラス(Object Class) と、メタデータオブジェクト説明(Metadata object definitions) と、クラス説明(Class definition) が規定されている。
【0069】
また、SMPTEラベルに対応したデータエレメント名として、図28に#661〜#693として示すように、プロパティ(Property definition) と、ヒント(Is Searchable) と、必須/オプション(Is Optional) と、デフォルト条件(Default Value) と、ローカルID(Local Identification) と、タイプの説明(Type definition) と、サイズ(Size) と、指定サイズ(Is Signed) と、エレメントネーム(TypeDefinitionEnumeration_ElementNames) と、エレメントネーム(Type Definition Enumeration_Element Values) と、アレイの数(Element Count) と、メンバーの名前(Member Names) と、拡張名(Type Definition Extendible Enumeration_Element Names) と、拡張名(Type Definition Extendible Enumeration_Element Values) と、実行説明(Instance descriptions) と、解説(Description) と、コンテナー説明(Container definitions) と、エッセンスのラベル(Essence Is Identified) と、コードオブジェクト(Related code objects) と、プラグインコードオブジェクト(Relations to plugin code objects) と、名前(Name) と、プラグイン(Plugin Descriptor_Identification) と、解説(Description) と、バージョン番号(Version Number) と、バージョン系列(Version String)と、製作社(Manufacturer) と、製作社ID(Manufacturer ID) と、プラットホーム(Platform) と、プラットホームのバージョン(Min Platform Version) と、プラットホームのOSバージョン(Max Platform Version) と、プラグインエンジン(Engine) と、ミニエンジンバージョン(MinEngine Version) と、マックスエンジンバージョン(MaxEngine Version) が規定されている。
【0070】
また、SMPTEラベルに対応したデータエレメント名として、図29に#694〜#726として示すように、APIのプラグイン(Plugin API) と、APIのミニプラグイン(Min Plugin API) と、APIのマックスプラグイン(Max Plugin API) と、ソフトウェア(Software Only) と、アクセレーター(Accelerator) と、確証(Authentication) と、アプリケーションコードの関連(Relations to application code objects) と、会社名(Company Name) と、製作名(Product Name) と、制作番号(Product ID) と、制作バージョン(Product Version) と、制作バージョン系列(Product Version String) と、ツールキットのバージョン(Toolkit Version) と、プラットホーム(Platform) と、クラス7空間時間(SPATIO-TEMPORAL) と、位置とスペースベクター(Position and Space Vectors) と、イメージ誘導システム(Image Coordinate System) と、地図原点(Map Datum Used)と、絶対位置(Absolute Position) と、ローカル基準位置(Local Datum Absolute Position) と、ローカル基準位置精度(Local Datum Absolute Position Accuracy (m)) と、機材絶対位置(Device Absolute Position) と、機材絶対位置精度(Device Absolute Positional Accuracy (m)) と、機材コード(Device Altitude (m)) と、機材コード(Device Altitude (metres, concise)) と、機材の緯度(Device Latitude (degrees)) と、機材の緯度(Device Latitude (degrees, concise)) と、機材の経度(Device Longitude (degrees)) と、機材の経度(Device Longitude (degrees, concise)) と、機材の大きさ(X)(Device X Dimension (m)) と、機材の大きさ(Y)(Device Y Dimension (m)) と、対象の絶対位置(Subject Absolute Position) と、フレーム位置精度(Frame Positional Accuracy (m)) が規定されている。
【0071】
また、SMPTEラベルに対応したデータエレメント名として、図30に#727〜#759として示すように、フレームセンター緯度(Frame Center Latitude (degrees)) と、フレームセンター緯度(Frame Center Latitude (degrees, concise)) と、フレームセンター経度(Frame Center Longitude (degrees)) と、フレームセンター経度(Frame Center Longitude (degrees, concise)) と、フレームセンターの緯度経度(Frame Center Lat-Long) と、相対位置(Relative Position) と、相対位置のローカル基準(Local Datum Relative Position) と、相対位置のローカル基準の精度(Local Datum Relative Position Accuracy) と、機材の相対位置(Device Relative Position) と、機材の相対位置の精度(Device Relative Positional Accuracy) と、機材の相対位置(X)(Device Relative Position X (metres)) と、機材の相対位置(Y)(Device Relative Position Y (metres)) と、機材の相対位置(Z)(Device Relative Position Z (metres)) と、対象相対位置(Subject Relative Position) と、対象相対位置精度(Subject Relative Positional Accuracy (metres)) と、イメージ位置情報(Image Positional information) と、イメージからxずれた位置(Position within viewed image x coordinate (pixels)) と、イメージからyずれた位置(Position within viewed image y coordinate (pixels)) と、ソースイメージ中心(x pixel)(Source image centre x coordinate (pixels)) と、ソースイメージ中心(y pixel)(Source image centre y coordinate (pixels)) と、ビューポートイメージ中心(x pixel)(Viewport image centre x coordinate (pixel(y pixel)s)) と、ビューポートイメージ中心 (y pixel)(Viewport image centre y coordinate (pixels)) と、位置変更の速さと方向(Rate and Direction of Positional Change) と、機材の位置変更の速さと方向(Device Rate and Direction of Positional Change) と、機材の絶対位置変更の速さと方向(Absolute Device Rate and Direction of Positional Change) と、機材移動速度(Device Absolute Speed (metres/sec)) と、機材の向き(Device Absolute Heading (degrees)) と、機材の位置変更の相対的な速さと方向(Relative Device Rate and Direction of Positional Change) と、機材の相対速度(Device Relative Speed (metres/sec)) と、機材の相対的な向き(Device Relative Heading (degrees)) と、対象の位置変更の速さと方向(Subject Rate and Direction of Positional Change) と、対象の位置変更の絶対的な速さと方向(Absolute Subject Rate and Direction of Positional Change) と、対象の絶対速度(Subject Absolute Speed (metres/sec)) が規定されている。
【0072】
また、SMPTEラベルに対応したデータエレメント名として、図31に#760〜#792として示すように、対象の絶対向き(Subject Absolute Heading (degrees)) と、対象の位置変化の相対的な速さと方向(Relative Subject Rate and Direction of Positional Change) と、対象の相対速度(Subject Relative Speed (metres/sec)) と、対象の相対向き(Subject Relative Heading (degrees)) と、角度情報(Angular Specifications) と、機材の角度(Device angles) と、センサーのロール角(Sensor Roll Angle (degrees)) と、北からのずれ角(Angle to North (degrees)) と、傾斜角(Obliquity Angle (degrees)) と、対象角(Subject angles (degrees)) と、距離測定法(Distance measurements) と、機材と対象の距離(Device to Subject distance) と、対象との角度(Slant Range (metres)) と、距離(Dimensions) と、対象の距離(Subject Dimensions) と、対象の幅(Target Width) と、エッセンスの位置(Studio and Location Dimensions) と、物体の大きさ(Media Dimensions) と、物体の長さ(Physical Media length (metres)) と、イメージの大きさ(Image Dimensions) と、イメージのパンとスキャンの大きさ(Pan and scan image dimensions) と、対象の視覚的高さ(Viewport height) と、対象の視覚的幅(Viewport width) と、抽象的位置(Abstract Locations) と、地名(Place names) と、地名辞典による(Gazetteer used) と、特定の名前(Place Keyword) と、国コード(Country Codes) と、描写した国コード(Object Country Code) と、撮影した国のコード(Country code of shoot) と、セッティングの国コード(Country code of Setting (Characterised Place)) と、著作権を持つ国コード(Country code of Copyright License) と、知的財産権を持つ国コード(Country code of IP License) が規定されている。
【0073】
また、SMPTEラベルに対応したデータエレメント名として、図32に#763〜#825として示すように、国内の地域名(Regions) と、描写対象の地域名(Region of Object) と、撮影の地域名(Region of shoot) と、セッティングの地域コード(Region of Setting (Characterised Place)) と、著作権を持つ地域コード(Region or area of Copyright License) と、知的財産権を持つ地域コード(Region or area of IP License) と、郵便住所(Postal Address) と、ルームナンバー(Room Number) と、地番又はビル名(Street Number or Building name) と、街路名(Street) と、町名(Postal Town) と、市名(City) と、州名(State or Province or County) と、郵便番号(Postal Code) と、国名(Country) と、セッティングの描写住所(Setting Address (Characterised Place)) と、セッティングルームナンバー(Setting room number) と、セッティングの地番又はビル名(Setting Street Number or Building name) と、セッティングの街路名(Setting Street) と、セッティングの町名(Setting Town) と、セッティングの市名(Setting City) と、セッティングの州名(Setting State or Province or County) と、セッティングの郵便番号(Setting Postal Code) と、セッティングの国名(Setting Country) と、セッティングの説明(Setting Description) と、セッティングの説明(Setting Description) と、電子アドレス(Electronic Address) と、電話番号(Telephone number) と、FAX番号(Fax number) と、e−mailアドレス(e-mail address) と、日時情報(Date and Time) と、そのものに関する日付と時間(Material Date and Time) が規定されている。
【0074】
また、SMPTEラベルに対応したデータエレメント名として、図33に#826〜#858として示すように、操作の日時(Operational Date-Time Stamps)と、製作日時(Creation Date-Time stamp) と、製作日時(Creation Date-Time stamp) と、最終修正日時(Last modified Date-Time stamp) と、最終修正日時(Last modified Date-Time stamp) と、適宜に付けた日時(User defined Date-Time stamp) と、適宜に付けた日時(User defined Date-Time stamp) と、絶対日時(Absolute Date and Time) と、制作開始日時(Start Date Time) と、制作終了日時(End Date Time) と、セグメント開始日時(Segment Start Date and Time) と、セグメント終了日時(Segment End Date and Time) と、相対日時(Relative Date and Time) と、メディアの開始日時(Start Date Time) と、メディアの終了日時(End Date Time) と、セグメントの開始日時(Segment Start Date and Time) と、セグメントの終了日時(Segment End Date and Time) と、時間間隔(Material Durations) と、絶対時間間隔(Absolute Durations) と、コンテンツの時間の長さ(Time Duration)と、セグメントの時間の長さ(Segment Duration) と、フレーム数(Frame Count) と、セグメントのフレーム数(Segment frame count) と、余録時間(Textless black duration) と、相対時間(Relative Durations) と、相対時間間隔(Time Duration)と、セグメントの時間間隔(Segment Duration) と、フィルムのフレーム間隔(Frame Count) と、セグメントのフレーム間隔(Segment frame count) と、権利の有効期間(Rights Date and Time) と、著作権の日時(Copyright Date and Time) と、知的財産権の日時(IP Rights Date and Times) と、ライセンスの開始日(License start date and time) が規定されている。
【0075】
また、SMPTEラベルに対応したデータエレメント名として、図34に#859〜#891として示すように、オプションの開始日時(Option start date and time) と、ライセンスの終了日時(License end date and time) と、オプションの終了日時(Option end date and time) と、権利の期間(Rights Durations) と、著作権の期間(Copyright Durations) と、知的財産権の期間(IP Rights Durations) と、ライセンスの期間(License duration) と、オプションの期間(Option duration) と、カタロギングの日時(Cataloguing Date and Time) と、作成日時(Creation Date and Time) と、最終変更日(Last Modified) と、イベント日時(Event Date and time) と、イベントの絶対日時(Absolute Date and Time) と、イベントの開始日時(Absolute start times) と、プロジェクト開始日時(Project Mission Start Date and Time) と、シーンの開始日時(Scene Start Date and Time) と、撮影の開始日時(Shot Start Date and Time) と、放送開始日時(Broadcast Start Date and Time) と、絶対終了時間(Absolute end times)と、プロジェクトの終了日時(Project Mission End Date and Time) と、シーンの終了日時(Scene End Date and Time) と、収録の終了日時(Shot End Date and Time) と、放送の終了日時(Broadcast End Date and Time) と、相対日時(Relative Date and Time) と、イベントの開始相対日時(Relative start times) と、プロジェクトの相対開始日時(Project Mission Start Date and Time) と、シーンの相対開始日時(Scene Start Date and Time) と、収録の相対開始日時(Shot Start Date and Time) と、放送の相対開始日時(Broadcast Start and Time) と、相対終了日時(Relative end Times) と、プロジェクトの相対終了日時(Project Mission End Date and Time) と、シーンの相対終了日時(Scene End Date and Time) と、収録の相対終了日時(Shot End Date and Time) が規定されている。
【0076】
また、SMPTEラベルに対応したデータエレメント名として、図35に#892〜#924として示すように、放送の相対終了日時(Broadcast End Time) と、イベントの期間情報(Event Durations) と、絶対期間情報(Absolute Durations) と、イベントの絶対期間(Time Duration) と、相対期間(Relative Durations) と、イベントの相対期間(Time Duration)と、編集日時(Editing Date and Time) と、編集長さ(Length) と、編集箇所(Position) と、開始相対時間(StartTime) と、音声フェードインの長さ(FadeInLength) と、音声フェードアウトの長さ(Fade Out Length) と、カットポイントの規格(Cut Point) と、時間規格(Time) と、最終編集日(Last Modified) と、最終編集結果のID(LastModified) と、最終制作日時(Creation Time) と、音声のソフトカットのデフォルト規格(Default Fade Length) と、フェードインのデフォルト規格(Def Fade Edit Unit)と、イベントの時間単位の規格(Event Mob Slot_Edit Rate) と、スロットの時間単位の規格(Timeline Mob Slot_EditRate) と、最終修正日(Identification_Date) と、スロットの原点(Origin) と、プロセスの日時(Process Date and time) と、技術修正の日時(Technical Modification date and time) と、簡易修正の日時(Editorial Modification date and time) と、放送日時(Broadcast Date and Time) と、廃棄日時(Cassation Date and Time) と、セッティングの日時(Setting Date and Time (Characterised Time Period)) と、キーワードの有功期限(Time period Keyword Thesaurus) と、キーワードの期間の単位(Time period Keyword) と、遅れ期間(Delay) と、エンコード/デコード情報(Encoding/Decoding)が規定されている。
【0077】
また、SMPTEラベルに対応したデータエレメント名として、図36に#925〜#940として示すように、エンコード遅れ時間(Encoding Delay) と、デコード遅れ時間(Decoding Delay) と、バッファによる遅れ時間(Buffer Delay) と、同時性情報(Latency) と、一時的な情報(Temporal shape (Shuttering etc) [PLACEHOLDERS]) と、シャッター特性(Shutter characteristics [placeholder]) と、シャッター速度(Shutter speed [placeholder]) と、シャッター開口特 性(Shutter Gating [placeholder]) と、クラス14ユーザーデータ(USER ORGANISATION REGISTERED) と、共用登録メタデータ(Publicly registered user organisation metadata) と、プライベートメタデータ(Privately registered user organisation metadata) と、アメリカ国防省メタデータ(DoD Metadata) と、UAVメタデータ(UAV Metadata) と、RQ1Aメタデータ(RQ1A Metadata)と、RQ1Aクローズドキャプションメタデータ(RQ1A Closed Caption Set) と、クラス15実験用メタデータ(EXPERIMENTAL METADATA) が規定されている。
【0078】
この番組作成配給システム100では、エッセンスデータ及びメタデータは、ギガビットイーサネット1上で伝送される際に、MXFファイルフォーマットに変換される。例えば、1つの記録媒体に記録されていたビデオエッセンスが、1つのMXFファイルとなることもあれば、1つのビデオプログラムから、1つのMXFファイルが作成されることがあり、そのエッセンスの単位はアプリケーションに応じて自由に設定することができる。
【0079】
メタデータMXFファイル200は、図37に示すようにメタデータを記述するためのプリアンブル部201と、エッセンスデータを記述するための本体(ボディ)202と、インデックステーブルを含んだインデックス部203と、ポストアンブル部204とから構成されている。
【0080】
プリアンブル部201は、ユニバーサルラベル205と、アロケーションテーブル206とオーバーオールメタデータエリア207から構成されている。このMXFファイル200のユニバーサルラベル205は、KLVコーディングのユニバーサルラベルと同じシンタックス構造を備えている。アロケーションテーブル206は、オーバーオールメタデータエリア207内の各オブジェクトのアロケーション情報が登録されているテーブルである。
【0081】
オーバーオールメタデータエリア207には、SMPTE298Mにおいて標準化されているユニバーサルラベルをキーに取り込んだ辞書規定であるメタデータディクショナリーに登録されているメタデータが記述されるエリアである。Header_Object210は、ルートオブジェクトであって、このオーバーオールメタデータエリア207の各オブジェクトを指し示すためのオブジェクトである。具体的には、このHeader_Object210のノードには、Identification_Object211、Master_Metadata_O0bject212、Source_Metadata_0bject213及びEssence_Data_Object214が設けられている。マスターエッセンスは、複数種類のソースエッセンスから構成されているので、このオーバオールメタデータエリア207では、マスターエッセンスに関するメタデータと、ソースエッセンスに関するメタデータとを別のオブジェクトで表現するようにしている。
【0082】
Master_Metadata_Object212は、このMXFファイル200に含まれる各エッセンスのプロパティを説明するためのメタデータと、Master_Timeline_Track_Objects215をポインティングするポインタを含んでいるオブジェクトである。Master_Timeline_Track_Objects215は、このXMFファイル200に含まれるエッセンスを構成するトラックを定義及び説明するとともに、Master_Clip_Object216をポインティングするためのオブジェクトである。ここで言うトラックとは、ビデオ、オーディオなどのエッセンスの種類毎に設定される単位のことであって、クリップとは、エッセンスの編集の際にイン点及びアウト点によって規定される編集クリップのことであって、シーンとは単位が異なる。Master_Clip_Object216は、どのソースマテリアルが使用されているかを示すメタデータを含んでいるとともに、Source_Metadat_Object213をポインティングするポインタを含んでいるオブジェクトである。
【0083】
Source_Metada_Object213は、マスターエッセンスを構成する夫々のソースエッセンスに対して設けられるオブジェクトであって、それぞれ、ソースエッセンスに関するメタデータと、Source_Timeline_Track_Object217を示すポインタを含んでいるオブジェクトである。Source_T imeline_Track_0bject217は、各ソースエッセンスのトラック毎に設定されるオブジェクトであって、各トラックに関するメタデータと、Source_Clip_Object218をポインティングするためのポインタを含んでいる。 source_Clip_Object218は、各ソースエッセンスを構成する各トラックに含まれるクリッブ毎に設定されるオブジェクトであって、そのクリップに関するメタデータと、Essence_Clip219をポインティングするためのポインタを有している。従って、Essence_Clip219の数だけSource_Clip_Object218が設定される。Essence_Clip19は、エッセンスを構成するクリップのデータを含んでいるオブジェクトである。
【0084】
そして、この番組作成配給システム100では、図38及び図39に示すようなワークフローにしたがって番組作成配給処理が行われる。
【0085】
すなわち、この番組作成配給システム100のワークフローにおいて、配給番組編成システム10により実行される撮影前段階(Pri-Production)の処理は、番組立案(Planning)処理PLNとして示され、上記配給番組編成システム10により立案された番組作成計画に従って、アクイジョンシステム60により収録(Acquisition)処理ACQが行われ、さらに、プロダクションシステム20による素材蓄積(Ingest)処理ING、編集(Editing)処理EDT、CG生成(CG Creation)処理CGC、オーディオ生成(Audio Creation)処理AUCが行われることによって配給番組が作成され、作成された配給番組について、番組配給システム50により番組配給(Distribution)処理DST及びアーカイブシステム40により番組保管(Archive)処理ARVが行われる。
【0086】
この番組作成配給システム100では、プロジェクト毎、メディア毎、シーン毎あるいはフレーム毎に各種情報示すメタデータを生成し、メタデータに応じてアーカイブシステム40を制御することでアセットマネージメントを実現している。
【0087】
プロジェクト毎に生成されるメタデータとしては、主題(Main Title)、副題(Secondary Tilte(Sub Title))、シリーズ(Senes Number)、エピソード(Epsode)、原作(Original(Bock/Title))、著作者(Original Author/Writer)、監督(Director)、権利(Rghit)や著作権(Copyrigt)などの各種情報を示すメタデータがある。
【0088】
また、メディア毎に生成されるメタデータとしては、リール(ロール)ナンバー(Real Number (Roll Number)やフレームレート(Frame rate)などの各種情報を示すメタデータがある。
【0089】
また、シーン毎に生成されるメタデータとしては、出演者(Cast Actrot/Actoress)、エレメント(Element)、台詞(Screen Play)、シーン詳細(Scene Description)、大道具(Set)、小道具(Properties)、ユニット/クルー/スタッフ(Unit/Crew/Staff)、カメラセットアップデータ(Camera Setup Data)、ライティング情報(Lighting Info)、映像フォーマット(Video Format)、音声フォーマット(Audio Format)、音声チャンネルアサイメント(Audio Channel Assiginment)、モーションキャプチャーデータ(Motion Capture Data)、コメント(Comment)、テレシネデータ(Telecine Data)、サントラ(SoundTrack(Music))の作曲者(Composer)、作詞者(Song Writer)、編曲者(Arranger)、コンポジッティング情報(Compositing Info)、ビジュアルエフェクト(Visual Effects)、サウンドエフェクト(Sound Effects)、V−Chip情報(V-Chip Info)、ジェネレーション(Generation(Number of Copy))などの各種情報を示すメタデータがある。
【0090】
フレーム毎に生成されるメタデータとしては、シーンナンバー(Scene Number)、ショットナンバー(Shot Number)、テイクナンバー(Take Number)、OKショット/NGショット(OK shot/NG shot)、UMID(ビデオ)(UMID for video essence)、UMID(オーディオ)(UMID for audio essence)、UMID(データ)(UMID for data essence)、UMID(その他)(UMID for others)、場所(Place)、GPS緯度(GPS Latitude)、GPS経度(GPS Longtude)、GPS高さ(GPS Altitude)、カメラID(Camera ID)、カメラレンズ(Camera Lenz Data)、レンズID(Lenz ID)、フォーカス(Focus)、ズーム(Zoom)、アイリス(Iris)、三脚角度情報(Tripod)、三脚ID(Head ID)、パン(Pan)、チルト(Tilt)、ロール(Roll)、ドリー位置情報(Dolly)、ドリーID(Dolly ID)、アーム高さ(Arm Height)、位置(Travel)やクローズドキャプション(Closed Caption)などの各種情報を示すメタデータがある。
【0091】
上記配給番組編成システム10により実行される撮影前段階(Pri-Production)では、プランニング(Planning)処理PP1、キャスティング(Casting)処理PP2、ストーリーボード(Storuboard)処理PP3、スクリーンプレー(Screen Play)処理PP4、ロケーションハンティング(Location Haunting)処理PP5やスケジューリング(Scheduling)処理PP6などが行われる。
【0092】
そして、番組の内容の検討するプランニング処理PP1の段階では、主題(Main Title)、副題(Secondary Tilte(Sub Title))、シリーズ(Senes Number)、エピソード(Epsode)、原作(Original(Bock/Title))、著作者(Original Author/Writer)、監督(Director)、エレメント(Element)、コメント(Comment)、サントラ(SoundTrack(Music))の作曲者(Composer)、作詞者(Song Writer)、編曲者(Arranger)、権利(Rghit)、著作権(Copyrigt)、V−Chip情報(V-Chip Info)などの各種情報を示すメタデータが生成される。また、出演者の決定等を行うキャスティング処理PP2の段階では、出演者(Cast Actrot/Actoress)やユニット/クルー/スタッフ(Unit/Crew/Staff)などの各種情報を示すメタデータが生成される。番組の内容の検討を行うストーリーボード処理PP3の段階では、シーンナンバー(Scne Number)、ショットナンバー(Shot Number)、大道具(Set)、小道具(Properties)、映像フォーマット(Video Format)、フレームレート(Frame rate)、音声フォーマット(Audio Format)、音声チャンネルアサイメント(Audio Channel Assiginment)などの各種情報を示すメタデータが生成される。台詞の確認等を行うスクリーンプレー処理PP4の段階では、台詞(Screen Play)、シーン詳細(Scene Description)、場所(Place)、クローズドキャプション(Closed Caption)などの各種情報を示すメタデータが生成される。
【0093】
上記主題(Main Title)、副題(Secondary Tilte(Sub Title))、シリーズ(Senes Number)、エピソード(Epsode)、原作(Original(Bock/Title))、著作者(Original Author/Writer)及び監督(Director)などの各種の情報を示すメタデータは、プロジェクト後に生成され、キャスティング処理PP2、ストーリーボード処理PP3、スクリーンプレー処理PP4、ロケーションハンティング処理PP5やスケジューリング処理PP6に利用され、また、アクイジョンシステム60による収録処理ACQ、プロダクションシステム20によるオーサリング(Authoring)処理、番組配給システム50による番組配給(Distribution)処理DSTやアーカイブシステム40により番組保管(Archive)処理ARVなどに利用される。
【0094】
上記配給番組編成システム10により撮影前段階で生成された各種メタデータは、ギガビットイサーネット1を介してアーカイブシステム40に伝送され、上記アーカイブシステム40のペタサイト40Bに記憶される。プロダクションシステム20、ニュースシステム30、アーカイブシステム40、番組配給システム50やアクイジョンシステム60は、アーカイブシステム40のペタサイト40Bに記憶されている各種メタデータ必要に応じてギガビットイサーネット1を介して取り込むことができる。
【0095】
なお、撮影前段階で生成された各種メタデータは、後述する各種処理段階で変更されて書き換えられる場合がある。
【0096】
アクイジョンシステム60では、収録用の機器すなわち撮像装置に必要なメタデータを取り込んで、収録処理ACQを実行する。
【0097】
アクイジョンシステム60により実行される収録処理ACQでは、リール(ロール)ナンバー(Real Number (Roll Number)、シーンナンバー(Scene Number)、テイクナンバー(Take Number)、OKショット/NGショット(OK shot/NG shot)、UMID(ビデオ)(UMID for video essence)、UMID(オーディオ)(UMID for audio essence)、UMID(データ)(UMID for data essence)、UMID(その他)(UMID for others)、カメラセットアップデータ(Camera Setup Data)、カメラID(Camera ID)、カメラレンズ(Camera Lenz Data)、レンズID(Lenz ID)、フォーカス(Focus)、ズーム(Zoom)、アイリス(Iris)、三脚角度情報(Tripod)、三脚ID(Head ID)、パン(Pan)、チルト(Tilt)、ロール(Roll)、ドリー位置情報(Dolly)、ドリーID(Dolly ID)、アーム高さ(Arm Height)や位置(Travel)などの各種情報を示すメタデータが生成される。
【0098】
上記アクイジョンシステム60により収録処理段階で生成された各種メタデータは、収録して得られた映像情報や音声情報とともにプロダクションシステム20に供給される。
【0099】
プロダクションシステム20では、インジェスティング(Ingesting)処理PR1、テレシネ(Telecine)処理PR2、デュープ(Dupe)処理PR3、粗編集(Off-line Edit)処理PR4、本編集(Complete Edit)処理PR5、ボイスオーバー(Voice Over)処理PR6、音声効果(Sound Effect)処理PR7、音声スイーティング(Sound Sweetening)処理PR8、CG生成(CG Creation)処理PR9や仕上げ(Finishing)処理PR10が行われる。
【0100】
プロダクションシステム20におけるインジェスティング(Ingesting)処理PR1では、上記アクイジョンシステム60により収録処理段階で生成された各種メタデータが映像情報や音声情報とともに蓄積される。また、テレシネ(Telecine)処理PR2では、上記アクイジョンシステム60により得られたフィルムに記録された映像情報や音声情報をテレビジョン信号に変換する。そして、粗編集(Off-line Edit)処理PR4では、映像データ及び音声データ(素材データ)について、メタデータとして付加されている素材に関する情報に基づいて素材の編集を行い、その編集結果に基づくメタデータであるEDL(Editing Decision List)を作成する。ここで編集結果とは、記録媒体上のイン点及びアウト点を、Reel Number、或いはタイムコードで表した編集点に関する情報を示している。本編集(Complete Edit)処理PR5の段階では、プラニング時に決定された内容に基づいて、インジェスティング(Ingesting)処理PR1、テレシネ(Telecine)処理PR2により蓄積されている素材について、粗編集(Off-line Edit)処理PR4により作成されたでEDLを用いて本編集が行われる。さらに、仕上げ(Finishing)処理PR9では、上記本編集(Complete Edit)処理PR5により本編集された映像データ及び音声データ、ボイスオーバー(Voice Over)処理PR6された音声素材を用いて、配給番組を完成する。このときCG生成(CG Creation)処理CGCにより作成されたCG画像や、アーカイブシステム40に保管された素材が使用される場合もある。
【0101】
そして、番組配給システム50では、上記仕上げ(Finishing)処理PR9により完成された配給番組をパッケージケージメディアとして配給するためのオーサリング(Authoring)処理や、上記配給番組を無線ネットワークや有線ネットワークを介して配給する配給処理を行う。
【0102】
このような構成の番組作成配給システム100では、例えば、上記配給番組編成システム10により実行される撮影前段階(Pri-Production)におけるプランニング(Planning)処理PP1とキャスティング(Casting)処理PP2の段階で主題(Main Title)、副題(Secondary Tilte(Sub Title))、シリーズ(Senes Number)、エピソード(Epsode)、原作(Original(Bock/Title))、著作者(Original Author/Writer)、監督(Director)、サントラ(SoundTrack(Music))の作曲者(Composer)、作詞者(Song Writer)や編曲者(Arranger)などメタデータをコンピュータや携帯端末などにより入力し、入力されたメタデータを上記アクイジョンシステム60により収録して得られた映像情報や音声情報と同梱してプロダクションシステム20に供給することにより、プロダクションシステム20において粗編集(Off-line Edit)処理PR4の段階でスタッフロールを流すタイミング指定し、指定されたタイミングに従って、映像情報や音声情報と同梱されているメタデータに応じたキャラクターを自動生成し、本編集(Complete Edit)処理PR5を行うことができる。
【0103】
この番組作成配給システム100では、アーカイブシステム40において映像データ及び音声データ等のエッセンスとともにメタデータを集中管理するデータベースを構築しており、上記配給番組編成システム10によりプランニング(Planning)処理PP1とキャスティング(Casting)処理PP2の段階で入力されるメタデータが上記アーカイブシステム40のアーカイブマネージャ40Aにより集中管理されるデータベースに登録されると同時に登録されたメタデータを示すタグが発行され、このタグが上記アクイジョンシステム60により収録して得られた映像情報や音声情報と同梱される。プロダクションシステム20では、プロダクションシステム20において粗編集(Off-line Edit)処理PR4の段階でスタッフロールを流すタイミング指定し、指定されたタイミングに従って、映像情報や音声情報と同梱されているタグがポイントするデータベースからメタデータを取り出し、これに応じたキャラクターを自動生成し、本編集(Complete Edit)処理PR5を行うことができる。
【0104】
すなわち、この番組作成配給システム100では、メタデータを用いてスタッフロールのキャラクタを自動生成する支援システムを構築することができる。
【0105】
また、この番組作成配給システム100では、上記アクイジョンシステム60による収録(Acquisition)処理ACQの段階で、例えばGPS(Grobal Positioning System)により収録場所、位置や時間を示すGPSデータをメタデータとして入力し、入力されたメタデータを、このアクイジョンシステム60により収録して得られた映像情報や音声情報と同梱してプロダクションシステム20に供給することにより、プロダクションシステム20における粗編集(Off-line Edit)処理PR4の段階で編集者はGPSデータの存在を意識することなく、番組の時間的配分を行うことができる。また、CG生成(CG Creation)処理PR9の段階では、映像情報や音声情報と同梱されている位置や時間を表すタグデータを用いて、別に用意した地図を示すデータベースから検索を行い、該当する地図グラフィックを出力し、本編集(Complete Edit)処理PR5により上記地図グラフィックを使用した番組を完成することができる。
【0106】
この場合にも、上記キャラクターを自動生成する場合と同様に、上記アーカイブシステム40のアーカイブマネージャ40Aにより集中管理されるデータベースに上記位置や時間を示すメタデータを登録するようにして、CG生成(CG Creation)処理PR9を支援することもでできる。
【0107】
すなわち、この番組作成配給システム100では、メタデータを用いてGPSデータと地図のデータとのマッチングを取り、CG生成を行う支援システムを構築することができる。
【0108】
ここで、VTRを使ってコンテンツを作成しようした場合、収録に際して大量の素材ビデオテープが発生する。例えば30分のドキュメントを制作する場合には通常50本〜100本程度の素材テープが生成され、このなかから必要なカットを選択し、つなぎ合わせることによってコンテンツが作成される。
【0109】
そこで、この番組作成配給システム100では、上記アクイジョンシステム60による収録(Acquisition)処理ACQの段階で、素材テープの内部に収録されている内容を連想させるUMID(ビデオ)(UMID for video essence)、UMID(オーディオ)(UMID for audio essence)、UMID(データ)(UMID for data essence)、UMID(その他)(UMID for others)、リール(ロール)ナンバー(Real Number (Roll Number)、テープID(Tape ID)、テープナンバー(Tape IDNumber)、オブジェクトID(Object ID)、主題(Main Title)、副題(Secondary Tilte(Sub Title))、シリーズ(Senes Number)、エピソード(Epsode)、エッセンスに関するメタデータ(Metadata to Essence)、ロケーター(Locators)、エッセンスの説明(Essence Description)等の項目のメタデータを、映像情報や音声情報と同梱記録する。これによりプロダクションシステム20では、再生時に上記メタデータを読み出し、読み出したメタデータを手掛かりとして、素材テープから必要なカットを迅速に検索することができる。この場合、上記素材テープの内部に収録されている内容を連想させる項目のメタデータは、映像情報や音声情報と同梱でビデオフレームに同期して記録されたり、個々のビデオテープに電子的なラベルに記録されたり、あるいは、数10本から数100本のビデオテープの内容をまとめて管理管理可能な外部記憶メディアに記録される。
【0110】
すなわち、この番組作成配給システム100では、テープのスクリーニング作業をメタデータを用いて省力化する支援システムを構築することができる。
【0111】
また、この番組作成配給システム100では、プロダクションシステム20で実行されるテレシネ(Telecine)処理PR2において、ヴァーティカルレート(Vertical Rate)、フレームレート(Frame Rate)、トータルライン数/フレーム(Total Lines per Frame)と、アクティブライン/フレーム(Active Lines per Frame)、アスペクト比(Display Aspect Ratio)、イメージアスペクト比(ImageAspectRatio)、保存高さ(Stored Height)、保存幅(Stored Width)と、サンプル高さ(Sampled Height)と、サンプル幅(Sampled Width)と、サンプルXオフセット(SampledX Offset)、サンプルYオフセット(SampledY Offset)、表示高さ(Display Height)、表示幅(Display Width)、表示Xオフセット(DisplayX Offset)やビデオ原信号特性( Video Coding Characteristics)等のテレシネに関する項目のメタデータを、映像情報や音声情報と同梱記録する。これにより、本編集(Complete Edit)処理PR5において、長さの調整などの編集作業の後に、出力フォーマットに応じて記録されているメタデータを用いて出力のトリミング位置の算出を行い、出力を得ることができる。
【0112】
また、この番組作成配給システム100では、エッセンスデータ及びメタデータがギガビットイーサネット1上で伝送される際に、MXFファイルフォーマットに変換されており、プロダクションシステム20による編集作業の際に、編集作業に伴って使用された素材の状況が履歴としてヘッダ情報に記述される。このヘッダ情報からコンテンツの成り立ちを知ることができ、上述のように例えばClip_Objectはシーンやカットをクリップと称し、その時間的長さや始まりの位置のタイムコードが示されている。コンテンツはクリップの集合体であり、クリップの示す情報を時間的に早いものから順にサーチすることによりチャプターの候補となるタイムコードを知ることができる。最終的なチャプター点の数はクリップの変化点の数よりも少ないので、候補に挙がったものから必要なものを選び出すことによりチャプターを全て決定することができる。
【0113】
そこで、この番組作成配給システム100では、上記プロダクションシステム20により作成したコンテンツをDVDやLDなどのメディアにより配給する際に、オーサリングシステム52において、上記プロダクションシステム20により編集作業の完了したパッケージについて、MFXファイルのヘッダをサーチすることによりチャプター点の候補をリストアップし、候補の前後のみを視聴することによって、必要なものをチャプター点をのみを選び出して、上記コンテンツをDVDやLDなどのメディアにより配給するためのフォーマット変換すなわちオーサリング処理を行う。すなわち、このオーサリングシステム52では、ビデオプログラムの論理構造を示すメタデータから、編集ビデオプログラムのオーサリング処理を行う。
【0114】
また、この番組作成配給システム100では、シーン毎に出演者に関する権利(Rights) 、著作権(Copyright) 、知財権(Intellectual rights) 、オーナー(Rights Owner) 、支払とコスト情報(Payments and costing)などの情報をログしメタデータとして同時記録しておくことによって、クリップが切り出された場合にトレースすることができる。
【0115】
【発明の効果】
本発明によれば、エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送し、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶し、プリプロダクション時に生成されたメタデータを利用して、上記エッセンスからプロジェクトを効率よく制作することができる。
【0116】
また、本発明によれば、エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送し、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶し、プリプロダクション時に生成されたメタデータを使用して、上記エッセンスから上記プロジェクトを制作するポストプロダクションのオペレーションをコントロールすることにより、エッセンスからプロジェクトを効率よく制作することができる。
【0117】
さらに、本発明によれば、エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送し、上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶し、プリプロダクション時に生成されたメタデータと関連付けて、上記エッセンスから上記プロジェクトを制作するポストプロダクションのオペレーションが行われることにより、エッセンスからプロジェクトを効率よく制作することができる。
【図面の簡単な説明】
【図1】本発明を適用した番組作成配給システムの構成を示すシステム構成図である。
【図2】上記番組作成配給システムにおけるプロダクションシステムの構成を示すシステム構成図である。
【図3】SDIフォーマットのデータ構造を模式的に示す図である。
【図4】SDTIフォーマットのデータ構造を模式的に示す図である。
【図5】SDTI−CPフォーマットのデータ構造を模式的に示す図である。
【図6】KLVフォーマットのデータ構造を模式的に示す図である。
【図7】UMIDのデータ構造を模式的に示す図である。
【図8】SMPTE298Mにおいて標準化されているユニバーサルラベルをキーに取り込んだ辞書規定であるメタデータディクショナリーの内容を示す図である。
【図9】メタデータディクショナリーの内容を示す図である。
【図10】メタデータディクショナリーの内容を示す図である。
【図11】メタデータディクショナリーの内容を示す図である。
【図12】メタデータディクショナリーの内容を示す図である。
【図13】メタデータディクショナリーの内容を示す図である。
【図14】メタデータディクショナリーの内容を示す図である。
【図15】メタデータディクショナリーの内容を示す図である。
【図16】メタデータディクショナリーの内容を示す図である。
【図17】メタデータディクショナリーの内容を示す図である。
【図18】メタデータディクショナリーの内容を示す図である。
【図19】メタデータディクショナリーの内容を示す図である。
【図20】メタデータディクショナリーの内容を示す図である。
【図21】メタデータディクショナリーの内容を示す図である。
【図22】メタデータディクショナリーの内容を示す図である。
【図23】メタデータディクショナリーの内容を示す図である。
【図24】メタデータディクショナリーの内容を示す図である。
【図25】メタデータディクショナリーの内容を示す図である。
【図26】メタデータディクショナリーの内容を示す図である。
【図27】メタデータディクショナリーの内容を示す図である。
【図28】メタデータディクショナリーの内容を示す図である。
【図29】メタデータディクショナリーの内容を示す図である。
【図30】メタデータディクショナリーの内容を示す図である。
【図31】メタデータディクショナリーの内容を示す図である。
【図32】メタデータディクショナリーの内容を示す図である。
【図33】メタデータディクショナリーの内容を示す図である。
【図34】メタデータディクショナリーの内容を示す図である。
【図35】メタデータディクショナリーの内容を示す図である。
【図36】メタデータディクショナリーの内容を示す図である。
【図37】メタデータディクショナリーの内容を示す図である。
【図38】上記番組作成配給システムにおける番組作成配給作業の処理手順とともにアセットマネージメントシステムの構成を模式的に示す図である。
【図39】上記番組作成配給システムにおける番組作成配給作業の処理手順を示すフローチャートである。
【符号の説明】
100 番組作成配給システム、1 ギガビットイサーネット、10 配給番組編成システム、20 プロダクションシステム、21 収録管理システム、22 プロダクション管理システム、22A デバイスコントローラ、22B A/Vサーバ、23 インジェストシステム、23A 再生装置、23B テレシネ装置、23C インジェストクライアント23C、24 コーディングシステム、24A コーディングコントローラ、24B MPEGエンコーダ、24CMPEGデコーダ24C、25 エディッテング/プロセッシングシステム、25A オフライン編集装置、25B オンライン編集装置、25C 映像処理装置、25D 音声処理装置、26 CGクリエーションシステム、30 ニュースシステム、40 アーカイブシステム、40A アーカイブマネージャ、40B ペタサイト、50 番組配給システム、51 サーバコントローラ、52オーサリングシステム、53 Webシステム、54 オンエアサーバ、55ルーティングスイッチ、60 アクイジョンシステム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a production system and a production method for producing a project from an essence.
[0002]
[Prior art]
In recent years, SMPTE (Society of Motion Picture and Television Engineers) has been standardizing metadata, and the meanings of essence indicating content and wrappers that combine metadata and essence are defined. Yes. Furthermore, KLV (Key Length Value) protocol and UMID (Unique Material Identifier), which are metadata data structures, are proposed, and a metadata dictionary (Meta data Dictionary) that collects specific metadata itself is proposed. Standardization is ongoing.
[0003]
[Problems to be solved by the invention]
By the way, the lack of program software due to multi-channel and multimedia has become a problem in broadcasting stations, minimizing the cost burden and improving the service without reducing the quality of the program (contents). In order to achieve this, how to secure program software is an important issue. This means how efficiently video / audio data can be processed in a series of processes from recording / creation to editing, transmission, and archiving. Reuse past programs. Media asset management, including the construction of an archiving system, is the biggest challenge.
[0004]
Accordingly, an object of the present invention is to provide a production system and a production method capable of efficiently producing a project from an essence in view of such a conventional situation.
[0005]
[Means for Solving the Problems]
The present invention is a production system for producing a project from the essence. Data relating to the essence, including means for generating a plurality of metadata each identified by a SMPTE (Society of Motion Picture and Television Engineers) label, a preamble part for describing the metadata, and essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. A means for transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. Have A pre-production that generates metadata describing the essence, a production that creates the essence and associates the essence with the metadata and stores them in a recording medium, and uses the metadata generated during the pre-production. And post production for producing the project from the essence.
[0006]
In addition, the present invention is a production system for producing a project from the essence. Data relating to the essence, including means for generating a plurality of metadata each identified by a SMPTE (Society of Motion Picture and Television Engineers) label, a preamble part for describing the metadata, and essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. A means for transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. Have Pre-production for generating metadata describing the essence, production for producing the essence, storing the essence and the metadata in association with each other on a recording medium, and post-production for producing the project from the essence. And the post-production operation is controlled using metadata generated during the pre-production.
[0007]
In addition, the present invention is a production system for producing a project from the essence. Data relating to the essence, including means for generating a plurality of metadata each identified by a SMPTE (Society of Motion Picture and Television Engineers) label, a preamble part for describing the metadata, and essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. A means for transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. Have Pre-production for generating metadata describing the essence, production for producing the essence, storing the essence and the metadata in association with each other on a recording medium, and post-production for producing the project from the essence. The post-production operation is performed in association with the metadata generated during the pre-production.
[0008]
The present invention also relates to a production method for producing a project from an essence. Data describing the above essence, and a plurality of metadata, each identified by an SMPTE (Society of Motion Picture and Television Engineers) label, is generated, a preamble part for describing the metadata, and an essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. And a step of transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. , In addition to producing the essence, the essence and the metadata are associated with each other on a recording medium. Memorizing step; Using the metadata generated during pre-production, the above project from the above essence And having a production step It is characterized by that.
[0009]
The present invention also relates to a production method for producing a project from an essence. Data describing the above essence, and a plurality of metadata, each identified by an SMPTE (Society of Motion Picture and Television Engineers) label, is generated, a preamble part for describing the metadata, and an essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. And a step of transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. , In addition to producing the essence, the essence and the metadata are associated with each other on a recording medium. Memorizing step; Using post-production metadata, post-production operations that produce the project from the essence And controlling step It is characterized by that.
[0010]
Furthermore, the present invention relates to a production method for producing a project from an essence. Data describing the above essence, and a plurality of metadata, each identified by an SMPTE (Society of Motion Picture and Television Engineers) label, is generated, a preamble part for describing the metadata, and an essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. And a step of transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. , In addition to producing the essence, the essence and the metadata are associated with each other on a recording medium. Memorizing step; Post-production operations that create the project from the essence in association with the metadata generated during pre-production Having the steps of It is characterized by that.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0012]
The present invention is applied to, for example, a program creation / distribution system 100 configured as shown in FIG.
[0013]
The program creation / distribution system 100 includes a distribution program organization system 10, a production system 20, a news system 30, an archive system 40, and a program distribution system 50 connected via the Gigabit Ethernet 1, and is provided to the production system 20. An acquisition system 60 for acquiring video and audio is provided.
[0014]
The distribution program organization system 10 is a system for so-called pre-production processing before shooting, in which related parties such as producers, directors, and production staff make arrangements regarding distribution contents of programs, etc. Through a plurality of workstations 10A connected to the Ethernet 1, a person concerned with the program can make a meeting regarding the distribution contents of the program.
[0015]
The production system 20 is a system for shooting and production processing that collects video and audio. For example, as shown in FIG. 2, a recording management system 21 for a recording person to input necessary items, production management, and the like. System 22, ingest system 23 for storing video and audio acquired by acquisition system 60, coding system 24 for performing video and audio coding processing, editing / processing system 25 for video and audio editing processing, CG ( It includes a CG creation system 26 for creating a map by computer graphics), a map for displaying the image superimposed on the video, a weather map, characters, and the like.
[0016]
The recording management system 21 includes a plurality of workstations 21A connected to the Gigabit Ethernet 1, and a reporter can input articles via the workstation 21A. The production management system 22 includes a device controller 22A and an A / V server 22B connected to the Gigabit Ethernet 1. The ingest system 23 includes a playback device 23A that plays back video and audio recorded on a video tape, a telecine device 23B that converts film-captured video into a video signal, and a plurality of ingest clients connected to the Gigabit Ethernet 1 The video and audio acquired by the acquisition system 60 can be stored in the ingest client 23C via the playback device 23A and the telecine device 23B. The coding system 24 includes a coding controller 24A, an MPEG encoder 24B, and an MPEG decoder 24C connected to the Gigabit Ethernet 1. The editing / processing system 25 includes an offline editing device 25A, an online editing device 25B, a video processing device 25C, and an audio processing device 25D connected to the Gigabit Ethernet 1.
[0017]
The news system 30 is a system that comprehensively manages news information, and performs management of on-air items and material management such as which material is subjected to which stage of processing.
[0018]
The archive system 40 is a system for storing video data and audio data, and includes an archive manager 40A and a petasite 40B connected to the Gigabit Ethernet 1. Essence and metadata are stored in the petasite 40B.
[0019]
The program distribution system 50 includes a server controller 51, an authoring system 52, a Web system 53, and an on-air server 54 connected to the Gigabit Ethernet 1, and a routing switch 55 that selects an on-air program.
[0020]
The acquisition system 60 includes a video camera 61 and a relay vehicle 62.
[0021]
This program creation / distribution system 100 records video and audio (hereinafter referred to as materials) in, for example, broadcasting stations and video production companies, and edits and processes these materials to produce video for distribution. Further, the image processing system has a function of storing the video, and in each image processing process such as recording, editing, and storing of the material, additional information for identifying the material in detail is a recording medium or a dedicated recording. Input to the server.
[0022]
Note that metadata is used as the additional information. The metadata is data for describing information necessary for identifying a material obtained by recording, such as a recording time, a recording ID, a recording title, a photographer name, and a reporter name.
[0023]
In the program creation / distribution system 100, SDI (Serial Digital Interface), which is a digital data transmission format standardized by SMPTE, is used as a transmission format for transmitting video data, audio data, and metadata. FIG. 3A shows the configuration of the entire SDI format data.
[0024]
The SDI format includes a 4-dot EAV (End of Video) area indicating end synchronization, a 268-dot ANS (Ancillary) area, a 4-dot SAV (Start of Video) area indicating start synchronization, and an active 1440 dot area. A video area, and is composed of 525 lines. However, the numbers in parentheses indicate values defined by the PAL (Phase Alternation Line) method.
[0025]
The active video area has a 9-line vertical blanking section (VBK). 1 ) And 10-line optional blanking section (OBK) 1 ) And 244 lines of active video (ACV) 1 ) And 9-line vertical blanking section (VBK) 2 ) And 10-line optional blanking section (OBK) 2 ) And 243 lines of active video area (ACV) 2 ).
[0026]
SDI is a format for transmitting uncompressed digital data such as the so-called D1 format and D2 format. Audio data is stored in the ancillary area, and video data such as D1 and D2 is stored in the active video area. Is transmitting. In the SDI format, the metadata is inserted into the ancillary area and transmitted.
[0027]
FIG. 3B shows one line of the SDI format. When transmitted, data of 10 bits width per line is transmitted after being subjected to parallel-serial conversion and transmission path coding.
[0028]
Further, as a transmission format for transmitting video data, audio data, and metadata in the image processing system 1, in addition to the above-mentioned SDI format, SDTI for transmitting compressed data compressed by the MPEG method, DV method or the like. (Serial Digital Transfer Interface) format or SDTI-CP (Serial Digital Transfer Interface-Content Package) format which further restricts the SDTI format may be used.
[0029]
FIG. 4A shows the data structure of the SDTI format. Similar to the SDI format, the SDTI format includes a 4-dot EAV (End of Video) area indicating end synchronization, a 268-dot ANC (Ancillary) area, and a 4-dot SAV (Start of Video) area indicating start synchronization. However, an active video area composed of 525 lines in the SDI format is defined as a payload area. However, the numbers in parentheses indicate values defined by the PAL (Phase Alternation Line) method.
[0030]
In the SDTI format, the payload area has a blank data portion (BDT 1 , BDT 2 ) And the data part (DT 1 , DT 2 ), But the number of lines in each data part is not defined.
[0031]
FIG. 4B shows one line of the SDTI format. When transmitted in the SDTI format, data of 10 bits width per line is transmitted after being subjected to parallel-serial conversion and transmission path coding.
[0032]
In the SDTI format, the ancillary area includes 53 words of SDTI header data into which a source address, a destination address, a line number CRC, and the like are inserted. In the SDTI format, metadata is inserted into the area of the ancillary area excluding the SDTI header data.
[0033]
FIG. 5 shows the data structure of the SDTI-CP format. The packet structure in the SDTI-CP further restricts the SDTI format, and various data are easily inserted by changing the payload structure.
[0034]
Data transmitted by the SDTI-CP format includes MPEG (Moving Picture Expert Group) 2 Video Elementary Stream and the like, and various data such as auxiliary data including audio and metadata can be transmitted together.
[0035]
Data to be inserted into the payload is delimited by “items”, and various data are inserted into each item. Specifically, there are four types of items: System Item, Picture Item, Audio Item, and Auxiliary Item.
[0036]
The System Item has areas such as System Item Bitmap, Content Package rate, SMPTE Universal Label, Package Metadata Set, Picture Metadata Set, Audio Metadata Set, Auxiliary Metadata Set, and the like.
[0037]
In the SDTI-CP format, the metadata is transmitted after being inserted into the Package Metadata Set, Picture Metadata Set, Audio Metadata Set, and Auxiliary Metadata Set areas of the System Item.
[0038]
Metadata is unique data that is added to identify materials such as video data and audio data, and is KLV (Key Length Value) protocol and UMID (Unique Material Identifier) data based on the SMPTE standard. Transmitted by format.
[0039]
The KLV format stores 16-byte Universal Label Data Key describing Universal Label Data, Value Length indicating the data length of metadata stored in the Value area, and actual metadata corresponding to the SMPTE Dictionary. It is a data transmission format with three areas of Value. FIG. 6 shows the KLV format.
[0040]
Universal Label Data Key is a data area for uniquely labeling stored metadata. The Universal Label Data Key further includes a 1-byte Object ID and a UL (Universal Label) Header area that includes a UL (Universal Label) Size, 1-byte UL (Universal Label) Code, SMPTE Design, and Registry, respectively. Each area is divided into a UL (Universal Label) Designatores area including Design, Data Design, and Reference Version, and a 9-byte Data Element Tag area.
[0041]
The UMID is an identifier that is uniquely determined to identify video data, audio (voice) data, and other material data. FIG. 7 shows the data structure of UMID.
[0042]
The UMID is a basic UMID as an ID for identifying material data composed of a series of video, audio, and metadata (hereinafter referred to as content), and a signature for identifying each content in the material data. And Extended UMID.
[0043]
Basic UMID has a 32-byte data area, and is composed of a 12-byte Universal Label area, a 1-byte Length Value area, a 3-byte Instance Number area, and a Material Number area indicated by 16 bytes. Yes.
[0044]
The Universal Label area stores codes for identifying digital data, and the details are standardized in SMPTE-298M. The Length Value area indicates the length of the UMID. Since the code length is different between Basic UMID and Extended UMID, it is indicated by 13h in the case of Basic UMID and 33h in the case of Extended UMID. The Instance Number area indicates whether the material data has been overwritten or edited. The Material Number area has three areas and stores a code for distinguishing material data.
[0045]
Time Snap indicated by 4 bytes indicates the number of snap clock samples per day. This indicates the creation time of the material data in units of clocks. The 8-byte Rnd (Random Number) is assigned a double number when an incorrect time is set, or when the network address of a device defined by, for example, the Institute of Electrical and Electronics Engineers (IEEE) changes. It is a random number to prevent it from being done.
[0046]
Extended UMID, on the other hand, is an 8-byte Time / Date Code that identifies the time and date when the material was generated, and correction (time difference information) related to the time when the material was generated, as well as latitude, longitude, and altitude. 12 bytes of Spatial Co-oredinates that define the location information to be defined, and the alphabetical code (Country) of bytes that define the country name 4 and the characters and symbols of the omitted alphabets, etc. Are composed of a 4-byte Alphnumeric Code (Organization) that defines the organization name and a 4-byte Alphnumeric Code (User) that defines the name of the user who created the material.
[0047]
The Basic UMID and Extended UMID described above do not include metadata indicating the video size, generation number, and the like. In particular, the Material Number does not indicate other information related to the material state or the material image. Metadata indicating the video size, generation number, etc. is transmitted based on the KLV format.
[0048]
Here, in the metadata dictionary, which is a dictionary definition that incorporates a universal label standardized in SMPTE298M, the following data element name metadata is specified.
[0049]
That is, as data element names corresponding to SMPTE labels, as shown as # 1 to # 33 in FIG. 8, class 1 ID, locator (IDENTIFIERS & LOCATORS), globally unique identifiers (Globally Unique Identifiers), and UMID video (UMID) Video), UMID Audio, UMID Data, UMID Data, UMID System, UMID System, International Broadcasting Organization IDs, Organization Identifiers, and Program ID (Programme Identifiers), UPID (UPID), UPN (UPN), Media ID (Physical Media identifiers), Tape ID (Tape Identifiers), EBU ID NO (IBTN), ISO ID (ISO Identifiers), ISO audio visual NO (ISAN), ISO book NO (ISBN), ISO serial NO (ISSN), ISO music Calwork Code (ISWC), ISO Printed Music NO (ISMN), ISO Commercial ID (ISCI), ISO Recording Code (ISRC), ISO Report NO (ISRN), ISO Glossary (ISBD), ISO Textual Work Code (ISTC), Digital Object ID (DOI), Compound ID (Compound IDs), Serial Item and Contribution ID (SICI), Book Item and Component ID (BICI), Audio Visual Item And component ID (AICI), distribution source ID (PII), object ID (Object identifiers), and Internet global unique ID (GUID).
[0050]
Further, as shown as # 34 to # 66 in FIG. 9 as data element names corresponding to SMPTE labels, SMPTE labels (GUID and SMPTE label identifiers), metadata object IDs (MobIDs), and object ID details (Definition object identifiers), object ID details (DefinitionObject_Identification), container version display (GenerationAUID), CNRI (CNRI Handles), device ID (Device Identifiers), device specification (Device Designation), and device creation (Device Make), device model (Device Model), device serial number (Device Serial Number), globally unique locators (Globally Unique Locators), unique resource IDs (UR locators (and "identifiers")) and , Unique resource locator (URL), unique resource locator (URL) and UNICO URL string (URLString), continuation URL (PURL), resource name (URN), media locators (Media locators), local ID (Local Identifiers), administrative ID (Administrative identifiers), and transmission ID (Transmission Identifier) ), Archive ID (Archive Identifier), item ID (Item ID), accounting reference NO (Accounting Reference), transmission charge (Traffic), physical media ID (Physical Media identifiers), and film codes (Film codes) ), Reel NO (Reel / Roll number), tape ID (Tape identifiers), tape NO (Tape number), object ID (Object identifiers), and local unique ID (LUID).
[0051]
Further, as data element names corresponding to the SMPTE labels, as shown as # 67 to # 99 in FIG. 10, a slot ID (SlotID), an object text ID (Object text identifiers), a group name (Mob_Name), Slot name (SlotName), object name (DefinitionObject_Name), local locator (Local Locators), local media locator (Local Media locators), local file path (Local File Path), film locator (Film Locators) and Edge Code, Edge Code, Frame Code, Key Code, Ink NO (Ink number), Segment Start Code (EdgeCode_Start), Proxy locators, Proxy Key text, proxy key frame (Key Frame), proxy key sound (Key Sound), and key data (Key data or program), handwriting (Free-form, human readable locator), handwritten name (TextLocator_Name), title (Titles), title kind (Title kind), subject (Main title), and subtitle (Secondary title) Series NO (Series number), Episode No (Episode Number), Scene NO (Scene number), Take NO (Take Number), Owner (Unique IPR Identifiers), and CISAC owner (IPI ( SUISA / CISAC)), the person in charge (Natural Person / legal entity), and the ID (AGICOA / MPAA) by AGICOA.
[0052]
Also, as data element names corresponding to SMPTE labels, as shown as # 100 to # 132 in FIG. 11, AGCOA ID (AGICOA / MPAA Identifier), class 2 management (ADMINISTRATION), supplier (Supplier), Source Company, Contract NO (Supply contract number), Original Producer Name, Product, Total number of Episodes in a Series, Rights (Rights ), Copyright, Copyright Status, Copyright Owner, Intellectual rights, Intellectual rights type (IP Type), IP Details of rights (IP Right), legal personalities (Legal personalities), owners (Rights Owner), management rights (Rights Management Authority), interested parties (owned parties) (IP Right options), Maximum Number Of Usages, License options, financial information, currency, payments and costing, royalty financial information, profit information, Royalty Financial Information, Permitted Access, Access Level (Restrictions on Use), Security, and Technical Access (System Access) are defined.
[0053]
Further, as shown as # 133 to # 165 in FIG. 12, the data element name corresponding to the SMPTE label includes a user name (Username), a user name (Username), a password (Password), and a password (Password). Film, film, scramble key type, scramble key kind, scramble key value, publication outlet, and broadcast channel Information (Broadcast), broadcaster (Broadcaster), name (Name), channel (Channel), transmission path (Transmission Medium), broadcast region (Broadcast Region), number of broadcasts (Broadcast and Repeat Statistics), 1st use (First Broadcast Flag), repeat number (Repeat number), current repeat number (Current repeat number), previous use number (Previous repeat number), rating (Ratings) and Audience rating, audience reach, other ratings, Participating parties, representatives (Persons (Groups and Individuals)), and contact person (Nature of Person (Group or individual)), talent, staff, etc. (Production), talent, staff, etc. (Contribution Status), cooperation and management (Support and Administration), and cooperation management staff (Support / Administration Status) Organization and Public Bodies, and Kind of Organization or Public Body are defined.
[0054]
Moreover, as shown as # 166 to # 198 in FIG. 13 as data element names corresponding to the SMPTE labels, production, film lab (Contribution Status), cooperation and management (Support and Administration), cooperation Administrative staff (Support / Administration Status), function (Job Function Information), function (Job Function), role (Role / Identity), information acquisition (Contact information), contact type (Contact kind), Contact Department, representative (Person or Organization Details), contact person (Person name), family name (Family name), first given name (First Given name) and second choice Second Given name, Third Given name, Group name, Main name, Main name, Supplementary name, Organization name ), The main name, and the complement Supplementary organization name, Class 3 interpreter (INTERPRETIVE), Fundamental information (Fundamental), Country name (Countries), ISO 3166 Country Code System (ISO 3166 Country Code System), ISO 3166 Country Code (ISO 3166) Country Code System), ISO Language Code, ISO Language Code, ISO Language Code, Interpretation Parameters, Operating System Interpretations, and Basic 4 Definitions (Fundamental Dimensions) ) And length (Length) are defined.
[0055]
In addition, as shown in FIG. 14 as # 199 to # 231, the data element name corresponding to the SMPTE label includes a length system (Length System), a length system (Length System), and a unit of length ( Length Units, Length Units, Time, Time system, Time system, Time Units, Time Units (Time Units) Time Units, Volume, Energy, Descriptive-Human Assigned, Categorisation, Content Classification, Type, Genre, (Genre), to (Target Audience), cataloging (Cataloguing and Indexing), audit catalog (Catalogue History), metadata status (Status of Data Set), metadata status (Status of Data Set) ) And the ID in use (Cataloguing, Indexing or T hesaurus system used), theme (Theme), genre (Genre), sub code (Subject Code), keywords (Keywords), key frames (Key Frames), key sounds (Key Sounds), and key data (Key data), character string characteristics (Textual Description), outline (Abstract), purpose (Purpose), and description (Description) are defined.
[0056]
As data element names corresponding to SMPTE labels, as shown as # 232 to # 264 in FIG. 15, color information (Color descriptor), format information (Format descriptor), hierarchy (Stratum), and type of hierarchy (Stratum kind), additional information (Supplemental Information), assessments (Assessments), Awards (Individual), programs (Programmes), quality parameters (Qualitative Values), and property values ( Asset Values, Content Value, Cultural Quality, Artistic Value, Historical Value, Technical Value, and other values (Other Values), descriptors (Descriptors (Machine Assigned or Computed)), categorization (Categorisation), content class (Content Classification), and cataloging (Cataloguing) and Indexing), audit catalog (Catalogue History), metadata status (Status of Data Set), cataloging (Cataloguing, Indexing or Thesaurus system used), keywords (Keywords), key frames (Key Frames) and , Key Sounds, Key data, Textual Description, Hierarchy (Stratum), Hierarchy kind (Stratum kind), Class 4 parameter (PARAMETRIC), Video encoding parameters (Video Essence Encoding Characteristics) are specified.
[0057]
In addition, as shown in FIG. 16 as # 265 to # 297 as data element names corresponding to the SMPTE label, video basic characteristics (Video Fundamental Characteristics), video source equipment (Video Source Device), and OE conversion system (Fundamental opto-electronic formulation), gamma information, gamma equation, gamma, luminance calculation (Luma equation), colorimetry code, scanning information ( Fundamental sequencing and scanning), component sequence (Signal Form Code), color frame index (Color Field Code), vertical rate (Vertical Rate), frame rate (Frame Rate), aspect ratio (Image dimensions) , Lines (Image lines), Total Lines per Frame and Active Lines / Frames per Frame), Rising (Leading Lines), Falling (Trailing Lines), Horizontal and Vertical dimensions, Aspect Ratio (Display Aspect Ratio), Image Aspect Ratio, Sensor Capture aspect ratio, saved height (Stored Height), saved width (StoredWidth), sample height (Sampled Height), sample width (Sampled Width), and sample X offset (Sampled X Offset) ), Sampled Y Offset, Display Height, Display Width, and Display X Offset are defined.
[0058]
As data element names corresponding to SMPTE labels, as shown as # 298 to # 330 in FIG. 17, display Y offset, video original signal characteristics (Video Coding Characteristics), and analog video characteristics ( Analogue Video System), Luminance Sample rate, Active Samples per Line, Total Samples per Line, and Bits Per Pixel ), Sampling Information, Sampling Hierarchy Code, Horizontal Subsampling, ColorSiting, Rounding Method Code, and Filtering Code ( Filtering Code), Sampling Structure, and Sampling Structure Co de), frame layout (FrameLayout), line field information (VideoLineMap), signal pseudonym (AlphaTransparency), component width (ComponentWidth), black reference level (BlackReferenceLevel), and white reference level (WhiteReferenceLevel), color dynamic range (ColorRange), order of color components (PixelLayout), color palette (Palette), palette layout (PaletteLayout), and the same number of data in the horizontal direction of the original signal (Is Uniform) The number of stores of adjacent bytes (Is Contiguous), JOEG table (JPEG Table ID), TIFF parameter (TIFFDescriptor_Summary), MPEG coding characteristics (MPEG Coding Characteristics), and MPEG-2 coding characteristics (MPEG-2 Coding characteristics) Characteristics, Field Frame Type Code, and Film parameters are specified. To have.
[0059]
As data element names corresponding to SMPTE labels, as shown by # 331 to # 363 in FIG. 18, film video characteristics (Film to Video parameters), field position priority (Field Dominance), and frame phase sequence (Framephase sequence), film pull-down characteristics, pull-down sequence, pull-down phase, pull-down type, pull-down direction, and pull-down direction. Phase Frame, Film Frame Rates, 24.00 fps (Capture Film Frame rate), 23.976 fps (Transfer Film Frame rate), special frame rate (FilmDescriptor_FrameRate), film Characteristics (Film characteristics), film aperture characteristics (Film capture aperture), Film Color Process, edge code format (CodeFormat), header text (Header), video and film test parameters (Video and Film test parameters), video test parameters (Video test parameters), Test parameter, Test Result (real), Test Result (integer), Film test Parameters, Test parameter parameter), test result (real), test result (integer), storage alignment (Video digital storage alignment), and buffer size at frame store (Image Alignment Factor), leading byte (Client Fill Start), trailing byte (Client Fill End), padding bits (Padding Bits), and audio signal equipment characteristics (Audio Essence Encoding Characteristics) are defined.
[0060]
Further, as shown as # 364 to # 396 in FIG. 19 as data element names corresponding to the SMPTE label, basic audio characteristics (Audio Fundamental Characteristics), audio source equipment (Audio Source Device), and basic audio control (Fundemental audio formulation), audio channel classification (Electro-spatial formulation), audio filtering characteristics (Filtering applied), audio reference level (Audio reference level), and number of audio mixing channels (Number of audio channels) in mix), number of mono channels (Mono channels), number of stereo channels (Stereo channels), number of tracks (Physical Track Number), audio from film (Film sound source), optical recording (Optical track) ), Magnetic recording, and analog audio characteristics (Analogue Audio Codin g Characteristics), analog system, audio sampling characteristics (Sample Audio), sample rate, clock frequency (Reference clock frequency), and bits per sample (Bits per Sample, rounding law, dither, audio coding characteristics (Digital Audio Coding Characteristics), coding type (Coding Law), number of layers (Layer number), and average bit rate ( Average Bit rate), Fixed bitrate, Audio test parameters, SNR (Signal to noise ratio), Weighting, Audio summary information, AIFC Format summary (AIFCDescriptor_Summary), WAVE format summary (WAVEDescriptor_Summary), Down coding method (Data Essence Encoding Characteristics) are defined.
[0061]
In addition, as data element names corresponding to SMPTE labels, as shown as # 397 to # 429 in FIG. 20, basic characteristics (Data Essence Fundamental Characteristics), information of original original signals (Analogue Data Essence Coding Characteristics), analog Data coding (Analogue Data Coding), digital coding characteristics (Digital Data Coding Characteristics), original record data (Data test parameters), metadata equipment characteristics (Metadata Encoding Characteristics), and metadata fundamental characteristics (Metadata Fundamental) Characteristics), timecode characteristics (Timecode Characteristics), timecode type (Timecode Kind), timecode type (Timecode Kind), drop frame (Drop), LTC / VITC (Source Type), Timecode timebase, frame / second (FPS), and user bit N / OFF (Timecode User bits flag), start address (Start), timecode sample rate (TimecodeStream_Sample Rate), timecode data itself (Source), timecode with sync signal (IncludeSync), analog meta Data information (Analogue Metadata Coding Characteristics), analog metadata carrier (Analogue Metadata Carrier), digital metadata information (Digital Metadata Coding Characteristics), digital metadata carrier (Digital Metadata Carrier), and metadata test characteristics (Metadata test parameters), equipment characteristics (System & Control Encoding Characteristics), metadata basic characteristics (System & Control Fundamental Characteristics), original analog signal information (Analogue System & Control Coding Characteristics), and analog systems (Analogue System & Control Coding), original digital signal information (Digital System Coding Characteristics), and digital And Rumetadeta information (Digital System Metadata Sampling Characteristics), and characteristics of metadata of the original signal (System Metadata test parameters), the general encoding characteristics (General Encoding Characteristics) are defined.
[0062]
As data element names corresponding to the SMPTE labels, as shown as # 430 to # 462 in FIG. 21, the general essence encoding characteristics, the sample rate, the length, and the length , Container encoding characteristics, Byte Order, Storage Medium parameters, Tape cartridge format, Videotape gauge and format, Tape size (FormFactor), signal format (VideoSignal), tape format (TapeFormat), recording time (Length), tape production company (TapeDescriptor_ManufacturerID), tape product number (Model), disc recorder equipment information (Disc recorder) parameters), disc kind and format, and film material (Film Medium Parameters), manufacturer name (Film stock manufacturer), product number (Film Stock type), perforation information (PerforationsPerFrame), film type (FilmKind), film format (FilmFormat), film Aspect ratio (FilmAspectRatio), manufacturer (Manufacturer), part number (Model), film gauge (Film gauge and format), (Object Characteristics (Placeholder)), equipment characteristics (Device Characteristics), camera Characteristics (Camera Characteristics), optical characteristics (Optical Characteristics), depth of focus (Focal Length), CCD size (Sensor Size), and lens (Lens Aperture) are defined.
[0063]
Also, as the data element names corresponding to the SMPTE label, as shown as # 463 to # 495 in FIG. 22, the original signal CCD size (Sensor Type Code), field of view (Field of View), special lens (Anamorphic lens) characteristic, Optical Test parameters, Sensor Characteristics, Flare, Microphone Characteristics, Sensor type, and Polar characteristic ), Image Characteristics, Image Category, Class 5 Production Process (PROCESS), Process Status Flag (Process indicators), Basic Information (Fundamental), Shot, Clip, Segment Display (Integration Indication), replication performance (Quality Flag), purpose of replication (Physical Instance Category), recording (Capture), and original recording Log / digital (Digital or analogue origination), microphone placement (Microphone Placement techniques), dubbing information (Manipulation), number of changes (Simple Flagging), number of copies (Copy Number), number of clones (Clone number) A work in progress flag, a digital or analogue mix, a payload compression history (Downstream Processing History), a video payload compression history (Video Compression History), and a video compression method. (Video Compression Algorithm), compression history data set (MPEG-2 dynamic coding historical dataset), noise reduction algorithm (Video Noise Reduction Algorithm), and compression are specified.
[0064]
As data element names corresponding to SMPTE labels, as shown as # 495 to # 528 in FIG. 23, an audio compression history, an audio compression algorithm, and audio compression history data ( MPEG-2 Audio dynamic coding history), Noise Reduction Algorithm, Data Compression History, Metadata Compression History, MPEG Processing, , Splicing metadata, enhancement or modification, video processing, enhancement or modification description, and equipment specification (Video processor settings) (Device-specific)), device type, and device parameter ), Device parameter setting, Audio Processing, Description of enhancement (Enhancement or Modification Description), Audio processor settings (Device-specific), Device type, device parameter, device parameter setting, data modification, data processing, enhancement or modification description, device (Data processor settings (Device-specific)), device type (Device kind), device parameters (Device parameter), device set (Device parameter setting), editing information (Editing Information), Editing version information (Editing version information)
The file format version (Version), editing details (Editing decisions), changes (RelativeScope), and change slots (RelativeSlot) are specified.
[0065]
Further, as shown as # 529 to # 561 in FIG. 24 as data element names corresponding to the SMPTE labels, the original signal group (SourceMobSlotID), the default of the fade information (DefFadeType), and the editing matte information (Editing matte information) Editing mat information (HotSpotRect), editing event information (Editing event information), comments (Event_Comment), event ON / OFF information (ActiveState), editing effect information (Editing effect information), audio Fade-in type (FadeInType), audio fade-out type (FadeOutType), control point (ControlPoint_Value), constant value (ConstantValue_Value), hint (EditHint), transient information (IsTimeWarp), category information (Category) And the number of input segments (NumberInputs), bypass information (Bypass), and editing eb information (Editing web information), start (BeginAnchor), end (EndAnchor), editing note (Editing user notes), tag information (TaggedValue_Name), value information (TaggedValue_Value), and information between class 6 data ( RELATIONAL), Relationships, Relations, Relationships, Essence to Essence, Source Material, UMID (Source Material UMID), Source Material, The last edit text (Most Recent Edit text) and the last UMID (Most recent edit UMID) are defined.
[0066]
Also, as data element names corresponding to the SMPTE labels, as shown as # 562 to # 594 in FIG. 25, essence-related metadata (Metadata to Essence), metadata mutual (Metadata to Metadata), and object mutual (Object to Object), metadata about the object (Metadata to Object), production material (Related production material), support material (Program support material), advertising material (Programme advertising material), Relationship with CM (Programme commercial material), countdown information (Numerical sequence), countdown (Numerical position in sequence), offset information (Relative position in sequence (value)), preview, next information (Relative position in sequence) (descriptive)), preview, next information (Relative position in sequence (descriptive)), and structural Relationship structures, Containing relations, Contents one (Contains one), Still image (Still Frame), Hot Spot Matte, Annotation, Translation Rendering, Retrieval (InputSegment), Extraction (Selected), Transition effect (Operation Group), Web address (Manufacturer Info), Content group (Content), Content description (Dictionary) Essence Description, Segment Description, Contains set, Parameters, Parameters, Alternates, Group, and Essence Data ( Essence Data) is specified.
[0067]
As data element names corresponding to SMPTE labels, as shown by # 595 to # 627 in FIG. 26, properties (Properties), locators (Classators), class definitions (Class Definitions), and type definitions. Type Definitions, Operating Definitions, Parameter Definitions, Data Definitions, Plugin Descriptors, Codec Descriptions Definitions, Container Definitions, Interpolation Definitions, User Comments, Contains ordered set, Different Format Specifications (Choices), and Input Segments ), Nesting information (NestedScope_Slots), components (Components), Locator, ID List (Identification List), Group Slot (Mob_Slots), Point Value (PointList), Data Contains Stream (Data), Data (Data), ID (Sample Index, Weak reference relation, Weak reference to one object, Generation, Data Description, Operation Definition, and Source ID (SourceID), effect type (Control Point_Type), edited ID (Operation Definition_DataDefinition), and control type (Parameter Definition_Type) are defined.
[0068]
As data element names corresponding to SMPTE labels, as shown as # 628 to # 660 in FIG. 27, a property (Property Definition_Type), a category (Category Class), a file descriptor (FileDescriptor Class), and a group name ( MobID), Container Format, Parameter Description (Definition), Parameter Type (Parameter_Type), Interpolation, Data Type (TaggedValue_Type), and Strong Association of Objects (Type Definition Strong Object Reference_Referenced) Class, weak association of objects (Type Definition Weak Object Reference_Referenced Class), underline element type (Type Definition Enumeration_Element Type), variable array element type (Type Definition FixedArray_Element Type), and fixed array element type ( Type Definition Variable Arra y_Element Type), element type description (Type Definition Set_Element Type), string element (Type Definition String_Element Type), stream element (Type Definition Stream_Element Type), rename (Renamed Type), and set of weak reference (Set of weak references), plugin descriptors (Plugin Descriptors), parameters (ParametersDefined), data descriptions (Data Definitions), order of weak references (Ordered set of weak references), performance degradation (Degrade To), Member Types, Class relations, Parent class, Parent Class, Child class, and Instance of class , Object class, metadata object definitions, and class definition It has been.
[0069]
In addition, as data element names corresponding to SMPTE labels, as shown as # 661 to # 693 in FIG. 28, property (Property definition), hint (Is Searchable), required / optional (Is Optional), and default condition (Default Value), local ID (Local Identification), type description (Type definition), size (Size), specified size (Is Signed), element name (TypeDefinitionEnumeration_ElementNames), element name (Type Definition Enumeration_Element Values, number of arrays (Element Count), member names (Member Names), extended names (Type Definition Extendible Enumeration_Element Names), extended names (Type Definition Extendible Enumeration_Element Values), and execution descriptions (Instance descriptions) , Description, Container definitions, Essence Is Identified, Code object (Related code objects), Plug-in code object (Relations to plugin code objects), Name (Name), Plug-in (Plugin Descriptor_Identification), Description (Description), Version number (Version Number), Version series, manufacturer (Manufacturer), manufacturer ID (Manufacturer ID), platform (Platform), platform version (Min Platform Version), platform OS version (Max Platform Version), A plug-in engine (Engine), a mini engine version (MinEngine Version), and a max engine version (MaxEngine Version) are defined.
[0070]
As data element names corresponding to the SMPTE label, as shown as # 694 to # 726 in FIG. 29, an API plug-in (Plugin API), an API mini-plug-in (Min Plugin API), and an API max. Plug-in (Max Plugin API), software (Software Only), accelerator (Accelerator), verification (Authentication), relations of application code (Relations to application code objects), company name (Company Name), Production Name (Product Name), Production Number (Product ID), Production Version (Product Version), Production Version Series (Product Version String), Toolkit Version (Toolkit Version), Platform (Platform), Class 7 space-time (SPATIO-TEMPORAL), position and space vectors (Position and Space Vectors), image guidance system (Image Coordinate System), and map origin (Ma p Datum Used), Absolute Position, Local Datum Absolute Position, Local Datum Absolute Position Accuracy (m), Device Absolute Position, Device Absolute Positional Accuracy (m), Device Code (Device Altitude (m)), Device Code (Device Altitude (metres, concise)), and Device Latitude (degrees) The latitude of the equipment (Device Latitude (degrees, concise)), the longitude of the equipment (Device Longitude (degrees)), the longitude of the equipment (Device Longitude (degrees, concise)), and the size of the equipment (X) Device X Dimension (m)), equipment size (Y) (Device Y Dimension (m)), subject absolute position (Subject Absolute Position), and frame position accuracy (Frame Positional Accuracy (m)) are specified. Has been.
[0071]
As data element names corresponding to the SMPTE labels, as shown as # 727 to # 759 in FIG. 30, the frame center latitude (Frame Center Latitude (degrees)) and the frame center latitude (Frame Center Latitude (degrees, concise)) ), Frame Center Longitude (degrees), Frame Center Longitude (degrees, concise), Frame Center Lat-Long, and Relative Position ), Local reference of relative position (Local Datum Relative Position), accuracy of local reference of relative position (Local Datum Relative Position Accuracy), relative position of equipment (Device Relative Position), and accuracy of relative position of equipment ( Device Relative Positional Accuracy), Relative Position of Device (X) (Device Relative Position X (metres)), Relative Position of Device (Y) (Device Relative Position Y (metres)) Relative Position (Z) (Device Relative Position Z (metres)), Subject Relative Position (Subject Relative Position), Subject Relative Positional Accuracy (metres)), Image Positional Information X position from the image (Position within viewed image y coordinate (pixels)), y position from the image (Position within viewed image y coordinate (pixels)), and the source image center (x pixel) (Source image center x coordinate (pixels)), source image center (y pixel), and viewport image center x coordinate (pixel (y pixel) s) ), Viewport image center y coordinate (pixels), Rate and Direction of Positional Change, Device Position Change Speed and Direction (Device Rate) and Direction of Positional Change) Absolute device rate and direction of positional change, device movement speed (Device Absolute Speed (metres / sec)), device direction (Device Absolute Heading (degrees)), device Relative Device Rate and Direction of Positional Change, Device Relative Speed (metres / sec), and Device Relative Heading (degrees )), The subject's position change speed and direction (Subject Rate and Direction of Positional Change), the subject's absolute position change speed and direction (Absolute Subject Rate and Direction of Positional Change), and the subject's absolute speed. (Subject Absolute Speed (metres / sec)) is specified.
[0072]
As the data element names corresponding to the SMPTE labels, as shown as # 760 to # 792 in FIG. 31, the absolute direction of the target (Subject Absolute Heading (degrees)) and the relative speed and direction of the position change of the target (Relative Subject Rate and Direction of Positional Change), subject relative speed (Subject Relative Speed (metres / sec)), subject relative orientation (Subject Relative Heading (degrees)), angle information (Angular Specifications), Device angles, Sensor Roll Angle (degrees), Angle to North (degrees), Obliquity Angle (degrees), and target Angles (Subject angles (degrees)), distance measurements (Device to Subject distance), angles (Slant Range (metres)), distances (Dimensions) , Subject Dimensions, Target Width, Sense location (Studio and Location Dimensions), object dimensions (Media Dimensions), object length (Physical Media length (metres)), image dimensions (Image Dimensions), image panning and scanning Pan and scan image dimensions, Viewport height, Viewport width, Abstract Locations, Place names and , Gazetteer used, Place Keyword, Country Codes, Described Country Code, Country code of shoot, Country code of Setting (Characterised Place), country code of copyright (Country code of Copyright License), and country code of intellectual property (Country code of IP License) ing.
[0073]
In addition, as shown as # 763 to # 825 in FIG. 32, as the data element name corresponding to the SMPTE label, the region name (Regions) in the country, the region name (Region of Object) to be drawn, and the region name of the shooting (Region of shoot), setting region code (Region of Setting (Characterised Place)), copyrighted region code (Region or area of Copyright License), and intellectual property right region code (Region or area) of IP License, Postal Address, Room Number, Street Number or Building name, Street Name, Postal Town, City Name, State (State or Province or County), Postal Code, Country, Country, Setting Address (Characterised Place), and Setting Room Number (Setting room number) and the setting lot number or Setting Street Number or Building name, Setting Street, Setting Town, Setting City, Setting State or Province or County, Setting Postal Code, Setting Country, Setting Description, Setting Description, Electronic Address, Telephone number (Telephone number), FAX number (Fax number), e-mail address (e-mail address), date and time information (Date and Time), date and time (Material Date and Time) related to itself are specified Has been.
[0074]
As data element names corresponding to the SMPTE labels, as shown as # 826 to # 858 in FIG. 33, the operation date and time (Operational Date-Time Stamps), the production date and time (Creation Date-Time stamp), and the production date and time (Creation Date-Time stamp), Last modified Date-Time stamp, Last modified Date-Time stamp, Date and time (User defined Date-Time stamp) Appropriate date and time (User defined Date-Time stamp), absolute date and time (Absolute Date and Time), production start date and time (Start Date Time), production end date and time (End Date Time), segment start date and time (Segment Start Date and Time, Segment End Date and Time, Relative Date and Time, Media Start Date Time, and Media End Date Time , Segment Start Date and Time, and Segment Segment End Date and Time, Time Interval (Material Durations), Absolute Time Interval (Absolute Durations), Content Duration (Time Duration), and Segment Duration (Segment Duration) ), Frame Count, Segment frame count, Textless black duration, Relative Durations, Relative Durations, and Segment Duration. Segment duration, film frame interval (Frame Count), segment frame interval (Segment frame count), rights date and time (Rights Date and Time), copyright date and time (Copyright Date and Time) ), IP rights date and time (IP Rights Date and Times), and license start date (License start date and time).
[0075]
In addition, as shown as # 859 to # 891 in FIG. 34 as data element names corresponding to SMPTE labels, option start date and time (Option start date and time), license end date and time (License end date and time) and Option end date and time, Rights Durations, Copyright Durations, Intellectual Property Rights (IP Rights Durations), and License Duration ( License duration), optional duration (Option duration), cataloging date and time (Cataloguing Date and Time), creation date and time (Creation Date and Time), last modified date (Last Modified), and event date and time (Event Date and Time) time, absolute date and time of the event (Absolute Date and Time), event start date and time (Absolute start times), project start date and time (Project Mission Start Date and Time), and scene start date and time (Scene Start Date and Time) Time, shooting start date and time (Shot Start Date and Time), broadcast start date and time (Broadcast Start Date and Time), absolute end times (Absolute end times), and project end date and time (Project Mission End Date and Time) ), Scene End Date and Time, Recording End Date and Time, Broadcast End Date and Time, Relative Date and Time Relative start times, Relative start times of the project, Project Mission Start Date and Time, Relative start date of the scene (Scene Start Date and Time), and Relative start date of the recording (Shot Start Date and Time, relative start date and time of broadcast (Broadcast Start and Time), relative end time and date (Relative end Times), relative end date and time of project (Project Mission End Date and Time), and relative end date and time of scene (Scene End Date and Time) and relative end date and time of recording (Shot End Date and Time) is specified.
[0076]
Also, as data element names corresponding to SMPTE labels, as shown as # 892 to # 924 in FIG. 35, the relative end date and time (Broadcast End Time) of the broadcast, event duration information (Event Durations), and absolute duration information (Absolute Durations), the absolute duration of the event (Time Duration), the relative duration (Relative Durations), the relative duration of the event (Time Duration), the editing date and time (Editing Date and Time), and the editing length (Length) Edit position (Position), start relative time (StartTime), audio fade-in length (FadeInLength), audio fade-out length (Fade Out Length), cut point standard (Cut Point), Time standard (Time), last modified date (Last Modified), final edited result ID (LastModified), final production date (Creation Time), default standard for audio soft cut (Default Fade Length), fade Inn's default Standard (Def Fade Edit Unit), event time unit standard (Event Mob Slot_Edit Rate), slot time unit standard (Timeline Mob Slot_EditRate), last modification date (Identification_Date), and slot origin (Origin ), Process Date and Time, Technical Modification Date and Time, Simple Modification Date and Time, Broadcast Date and Time, Disposition date and time, Setting Date and Time (Characterised Time Period), Keyword validity period (Time period Keyword Thesaurus), Keyword period unit (Time period Keyword), A delay period (Delay) and encoding / decoding information (Encoding / Decoding) are defined.
[0077]
As data element names corresponding to the SMPTE labels, as shown as # 925 to # 940 in FIG. 36, an encoding delay time (Encoding Delay), a decoding delay time (Decoding Delay), and a buffer delay time (Buffer Delay). ), Simultaneity information (Latency), temporary information (Temporal shape (Shuttering etc) [PLACEHOLDERS]), shutter characteristics (Shutter characteristics [placeholder]), shutter speed (Shutter speed [placeholder]), Shutter opening characteristics (Shutter Gating [placeholder]), class 14 user data (USER ORGANIZATION REGISTERED), shared registration metadata (Publicly registered user organization metadata), private metadata (Privately registered user organization metadata), Department of Defense metadata (DoD Metadata), UAV metadata (UAV Metadata), RQ1A metadata (RQ1A Metadata), and RQ1 A closed caption metadata (RQ1A Closed Caption Set) and class 15 experimental metadata (EXPERIMENTAL METADATA) are defined.
[0078]
In the program creation / distribution system 100, the essence data and the metadata are converted into the MXF file format when transmitted on the Gigabit Ethernet 1. For example, a video essence recorded on one recording medium may become one MXF file, or one MXF file may be created from one video program, and the unit of the essence is an application. It can be set freely according to.
[0079]
As shown in FIG. 37, the metadata MXF file 200 includes a preamble section 201 for describing metadata, a body 202 for describing essence data, an index section 203 including an index table, a post And an amble unit 204.
[0080]
The preamble section 201 includes a universal label 205, an allocation table 206, and an overall metadata area 207. The universal label 205 of the MXF file 200 has the same syntax structure as the universal label of KLV coding. The allocation table 206 is a table in which the allocation information of each object in the overall metadata area 207 is registered.
[0081]
The overall metadata area 207 is an area in which metadata registered in a metadata dictionary, which is a dictionary rule that incorporates a universal label standardized in SMPTE 298M as a key, is described. The Header_Object 210 is a root object and is an object for indicating each object in the overall metadata area 207. Specifically, Identification_Object 211, Master_Metadata_O0bject 212, Source_Metadata_0bject 213, and Essence_Data_Object 214 are provided in the node of Header_Object 210. Since the master essence is composed of a plurality of types of source essences, in this overall metadata area 207, the metadata regarding the master essence and the metadata regarding the source essence are expressed by different objects.
[0082]
Master_Metadata_Object 212 is an object including metadata for explaining the properties of each essence included in the MXF file 200 and a pointer for pointing to Master_Timeline_Track_Objects 215. The Master_Timeline_Track_Objects 215 is an object for defining and explaining tracks constituting the essence included in the XMF file 200 and pointing to the Master_Clip_Object 216. The track mentioned here is a unit set for each type of essence such as video and audio, and the clip is an editing clip defined by the in and out points when editing the essence. However, the unit is different from the scene. Master_Clip_Object 216 is an object that includes metadata indicating which source material is used, and includes a pointer that points to Source_Metadat_Object 213.
[0083]
Source_Metada_Object 213 is an object provided for each source essence constituting the master essence, and is an object that includes metadata about the source essence and a pointer indicating Source_Timeline_Track_Object 217. Source_Timeline_Track_0bject 217 is an object set for each track of each source essence, and includes metadata about each track and a pointer for pointing to Source_Clip_Object 218. The source_Clip_Object 218 is an object set for each clip included in each track constituting each source essence, and has metadata regarding the clip and a pointer for pointing to the Essence_Clip 219. Accordingly, Source_Clip_Object 218 is set as many as Essence_Clip 219. Essence_Clip 19 is an object that includes data of a clip constituting the essence.
[0084]
In the program creation / distribution system 100, program creation / distribution processing is performed according to the workflow shown in FIGS.
[0085]
That is, in the workflow of the program creation / distribution system 100, the pre-photographing stage (Pri-Production) process executed by the distribution program organizing system 10 is shown as a program planning process PLN. Acquisition processing ACQ is performed by the acquisition system 60 in accordance with the program creation plan prepared by, and further, material accumulation (Ingest) processing ING, editing processing EDT, CG generation (CG Creation) by the production system 20 The distribution program is created by performing the processing CGC and the audio creation processing AUC, and the created distribution program is stored by the program distribution system 50 by the program distribution processing DST and the archive system 40. ) Processing ARV is performed
[0086]
In the program creation / distribution system 100, asset management is realized by generating metadata indicating various information for each project, each medium, each scene, or each frame, and controlling the archive system 40 according to the metadata.
[0087]
The metadata generated for each project includes the subject (Main Title), subtitle (Secondary Tilte (Sub Title)), series (Senes Number), episode (Epsode), original (Original (Bock / Title)), author There is metadata indicating various information such as (Original Author / Writer), Director (Director), Rights (Rghit) and Copyright (Copyrigt).
[0088]
Further, as metadata generated for each medium, there is metadata indicating various kinds of information such as a reel (roll) number (Real Number (Roll Number) and a frame rate).
[0089]
Also, the metadata generated for each scene includes cast actors (Cast Actrot / Actoress), elements (Element), dialogue (Screen Play), scene details (Scene Description), props (Set), props (Properties) , Unit / Crew / Staff, Camera Setup Data, Lighting Info, Video Format, Audio Format, Audio Channel Assignment (Audio Channel Assiginment, Motion Capture Data, Comment, Comment, Telecine Data, Soundtrack (Music) Composer, Song Writer, Arranger ), Compositing information (Compositing Info), visual effects (Visual Effects), sound effects (Sound Effects), V-Chip information (V-Chip Info), generation (Generation (Numb er of Copy)).
[0090]
The metadata generated for each frame includes scene number, shot number, take number, OK shot / NG shot, UMID (video) ( UMID for video essence), UMID (audio) (UMID for audio essence), UMID (data) (UMID for data essence), UMID (others) (UMID for others), place (Place), GPS latitude (GPS Latitude), GPS longitude (GPS Longtude), GPS height (GPS Altitude), camera ID (Camera ID), camera lens (Camera Lenz Data), lens ID (Lenz ID), focus (Focus), zoom (Zoom), iris (Iris ), Tripod angle information (Tripod), tripod ID (Head ID), pan (Pan), tilt (Tilt), roll (Roll), dolly position information (Dolly), dolly ID (Dolly ID), arm height (Arm Various information such as Height, Position (Travel) and Closed Caption There are metadata indicating the.
[0091]
In the pre-shooting stage (Pri-Production) executed by the distribution program organization system 10, the planning process PP1, the casting process PP2, the storyboard process PP3, and the screen play process PP4. A location hunting process PP5, a scheduling process PP6, and the like are performed.
[0092]
At the stage of the planning process PP1 for examining the contents of the program, the main title, subtitle (Secondary Tilte (Sub Title)), series (Senes Number), episode (Epsode), original (Original (Bock / Title) ), Author (Original Author / Writer), Director (Director), Element (Element), Comment (Comment), Soundtrack (Music) Composer (Composer), Songwriter (Song Writer), Arranger ( Metadata indicating various types of information such as Arranger, right (Rghit), copyright (Copyrigt), and V-Chip information (V-Chip Info) is generated. Also, in the stage of the casting process PP2 for determining performers, metadata indicating various information such as casts (Cast Actrot / Actoress) and units / crew / staff (Unit / Crew / Staff) is generated. At the stage of the PP3 storyboard process that examines the contents of the program, the scene number (Scne Number), shot number (Shot Number), tool (Set), tool (Properties), video format (Video Format), frame rate ( Metadata indicating various information such as (Frame rate), audio format (Audio Format), and audio channel assignment (Audio Channel Assiginment) is generated. At the stage of the screen play process PP4 for confirming the dialogue, metadata indicating various information such as dialogue (Screen Play), scene details (Scene Description), place (Place), closed caption (Closed Caption) is generated. .
[0093]
Main title, subtitle (Secondary Tilte (Sub Title)), series (Senes Number), episode (Epsode), original (Original (Bock / Title)), author (Original Author / Writer) and director (Director) ) And the like are generated after the project and used for the casting process PP2, storyboard process PP3, screen play process PP4, location hunting process PP5 and scheduling process PP6, and recorded by the acquisition system 60. The process ACQ, the authoring process by the production system 20, the program distribution process DST by the program distribution system 50, and the program archive process ARV by the archive system 40 are used.
[0094]
Various metadata generated in the pre-shooting stage by the distribution program organization system 10 is transmitted to the archive system 40 via the Gigabit Ethernet 1 and stored in the petasite 40B of the archive system 40. The production system 20, the news system 30, the archive system 40, the program distribution system 50, and the acquisition system 60 can be fetched via the Gigabit Ethernet 1 according to various metadata stored in the petasite 40B of the archive system 40 as required. .
[0095]
Note that various metadata generated in the pre-shooting stage may be changed and rewritten in various processing stages to be described later.
[0096]
The acquisition system 60 captures metadata necessary for the recording device, that is, the imaging device, and executes the recording process ACQ.
[0097]
In the recording process ACQ executed by the acquisition system 60, the reel (roll) number (Real Number (Roll Number), scene number (Scene Number), take number (Take Number), OK shot / NG shot (OK shot / NG shot) ), UMID (video) (UMID for video essence), UMID (audio) (UMID for data essence), UMID (data) (UMID for data essence), UMID (others) (UMID for others), camera setup data (Camera Setup Data), camera ID (Camera ID), camera lens (Camera Lenz Data), lens ID (Lenz ID), focus (Focus), zoom (Zoom), iris (Iris), tripod angle information (Tripod), tripod ID Various information such as (Head ID), Pan (Pan), Tilt (Tilt), Roll (Roll), Dolly position information (Dolly), Dolly ID (Dolly ID), Arm height (Arm Height) and Position (Travel) Is generated.
[0098]
Various metadata generated in the recording process stage by the acquisition system 60 is supplied to the production system 20 together with video information and audio information obtained by recording.
[0099]
In the production system 20, ingesting processing PR1, telecine processing PR2, dupe processing PR3, coarse editing (Off-line Edit processing) PR4, full editing processing PR5, voice over ( A voice over process PR6, a sound effect process PR7, a voice sweetening process PR8, a CG generation process CG9 and a finishing process PR10 are performed.
[0100]
In the ingesting process PR1 in the production system 20, various metadata generated in the recording process stage by the acquisition system 60 are stored together with video information and audio information. In the telecine process PR2, video information and audio information recorded on the film obtained by the acquisition system 60 is converted into a television signal. In the coarse editing (Off-line Edit) process PR4, the video data and the audio data (material data) are edited based on the information about the material added as metadata, and the meta data based on the editing result. An EDL (Editing Decision List) that is data is created. Here, the editing result indicates information relating to the editing point in which the IN point and OUT point on the recording medium are represented by a Reel Number or a time code. In the stage of the complete editing process PR5, the materials accumulated by the ingesting process PR1 and the telecine process PR2 are roughly edited (Off-line) based on the contents determined at the time of planning. Edit) This editing is performed using the EDL created by the process PR4. Further, in the finishing process PR9, the distribution program is completed by using the video data and audio data that have been subjected to the main editing by the above-mentioned complete editing process PR5 and the audio material that has undergone the voice over process PR6. To do. At this time, a CG image created by a CG creation process (CG Creation) or a material stored in the archive system 40 may be used.
[0101]
In the program distribution system 50, an authoring process for distributing the distribution program completed by the finishing process PR9 as a package cage medium, and the distribution program is distributed via a wireless network or a wired network. Perform the distribution process.
[0102]
In the program creation / distribution system 100 having such a configuration, for example, the subject matter at the stage of the planning process PP1 and the casting process PP2 in the pre-photographing stage (Pri-Production) executed by the distribution program organization system 10 is performed. (Main Title), Subtitle (Secondary Tilte (Sub Title)), Series (Senes Number), Episode (Epsode), Original (Original (Bock / Title)), Author (Original Author / Writer), Director (Director), The metadata such as the composer, composer, song writer, and arranger of the soundtrack (SoundTrack (Music)) is input by a computer or a portable terminal, and the input metadata is input by the above acquisition system 60. A stage of the off-line edit process PR4 in the production system 20 by supplying the production system 20 with the video information and audio information obtained by recording. In this case, it is possible to specify the timing of the stuff roll and automatically generate a character according to the metadata included with the video information and audio information in accordance with the specified timing, and perform the complete editing process PR5. .
[0103]
In this program creation / distribution system 100, the archive system 40 constructs a database for centrally managing metadata together with the essence of video data, audio data, etc., and the distribution program organization system 10 performs planning processing PP1 and casting ( Casting) When the metadata input at the stage of PP2 is registered in the database centrally managed by the archive manager 40A of the archive system 40, a tag indicating the registered metadata is issued, and this tag is the acquisition. It is bundled with video information and audio information obtained by recording by the system 60. In the production system 20, the timing at which the staff roll is flown at the stage of the coarse editing (Off-line Edit) process PR 4 in the production system 20 is specified, and the tag bundled with the video information and the audio information is pointed according to the specified timing. Metadata is extracted from the database to be processed, characters corresponding to this are automatically generated, and the complete editing process PR5 can be performed.
[0104]
That is, in the program creation / distribution system 100, a support system for automatically generating a staff roll character using metadata can be constructed.
[0105]
In the program creation / distribution system 100, GPS data indicating the recording location, position, and time is input as metadata by, for example, GPS (Grobal Positioning System) at the stage of acquisition (ACQ) by the acquisition system 60. The input metadata is bundled with video information and audio information obtained by recording by the acquisition system 60 and supplied to the production system 20, thereby performing a rough editing (Off-line Edit) process in the production system 20. In the PR4 stage, the editor can perform time distribution of programs without being aware of the existence of GPS data. Further, in the stage of CG creation (CG creation) processing PR9, a search is performed from a database showing a map prepared separately by using tag data representing a position and time bundled with video information and audio information. A map graphic is output, and a program using the map graphic can be completed by a complete editing process PR5.
[0106]
Also in this case, as in the case of automatically generating the character, CG generation (CG) is performed by registering metadata indicating the position and time in a database centrally managed by the archive manager 40A of the archive system 40. Creation) process PR9 can also be supported.
[0107]
That is, in this program creation / distribution system 100, it is possible to construct a support system for performing CG generation by matching the GPS data with the map data using metadata.
[0108]
Here, when content is created using a VTR, a large amount of material video tape is generated during recording. For example, in the case of producing a 30-minute document, usually about 50 to 100 material tapes are generated, and a content is created by selecting a necessary cut from these and joining them together.
[0109]
Therefore, in this program creation / distribution system 100, UMID for video essence (UMID for video essence) and UMID reminiscent of the content recorded in the material tape at the stage of the acquisition (ACQ) processing by the acquisition system 60. (UMID for audio essence), UMID (data) (UMID for data essence), UMID (others) (UMID for others), reel (roll) number (Real Number (Roll Number), tape ID (Tape ID) , Tape ID Number, Object ID, Object Title, Main Title, Subtitle (Secondary Tilte (Sub Title)), Series (Senes Number), Episode (Epsode), Essence Metadata (Metadata to Essence) ), Locators, Essence Description, etc., metadata is recorded together with video and audio information. The system 20 reads out the metadata at the time of playback, and can quickly search for a necessary cut from the material tape using the read metadata as a clue. The metadata of items to be associated is bundled with video information and audio information and recorded in synchronization with video frames, recorded on electronic labels on individual video tapes, or from several tens to several hundreds Are recorded on an external storage medium that can be managed and managed together.
[0110]
That is, in the program creation / distribution system 100, it is possible to construct a support system that saves the tape screening work by using metadata.
[0111]
Further, in the program creation / distribution system 100, in the telecine processing PR2 executed in the production system 20, the vertical rate, the frame rate, the total number of lines / frame (Total Lines per Frame) ), Active Lines per Frame, Aspect Ratio (Display Aspect Ratio), Image Aspect Ratio (ImageAspectRatio), Storage Height (Stored Height), Storage Width (Stored Width), and Sample Height (Sampled) Height, sample width (Sampled Width), sample X offset (SampledX Offset), sample Y offset (SampledY Offset), display height (Display Height), display width (Display Width), display X offset (DisplayX Offset) And metadata of items related to telecine, such as video signal characteristics (Video Coding Characteristics), and video information and audio information. As a result, in the complete editing process PR5, after editing work such as length adjustment, the trimming position of the output is calculated using the metadata recorded in accordance with the output format to obtain the output. be able to.
[0112]
In the program creation / distribution system 100, the essence data and the metadata are converted to the MXF file format when transmitted over the Gigabit Ethernet 1, and the editing work by the production system 20 is accompanied by the editing work. The status of the used material is described in the header information as a history. The origin of the content can be known from this header information. As described above, for example, Clip_Object refers to a scene or a cut as a clip, and indicates the time length and time code of the start position. A content is an aggregate of clips, and a time code that is a candidate for a chapter can be known by searching information indicated by a clip in order from the earliest in time. Since the final number of chapter points is smaller than the number of clip change points, all of the chapters can be determined by selecting necessary ones from those listed as candidates.
[0113]
Therefore, in the program creation / distribution system 100, when the content created by the production system 20 is distributed by media such as DVD and LD, the authoring system 52 uses the MFX for the package that has been edited by the production system 20. Search the file header to list the candidate chapter points, view only the candidate before and after, select only the desired chapter points, and distribute the above content on media such as DVD and LD Format conversion, that is, authoring processing. That is, in the authoring system 52, the authoring process of the edited video program is performed from the metadata indicating the logical structure of the video program.
[0114]
In addition, in this program creation / distribution system 100, rights, rights, copyrights, intellectual rights, owners, payments and costing information about performers for each scene. By logging such information and recording it as metadata at the same time, it is possible to trace when a clip is cut out.
[0115]
【The invention's effect】
According to the present invention, Data describing the essence, multiple metadata each identified by the SMPTE (Society of Motion Picture and Television Engineers) label is generated, the preamble part for describing the metadata, and the essence data are described The index part including the index table including the index table and the postamble part is an area where the universal label, the allocation table, and metadata including the universal label as a key are described. It consists of an overall metadata area, and the allocation table transmits the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered, In addition to producing the essence, the essence and the metadata can be associated and stored in a recording medium, and the project can be efficiently produced from the essence using the metadata generated during pre-production.
[0116]
Moreover, according to the present invention, Data describing the essence, multiple metadata each identified by the SMPTE (Society of Motion Picture and Television Engineers) label is generated, the preamble part for describing the metadata, and the essence data are described The index part including the index table including the index table and the postamble part is an area where the universal label, the allocation table, and metadata including the universal label as a key are described. It consists of an overall metadata area, and the allocation table transmits the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered, In addition to producing the essence, the essence and the metadata are associated with each other on a recording medium. Remember, By using the metadata generated during pre-production, the project can be efficiently produced from the essence by controlling the post-production operation for producing the project from the essence.
[0117]
Furthermore, according to the present invention, Data describing the essence, multiple metadata each identified by the SMPTE (Society of Motion Picture and Television Engineers) label is generated, the preamble part for describing the metadata, and the essence data are described The index part including the index table including the index table and the postamble part is an area where the universal label, the allocation table, and metadata including the universal label as a key are described. It consists of an overall metadata area, and the allocation table transmits the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered, In addition to producing the essence, the essence and the metadata are stored in association with a recording medium, and the post-production operation for creating the project from the essence is performed in association with the metadata generated during pre-production. Makes it possible to produce projects efficiently from the essence.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram showing a configuration of a program creation / distribution system to which the present invention is applied.
FIG. 2 is a system configuration diagram showing a configuration of a production system in the program creation / distribution system.
FIG. 3 is a diagram schematically showing a data structure of an SDI format.
FIG. 4 is a diagram schematically showing a data structure of an SDTI format.
FIG. 5 is a diagram schematically showing a data structure of an SDTI-CP format.
FIG. 6 is a diagram schematically illustrating a data structure of a KLV format.
FIG. 7 is a diagram schematically showing a data structure of UMID.
FIG. 8 is a diagram showing the contents of a metadata dictionary that is a dictionary definition in which a universal label standardized in SMPTE298M is taken as a key.
FIG. 9 is a diagram showing the contents of a metadata dictionary.
FIG. 10 is a diagram showing the contents of a metadata dictionary.
FIG. 11 is a diagram showing the contents of a metadata dictionary.
FIG. 12 is a diagram showing the contents of a metadata dictionary.
FIG. 13 is a diagram showing the contents of a metadata dictionary.
FIG. 14 is a diagram showing the contents of a metadata dictionary.
FIG. 15 is a diagram showing the contents of a metadata dictionary.
FIG. 16 is a diagram showing the contents of a metadata dictionary.
FIG. 17 is a diagram showing the contents of a metadata dictionary.
FIG. 18 is a diagram showing the contents of a metadata dictionary.
FIG. 19 is a diagram showing the contents of a metadata dictionary.
FIG. 20 is a diagram showing the contents of a metadata dictionary.
FIG. 21 is a diagram showing the contents of a metadata dictionary.
FIG. 22 is a diagram showing the contents of a metadata dictionary.
FIG. 23 is a diagram showing the contents of a metadata dictionary.
FIG. 24 is a diagram showing the contents of a metadata dictionary.
FIG. 25 is a diagram showing the contents of a metadata dictionary.
FIG. 26 is a diagram showing the contents of a metadata dictionary.
FIG. 27 is a diagram showing the contents of a metadata dictionary.
FIG. 28 is a diagram showing the contents of a metadata dictionary.
FIG. 29 is a diagram illustrating the contents of a metadata dictionary.
FIG. 30 is a diagram showing the contents of a metadata dictionary.
FIG. 31 is a diagram showing the contents of a metadata dictionary.
FIG. 32 is a diagram showing the contents of a metadata dictionary.
FIG. 33 is a diagram showing the contents of a metadata dictionary.
FIG. 34 is a diagram showing the contents of a metadata dictionary.
FIG. 35 is a diagram showing the contents of a metadata dictionary.
FIG. 36 is a diagram showing the contents of a metadata dictionary.
FIG. 37 is a diagram showing the contents of a metadata dictionary.
FIG. 38 is a diagram schematically showing a configuration of an asset management system together with a processing procedure of program creation / distribution work in the program creation / distribution system.
FIG. 39 is a flowchart showing a processing procedure of program creation / distribution work in the program creation / distribution system;
[Explanation of symbols]
100 program creation and distribution system, 1 gigabit Ethernet, 10 distribution program organization system, 20 production system, 21 recording management system, 22 production management system, 22A device controller, 22B A / V server, 23 ingest system, 23A playback device, 23B Telecine device, 23C ingest client 23C, 24 coding system, 24A coding controller, 24B MPEG encoder, 24C MPEG decoder 24C, 25 editing / processing system, 25A offline editing device, 25B online editing device, 25C video processing device, 25D audio processing Equipment, 26 CG Creation System, 30 News System, 40 Archive System, 40A Arca Bed manager, 40B petasite, 50 program distribution system, 51 server controller, 52 authoring system, 53 Web system 54 on-air server 55 routing switch, 60 the acquisition system

Claims (6)

エッセンスからプロジェクトを制作するプロダクションシステムにおいて、
上記エッセンスに関するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成する手段と、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして上記複数のメタデータを伝送する手段とを有し、上記エッセンスを説明するメタデータを生成するプリプロダクションと、
上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するプロダクションと、
上記プリプロダクション時に生成されたメタデータを利用して、上記エッセンスから上記プロジェクトを制作するポストプロダクションと
を備えたプロダクションシステム。
In a production system that creates projects from the essence,
Data relating to the essence, including means for generating a plurality of metadata each identified by a SMPTE (Society of Motion Picture and Television Engineers) label, a preamble part for describing the metadata, and essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. A means for transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. Anda pre-production for generating metadata that describes the essence,
Producing the essence, and storing the essence and the metadata in a recording medium in association with each other;
A production system comprising: post-production that produces the project from the essence using the metadata generated during the pre-production.
エッセンスからプロジェクトを制作するプロダクションシステムにおいて、
上記エッセンスに関するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成する手段と、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして上記複数のメタデータを伝送する手段とを有し、上記エッセンスを説明するメタデータを生成するプリプロダクションと、
上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するプロダクションと、
上記エッセンスから上記プロジェクトを制作するポストプロダクションとを備え、
上記プリプロダクション時に生成されたメタデータを使用して、上記ポストプロダクションのオペレーションをコントロールする
ことを特徴とするプロダクションシステム。
In a production system that creates projects from the essence,
Data relating to the essence, including means for generating a plurality of metadata each identified by a SMPTE (Society of Motion Picture and Television Engineers) label, a preamble part for describing the metadata, and essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. A means for transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. Anda pre-production for generating metadata that describes the essence,
Producing the essence, and storing the essence and the metadata in a recording medium in association with each other;
With post production to produce the project from the essence,
A production system characterized by controlling the operation of the post-production using the metadata generated during the pre-production.
エッセンスからプロジェクトを制作するプロダクションシステムにおいて、
上記エッセンスに関するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成する手段と、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして上記複数のメタデータを伝送する手段とを有し、上記エッセンスを説明するメタデータを生成するプリプロダクションと、
上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するプロダクションと、
上記エッセンスから上記プロジェクトを制作するポストプロダクションとを備え、上記プリプロダクション時に生成されたメタデータと関連付けて、上記ポストプロダクションのオペレーションが行われる
ことを特徴とするプロダクションシステム。
In a production system that creates projects from the essence,
Data relating to the essence, including means for generating a plurality of metadata each identified by a SMPTE (Society of Motion Picture and Television Engineers) label, a preamble part for describing the metadata, and essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. A means for transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. Anda pre-production for generating metadata that describes the essence,
Producing the essence, and storing the essence and the metadata in a recording medium in association with each other;
And a post-production that creates the project from the essence, and the post-production operation is performed in association with the metadata generated during the pre-production.
エッセンスからプロジェクトを制作するプロダクション方法において、
上記エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送するステップと、
上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するステップと、
プリプロダクション時に生成されたメタデータを利用して、上記エッセンスから上記プロジェクトを制作するステップと
を有するプロダクション方法。
In the production method of creating a project from the essence,
Data describing the above essence, and a plurality of metadata, each identified by an SMPTE (Society of Motion Picture and Television Engineers) label, is generated, a preamble part for describing the metadata, and an essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. And a step of transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. ,
Producing the essence and associating the essence with the metadata and storing them in a recording medium ;
Using the metadata generated during pre-production to create the project from the essence ;
Production methods having.
エッセンスからプロジェクトを制作するプロダクション方法において、
上記エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送するステップと、
上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するステップと、
プリプロダクション時に生成されたメタデータを使用して、上記エッセンスから上記プロジェクトを制作するポストプロダクションのオペレーションをコントロールするステップと
を有するプロダクション方法。
In the production method of creating a project from the essence,
Data describing the above essence, and a plurality of metadata, each identified by an SMPTE (Society of Motion Picture and Television Engineers) label, is generated, a preamble part for describing the metadata, and an essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. And a step of transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. ,
Producing the essence and associating the essence with the metadata and storing them in a recording medium ;
Using metadata generated during pre-production to control post-production operations that produce the project from the essence ;
Production methods having.
エッセンスからプロジェクトを制作するプロダクション方法において、
上記エッセンスを説明するデータであって、SMPTE(Society of Motion Picture and Television Engineers)ラベルによって夫々が同定されている複数のメタデータを生成し、メタデータを記述するためのプリアンブル部と、エッセンスデータを記述するための本体と、インデックステーブルを含んだインデックス部と、ポストアンブル部から構成され、上記プリアンブル部は、ユニバーサルラベルとアロケーションテーブルと、ユニバーサルラベルをキーに取り込んだメタデータが記述されるエリアであるオーバーオールメタデータエリアとからなり、上記アロケーションテーブルには、上記オーバーオールメタデータエリア内の各オブジェクトのアロケーション情報が登録されているデータファイルとして、上記複数のメタデータを伝送するステップと、
上記エッセンスを制作するとともに、上記エッセンスと上記メタデータを関連付けて記録媒体に記憶するステップと、
プリプロダクション時に生成されたメタデータと関連付けて、上記エッセンスから上記プロジェクトを制作するポストプロダクションのオペレーションを行うステップと
を有するプロダクション方法。
In the production method of creating a project from the essence,
Data describing the above essence, and a plurality of metadata, each identified by an SMPTE (Society of Motion Picture and Television Engineers) label, is generated, a preamble part for describing the metadata, and an essence data It consists of a main body for description, an index part including an index table, and a postamble part. The preamble part is an area where a universal label, an allocation table, and metadata including a universal label as a key are described. And a step of transmitting the plurality of metadata as a data file in which the allocation information of each object in the overall metadata area is registered in the allocation table. ,
Producing the essence and associating the essence with the metadata and storing them in a recording medium ;
Performing post-production operations to create the project from the essence in association with the metadata generated during pre-production ;
Production methods having.
JP2000113280A 2000-04-10 2000-04-10 Production system and production method Expired - Fee Related JP4433559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000113280A JP4433559B2 (en) 2000-04-10 2000-04-10 Production system and production method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000113280A JP4433559B2 (en) 2000-04-10 2000-04-10 Production system and production method

Publications (2)

Publication Number Publication Date
JP2001292414A JP2001292414A (en) 2001-10-19
JP4433559B2 true JP4433559B2 (en) 2010-03-17

Family

ID=18625273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000113280A Expired - Fee Related JP4433559B2 (en) 2000-04-10 2000-04-10 Production system and production method

Country Status (1)

Country Link
JP (1) JP4433559B2 (en)

Also Published As

Publication number Publication date
JP2001292414A (en) 2001-10-19

Similar Documents

Publication Publication Date Title
US8296801B2 (en) Asset management system and asset management method
JP4711379B2 (en) Audio and / or video material identification and processing method
US7702219B2 (en) Audio and/or video generation apparatus and method of generating audio and/or video signals
JP4613390B2 (en) Image processing apparatus and image processing method
JP4433566B2 (en) Production system, asset management system and archive system, production method, asset management method and archive method
JP4240757B2 (en) Production system and control method thereof
JP4433559B2 (en) Production system and production method
GB2361097A (en) A system for generating audio/video productions
JP4407011B2 (en) Production system and control method thereof
JP4846892B2 (en) Image processing system and material storage method
JP2001298701A (en) Authoring system and authoring method
JP2001292397A (en) Production system and production method
JP4613389B2 (en) Image processing apparatus and image processing method
JP2001298697A (en) Production system and production method
JP2001298696A (en) Production system and production method
JP2001298682A (en) Production system and its method
GB2361096A (en) Metadata generation in audio or video apparatus
JP2001297569A (en) Asset management system and asset management method
JP2001298700A (en) Archive system and archive method
JP2001298638A (en) Method and system for distribution
JP2001298692A (en) System and method for asset management
GB2362254A (en) Identifying material

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees