JP2005004851A - Information preparation device and method, and program - Google Patents

Information preparation device and method, and program Download PDF

Info

Publication number
JP2005004851A
JP2005004851A JP2003165834A JP2003165834A JP2005004851A JP 2005004851 A JP2005004851 A JP 2005004851A JP 2003165834 A JP2003165834 A JP 2003165834A JP 2003165834 A JP2003165834 A JP 2003165834A JP 2005004851 A JP2005004851 A JP 2005004851A
Authority
JP
Japan
Prior art keywords
data
file
clip
control information
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003165834A
Other languages
Japanese (ja)
Other versions
JP3833192B2 (en
Inventor
Hideki Ando
秀樹 安藤
Masaki Hirose
正樹 広瀬
Takayoshi Kawamura
尊良 河村
Hideaki Mita
英明 三田
Hiroshi Saito
浩 齋藤
Tatsuji Sakauchi
達司 坂内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Panasonic Holdings Corp
Original Assignee
Sony Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Matsushita Electric Industrial Co Ltd filed Critical Sony Corp
Priority to JP2003165834A priority Critical patent/JP3833192B2/en
Priority to PCT/JP2004/008507 priority patent/WO2004112034A1/en
Publication of JP2005004851A publication Critical patent/JP2005004851A/en
Application granted granted Critical
Publication of JP3833192B2 publication Critical patent/JP3833192B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/215Recordable discs
    • G11B2220/216Rewritable discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/21Disc-shaped record carriers characterised in that the disc is of read-only, rewritable, or recordable type
    • G11B2220/215Recordable discs
    • G11B2220/218Write-once discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2525Magneto-optical [MO] discs
    • G11B2220/2529Mini-discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • G11B2220/2575DVD-RAMs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable reproduction of data in real time, especially. <P>SOLUTION: An edit list editing part prepares an edit list 301 indicating an edit result. A play list making part prepares a play list based on the edit list. In the edit list 301, a clip information file 321 controlling an image data file 323 and a voice data file 324 is specified as a reproduction object. In the play list 302, the image data file 323, the voice data file 324, and a bridge essence 331 are specified as the reproduction object. this device can be adapted to a device for edition. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、情報作成装置および方法、並びにプログラムに関し、特に、AV(Audio Visual)データのリアルタイムでの再生を行うことができるようにした情報作成装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
近年、データの書き込みや消去を繰り返し行うことができるCD−RW(Compact Disk−ReWritable)、DVD−RW(Digital Versatile Disc−ReWritable)などの記録媒体が、その低価格化に伴い普及しつつある。
【0003】
また、記録媒体に記録されたAVデータに対する編集操作を示す編集リスト(エディットリスト)を、記録媒体に記録することにより、AVデータの非破壊編集を行う編集装置が提案されている(例えば、特許文献1)。
【0004】
そして、非破壊編集されたAVデータは、編集リストにしたがって、記録媒体から読み出されることにより再生される。
【0005】
【特許文献1】
特開平11−88821号公報
【0006】
【発明が解決しようとする課題】
しかしながら、編集リストは、編集操作を記述したものであり、AVデータの再生時を考慮して作成されるものではないため、AVデータをリアルタイムで再生することができないことがあった。
【0007】
本発明は、このような状況に鑑みてなされたものであり、AVデータのリアルタイムでの再生を可能とすることができるようにするものである。
【0008】
【課題を解決するための手段】
本発明の情報作成装置は、データを管理する管理ファイルを再生対象として指定する第1の再生制御情報を取得する再生制御情報取得手段と、再生制御情報取得手段により取得した第1の再生制御情報に基づいて、データから構成されるファイルを再生対象として指定する第2の再生制御情報を作成する作成手段とを備えることを特徴とする。
【0009】
第1の再生制御情報には、データに対して設定された編集点が記述されており、再生装置が、編集点に基づく編集結果であるデータをリアルタイムで再生することができるか否かを判定する判定手段と、判定手段により、再生装置が、編集結果であるデータをリアルタイムで再生することができないと判定された場合、編集点が設定された所定の範囲のデータを再配置する再配置手段とをさらに備え、作成手段は、再配置手段により再配置されたデータから構成されるファイルをも再生対象として指定する第2の再生制御情報を作成することを特徴とする。
【0010】
本発明の情報作成方法は、データを管理する管理ファイルを再生対象として指定する第1の再生制御情報を取得する再生制御情報取得ステップと、再生制御情報取得ステップの処理により取得した第1の再生制御情報に基づいて、データから構成されるファイルを再生対象として指定する第2の再生制御情報を作成する作成ステップとを含むことを特徴とする。
【0011】
本発明のプログラムは、データを管理する管理ファイルを再生対象として指定する第1の再生制御情報を取得する再生制御情報取得ステップと、再生制御情報取得ステップの処理により取得した第1の再生制御情報に基づいて、データから構成されるファイルを再生対象として指定する第2の再生制御情報を作成する作成ステップとを備えることを特徴とする。
【0012】
本発明においては、データを管理する管理ファイルを再生対象として指定する第1の再生制御情報が取得され、その第1の再生制御情報に基づいて、データから構成されるファイルを再生対象として指定する第2の再生制御情報が作成される。
【0013】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
【0014】
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
【0015】
請求項1に記載の情報作成装置は、所定のデータを再生する再生装置に提供される情報を作成する情報作成装置(例えば、図1の編集用端末装置66)において、前記データを管理する管理ファイル(例えば、図4のクリップインフォメーションファイル151)を再生対象として指定する第1の再生制御情報(例えば、エディットリスト)を取得する再生制御情報取得手段(例えば、図8のステップS21の処理を実行する図2のプレイリスト作成部86)と、前記再生制御情報取得手段により取得した前記第1の再生制御情報に基づいて、前記データから構成されるファイル(例えば、図4の画像データファイル152)を再生対象として指定する第2の再生制御情報(例えば、プレイリスト)を作成する作成手段(例えば、図8のステップS27の処理を実行する図2のプレイリスト作成部86)とを備えることを特徴とする。
【0016】
請求項2に記載の情報作成装置は、前記第1の再生制御情報には、前記データに対して設定された編集点が記述されており、前記再生装置が、前記編集点に基づく編集結果である前記データをリアルタイムで再生することができるか否かを判定する判定手段(例えば、図8のステップS24の処理を実行する図2のプレイリスト作成部86)と、前記判定手段により、前記再生装置が、前記編集結果である前記データをリアルタイムで再生することができないと判定された場合、前記編集点が設定された所定の範囲のデータを再配置する再配置手段(例えば、図8のステップS25の処理を実行する図2のプレイリスト作成部86)とをさらに備え、前記作成手段は、前記再配置手段により再配置された前記データから構成されるファイルをも再生対象として指定する第2の再生制御情報を作成する(例えば、図8のステップS28の処理)ことを特徴とする。
【0017】
請求項3に記載の情報作成方法は、所定のデータを再生する再生装置に提供される情報を作成する情報作成装置(例えば、図1の編集用端末装置66)の情報作成方法において、前記データを管理する管理ファイル(例えば、図4のクリップインフォメーションファイル151)を再生対象として指定する第1の再生制御情報(例えば、エディットリスト)を取得する再生制御情報取得ステップ(例えば、図8のステップS21)と、前記再生制御情報取得ステップの処理により取得した前記第1の再生制御情報に基づいて、前記データから構成されるファイル(例えば、図4の画像データファイル152)を再生対象として指定する第2の再生制御情報(例えば、プレイリスト)を作成する作成ステップ(例えば、図8のステップS27)とを含むことを特徴とする。
【0018】
請求項4に記載のプログラムの各ステップの具体例も、請求項3に記載の情報作成方法の各ステップの発明の実施の形態における具体例と同様である。
【0019】
図1は、本発明を適用した映像プログラム制作支援システムの構成例を示す図である。
【0020】
図1において、映像プログラム制作支援システム51は、例えば、テレビジョン信号を放送するテレビジョン放送局や、ビデオや映画等の映像コンテンツの制作会社等において設けられるシステムであり、テレビジョン番組や映画等の映像作品である映像プログラムを制作するためのシステムである。また、映像プログラム制作支援システム51は、映像プログラムの制作を分担する複数の部署間で、電子ファイル形式で構成される、映像プログラムに付加されたメタデータ等を一貫して利用できるようにし、映像プログラムを効率よく作成するためのシステムである。
【0021】
映像プログラム制作支援システム51は、図1に示されるように、映像プログラムの企画を行う企画用端末装置61、企画用端末装置61が接続されたネットワーク62、ネットワーク62に接続された取材用端末装置63、取材用端末装置63を構成する撮像装置64およびフィールドPC/PDA(Personal Computer/Personal Digital Assistants)65(以下、フィールドPC65と称する)、同様に、ネットワーク62に接続される編集用端末装置66、並びに、記録媒体である光ディスク67により構成される。
【0022】
企画用端末装置61は、例えば、パーソナルコンピュータ等の情報処理装置およびその周辺装置等により構成され、映像プログラムの企画が行われる企画構成部署等に設けられる。この企画構成部署は、映像プログラムの制作全体を統括する部署であり、制作する映像プログラムの企画および構想を行って、映像プログラムのシナリオ(筋書き)を作成するとともに、後述する取材部署および編集部署等の他部署に制作作業内容を指示する部署である。企画用端末装置61は、例えば、映像プログラムのシナリオに対応する政策指示情報等を含む、電子ファイル形式の構成表メタデータを映像プログラム毎に作成する等の処理を行う。企画用端末装置61は、生成した構成表メタデータを、ネットワーク62を介して取材用端末装置63等に供給する。これにより、企画構成部署は、取材部署等に対して、取材または撮影すべき場面や内容の指示を行う。
【0023】
取材用端末装置63は、取材を行う取材部署によって用いられる端末装置群であり、例えば、撮像装置64とフィールドPC65により構成される。この取材部署は、例えば、企画構成部署からの制作指示やシナリオにしたがって、制作現場で実際に取材を行う部署であり、映像プログラムを構成する各場面の映像を撮影するとともに、撮影状況を取材する部署である。
【0024】
撮像装置64は、例えば、カムコーダ(登録商標)等のビデオカメラであり、放送用のニュース番組の取材や、スポーツ等の試合の模様、映画などの映像コンテンツの撮影に使用される装置である。この撮像装置64は、ネットワーク62に接続されており、例えば、上述した企画用端末装置61から、ネットワーク62を介して構成表メタデータを取得する。そして、撮像装置64は、その取得した構成表メタデータを所定の表示部等に表示し、カメラマン等の撮影スタッフに撮影すべき内容を認識させる。また、撮像装置64は、撮影スタッフに操作され、取得した構成表メタデータの制作指示情報に基づいて、映像プログラムを構成する各場面の撮影(撮像)を行う。そして、撮影により得られた画像(映像)データや音声データを光ディスク67等の記録媒体に記録する。
【0025】
また、撮像装置64は、例えば、撮像により得られた画像データであるオリジナルの画像データだけでなく、ローレゾリューション(low resolution:低解像度)画像データ(以下、ローレゾデータと称する)を光ディスク67に記録することができる。オリジナルの画像データは、データ量が大きいが、高画質な画像データであるので、映像プログラムの完成品に用いられる。一方、ローレゾデータは、例えば、オリジナルの画像データから各フレームの画素数が間引かれること等によって生成された、画素数の少ないフレームの画像に対応する画像データである。
【0026】
また、ローレゾデータは、さらに、例えば、MPEG4(Moving Picture Experts Group phase 4)方式等でエンコードされているようにしてもよい。このローレゾデータは、オリジナルの画像データと比較して低画質であるが、データ量が小さいので、送信や再生など処理の負荷が軽く、主に粗編集処理等に利用される。
【0027】
撮像装置64により、画像データや音声データ等が記録された光ディスク67は、例えば、後述する編集部署やフィールドPC65等に搬送され、利用される。しかしながら、光ディスク67の搬送にはある程度の時間を要するため、撮像装置64は、ネットワーク62を介して、企画用端末装置61、フィールドPC65、または編集端末装置66等に、撮影された画像データや音声データを供給できるようにしてもよい。その場合、撮像装置64は、転送時間を短縮するために(転送処理の負荷を軽減するために)、撮像により得られた画像データの代わりに、その画像データに対応する、データ量の小さいローレゾデータを供給するようにするのが望ましい。
【0028】
なお、撮像装置64によるローレゾデータの転送処理は、どのようなタイミングで行うようにしてもよく、撮像処理と並行して行うようにしてもよいし、撮像処理の終了後に一括して行うようにしてもよい。
【0029】
このように、光ディスク67の搬送に先駆けて、ローレゾデータを転送することにより、編集部署は、搬送された光ディスク67が到着していなくても、比較的早い段階で(例えば、撮像処理と同時並行して)、編集作業を行うことができるので、映像プログラムの制作効率を高めることができる。なお、上述のように、ローレゾデータがネットワーク62を介して伝送される場合、撮像装置64は、例えば、オリジナルの画像データや音声データのみを光ディスク67に記録するようにしてもよい(ローレゾデータを光ディスク67に記録しないようにしてもよい)。
【0030】
なお、撮像装置64が映像コンテンツ等を記録する記録媒体としては、上述した光ディスク67の例に限定されず、どのような記録媒体であってもよい。例えば、MD(Mini−Disc)(登録商標)やMO(Magneto Optical disk)を含む光磁気ディスク、フレキシブルディスクを含む磁気ディスク、DV(Digital Video)やVHS(Video Home System)に用いられる磁気テープ、フラッシュメモリ等を含む半導体メモリ等であってもよい。
【0031】
フィールドPC65は、例えば、ノート型パーソナルコンピュータやPDA等の携帯可能な情報処理装置および周辺装置などで構成される。このフィールドPC65は、撮像装置64と各種の有線または無線回線等により接続されており、例えば、構成表メタデータ、画像データ、および音声データなどを撮像装置64と共有することができる。
【0032】
フィールドPC65は、例えば、ネットワーク62を介して、企画用端末装置61から構成表メタデータを取得したり、撮像装置64から構成表メタデータを取得したりする。フィールドPC65は、取得した構成表メタデータを所定の表示部に表示し、取材部署担当者に取材、撮影すべき内容を認識させる。
【0033】
さらに、フィールドPC65は、ユーザである取材部署担当者の入力に基づいて、取材・撮影状況に関する情報である撮影状況情報を生成し、生成した撮影状況情報を構成表メタデータ内の該当欄に追加する。このように、フィールドPC65は、撮影状況情報を構成表メタデータ内の該当欄に追加することにより、構成表メタデータを編集する。この撮影状況情報は、例えば、テイクごとや取材場所ごとに多様な観点で記載されたテキストデータ等であり、後段の編集処理時に有用となる情報である。また、フィールドPC65は、撮影状況情報をメタデータとして撮像装置64に供給し、撮像装置64において得られた画像データや音声データに付加させる。
【0034】
編集用端末装置66は、例えば、パーソナルコンピュータ等の情報処理装置および周辺装置により構成され、画像データや音声データの編集処理を行う編集部署に設けられる。編集部署は、企画構成部署による制作指示やシナリオ、取材部署における取材状況を反映した構成表メタデータ等に基づいて、撮像装置64により得られた画像データや音声データを編集し、映像プログラムを完成させる部署である。
【0035】
編集用端末装置66は、例えば、撮像装置64から、ネットワーク62を介して、構成表メタデータやローレゾデータを取得する。また、編集用端末装置66は、撮像装置64において画像データや音声データが記録された光ディスク67より、オリジナルの画像データや音声データを取得する。さらに、編集用端末装置66は、企画用端末装置61またはフィールドPC65等より、ネットワーク62を介して、直接制作指示(編集に関する指示)を取得することも可能である。
【0036】
編集用端末装置66は、取得した構成表メタデータに基づいて、画像データや音声データを好適に再生して表示する。例えば、編集用端末装置66は、ユーザに操作され、ネットワーク62を介して取得したローレゾデータや、光ディスク67に記録されているオリジナルの画像データや音声データを、シナリオにしたがった順序で連続的に表示したり、所望のクリップの画像データのみを表示したりする。なお、光ディスク67に記録されているオリジナルの画像データを再生する場合、編集用端末装置66は、例えば、光ディスク67に記録されているデータを読み出したり、光ディスク67にデータを書き込んだりする記録再生装置であるディスク装置等を利用する。
【0037】
また、編集用端末装置66は、例えば、構成表メタデータに基づいて必要な画像データ等を好適な順序で再生し、表示するだけでなく、取材により得られた画像データ等の編集処理を行う。この編集処理としては、粗編集処理と本編集処理がある。
【0038】
粗編集処理は、画像データや音声データに対する簡易的な編集処理である。例えば、編集用端末装置66は、粗編集処理において、例えば、1回の撮像処理を示す単位であるクリップに対応するクリップデータを複数取得した場合に、それらのクリップデータの中から、本編集で使用すべきクリップデータを選択し、選択されたクリップデータの中から、さらに必要な画像または音声部分を選択(Logging)し、その選択された画像または音声部分に対応する編集開始位置(IN点)および編集終了位置(OUT点)を例えば、タイムコード等を利用して設定し、上述したクリップデータの中から、対応する部分を抽出(Ingesting)する。
【0039】
なお、クリップは、1回の撮像処理だけでなく、その撮像処理の撮像開始から撮像終了までの時間を示す単位でもあり、その撮像処理により得られた各種のデータの長さを示す単位でもあり、その撮像処理により得られた各種のデータのデータ量を示す単位でもある。さらに、クリップは、その各種のデータの集合体そのものも示す場合もある。
【0040】
本編集処理は、粗編集処理が施された各クリップデータを繋ぎ合わせ、その画像データに対して、最終的な画質調整等を行い、番組などで放送するためのデータである完全パッケージデータを作成する処理である。
【0041】
なお、上述した企画用端末装置61、撮像装置64、フィールドPC65、編集用端末装置66等の各装置は、それぞれ、複数台により構成されるようにしてもよい。例えば、複数台の撮像装置64において得られた画像データ等を、1台の編集用端末装置66が光ディスク67やネットワーク62を介して取得し、そのデータに対して編集処理を行うようにしてもよいし、1台の撮像装置64から供給されたデータが、複数台の編集用端末装置66により編集されるようにしてもよい。
【0042】
逆に、上述した企画用端末装置61、撮像装置64、フィールドPC65、および編集用端末装置66等の各装置は、それぞれ、別体として構成されるように説明したが、これに限らず、各装置の機能の一部または全部が互いに一体化して構成されるようにしてもよい。
【0043】
また、映像プログラム制作支援システム51は、例えば、上述した企画用端末装置61、撮像装置64、フィールドPC65、および編集用端末装置66とは別に、ネットワーク62に接続されたセンタサーバ(図示せず)を設け、企画用端末装置61、撮像装置64、フィールドPC65、および編集用端末装置66等をクライアントとした、クライアント/サーバ(Client/Server)システムとして構成するようにしてもよい。
【0044】
図2は、図1の編集用端末装置66の詳細な構成例を示している。
【0045】
図2において、編集用端末装置66のCPU(Central Processing Unit)81は、ROM(Read Only Memory)82に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)83には、CPU81が各種の処理を実行する上において必要なデータやプログラムなどが適宜記憶される。
【0046】
クリップデータ編集部84は、出力部92を制御してディスプレイ等にGUI(Graphical User Interface)等を表示させ、入力部91を介してユーザからの操作入力を受け付け、その操作入力等に基づいて、ドライブ95に装着された光ディスク67に記録されている画像データ、音声データ、ローレゾデータ、もしくはメタデータ等、または、通信部94を介して取得したローレゾデータ等に対して、編集処理を行い、編集内容に関する情報や、編集後のデータに関する情報等を生成して、エディットリスト編集部85に供給する。なお、クリップデータ編集部84は、再生対象となる各種のデータを更新せずに、非破壊的な編集処理を行う。
【0047】
エディットリスト編集部85は、クリップデータ編集部84において行われる編集処理に伴って生成される各種の情報に基づいて、編集結果を示すエディットリストを生成し、光ディスク67に記録する。
【0048】
プレイリスト作成部86は、エディットリストに基づいて、プレイリストを作成し、光ディスク67に記録する。プレイリストとは、エディットリストをコンパイルした結果の情報である。プレイリストは、後述するブリッジエッセンスを構成要素として含むことができる。なお、プレイリスト自身を編集することはできず、エディットリストが編集されるたびに、その変更内容を反映した新たなプレイリストが生成される。エディットリストが削除された場合、対応するプレイリストも削除される。
【0049】
ブリッジエッセンス作成部87は、ブリッジエッセンスを作成する。即ち、エディットリストに基づいて、光ディスク67に記録されるクリップデータを再生するとき、クリップデータの物理的な配置状況によっては、ドライブのシーク性能により、編集結果を途切れることなく連続して再生できないことがある。このような場合、ブリッジエッセンス作成部87は、連続再生が不可能な区間を別の場所にコピーし、物理的に連続するように再配置して、ブリッジエッセンスを作成し、リアルタイムでの連続再生を保証する。
【0050】
CPU81、ROM82、RAM83、クリップデータ編集部84、エディットリスト編集部85、プレイリスト作成部86、およびブリッジエッセンス作成部87は、バス88を介して相互に接続されている。このバス88にはまた、入出力インタフェース90も接続されている。
【0051】
入出力インタフェース90は、キーボードやマウスから構成される入力部91が接続され、入力部91に入力された信号をCPU81に出力する。また、入出力インタフェース90には、ディスプレイやスピーカなどから構成される出力部92も接続されている。
【0052】
さらに、入出力インタフェース90には、ハードディスクやEEPROM(Electronically Erasable and Programmable Read Only Memory)などから構成される記憶部93、および、ネットワーク62などを介して他の装置とデータの通信を行う通信部94も接続されている。ドライブ95は、光ディスク67や磁気ディスク、光磁気ディスク、半導体メモリなどの記録媒体からなるリムーバブルメディア101よりデータを読み出したり、データを書き込んだりするときに用いられる。
【0053】
次に、光ディスク67に記録された各データを管理するファイルシステム、並びにファイルシステムにおけるディレクトリ構造およびファイルについて、図3を参照して説明する。
【0054】
光ディスク67に記録されたデータを管理するファイルシステムとしては、どのようなファイルシステムを用いてもよく、例えば、UDF(Universal Disk Format)やISO9660(International Organization for Standardization 9660)等を用いてもよい。また、光ディスク67の代わりにハードディスク等の磁気ディスクを用いた場合、ファイルシステムとして、FAT(File Allocation Tables)、NTFS(New Technology File System)、HFS(Hierarchical File System)、またはUFS(Unix(登録商標) File System)等を用いてもよい。また、専用のファイルシステムを用いるようにしてもよい。
【0055】
図3において、ルートディレクトリ(ROOT)131には、PROAVディレクトリ132が設けられている。PROAVディレクトリ132の下位のディレクトリには、画像データや音声データ等のエッセンスデータに関連する情報、および、エッセンスデータの編集結果を示すエディットリスト等が配置される。
【0056】
PROAVディレクトリ132には、インデックスファイル(INDEX.XML)133、インデックスファイル(INDEX.BUP)134、ディスクインフォメーションファイル(DISCINFO.XML)135、ディスクインフォメーションファイル(DISCINFO.BUP)136、ディスクメタファイル(DISCMETA.XML)137、クリップルートディレクトリ(CLPR)138、およびエディットリストルートディレクトリ(EDTR)139が設けられている。
【0057】
インデックスファイル133には、光ディスク67に記録されている全てのクリップデータおよびエディットリストを管理するための管理情報等が記述されている。なお、インデックスファイル134は、インデックスファイル133を複製したものであり、2つのファイルに別々に記録することにより、信頼性の向上が図られている。
【0058】
例えば、インデックスファイル133およびインデックスファイル134には、クリップのデータを管理するための管理情報として、後述するクリップのデータを管理するクリップインフォメーションファイルに付加されたUMIDと、クリップインフォメーションファイルのファイル名との対応関係を表わす情報が記述されている。
【0059】
ディスクインフォメーションファイル135には、光ディスク67に記録されているデータ全体に対するメタデータのうち、例えば、再生開始位置等の再生装置の内部で厳密に管理する必要のある情報が記述されている。なお、ディスクインフォメーションファイル136は、ディスクインフォメーションファイル135を複製したものであり、2つのファイルに別々に記録することにより、信頼性の向上が図られている。
【0060】
ディスクメタファイル137には、光ディスク67に記録されているデータ全体に対するメタデータのうち、例えば、ディスク属性等の自由に書き換えることのできる情報が記述されている。
【0061】
クリップルートディレクトリ138には、クリップのデータが下位のディレクトリに設けられ、エディットリストルートディレクトリ139には、クリップのデータに対する編集結果を示すエディットリストのデータが下位のディレクトリに設けられる。
【0062】
クリップルートディレクトリ138には、光ディスク67に記録されているクリップのデータが、クリップ毎に異なるディレクトリに分けて記録されている。例えば、図3の例では、3つのクリップのデータが、クリップディレクトリ(C0001)141、クリップディレクトリ(C0002)142、およびクリップディレクトリ(C0003)143の3つのディレクトリに分けられて記録されている。
【0063】
即ち、光ディスク67に記録された最初のクリップの各データは、クリップディレクトリ141の下位のディレクトリのファイルに記録され、2番目に光ディスク67に記録されたクリップの各データは、クリップディレクトリ142の下位のディレクトリのファイルに記録され、3番目に光ディスク67に記録されたクリップの各データは、クリップディレクトリ143の下位のディレクトリのファイルに記録される。
【0064】
また、エディットリストルートディレクトリ139には、光ディスク67に記録されているエディットリストが、その編集処理毎に異なるディレクトリに分けて記録されている。例えば、図3の例では、4つのエディットリストが、エディットリストディレクトリ(E0001)144、エディットリストディレクトリ(E0002)145、エディットリストディレクトリ(E0003)146、およびエディットリストディレクトリ(E0004)147の4つのディレクトリに分けて記録されている。
【0065】
即ち、光ディスク67に記録されたクリップの1回目の編集結果を示すエディットリストは、エディットリストディレクトリ144の下位のディレクトリのファイルに記録され、2回目の編集結果を示すエディットリストは、エディットリストディレクトリ145の下位のディレクトリのファイルに記録され、3回目の編集結果を示すエディットリストは、エディットリストディレクトリ146の下位のディレクトリのファイルとして管理され、4回目の編集結果を示すエディットリストは、エディットリストディレクトリ147の下位のディレクトリのファイルに記録される。
【0066】
図4は、クリップルートディレクトリ138に設けられるクリップディレクトリ141の下位のディレクトリにおけるファイルの構成例を示している。クリップディレクトリ141には、最初に光ディスク67に記録されたクリップの各データがファイルとして設けられ、管理される。
【0067】
クリップディレクトリ141には、クリップを管理するファイルであるクリップインフォメーションファイル(C0001C01.SMI)151、クリップの画像データを含むファイルである画像データファイル(C0001V01.MXF)152、クリップの8チャンネルの音声データそれぞれを含む8つのファイルである音声データファイル(C0001A01.MXF乃至C0001A08.MXF)153乃至160、クリップの画像データに対応するローレゾデータを含むファイルであるローレゾデータファイル(C0001S01.MXF)161、クリップデータおよび編集結果の属性としてのメタデータ等のリアルタイム性を要求されないノンリアルタイムメタデータを含むファイルであるノンリアルタイムメタデータファイル(C0001M01.XML)162、クリップデータのフレーム単位で付加される、例えば、LTC(Linear Time Code),UMID等のリアルタイム性を要求されるリアルタイムメタデータを含むファイルであるリアルタイムメタデータファイル(C0001R01.BIM)163、並びに、画像データファイル152のフレーム構造(例えば、MPEG等におけるピクチャ毎の圧縮形式に関する情報や、ファイルの先頭からのオフセットアドレス等の情報)が記述されたファイルであるピクチャポインタファイル(C0001I01.PPF)164が設けられている。
【0068】
図4の例の場合、再生時にリアルタイム性を要求されるデータである、画像データファイル152の画像データ、ローレゾデータファイル161のローレゾデータ、リアルタイムメタデータファイル163のリアルタイムメタデータのそれぞれは、1つのファイルに記録され、読み出し時間が増加しないようになされている。
【0069】
また、音声データファイル153乃至160の音声データも、再生時にリアルタイム性を要求されるが、7.1チャンネル等のような音声の多チャンネル化に対応するために、8チャンネル用意され、それぞれ、異なるファイルに記録されている。なお、図4では、音声データは8つのファイルに記録されることとしたが、これに限らず、音声データのファイルは、7つ以下であってもよいし、9つ以上であってもよい。
【0070】
同様に、画像データファイル152の画像データ、ローレゾデータファイル161のローレゾデータ、およびリアルタイムメタデータファイル163のリアルタイムメタデータも、場合によって、それぞれ、2つ以上のファイルに記録されるようにしてもよい。
【0071】
また、図4において、ノンリアルタイムメタデータファイル162のリアルタイム性を要求されないノンリアルタイムメタデータは、リアルタイムメタデータファイル163のリアルタイム性を要求されるリアルタイムメタデータと異なるファイルに記録される。これは、画像データ等の通常の再生中に必要の無いメタデータを読み出さないようにするためであり、このようにすることにより、再生処理の処理時間や、処理に必要な負荷を軽減することができる。
【0072】
なお、ノンリアルタイムメタデータファイル162は、汎用性を持たせるためにXML(extensible Markup Language)形式で記述されている。また、リアルタイムメタデータファイル163は、再生処理の処理時間や処理に必要な負荷を軽減させるために、XML形式のファイルをコンパイルしたBIM形式のファイルである。
【0073】
図4に示されるクリップディレクトリ141のファイルの構成例は、光ディスク67に記録されている各クリップに対応する全てのクリップディレクトリにおいて適用することができる。即ち、図3に示される、その他のクリップディレクトリ142および143においても、図4に示されるファイルの構成例を適用することができるので、その説明を省略する。
【0074】
なお、クリップディレクトリ141のディレクトリ構造は、図4に示した例に限らず、各クリップディレクトリの下位のディレクトリ(クリップディレクトリそのものを含む)に、そのクリップに対応するノンリアルタイムメタデータファイルが存在すれば、どのような構成であってもよい。
【0075】
図5は、エディットリストルートディレクトリ139の下位のディレクトリにおけるファイルの構成例を示している。エディットリストルートディレクトリ139に設けられるエディットリストディレクトリ145の下位のディレクトリには、光ディスク67に記録されたクリップの各データの2回目の編集結果を示すエディットリストのデータがファイルとして設けられ、管理される。
【0076】
エディットリストディレクトリ145には、編集結果(エディットリスト)を管理するファイルであるエディットリストファイル(E0002E01.SMI)171、編集後のエッセンスデータ(編集に用いられた全クリップのデータの内、編集後のデータとして抽出された部分)に対応するノンリアルタイムメタデータ、または、そのノンリアルタイムメタデータに基づいて新たに生成されたノンリアルタイムメタデータを含むファイルであるエディットリスト用ノンリアルタイムメタデータファイル(E0002M01.XML)172、編集結果(エディットリスト)に基づいた、エッセンスデータの再生手順(プレイリスト)等の情報を含むファイルであるプレイリストファイル(E0002P01.SMI)173、プレイリストファイル173に含まれる再生手順に基づいて再生される画像データのフレーム構造(例えば、MPEG等におけるピクチャ毎の圧縮形式に関する情報や、ファイルの先頭からのオフセットアドレス等の情報)が記述されたファイルであるプレイリスト用ピクチャポインタファイル(E0001I01.PPF)174、プレイリストファイル173の再生手順(プレイリスト)に基づいた実時間再生を保証するための画像データ(ブリッジエッセンスの画像データ)を含むファイルであるブリッジエッセンス画像データファイル(B0002V01.BMX)175、プレイリストファイル173の再生手順(プレイリスト)に基づいた実時間再生を保証するための音声データ(ブリッジエッセンスの音声データ)を含む4つのファイルであるブリッジエッセンス音声データファイル(B0002A01.BMX乃至B0002A04.BMX)176乃至179、プレイリストファイル173の再生手順(プレイリスト)に基づいた実時間再生を保証するためのローレゾデータ(ブリッジエッセンスのローレゾデータ)を含むファイルであるブリッジエッセンスローレゾデータファイル(B0002S01.BMX)180、並びに、プレイリストファイル173の再生手順(プレイリスト)に基づいた実時間再生を保証するためのリアルタイムメタデータ(ブリッジエッセンスのリアルタイムメタデータ)を含むファイルであるブリッジエッセンスリアルタイムメタデータファイル(B0002R01.BBM)181が設けられている。
【0077】
図5において、エディットリスト用ノンリアルタイムメタデータファイル172のリアルタイム性を要求されないノンリアルタイムメタデータは、ブリッジエッセンスリアルタイムメタデータファイル181のリアルタイム性を要求されるリアルタイムメタデータと異なるファイルに記録される。これは、再生手順(プレイリスト)を用いて画像データ等を再生中に(編集結果の再現中に)、必要の無いメタデータを読み出さないようにするためであり、このようにすることにより、再生処理の処理時間や、処理に必要な負荷を軽減することができる。
【0078】
なお、ブリッジエッセンス用ノンリアルタイムメタデータファイル172は、汎用性を持たせるために、XML形式で記述される。また、エディットリスト用リアルタイムメタデータファイル181は、再生処理の処理時間や処理に必要な負荷を軽減させるために、XML形式のファイルをコンパイルしたBIM形式に対応するBBM形式のファイルである。
【0079】
ブリッジエッセンス画像データファイル175に含まれる画像データ、ブリッジエッセンス音声データファイル176乃至179に含まれる各音声データ、ブリッジエッセンスローレゾデータファイル180に含まれるローレゾデータ、並びに、ブリッジエッセンスリアルタイムメタデータファイル181に含まれるリアルタイムメタデータは、それぞれ、図4のクリップルートディレクトリ138の下位のディレクトリにおいて管理されるクリップに対応する画像データ、音声データ、ローレゾデータ、およびリアルタイムメタデータより抽出されたデータであり、編集結果に対応するデータである。これらのデータは、プレイリストファイル173に含まれる再生手順(プレイリスト)に基づいて再生処理が行われる場合に読み出される。
【0080】
なお、ブリッジエッセンス画像データファイル175に記録された画像データ、ブリッジエッセンスローレゾデータファイル180に記録されたローレゾデータ、およびブリッジエッセンスリアルタイムメタデータファイル181に記録されたリアルタイムメタデータは、場合によって、それぞれ、複数のファイルとして管理される(複数のファイルで記録する)ようにしてもよい。同様に、ブリッジエッセンス音声データファイル176乃至179に記録された音声データも、3つ以下または、5つ以上のファイルに記録してもよい。
【0081】
図5に示されるエディットリストディレクトリ145のファイルの構成例は、全てのエディットリスト(編集結果)において適用することができる。即ち、図3に示される、その他のエディットリストディレクトリ144、146、または147においても、図5に示されるファイルの構成例を適用することができるので、その説明を省略する。
【0082】
なお、1回の編集作業に対応するエディットリストディレクトリのディレクトリ構造は上述した例に限らず、各エディットリストディレクトリの下位のディレクトリ(そのエディットリストディレクトリを含む)に、その編集に対応するエディットリスト用ノンリアルタイムメタデータファイルが存在すれば、どのような構成であってもよい。
【0083】
図6は、図2のエディットリスト編集部85のエディットリスト作成処理を説明するフローチャートである。このエディットリスト作成処理は、ユーザにより、入力部91が操作され、エディットリストの記録が指示されたときに開始する。
【0084】
ステップS1において、エディットリスト編集部85は、光ディスク67に記録されているエディットリストルートディレクトリ139の下位に、エディットリストディレクトリ145を作成し、ステップS2に進む。ステップS2では、エディットリスト編集部85は、ステップS1で作成されたエディットリストディレクトリ145に、編集結果を示すエディットリストを管理するエディットリストファイル171を作成し、ステップS3に進む。
【0085】
ステップS3では、エディットリスト編集部85は、編集後のエッセンスデータに対応するノンリアルタイムメタデータ、または、そのノンリアルタイムメタデータに基づいて新たに生成されたノンリアルタイムメタデータを含むファイルであるエディットリスト用ノンリアルタイムメタデータファイル172を、ステップS1で作成されたエディットリストディレクトリ145に作成する。
【0086】
具体的には、例えば、編集が行われると、エディットリスト編集部85は、光ディスク67に記録されるクリップディレクトリ141のノンリアルタイムメタデータファイル162に含まれるノンリアルタイムメタデータから、編集後のエッセンスデータに対応する部分を抽出し、抽出したノンリアルタイムメタデータを用いて、編集後のエッセンスデータを1クリップとする新たなノンリアルタイムメタデータを再構成し、エディットリスト用ノンリアルタイムメタデータファイル172を、ステップS1で作成されたエディットリストディレクトリ145に作成する。
【0087】
ステップS3の処理後は、ステップS4に進み、エディットリスト編集部85は、ステップS2でエディットリストファイル171が作成されたので、エディットリストを管理するための管理情報を含む光ディスク67に記録されるPROAVディレクトリ132のインデックスファイル133およびインデックスファイル134の内容を更新し、処理を終了する。
【0088】
図7は、エディットリストファイル171に記述されたエディットリストの例を示している。
【0089】
図7では、エディットリストのうちの、開始タグである<body>タグから、終了タグである</body>タグにより指定される範囲のコードの例について示している。なお、図7において、各行頭の数字と、コロン記号(:)は、説明の便宜上付加したものであり、コードの一部ではない。後述する図9と図10においても同様である。
【0090】
上述したように、エディットリストは編集結果を示すものであり、その内容が、第2行目の<par>タグから、第13行目の</par>タグまでの間に記述されている。
【0091】
第3行目のコメント文「<!−−Clip1−−>」は、その下の第4行目乃至第7行目に、クリップ#1に関するコードが記述されることを表わしている。なお、文字列<!−−は、その行の、以降の部分がコメントであることを表す。
【0092】
第4行目および第5行目の「<ref src=”urn:smpte:umid:060A…10”」は、再生対象となるクリップ#1のクリップインフォメーションファイル151のSMPTEで定義されるUMIDが「060A…10」であることを表わしている。
【0093】
第6行目の「type=”edlDoc” begin=”smpte−30=00:00:00:00” clipBegin=”smpte−30=00:00:00:00”」と第7行目の「clipEnd=”smpte−30=00:10:00:00”/>」のうち、「type=”edlDoc”」は、クリップインフォメーションファイルの種類(タイプ)が「edlDoc」であることを表し、「begin=”smpte−30=00:00:00:00”」は、ある時刻を基準として、編集後のクリップ#1の開始位置が「TC=00:00:00:00」に設定されていることを表わしている。なお、「TC=XX:XX:XX:XX」は、タイムコードを表わす。
【0094】
また、「clipBegin=”smpte−30=00:00:00:00”」は、ある時刻を基準として、クリップ#1のIN点が「TC=00:00:00:00」であることを表わし、「clipEnd=”smpte−30=00:10:00:00”」は、クリップ#1のOUT点が「TC=00:10:00:00」に設定されていることを表わしている。即ち、クリップ#1の再生時間は10分である。
【0095】
第8行目のコメント文「<!−−Clip2−−>」は、その下の第9行目乃至第12行目に、クリップ#2に関するコードが記述されることを表わしている。
【0096】
第9行目および第10行目の「<ref src=”urn:smpte:umid:060A…0F”」は、クリップ#2のクリップインフォメーションファイル151のUMIDが「060A…0F」であることを表わしている。
【0097】
第11行目の「type=”edlDoc” begin=”smpte−30=00:10:00:00” clipBegin=”smpte−30=00:02:00:00”」と第12行目の「clipEnd=”smpte−30=00:03:30:00”」のうち、「type=”edlDoc”」は、クリップインフォメーションファイル151の種類が「edlDoc」であることを表し、「begin=”smpte−30=00:10:00:00”」は、ある時刻を基準として、編集後のクリップ#2の開始位置が「TC=00:10:00:00」に設定されていることを表わしている。即ち、クリップ#2の開始位置は、クリップ#1の開始位置「TC=00:00:00:00」から、クリップ#1の再生が終了する10分の時点となっている。従って、図7のエディットリストは、クリップ#1の再生後、クリップ#2を再生することを表わしている。
【0098】
また、「clipBegin=”smpte−30=00:02:00:00”」は、ある時刻を基準として、クリップ#2のIN点が「TC=00:02:00:00」であることを表わし、「clipEnd=”smpte−30=00:03:30:00”」は、クリップ#2のOUT点が「TC=00:03:30:00」に設定されていることを表わしている。
【0099】
編集用端末装置66は、図7のエディットリストに基づいて、光ディスク67を再生する場合、まず最初に、クリップ#1のクリップデータの管理情報等が記述されている、UMIDが「060A…10」であるクリップインフォメーションファイル151を読み出す。編集用端末装置66は、そのクリップインフォメーションファイル151を参照して、クリップ#1のデータのうち、「TC=00:00:00:00」から「TC=00:10:00:00」までのデータの再生を、「TC=00:00:00:00」から開始する。
【0100】
そして、編集用端末装置66は、クリップ#2のクリップデータの管理情報等が記述されている、UMIDが「060A…0F」であるクリップインフォメーションファイル151を読み出す。編集用端末装置66は、そのクリップインフォメーションファイル151を参照して、クリップ#2のデータのうち、「TC=00:02:00:00」から「TC=00:03:30:00」までのデータの再生を、「TC=00:10:00:00」から開始し、そのデータのすべてを再生すると、処理を終了する。
【0101】
図8は、図2の編集用端末装置66のプレイリスト作成処理を説明するフローチャートである。このプレイリスト作成処理は、例えば、ユーザにより、光ディスク67がドライブ95に装着され、光ディスク67に記録されているエディットリストの中から、プレイリストに変換する所定のエディットリストが選択されたときに開始される。
【0102】
ステップS21において、プレイリスト作成部86は、光ディスク67に記録されているエディットリストファイル171の中から、ユーザによって選択されたエディットリスト(図7)を読み出し(取得し)、それを解釈して、ステップS22に進む。具体的には、プレイリスト作成部86は、エディットリストにおいて再生対象として指定されているクリップの管理情報が記述されているクリップインフォメーションファイル151(管理ファイル)のUMIDと、プレイリストにおいて再生対象となるクリップデータに対して設定されたIN点とOUT点(編集点)を認識する。
【0103】
例えば、図7に示すようなエディットリストが読み出された場合、プレイリスト作成部86は、第5行目の「<ref src=”urn:smpte:umid:060A…10”」から、再生対象であるクリップ#1のクリップインフォメーションファイル151のSMPTEで定義されるUMIDが「060A…10」であること認識し、第6行目の「clipBegin=”smpte−30=00:00:00:00”」と第7行目の「clipEnd=”smpte−30=00:10:00:00”/>」から、プレイリストにおいて再生対象となるクリップ#1に対して設定されたIN点が「TC=00:00:00:00」であり、クリップ#1のOUT点が「TC=00:10:00:00」であることを認識する。
【0104】
ステップS21の処理後は、ステップS22に進み、プレイリスト作成部86は、ステップS21で解釈されたエディットリストに基づいて、プレイリストにおいて再生対象となるクリップデータのファイル名を認識する。
【0105】
具体的には、プレイリスト作成部86は、エディットリストに基づいて、インデックスファイル133から、UMIDで指定されたエディットリストにおいて再生対象となるクリップインフォメーションファイル151のファイル名を認識する。即ち、インデックスファイル133には、クリップインフォメーションファイル151に付加されたUMIDとクリップインフォメーションファイルのファイル名との対応関係が記述されており、その対応関係を参照することにより、プレイリスト作成部86は、ステップS21で認識された再生対象であるクリップインフォメーションファイル151のファイル名を認識する。
【0106】
そして、プレイリスト作成部86は、クリップインフォメーションファイル151のファイル名に基づいて、クリップインフォメーションファイル151を読み出し、エディトリストに記述されたクリップのIN点とOUT点から、プレイリストにおいて再生対象となるクリップデータを認識するとともに、そのクリップデータが記録されているファイル名を認識する。
【0107】
ステップS22の処理後は、ステップS23に進み、プレイリスト作成部86は、ピクチャポインタファイル164から、ステップS22で認識されたプレイリストにおいて再生対象となるクリップデータに対応するピクチャポインタを読み出して、ステップS23からステップS24に進む。
【0108】
ステップS24では、プレイリスト作成部86は、再生装置が、プレイリストにおいて再生対象となるクリップデータを、エディットリストに記述されている、クリップデータに対して設定された編集点(IN点とOUT点)にしたがって、リアルタイムで再生することができるか否かを判定する(リアルタイム再生可否判定を行う)。即ち、プレイリスト作成部86は、再生装置が、編集結果である編集後のクリップデータをリアルタイムで再生することができるか否かを判定する。リアルタイム再生可否判定は、シークの発生位置の全てを対象として行われる。
【0109】
なお、リアルタイム再生可否判定については、特願2002−366197、および、特願2002−366199に、その詳細が記載されている。これらの文献に記載されている技術を、図2の編集用端末装置66により行われるリアルタイム再生可否判定に適用することも可能である。その他、例えば、再生装置と同じ条件で仮想的にAVデータを再生し、それがリアルタイムで行われるか否かを判定するなどの、様々な方法により、リアルタイム再生可否判定が行われるようにしてもよい。
【0110】
ステップS24において、プレイリスト作成部86がリアルタイム再生可能ではないと判定した場合、ステップS25に進み、ブリッジエッセンス作成部87は、ブリッジエッセンス(ブリッジエッセンスファイル(例えば、ブリッジエッセンス画像データファイル175))を作成する。このとき、ブリッジエッセンス作成部87は、リアルタイム再生可否判定の結果に基づいて、光ディスク67上のブリッジエッセンスの作成位置を決定し、その作成位置に、ブリッジエッセンスを作成する。
【0111】
即ち、クリップデータの物理的な配置状況によっては、ドライブのシーク性能により、エディットリストに基づいて、クリップデータを途切れることなく連続して再生(リアルタイム再生)できないことがある。このような場合、ブリッジエッセンス作成部87は、編集点(IN点とOUT点)が設定された範囲のクリップデータのうち、連続再生が不可能な範囲のクリップデータを光ディスク67上の別の場所にコピーし、物理的に連続するように再配置して、ブリッジエッセンスを作成する。ブリッジエッセンスは、物理的に連続するように再配置されているので、連続再生が不可能な範囲のクリップデータの代わりに、ブリッジエッセンスを再生することにより、リアルタイムでの連続再生が保証される。なお、ブリッジエッセンスの作成については、特願2001−109341に、その詳細が記載されている。
【0112】
ステップS25の処理後は、ステップS26に進み、プレイリスト作成部86は、プレイリスト用ピクチャポインタを作成する。即ち、プレイリスト作成部86は、ステップS23でピクチャポインタファイル164から読み出された、プレイリストにおいて再生対象となるクリップデータに対応するピクチャポインタを、プレイリスト用ピクチャポインタとして、プレイリスト用ピクチャポインタファイル174を作成する。
【0113】
ステップS26の処理後は、ステップS27に進み、プレイリスト作成部86は、エディットリストに基づいて、ステップS22で認識されたプレイリストにおいて再生対象となるクリップデータのファイルのファイル名を再生対象として指定するプレイリスト(プレイリストファイル173)を作成し、ステップS28に進む。
【0114】
ステップS28では、プレイリスト作成部86は、ブリッジエッセンスを参照して再生が行われるように、プレイリストを書き換える。即ち、プレイリスト作成部86は、プレイリストにおいて再生対象のクリップデータのうち、ステップS25でブリッジエッセンスを作成したエッセンスデータに対しては、ブリッジエッセンスのファイルのファイル名を再生対象として指定するように、プレイリストを書き換える。そして、プレイリスト作成部86は、処理を終了する。
【0115】
一方、ステップS24において、シーク時間が小であるため、再生装置が、エディットリストの編集点にしたがってリアルタイム再生を行うことができると判定した場合、プレイリスト作成部86は、ステップS29に進み、プレイリスト作成部86は、エディットリストに基づいて、ステップS22で認識されたプレイリストにおいて再生対象となるクリップデータのファイルのファイル名を再生対象として指定するプレイリスト(プレイリストファイル173)を作成し、処理を終了する。
【0116】
上述したステップS27とステップS29では、プレイリスト作成部86は、プレイリストにおいて再生対象のクリップデータのファイル名を、再生対象として指定するようにエディットリストを書き換えて、プレイリストを作成するので、再生装置においてクリップデータを再生する場合、クリップインフォメーションファイル151を読み出して、プレイリストにおいて再生対象となるクリップデータのファイルを認識する必要がなく、プレイリストを参照するだけで、プレイリストにおいて再生対象となるクリップデータを、即座に再生することができる。従って、再生装置は、クリップデータの再生までに多くの処理を必要とせず、再生までにかかる時間を短くすることができる。
【0117】
さらに、上述したステップS24とステップS25では、プレイリスト作成部86は、リアルタイムで再生することができるか否かを判定し、リアルタイムで再生することができないと判定した場合、ブリッジエッセンス作成部87は、編集点が設定された範囲のクリップデータのうち、リアルタイム再生が不可能な範囲のクリップデータを光ディスク67上の別の場所にコピーし、物理的に連続するように再配置して、ブリッジエッセンスを作成するので、連続再生が不可能な範囲のクリップデータの代わりに、ブリッジエッセンスを再生することにより、リアルタイム再生が保証される。
【0118】
なお、プレイリスト作成部86は、ステップS29の処理をスキップすることもできる。即ち、プレイリスト作成部86は、再生装置が、エディットリストの編集点にしたがってリアルタイム再生を行うことができると判定した場合、プレイリストを作成せず、再生装置は、エディットリストにしたがって、クリップデータを再生するようにすることもできる。
【0119】
図9と図10は、プレイリストファイル173に記述されるプレイリストの例を示す図である。なお、図10は、図9に続く図である。
【0120】
図9と図10では、プレイリストのうちの、開始タグである<body>タグから、終了タグである</body>タグにより指定される範囲のコードの例について示している。
【0121】
プレイリストは、その内容が、第2行目の<par>タグから、第40行目の</par>タグまでの間に記述されている。
【0122】
第3行目の<switch>タグは、コーデック(CODEC(COmpresser DECompressor))の種別を指定するもので、第3行目の<switch>タグから、第39行目の</switch>までの間に記述されている内容のコーデックの種別を指定することができる。
【0123】
第4行目の<!−−Main Stream−−>は、エッセンスデータを表わすコメント文であり、第5行目の<par systemComponent=”MPEG2HD25_1440_MP@HL”>は、指定するコーデックの種類が、「”MPEG2HD25_1440_MP@HL”」に対応するコーデックであることを表わしている。即ち、MPEG2で符号化された、ビットレートが25Mbpsで、画像の水平方向のピクセル数が1440のHD(High Definition)の画像データに対する、MP@HL(メインプロファイルハイレベル)のデコーダに対応するコーデックが指定されている。
【0124】
なお、「”MPEG2HD25_1440_MP@HL”」では、記述を短くするために、画像の垂直方向のピクセル数については、省略している。
【0125】
また、第6行目の<!−−VIDEO−−>は、その下の第7行目乃至第38行目に、画像データが記述されることを表わすコメント文である。
【0126】
第7行目の「<!−−Clip1−−>」は、その下の第8行目乃至第12行目に、クリップ#1に関するコードが記述されることを表すコメント文である。
【0127】
第8行目の「<video src=”/PROAV/CLPR/0001/C0001V01.MXF”」は、再生対象となるクリップ#1のデータのファイルのファイル名が「C0001V01」であることを表わしている。即ち、クリップ#1のデータは、画像データファイル152(図4)のデータである。
【0128】
第9行目の「clipBegin=”smpte−30=00:00:00:00”」と第10行目の「clipEnd=”smpte−30=00:05:00:00”」は、ある時刻を基準として、クリップ#1のIN点が「TC=00:00:00:00」であることを表わし、「clipEnd=”smpte−30=00:05:00:00”」は、クリップ#1のOUT点が「TC=00:05:00:00」に設定されていることを表わしている。即ち、クリップ#1の再生時間は5分である。
【0129】
第11行目の「type=”MPEG2HD25_1440_MP@HL”aspectRatio=16:9”」は、クリップ#1のデータの種類が「MPEG2HD25_1440_MP@HL」であり、画像データの縦横比(アスペクト比)が「16:9」であることを表わしている。また、第12行目の「header=”65536”」は、画像データファイル152のMXF(Media Exchange Format)ファイルのヘッダサイズが65536byteであることを表わしている。
【0130】
第13行目の「<!−−Bridge Essence−−>」は、その下の第14行目乃至第29行目に、ブリッジエッセンスに関するコードが記述されることを表わすコメント文である。
【0131】
第14行目の「<video src=”B0002V01.BMX”」と「begin=”smpte−30=00:05:00:00」のうち、「<video src=”B0002V01.BMX”」は、再生対象のブリッジエッセンスのファイル名が「B0002V01」であることを表わしている。即ち、ブリッジエッセンスのデータは、ブリッジエッセンス画像データファイル175のデータである。また、「begin=”smpte−30=00:05:00:00」は、ある時刻を基準として、編集後のブリッジエッセンスの開始位置が「TC=00:05:00:00」に設定されていることを表わしている。即ち、ブリッジエッセンスの開始位置は、クリップ#1の開始位置「TC=00:00:00:00」から、クリップ#1の再生が終了する5分の時点である。
【0132】
ここで、いま、再生対象となるブリッジエッセンス175を、1回目に再生されるブリッジエッセンスとして、ブリッジエッセンス#1とすると、第15行目の「clipBegin=”smpte−30=00:00:00:00”」は、ある時刻を基準として、ブリッジエッセンス#1のIN点が「TC=00:00:00:00」であることを表わし、第16行目の「clipEnd=”smpte−30=00:00:00:12”」は、ブリッジエッセンス#1のOUT点が「TC=00:00:00:12」に設定されていることを表わしている。即ち、ブリッジエッセンス#1の再生時間は12フレームである。
【0133】
第17行目の「type=”MPEG2HD25_1440_MP@HL”aspectRatio=16:9”/>」は、ブリッジエッセンス#1のデータの種類が「MPEG2HD25_1440_MP@HL」であり、画像データのアスペクト比が「16:9」であることを表わしている。
【0134】
第18行目の「<video src=”B0002V01.BMX”」と「begin=”smpte−30=00:05:00:12」のうち、「<video src=”B0002V01.BMX”」は、再生対象のブリッジエッセンス#2のファイル名が「B0002V01」であることを表わしている。即ち、ブリッジエッセンス#2のデータは、ブリッジエッセンス画像データファイル175のデータである。また、「begin=”smpte−30=00:05:00:12」は、ある時刻を基準として、編集後のブリッジエッセンス#2の開始位置が「TC=00:05:00:12」に設定されていることを表わしている。即ち、ブリッジエッセンス#2の開始位置は、前回の再生対象のブリッジエッセンス#1の開始位置「TC=00:05:00:00」から、前回の再生対象のブリッジエッセンス#1の再生が終了する12フレームの時点である。
【0135】
第19行目の「clipBegin=”smpte−30=00:00:00:17”」は、ある時刻を基準として、ブリッジエッセンス#2のIN点が「TC=00:00:00:17」であることを表わし、第20行目の「clipEnd=”smpte−30=00:00:00:27”」は、ブリッジエッセンス#2のOUT点が「TC=00:00:00:27」に設定されていることを表わしている。即ち、ブリッジエッセンス#2の再生時間は10フレームである。
【0136】
第21行目の「decBegin=”smpte−30=00:00:00:15” preDecDur=”1”」と第22行目の「decEnd=”smpte−30=00:00:00:28” postDecDur=”1”」は、ある時刻を基準として、デコーダへの入力開始位置が「TC=00:00:00:15」であり、デコーダ入力終了位置が「TC=00:00:00:28」であることを表わしている。また、IN点とデコーダへの入力開始位置の間のデコーダへの入力が必要な期間(フレーム数)が、「1」であり、OUT点とデコーダ入力終了位置の間のデコーダへの入力が必要な期間(フレーム数)が、「1」であることを表わしている。
【0137】
即ち、MPEG符号化方式では、IN点より、表示順が前のピクチャからデコードする必要がある場合があり、そのデコードの開始位置をdecBeginで指定し、表示はしないがデコードをする必要があるフレーム数をpreDecDurで指定する。また、MPEG符号化方式では、OUT点より、表示順が後のピクチャまでデコードする必要がある場合があり、そのデコード終了位置をdecEndで指定し、表示はしないがデコードをする必要があるフレーム数をpostDecDurで指定する。
【0138】
なお、「decBegin」は、「clipBegin」と同一である場合に省略することができ、「decEnd」は、「clipEnd」と同一である場合に省略することができる。例えば、クリップ#1に関するコードが記述されている第8行目乃至第12行目には、「decBegin」と「decEnd」が記述されていないので、「decBegin」は、「clipBegin」と同一の「TC=00:00:00:00」であり、「decEnd」は、「clipEnd」と同一の「TC=00:05:00:00」である。
【0139】
第23行目の「type=”MPEG2HD25_1440_MP@HL”」と第24行目の「aspectRatio=16:9”/>」は、再生対象のブリッジエッセンス#3のデータの種類が「MPEG2HD25_1440_MP@HL」であり、画像データのアスペクト比が「16:9」であることを表わしている。
【0140】
第25行目の「<video src=”B0002V01.BMX”」と「begin=”smpte−30=00:05:00:22」のうち、「<video src=”B0002V01.BMX”」は、再生対象のブリッジエッセンス#3のファイル名が「B0002V01」であることを表わしている。即ち、ブリッジエッセンスのデータは、ブリッジエッセンス画像データファイル175のデータである。また、「begin=”smpte−30=00:05:00:22」は、ある時刻を基準として、編集後のブリッジエッセンスの開始位置が「TC=00:05:00:22」に設定されていることを表わしている。即ち、ブリッジエッセンス#3の開始位置は、前回の再生対象のブリッジエッセンス#2の開始位置「TC=00:05:00:12」から、前回の再生対象のブリッジエッセンス#2の再生が終了する10フレームの時点である。
【0141】
第26行目の「clipBegin=”smpte−30=00:00:01:03”」は、ある時刻を基準として、ブリッジエッセンス#3のIN点が「TC=00:00:01:03」であることを表わし、第27行目の「clipEnd=”smpte−30=00:00:01:14”」は、ブリッジエッセンス#3のOUT点が「TC=00:00:00:14」に設定されていることを表わしている。即ち、ブリッジエッセンス#3の再生時間は11フレームである。
【0142】
第28行目の「type=”MPEG2HD25_1440_MP@HL”」と第29行目の「aspectRatio=16:9”」は、再生対象のブリッジエッセンス#3のデータの種類が「MPEG2HD25_1440_MP@HL」であり、画像データのアスペクト比が「16:9」であることを表わしている。
【0143】
第29行目の「header=”500000”/>」は、再生対象のフレームまでのオフセットが500000byteであることを表している。
【0144】
第30行目の「<!−−Clip3−−>」は、その下の第31行目乃至第38行目に、クリップ#3に関するコードが記述されることを表わすコメント文である。
【0145】
第31行目の「<video src=”/PROAV/CLPR/0005/C0005V01.MXF”」は、再生対象となるクリップ#3のデータのファイルのファイル名が「C0005V01」であることを表わしている。第32行目の「begin=”smpte−30=00:05:01:03」は、ある時刻を基準として、編集後のクリップ#3の開始位置が「TC=00:05:01:03」に設定されていることを表わしている。即ち、クリップ#3の開始位置は、前回の再生対象のブリッジエッセンス#3の開始位置「TC=00:05:00:22」から、前回の再生対象のブリッジエッセンス#3の再生が終了する11フレーム後の時点である。
【0146】
第33行目の「clipBegin=”smpte−30=00:10:00:15”」は、ある時刻を基準として、クリップ#3のIN点が「TC=00:10:00:15」であることを表わし、第34行目の「clipEnd=”smpte−30=00:15:10:00”」は、クリップ#3のOUT点が「TC:00:15:10:00」であることを表している。
【0147】
第35行目の「decBegin=”smpte−30=00:10:00:12” preDecDur=”2”」と第36行目の「decEnd=”smpte−30=00:15:10:00” postDecDur=”0”」は、ある時刻を基準として、デコーダへの入力開始位置が「TC=00:10:00:12」であり、デコーダ入力終了位置が「TC=00:15:10:00」であることを表わしている。また、IN点とデコーダへの入力開始位置の間のデコーダへの入力が必要な期間(フレーム数)が、「2」であり、OUT点とデコーダ入力終了位置の間のデコーダへの入力が必要な期間(フレーム数)が、「0」であることを表わしている。
【0148】
第37行目の「type=”MPEG2HD25_1440_MP@HL”」は、クリップ#3のデータの種類が「MPEG2HD25_1440_MP@HL」であることを表わしている。第38行目の「aspectRatio=16:9” header=”1000000”/>」のうち、「aspectRatio=16:9”」は、画像データのアスペクト比が「16:9」であることを表わし、「header=”1000000”/>」は、クリップ#3のMXFファイルのヘッダのサイズが1000000byteであることを表している。
【0149】
図11は、光ディスク67を再生する再生装置201の構成例を示す図である。
【0150】
再生制御部211は、読み出し部221とデコード制御部222から構成される。
【0151】
再生制御部211は、ドライブ212に装着された光ディスク67に記録されている画像データファイル152、音声データファイル153等のクリップデータを、クリップデータとともに光ディスク67に記録されているプレイリストファイル173のプレイリストに基づいて再生する。
【0152】
読み出し部221は、ピクチャポインタ読み出し部231とプレイリスト読み出し部232から構成される。プレイリスト読み出し部232は、ドライブ212に装着された光ディスク67に記録されているプレイリストファイル173から、ディスクI/F241を介して、プレイリストを読み出し、それをピクチャポインタ読み出し部231に供給する。
【0153】
ピクチャポインタ読み出し部231は、プレイリスト読み出し部232から供給されるプレイリストにおいて再生対象とされるエッセンスデータ(クリップデータおよびブリッジエッセンス)のピクチャポインタを、ドライブ212に装着された光ディスク67から、ディスクI/Fを介して読み出す。即ち、ピクチャポインタ読み出し部231は、ピクチャポインタファイル164およびプレイリスト用ピクチャポインタファイル174から、それぞれ、再生対象とされるクリップデータに対応するピクチャポインタ、ブリッジエッセンスに対応するピクチャポインタを読み出す。
【0154】
ピクチャポインタ読み出し部231は、読み出したピクチャポインタを、プレイリスト読み出し部232から供給されるプレイリストとともに、デコーダ制御部222に供給する。
【0155】
デコード制御部222は、プレイリストに記述されているデコードの種類(コーデックの種類)に基づいて、デコード部213のデコーダ261−1乃至261−Nから、再生に用いるデコーダを選択する。また、デコード制御部222は、ピクチャポインタおよびプレイリストに基づいて、選択したデコーダを制御し、光ディスク67の再生対象となるエッセンスデータを再生させる。
【0156】
ドライブ212は、ディスクI/F241から構成されている。ドライブ212に光ディスク67が装着されると、ディスクI/F241は、光ディスク67からピクチャポインタやプレイリストを読み出し、それぞれピクチャポインタ読み出し部231とプレイリスト読み出し部232に供給する。また、ディスクI/F241は、その他のデータを読み出し、デコーダ部213のデコーダ261−1、・・・、デコーダ261−Nに供給する。
【0157】
デコーダ部213は、デコーダ261−1、・・・、デコーダ261−Nから構成されている。なお、以下において、デコーダ261−1乃至261−Nのそれぞれを個別に区別する必要がない場合、まとめてデコーダ261と称する。
【0158】
デコーダ261は、デコード制御部222によって制御され、光ディスク67に記録されている再生対象となるエッセンスデータを再生する。
【0159】
図12は、図11の再生装置201の再生処理を説明するフローチャートである。この再生処理は、ユーザにより光ディスク67がドライブ212に装着され、プレイリストに基づいて、光ディスク67を再生することが指示されたとき開始する。
【0160】
ステップS41において、プレイリスト読み出し部232は、光ディスク67に記録されたプレイリストファイル173から、プレイリストを読み出し、それを解釈する。
【0161】
例えば、プレイリストが図9と図10に示すような場合、プレイリスト読み出し部232は、第5行目の「<par systemComponent=”MPEG2HD25_1440_MP@HL”>」から、指定されたデコーダのコーデックの種類が、「”MPEG2HD25_1440_MP@HL”」に対応するコーデックであることを解釈し、第8行目の「<video src=”PROAV/CLPR/0001/C0001V01.MXF”」から、プレイリストで指定されている再生対象となるエッセンスデータのファイル名が「C0001V01」であることを解釈する。
【0162】
また、プレイリスト読み出し部232は、第9行目の「clipBegin=”smpte−30=00:00:00:00”」と第10行目の「clipEnd=”smpte−30=00:05:00:00」から、再生対象のエッセンスデータのIN点が「TC=00:00:00:00」であり、OUT点が「TC=00:05:00:00」であることを解釈する。
【0163】
さらに、プレイリスト読み出し部232は、「decBegin」と「decEnd」が記述されていないので、「decBegin」、即ち、デコーダへの開始位置がIN点と同じ「TC=00:00:00:00」であり、「decEnd」、即ち、デコーダ終了位置がOUT点と同じ「TC=00:05:00:00」であることを解釈する。
【0164】
そして、プレイリスト読み出し部232は、解釈したプレイリストを、ピクチャポインタ読み出し部231に供給して、ステップS41からステップS42に進む。
【0165】
ステップS42において、ピクチャポインタ読み出し部231は、プレイリストにより再生対象とされるエッセンスデータのピクチャポインタを読み出す。
【0166】
例えば、プレイリストにより再生対象とされるエッセンスデータのファイル名が「C0001V01」である場合、ファイル名が「C0001V01」の画像データファイル152のピクチャポインタが記述されているピクチャポインタファイル164から、ピクチャポインタを読み出す。
【0167】
そして、ピクチャポインタ読み出し部231は、読み出したピクチャポインタを、ステップS41でプレイリスト読み出し部232から供給されたプレイリストとともに、デコード制御部222に供給し、ステップS42からステップS43に進む。
【0168】
ステップS43において、デコード制御部222は、ピクチャポインタ読み出し部231から供給されたプレイリストから、指定されたデコーダのコーデックの種類を認識し、デコーダ261を選択する。
【0169】
例えば、プレイリストで指定されたデコーダのコーデックの種類が、「”MPEG2HD25_1440_MP@HL”」に対応するコーデックである場合、そのコーデックを有するデコーダ261を、再生対象のエッセンスデータをデコードするデコーダ261として選択する。
【0170】
ステップS43の処理後は、ステップS44に進み、デコーダ制御部222は、デコーダ261を制御して、再生を行う。
【0171】
具体的には、デコーダ制御部222は、ステップS42でピクチャポインタ読み出し部231から供給されたピクチャポインタとプレイリストに基づいて、再生対象となるエッセンスデータのデコード開始位置とデコード終了位置を設定し、デコーダ261を制御する。デコーダ261は、デコーダ制御部222により設定されたデコード開始位置とデコーダ終了位置に基づいて、光ディスク67から、プレイリストで再生対象として指定されたファイル名のファイルのエッセンスデータを読み出し、デコードする(再生を行う)。そして、デコーダ制御部222は、処理を終了する。
【0172】
上述した再生処理において、プレイリストでは、エッセンスデータのファイル名が再生対象として指定されるので、デコーダ261は、プレイリストに基づいてエッセンスデータを再生することにより、エッセンスデータを即座に、再生することができる。従って、エッセンスデータの再生までに多くの処理を必要とせず、再生までにかかる時間を少なくすることができる。
【0173】
なお、再生装置201は、ユーザにより再生停止が指示されるまで、プレイリストに基づいて、再生対象となるクリップデータを再生する処理を繰り返す。例えば、図9と図10のプレイリストに基づいて再生処理が行なわれる場合、クリップ#1が再生された後、ブリッジエッセンス#1、ブリッジエッセンス#2、ブリッジエッセンス#3、クリップ#3の順に再生される。
【0174】
図13は、エディットリストとプレイリストの概念を示す図である。
【0175】
図13において、クリップインフォメーションファイル321−1は、画像データファイル323−1と音声データファイル324−1を管理する管理ファイルである。また、クリップインフォメーションファイル321−2は、画像データファイル323−2と音声データファイル324−2を管理する管理ファイルである。
【0176】
エディットリスト301において、IN点とOUT点が、画像データファイル323−1と画像データファイル323−2に設定されている場合、画像データファイル323−1を管理する管理ファイルであるクリップインフォメーションファイル321−1と、画像データファイル323−2を管理する管理ファイルであるクリップインフォメーションファイル321−2が再生対象とされる。
【0177】
従って、エディットリスト301に基づいて、クリップデータが再生される場合、まず最初に、クリップインフォメーションファイル321−1およびクリップインフォメーションファイル321−2が再生される。そして、そのクリップインフォメーションファイル321−1とクリップインフォメーションファイル321−2を参照して、画像データファイル323−1と画像データファイル323−2が再生される。
【0178】
また、プレイリスト302が、エディットリスト301に基づいて作成された場合、プレイリスト302では、再生したい画像データファイル323−1と画像データファイル323−2が直接再生対象として指定される。
【0179】
従って、プレイリスト302に基づいて、クリップデータが再生される場合、画像データファイル323−1と画像データファイル323−2が直接再生される。
【0180】
ここで、リアルタイム再生を保証するためにブリッジエッセンスファイル331が作成されている場合、プレイリスト302は、ブリッジエッセンスファイル331をも再生対象として指定する。
【0181】
プレイリスト302においては、画像データファイル323−1および画像データファイル323−2が直接再生対象として指定されるので、再生装置は、直接画像データファイル323−1および画像データファイル323−2を即座に再生することができる。従って、画像データファイル323−1および画像データファイル323−2の再生までに多くの処理を必要とせずに、再生までにかかる時間を短くすることができる。
【0182】
なお、上述した編集用端末装置66と再生装置201は、それぞれ、別体として構成されるように説明したが、これに限らず、各装置の機能の一部または全体が互いに一体化して構成されるようにしてもよい。
【0183】
また、上述した説明では、エディットリストは、編集用端末装置66で作成されることとしたが、他の編集用端末装置で作成されたエディットリストをインターネット等のネットワークを介して受信することにより取得してもよい。
【0184】
また、本明細書において、フローチャートに記載された処理は、ステップとして記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0185】
【発明の効果】
以上の如く、本発明によれば、データを再生することができる。特に、データの再生に要する時間を短縮化し、これにより、データのリアルタイムでの再生を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した映像プログラム制作支援システムの構成例を示すブロック図である。
【図2】図1の編集用端末装置の構成例を示すブロック図である。
【図3】ファイルシステムによるデータを管理するためのディレクトリ構造の構成例を示す図である。
【図4】図3のディレクトリ構造の詳細な構成例を示す図である。
【図5】図3のディレクトリ構造の詳細な構成例を示す図である。
【図6】図2のエディットリスト編集部のエディットリスト作成処理を説明するフローチャートである。
【図7】エディットリストの例を示す図である。
【図8】図2のプレイリスト作成部のプレイリスト作成処理を説明するフローチャートである。
【図9】プレイリストの例を示す図である。
【図10】プレイリストの例を示す図である。
【図11】再生装置の構成例を示すブロック図である。
【図12】図11の再生装置の再生処理を説明するフローチャートである。
【図13】エディットリストとプレイリストの概念を示す図である。
【符号の説明】
51 映像プログラム制作支援システム, 61 企画用端末装置, 62 ネットワーク, 63 取材用端末装置, 64 撮像装置, 65 フィールドPC, 66 編集用端末装置, 67 光ディスク, 84 クリップデータ編集部, 85 エディットリスト編集部, 86 プレイリスト作成部, 87 ブリッジエッセンス作成部, 211 再生制御部, 212 ドライブ, 213 デコード部, 221 読み出し部, 222 デコーダ制御部,231 ピクチャポインタ読み出し部, 232 プレイリスト読み出し部,241 ディスクI/F, 261 デコーダ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information creating apparatus, method, and program, and more particularly, to an information creating apparatus, method, and program capable of reproducing AV (Audio Visual) data in real time.
[0002]
[Prior art]
In recent years, recording media such as CD-RW (Compact Disk-ReWritable) and DVD-RW (Digital Versatile Disc-ReWritable) capable of repeatedly writing and erasing data are becoming widespread with the reduction in price.
[0003]
Further, an editing apparatus has been proposed that performs nondestructive editing of AV data by recording an edit list (edit list) indicating an editing operation on AV data recorded on the recording medium on the recording medium (for example, a patent). Reference 1).
[0004]
The nondestructively edited AV data is reproduced by being read from the recording medium according to the edit list.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-88221
[0006]
[Problems to be solved by the invention]
However, since the edit list describes the editing operation and is not created in consideration of the playback of AV data, AV data may not be played back in real time.
[0007]
The present invention has been made in view of such a situation, and enables reproduction of AV data in real time.
[0008]
[Means for Solving the Problems]
The information creation apparatus of the present invention includes a reproduction control information acquisition unit that acquires first reproduction control information that designates a management file that manages data as a reproduction target, and first reproduction control information that is acquired by the reproduction control information acquisition unit. And generating means for generating second reproduction control information for designating a file composed of data as a reproduction target.
[0009]
In the first playback control information, edit points set for the data are described, and it is determined whether or not the playback device can play back data that is an edit result based on the edit points in real time. And a rearrangement unit that rearranges data in a predetermined range in which edit points are set when it is determined by the determination unit and the determination unit that the playback device cannot play back the editing result data in real time. And the creation means creates second playback control information that designates a file composed of the data rearranged by the rearrangement means as a playback target.
[0010]
The information creation method of the present invention includes a reproduction control information acquisition step for acquiring first reproduction control information that designates a management file for managing data as a reproduction target, and a first reproduction acquired by processing of the reproduction control information acquisition step. And a creation step of creating second playback control information for designating a file composed of data as a playback target based on the control information.
[0011]
The program according to the present invention includes a reproduction control information acquisition step for acquiring first reproduction control information for specifying a management file for managing data as a reproduction target, and first reproduction control information acquired by processing of the reproduction control information acquisition step. And a creation step of creating second playback control information for designating a file composed of data as a playback target.
[0012]
In the present invention, first playback control information for specifying a management file for managing data as a playback target is acquired, and a file composed of data is specified as a playback target based on the first playback control information. Second reproduction control information is created.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
[0014]
Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
[0015]
The information creation device according to claim 1 is a management for managing the data in an information creation device (for example, the editing terminal device 66 in FIG. 1) that creates information provided to a playback device that plays back predetermined data. Reproduction control information acquisition means (for example, the process of step S21 in FIG. 8) that acquires first reproduction control information (for example, an edit list) that designates a file (for example, the clip information file 151 in FIG. 4) as a reproduction target is executed. 2 and the file composed of the data based on the first reproduction control information acquired by the reproduction control information acquisition means (for example, the image data file 152 of FIG. 4). Creating means (for example, the step of FIG. 8) for creating second reproduction control information (for example, a play list) that designates as a reproduction target. Characterized by comprising a playlist creation section 86 of FIG. 2) to perform a process flop S27.
[0016]
The information creating apparatus according to claim 2, wherein the first reproduction control information includes an edit point set for the data, and the reproduction apparatus uses an edit result based on the edit point. The determination means for determining whether or not the data can be reproduced in real time (for example, the playlist creation unit 86 in FIG. 2 that executes the process of step S24 in FIG. 8) and the determination means When the apparatus determines that the data that is the editing result cannot be reproduced in real time, a rearrangement unit that rearranges data in a predetermined range in which the editing points are set (for example, step in FIG. 8) 2 for executing the processing of S25, and the creation means creates a file composed of the data rearranged by the rearrangement means. Creating a second reproduction control information specifying for playback (for example, step S28 in FIG. 8) it is characterized.
[0017]
The information creation method according to claim 3 is an information creation method of an information creation device (for example, the editing terminal device 66 in FIG. 1) that creates information provided to a playback device that plays back predetermined data. A reproduction control information acquisition step (for example, step S21 in FIG. 8) for acquiring first reproduction control information (for example, an edit list) that designates a management file (for example, the clip information file 151 in FIG. 4) as a reproduction target. ) And the first reproduction control information acquired by the processing of the reproduction control information acquisition step, a file (for example, the image data file 152 in FIG. 4) configured to be designated as a reproduction target is designated. Creating step (for example, step S27 of FIG. 8) for creating reproduction control information (for example, playlist) of 2 Characterized in that it comprises a.
[0018]
A specific example of each step of the program described in claim 4 is the same as the specific example in the embodiment of the invention of each step of the information creating method according to claim 3.
[0019]
FIG. 1 is a diagram showing a configuration example of a video program production support system to which the present invention is applied.
[0020]
In FIG. 1, a video program production support system 51 is a system provided in, for example, a television broadcasting station that broadcasts a television signal, a video content production company such as a video or a movie, and the like. It is a system for producing a video program that is a video work. In addition, the video program production support system 51 makes it possible to consistently use metadata added to the video program, which is configured in an electronic file format, among a plurality of departments that share the production of the video program. This is a system for creating programs efficiently.
[0021]
As shown in FIG. 1, the video program production support system 51 includes a planning terminal device 61 for planning a video program, a network 62 to which the planning terminal device 61 is connected, and a news gathering terminal device connected to the network 62. 63, an imaging device 64 and a field PC / PDA (Personal Computer / Personal Digital Assistants) 65 (hereinafter referred to as field PC 65) constituting the coverage terminal device 63, and an editing terminal device 66 similarly connected to the network 62 And an optical disc 67 as a recording medium.
[0022]
The planning terminal device 61 includes, for example, an information processing device such as a personal computer and its peripheral devices, and is provided in a planning department or the like where a video program is planned. This planning department is responsible for the overall production of video programs. The planning and planning of the video program to be produced creates a scenario (scenario) for the video program, as well as the reporting department and editing department described later. This is the department that directs the production work to other departments. The planning terminal device 61 performs, for example, processing such as creating configuration table metadata in an electronic file format for each video program including policy instruction information corresponding to the video program scenario. The planning terminal device 61 supplies the generated configuration table metadata to the news gathering terminal device 63 and the like via the network 62. As a result, the planning component department instructs the news gathering department or the like of the scene and content to be interviewed or photographed.
[0023]
The news gathering terminal device 63 is a terminal device group used by a news gathering department that conducts news gathering, and includes, for example, an imaging device 64 and a field PC 65. This reporting department is the department that actually conducts interviews at the production site according to the production instructions and scenarios from the planning and composition department, for example, shooting the video of each scene that makes up the video program and covering the shooting status Department.
[0024]
The imaging device 64 is, for example, a video camera such as a camcorder (registered trademark), and is a device that is used for coverage of news programs for broadcasting, games such as sports, and video content such as movies. The imaging device 64 is connected to the network 62, and acquires the configuration table metadata from the planning terminal device 61 described above via the network 62, for example. Then, the imaging device 64 displays the acquired configuration table metadata on a predetermined display unit or the like, and makes a photographing staff such as a cameraman recognize the contents to be photographed. The imaging device 64 is operated by the imaging staff and performs imaging (imaging) of each scene constituting the video program based on the production instruction information of the acquired configuration table metadata. Then, image (video) data and audio data obtained by photographing are recorded on a recording medium such as the optical disc 67.
[0025]
Further, the imaging device 64, for example, not only original image data that is image data obtained by imaging, but also low resolution (low resolution) image data (hereinafter referred to as low resolution data) to the optical disc 67. Can be recorded. Original image data has a large amount of data, but is high-quality image data, and is therefore used for a finished video program product. On the other hand, the low-resolution data is image data corresponding to an image of a frame with a small number of pixels, which is generated, for example, by thinning out the number of pixels of each frame from the original image data.
[0026]
Further, the low resolution data may be further encoded by, for example, MPEG4 (Moving Picture Experts Group phase 4) method. This low resolution data has lower image quality than the original image data, but the data amount is small, so the processing load such as transmission and reproduction is light, and it is mainly used for coarse editing processing.
[0027]
The optical disc 67 on which image data, audio data, and the like are recorded by the imaging device 64 is transported and used, for example, to an editing department or a field PC 65 described later. However, since a certain amount of time is required for transporting the optical disc 67, the image pickup device 64 is sent to the planning terminal device 61, the field PC 65, the editing terminal device 66, or the like via the network 62. Data may be supplied. In that case, in order to shorten the transfer time (to reduce the load of the transfer process), the imaging device 64 uses a low resolution with a small data amount corresponding to the image data instead of the image data obtained by imaging. It is desirable to supply data.
[0028]
Note that the low resolution data transfer process by the imaging device 64 may be performed at any timing, may be performed in parallel with the imaging process, or may be performed collectively after the imaging process is completed. May be.
[0029]
In this way, by transferring the low resolution data prior to the conveyance of the optical disc 67, the editing department can perform comparatively early stages (for example, simultaneously with the imaging process) even if the conveyed optical disc 67 has not arrived. Since the editing work can be performed, the production efficiency of the video program can be increased. As described above, when the low resolution data is transmitted via the network 62, the imaging device 64 may record only the original image data and audio data on the optical disc 67, for example (low resolution data is recorded). It may not be recorded on the optical disc 67).
[0030]
The recording medium on which the imaging device 64 records video content and the like is not limited to the example of the optical disc 67 described above, and any recording medium may be used. For example, magneto-optical disks including MD (Mini-Disc) (registered trademark) and MO (Magneto Optical disk), magnetic disks including flexible disks, magnetic tapes used for DV (Digital Video) and VHS (Video Home System), It may be a semiconductor memory including a flash memory.
[0031]
The field PC 65 includes, for example, a portable information processing device such as a notebook personal computer or PDA, a peripheral device, and the like. The field PC 65 is connected to the imaging device 64 through various types of wired or wireless lines. For example, the configuration table metadata, image data, audio data, and the like can be shared with the imaging device 64.
[0032]
For example, the field PC 65 acquires the configuration table metadata from the planning terminal device 61 or the configuration table metadata from the imaging device 64 via the network 62. The field PC 65 displays the acquired configuration table metadata on a predetermined display unit, and allows the staff in charge of the news gathering department to recognize the contents to be gathered and photographed.
[0033]
Furthermore, the field PC 65 generates shooting situation information that is information relating to the coverage and shooting situation based on the input of the person in charge of the reporting department that is the user, and adds the generated shooting situation information to the corresponding column in the configuration table metadata. To do. In this way, the field PC 65 edits the configuration table metadata by adding the shooting status information to the corresponding column in the configuration table metadata. This shooting situation information is, for example, text data described from various viewpoints for each take or for each coverage location, and is useful information during subsequent editing processing. Further, the field PC 65 supplies the shooting state information as metadata to the imaging device 64 and adds it to image data and audio data obtained by the imaging device 64.
[0034]
The editing terminal device 66 is composed of, for example, an information processing device such as a personal computer and peripheral devices, and is provided in an editing department that performs image data and audio data editing processing. The editorial department edits the image data and audio data obtained by the imaging device 64 based on the production instructions and scenarios from the planning department, composition table metadata reflecting the interview situation in the interview department, etc., and completes the video program. It is a department to let you.
[0035]
The editing terminal device 66 acquires configuration table metadata and low resolution data from the imaging device 64 via the network 62, for example. The editing terminal device 66 obtains original image data and audio data from the optical disc 67 on which image data and audio data are recorded in the imaging device 64. Further, the editing terminal device 66 can also obtain a production instruction (instruction related to editing) directly from the planning terminal device 61 or the field PC 65 via the network 62.
[0036]
The editing terminal device 66 preferably reproduces and displays image data and audio data based on the acquired configuration table metadata. For example, the editing terminal device 66 is operated by the user and continuously converts low resolution data acquired via the network 62 and original image data and audio data recorded on the optical disc 67 in the order according to the scenario. Or display only image data of a desired clip. When the original image data recorded on the optical disc 67 is reproduced, the editing terminal device 66 reads, for example, the data recorded on the optical disc 67 and writes the data on the optical disc 67. A disk device or the like is used.
[0037]
The editing terminal device 66 not only reproduces and displays necessary image data and the like in a suitable order based on the configuration table metadata, for example, but also performs an editing process on the image data obtained by the interview. . This editing process includes a rough editing process and a main editing process.
[0038]
The rough editing process is a simple editing process for image data and audio data. For example, when the editing terminal device 66 acquires a plurality of clip data corresponding to a clip that is a unit indicating one imaging process in the rough editing process, for example, the editing terminal apparatus 66 performs the main editing from the clip data. Select the clip data to be used, select the necessary image or audio part from the selected clip data (Logging), and edit start position (IN point) corresponding to the selected image or audio part The editing end position (OUT point) is set using, for example, a time code or the like, and the corresponding portion is extracted (Ingesting) from the above-described clip data.
[0039]
Note that a clip is not only a single imaging process, but also a unit indicating the time from the start of imaging to the end of imaging, and a unit indicating the length of various data obtained by the imaging process. It is also a unit indicating the data amount of various data obtained by the imaging process. Furthermore, the clip may also indicate the collection of various data itself.
[0040]
This editing process connects the clip data that has undergone the rough editing process, performs final image quality adjustments on the image data, and creates complete package data that is data to be broadcast in programs, etc. It is processing to do.
[0041]
Each of the devices such as the planning terminal device 61, the imaging device 64, the field PC 65, and the editing terminal device 66 described above may be configured by a plurality of devices. For example, image data obtained by a plurality of imaging devices 64 may be acquired by one editing terminal device 66 via the optical disc 67 or the network 62, and the data may be edited. Alternatively, data supplied from one imaging device 64 may be edited by a plurality of editing terminal devices 66.
[0042]
Conversely, each device such as the planning terminal device 61, the imaging device 64, the field PC 65, and the editing terminal device 66 described above has been described as being configured separately, but not limited thereto, Some or all of the functions of the apparatus may be integrated with each other.
[0043]
The video program production support system 51 includes, for example, a center server (not shown) connected to the network 62 separately from the planning terminal device 61, the imaging device 64, the field PC 65, and the editing terminal device 66 described above. May be configured as a client / server system using the planning terminal device 61, the imaging device 64, the field PC 65, the editing terminal device 66, and the like as clients.
[0044]
FIG. 2 shows a detailed configuration example of the editing terminal device 66 of FIG.
[0045]
In FIG. 2, a CPU (Central Processing Unit) 81 of the editing terminal device 66 executes various processes according to a program stored in a ROM (Read Only Memory) 82. A RAM (Random Access Memory) 83 appropriately stores data and programs necessary for the CPU 81 to execute various processes.
[0046]
The clip data editing unit 84 controls the output unit 92 to display a GUI (Graphical User Interface) or the like on a display or the like, receives an operation input from the user via the input unit 91, and based on the operation input or the like, Edit and edit image data, audio data, low resolution data, metadata, etc. recorded on the optical disc 67 mounted in the drive 95, or low resolution data acquired via the communication unit 94, etc. Information on the contents, information on the edited data, and the like are generated and supplied to the edit list editing unit 85. Note that the clip data editing unit 84 performs nondestructive editing processing without updating various data to be reproduced.
[0047]
The edit list editing unit 85 generates an edit list indicating the editing result based on various types of information generated along with the editing process performed in the clip data editing unit 84 and records it on the optical disc 67.
[0048]
The playlist creation unit 86 creates a playlist based on the edit list and records it on the optical disc 67. The playlist is information on the result of compiling the edit list. The playlist can include a bridge essence described later as a component. Note that the playlist itself cannot be edited, and each time an edit list is edited, a new playlist reflecting the changed contents is generated. When the edit list is deleted, the corresponding playlist is also deleted.
[0049]
The bridge essence creation unit 87 creates a bridge essence. That is, when playing back clip data recorded on the optical disc 67 based on the edit list, depending on the physical layout of the clip data, the editing result cannot be played continuously without interruption due to the seek performance of the drive. There is. In such a case, the bridge essence creation unit 87 copies a section where continuous playback is impossible to another place, rearranges the sections so as to be physically continuous, creates a bridge essence, and performs continuous playback in real time. Guarantee.
[0050]
The CPU 81, ROM 82, RAM 83, clip data editing unit 84, edit list editing unit 85, playlist creation unit 86, and bridge essence creation unit 87 are connected to each other via a bus 88. An input / output interface 90 is also connected to the bus 88.
[0051]
The input / output interface 90 is connected to an input unit 91 including a keyboard and a mouse, and outputs a signal input to the input unit 91 to the CPU 81. The input / output interface 90 is also connected with an output unit 92 including a display and a speaker.
[0052]
Further, the input / output interface 90 includes a storage unit 93 including a hard disk, an EEPROM (Electronically Erasable and Programmable Read Only Memory), and a communication unit 94 that performs data communication with other devices via the network 62 and the like. Is also connected. The drive 95 is used when data is read from or written to the removable medium 101 formed of a recording medium such as an optical disk 67, a magnetic disk, a magneto-optical disk, or a semiconductor memory.
[0053]
Next, a file system for managing each data recorded on the optical disc 67, and a directory structure and files in the file system will be described with reference to FIG.
[0054]
As a file system for managing data recorded on the optical disc 67, any file system may be used. For example, UDF (Universal Disk Format), ISO 9660 (International Organization for Standardization 9660), or the like may be used. In addition, when a magnetic disk such as a hard disk is used instead of the optical disk 67, the file system is FAT (File Allocation Tables), NTFS (New Technology File System), HFS (Hierarchical File System), or UFS (Unix registered trademark). ) File System) or the like may be used. A dedicated file system may be used.
[0055]
In FIG. 3, a PROAV directory 132 is provided in a root directory (ROOT) 131. In the directory below the PROAV directory 132, information related to essence data such as image data and audio data, an edit list indicating the editing result of the essence data, and the like are arranged.
[0056]
The PROAV directory 132 includes an index file (INDEX.XML) 133, an index file (INDEX.BUP) 134, a disc information file (DISCINFO.XML) 135, a disc information file (DISCINFO.BUP) 136, a disc metafile (DISCMETA. XML) 137, a clip root directory (CLPR) 138, and an edit list root directory (EDTR) 139 are provided.
[0057]
In the index file 133, management information for managing all clip data and edit lists recorded on the optical disc 67 are described. Note that the index file 134 is a copy of the index file 133, and the reliability is improved by recording them separately in two files.
[0058]
For example, the index file 133 and the index file 134 include, as management information for managing clip data, a UMID added to a clip information file for managing clip data, which will be described later, and a file name of the clip information file. Information indicating the correspondence is described.
[0059]
The disc information file 135 describes information that must be strictly managed inside the playback device, such as the playback start position, among the metadata for the entire data recorded on the optical disc 67. The disc information file 136 is a copy of the disc information file 135, and the reliability is improved by separately recording the disc information file 135 in two files.
[0060]
The disc metafile 137 describes information that can be freely rewritten, for example, disc attributes, etc., among the metadata for the entire data recorded on the optical disc 67.
[0061]
In the clip root directory 138, clip data is provided in a lower directory, and in the edit list root directory 139, edit list data indicating an editing result for the clip data is provided in a lower directory.
[0062]
In the clip root directory 138, clip data recorded on the optical disc 67 is recorded in different directories for each clip. For example, in the example of FIG. 3, the data of three clips are divided and recorded in three directories: a clip directory (C0001) 141, a clip directory (C0002) 142, and a clip directory (C0003) 143.
[0063]
That is, each piece of data of the first clip recorded on the optical disc 67 is recorded in a file in a directory under the clip directory 141, and each piece of data of the clip recorded on the optical disc 67 is subordinate to the clip directory 142. Each piece of clip data recorded in the directory file and thirdly recorded on the optical disc 67 is recorded in a file in a directory below the clip directory 143.
[0064]
In the edit list root directory 139, the edit list recorded on the optical disc 67 is recorded in different directories for each editing process. For example, in the example of FIG. 3, there are four edit lists: an edit list directory (E0001) 144, an edit list directory (E0002) 145, an edit list directory (E0003) 146, and an edit list directory (E0004) 147. It is recorded separately.
[0065]
That is, the edit list indicating the first editing result of the clip recorded on the optical disc 67 is recorded in a file in a directory under the edit list directory 144, and the editing list indicating the second editing result is the edit list directory 145. The edit list that is recorded in a file in the lower directory of the file and that indicates the third edit result is managed as a file in a directory that is lower in the edit list directory 146, and the edit list that indicates the fourth edit result is the edit list directory 147. It is recorded in the file of the directory below.
[0066]
FIG. 4 shows a configuration example of files in a directory below the clip directory 141 provided in the clip root directory 138. In the clip directory 141, each piece of clip data first recorded on the optical disc 67 is provided as a file and managed.
[0067]
The clip directory 141 includes a clip information file (C0001C01.SMI) 151 which is a file for managing clips, an image data file (C0001V01.MXF) 152 which is a file including clip image data, and audio data of eight channels of clips. Audio data files (C0001A01.MXF to C0001A08.MXF) 153 to 160, low resolution data files (C0001S01.MXF) 161 that are files including low resolution data corresponding to clip image data, clip data and Non-real-time metadata that is a file containing non-real-time metadata that does not require real-time properties, such as metadata as an attribute of the editing result File (C0001M01.XML) 162, a real-time metadata file (C0001R01), which is a file including real-time metadata required for real-time properties such as LTC (Linear Time Code), UMID, etc. .BIM) 163 and a picture pointer file which is a file in which the frame structure of the image data file 152 (for example, information regarding the compression format for each picture in MPEG or the like, information such as an offset address from the beginning of the file) is described. (C0001I01.PPF) 164 is provided.
[0068]
In the example of FIG. 4, each of the image data of the image data file 152, the low resolution data of the low resolution data file 161, and the real time metadata of the real time metadata file 163, which is data that requires real time properties at the time of reproduction, is one. It is recorded in a file so that the reading time does not increase.
[0069]
The audio data of the audio data files 153 to 160 is also required to have real-time characteristics at the time of reproduction. However, in order to cope with the increase in the number of audio channels such as 7.1 channels, 8 channels are prepared and are different from each other. It is recorded in the file. In FIG. 4, the audio data is recorded in eight files. However, the present invention is not limited to this, and the number of audio data files may be seven or less, or nine or more. .
[0070]
Similarly, the image data of the image data file 152, the low resolution data of the low resolution data file 161, and the real time metadata of the real time metadata file 163 may be recorded in two or more files depending on circumstances. .
[0071]
In FIG. 4, non-real-time metadata that does not require real-time property of the non-real-time metadata file 162 is recorded in a file different from real-time metadata that requires real-time property of the real-time metadata file 163. This is to prevent unnecessary metadata such as image data from being read out during normal playback. By doing so, the processing time of playback processing and the load required for processing can be reduced. Can do.
[0072]
The non-real-time metadata file 162 is described in an XML (extensible Markup Language) format in order to provide versatility. The real-time metadata file 163 is a BIM format file obtained by compiling an XML format file in order to reduce the processing time of the playback process and the load required for the processing.
[0073]
The file configuration example of the clip directory 141 shown in FIG. 4 can be applied to all clip directories corresponding to each clip recorded on the optical disc 67. That is, the file configuration example shown in FIG. 4 can be applied to the other clip directories 142 and 143 shown in FIG.
[0074]
Note that the directory structure of the clip directory 141 is not limited to the example shown in FIG. 4, and a non-real-time metadata file corresponding to the clip exists in a directory (including the clip directory itself) below each clip directory. Any configuration may be used.
[0075]
FIG. 5 shows an example of a file structure in a directory below the edit list root directory 139. In the directory below the edit list directory 145 provided in the edit list root directory 139, edit list data indicating the second editing result of each data of the clip recorded on the optical disc 67 is provided as a file and managed. .
[0076]
The edit list directory 145 includes an edit list file (E0002E01.SMI) 171 which is a file for managing the editing result (edit list), edited essence data (among the data of all clips used for editing, after editing). Edit list non-real-time metadata file (E0002M01.E) which is a file including non-real-time metadata corresponding to (a portion extracted as data) or non-real-time metadata newly generated based on the non-real-time metadata. XML) 172, a playlist file (E0002P01.SMI) 173, which is a file including information such as a reproduction procedure (playlist) of essence data based on the editing result (edit list), playlist A file in which the frame structure of image data to be reproduced based on the reproduction procedure included in the file 173 (for example, information about the compression format for each picture in MPEG or the like, information such as an offset address from the beginning of the file) is described. A file including picture data (bridge essence image data) for guaranteeing real-time reproduction based on a reproduction procedure (playlist) of a playlist picture pointer file (E0001I01.PPF) 174 and a playlist file 173. Four files including audio data (bridge essence audio data) for guaranteeing real-time reproduction based on the reproduction procedure (playlist) of the bridge essence image data file (B0002V01.BMX) 175 and the playlist file 173 Low resolution data to guarantee real-time playback based on a playback procedure (playlist) of a bridge essence audio data file (B0002A01.BMX to B0002A04.BMX) 176 to 179 and playlist file 173 (bridge resolution low resolution data) Bridge essence low-resolution data file (B0002S01.BMX) 180 that is a file including the real-time metadata for guaranteeing real-time reproduction based on the reproduction procedure (playlist) of the playlist file 173 (real-time metadata of the bridge essence) A bridge essence real-time metadata file (B0002R01.BBM) 181 is provided.
[0077]
In FIG. 5, the non-real-time metadata that is not required for the real-time property of the edit list non-real-time metadata file 172 is recorded in a file different from the real-time metadata that is required for the bridge essence real-time metadata file 181. This is to prevent unnecessary metadata from being read during reproduction of image data or the like using the reproduction procedure (playlist) (during reproduction of the editing result). The processing time of the reproduction process and the load necessary for the process can be reduced.
[0078]
Note that the bridge essence non-real-time metadata file 172 is described in the XML format in order to have versatility. The edit list real-time metadata file 181 is a BBM format file corresponding to a BIM format obtained by compiling an XML format file in order to reduce the processing time of reproduction processing and the load necessary for the processing.
[0079]
Image data included in the bridge essence image data file 175, audio data included in the bridge essence audio data files 176 to 179, low resolution data included in the bridge essence low resolution data file 180, and included in the bridge essence real time metadata file 181 The real-time metadata is data extracted from image data, audio data, low-resolution data, and real-time metadata corresponding to clips managed in a directory under the clip root directory 138 in FIG. Is data corresponding to. These data are read when a reproduction process is performed based on a reproduction procedure (playlist) included in the playlist file 173.
[0080]
The image data recorded in the bridge essence image data file 175, the low resolution data recorded in the bridge essence low resolution data file 180, and the real time metadata recorded in the bridge essence real time metadata file 181 may be respectively It may be managed as a plurality of files (recorded as a plurality of files). Similarly, audio data recorded in the bridge essence audio data files 176 to 179 may be recorded in three or less files or five or more files.
[0081]
The configuration example of the file in the edit list directory 145 shown in FIG. 5 can be applied to all edit lists (editing results). That is, since the configuration example of the file shown in FIG. 5 can be applied to the other edit list directories 144, 146, or 147 shown in FIG. 3, the description thereof is omitted.
[0082]
The directory structure of the edit list directory corresponding to one editing operation is not limited to the above-described example, and the edit list directory corresponding to the edit list is included in a directory below each edit list directory (including the edit list directory). Any configuration may be used as long as the non-real-time metadata file exists.
[0083]
FIG. 6 is a flowchart for explaining edit list creation processing of the edit list editing unit 85 of FIG. This edit list creation process starts when the user operates the input unit 91 and instructs to record an edit list.
[0084]
In step S1, the edit list editing unit 85 creates an edit list directory 145 below the edit list root directory 139 recorded on the optical disc 67, and proceeds to step S2. In step S2, the edit list editing unit 85 creates an edit list file 171 for managing an edit list indicating the editing result in the edit list directory 145 created in step S1, and the process proceeds to step S3.
[0085]
In step S3, the edit list editing unit 85 is an edit list that is a file including non-real-time metadata corresponding to edited essence data or non-real-time metadata newly generated based on the non-real-time metadata. The non-real-time metadata file 172 is created in the edit list directory 145 created in step S1.
[0086]
Specifically, for example, when editing is performed, the edit list editing unit 85 edits the essence data after editing from the non-real-time metadata included in the non-real-time metadata file 162 of the clip directory 141 recorded on the optical disc 67. The non-real-time metadata for the edit list is reconstructed by using the extracted non-real-time metadata to reconstruct new non-real-time metadata with the edited essence data as one clip. Created in the edit list directory 145 created in step S1.
[0087]
After the processing in step S3, the process proceeds to step S4, and the edit list editing unit 85 has created the edit list file 171 in step S2, so that the PROAV recorded on the optical disc 67 including management information for managing the edit list. The contents of the index file 133 and index file 134 in the directory 132 are updated, and the process ends.
[0088]
FIG. 7 shows an example of an edit list described in the edit list file 171.
[0089]
FIG. 7 shows an example of codes in the range specified by the </ body> tag that is the end tag from the <body> tag that is the start tag in the edit list. In FIG. 7, numbers at the beginning of each line and a colon symbol (:) are added for convenience of explanation, and are not part of the code. The same applies to FIGS. 9 and 10 described later.
[0090]
As described above, the edit list indicates the editing result, and the contents are described between the <par> tag on the second line and the </ par> tag on the thirteenth line.
[0091]
The comment sentence “<!-Clip1->” on the third line indicates that codes related to clip # 1 are described in the fourth to seventh lines below. The string <! -Indicates that the subsequent part of the line is a comment.
[0092]
In the fourth and fifth lines, “<ref src =“ urn: smpte: umid: 060A... 10 ”” indicates that the UMID defined by the SMPTE of the clip information file 151 of clip # 1 to be reproduced is “ 060A ... 10 ".
[0093]
“Type =” edlDoc ”begin =“ smpte-30 = 00: 00: 00: 00 ”clipBegin =“ smpte-30 = 00: 00: 00: 00 ”on the sixth line and“ clipEnd ”on the seventh line = “Smpte-30 = 00: 10: 00: 0” /> ”,“ type = ”edlDoc” indicates that the type (type) of the clip information file is “edlDoc”, and “begin = “Smpte-30 = 00: 00: 00: 00” indicates that the start position of clip # 1 after editing is set to “TC = 00: 00: 00: 00” with reference to a certain time. It represents. “TC = XX: XX: XX: XX” represents a time code.
[0094]
Also, “clipBegin =“ smpte-30 = 00: 00: 00: 00 ”” represents that the IN point of clip # 1 is “TC = 00: 00: 00: 00” with a certain time as a reference. “ClipEnd =“ smpte-30 = 00: 10: 00: 00 ”” indicates that the OUT point of clip # 1 is set to “TC = 00: 00: 10: 00”. That is, the playback time of clip # 1 is 10 minutes.
[0095]
The comment sentence “<!-Clip2->” on the eighth line indicates that the code relating to clip # 2 is described in the ninth to twelfth lines below.
[0096]
“<Ref src =“ urn: smpte: umid: 060A... 0F ”” in the ninth and tenth lines indicates that the UMID of the clip information file 151 of clip # 2 is “060A... 0F”. ing.
[0097]
“Type =” edlDoc ”begin =“ smpte-30 = 00: 10: 00: 0 ”clipBegin =“ smpte-30 = 0: 02: 00: 00: 00 ”on the 11th line and“ clipEnd ”on the 12th line = “Smpte-30 = 00: 03: 30: 30”, “type =” edlDoc ”indicates that the type of the clip information file 151 is“ edlDoc ”, and“ begin = ”smpte-30”. = 00: 10: 00: 0 "" indicates that the start position of clip # 2 after editing is set to "TC = 00: 00: 10: 00" with a certain time as a reference. That is, the start position of clip # 2 is the time point of 10 minutes when the reproduction of clip # 1 ends from the start position of clip # 1 “TC = 00: 00: 00: 00”. Therefore, the edit list in FIG. 7 indicates that clip # 2 is played after clip # 1 is played.
[0098]
Also, “clipBegin =“ smpte-30 = 00: 02: 00: 00: 00 ”represents that the IN point of clip # 2 is“ TC = 0: 02: 00: 00: 00 ”with reference to a certain time. “ClipEnd =“ smpte-30 = 00: 03: 30: 30 ”” indicates that the OUT point of clip # 2 is set to “TC = 0: 03: 30: 30”.
[0099]
When the editing terminal device 66 reproduces the optical disk 67 based on the edit list of FIG. 7, first, the management information of the clip data of clip # 1 is described, and the UMID is “060A... 10”. The clip information file 151 is read out. The editing terminal device 66 refers to the clip information file 151 and, from the data of the clip # 1, “TC = 00: 00: 00: 00” to “TC = 00: 00: 10: 00”. Data reproduction is started from “TC = 00: 00: 00: 00”.
[0100]
Then, the editing terminal device 66 reads the clip information file 151 having the UMID “060A... 0F” in which the clip data management information of the clip # 2 is described. The editing terminal device 66 refers to the clip information file 151 and, from the data of clip # 2, “TC = 0: 02: 00: 00: 00” to “TC = 00: 00: 03: 00”. Data reproduction starts from “TC = 00: 10: 00: 00”, and when all of the data is reproduced, the process is terminated.
[0101]
FIG. 8 is a flowchart for explaining the playlist creation processing of the editing terminal device 66 of FIG. This playlist creation processing starts when, for example, the user inserts the optical disc 67 into the drive 95 and selects a predetermined edit list to be converted into a playlist from the edit list recorded on the optical disc 67. Is done.
[0102]
In step S21, the playlist creation unit 86 reads (obtains) the edit list (FIG. 7) selected by the user from the edit list file 171 recorded on the optical disc 67, interprets it, Proceed to step S22. Specifically, the playlist creation unit 86 is a playback target in the playlist and the UMID of the clip information file 151 (management file) in which the management information of the clip specified as the playback target in the edit list is described. Recognize IN point and OUT point (edit point) set for clip data.
[0103]
For example, when an edit list as shown in FIG. 7 is read out, the playlist creating unit 86 starts reproduction from “<ref src =“ urn: smpte: umid: 060A... 10 ”” on the fifth line. It is recognized that the UMID defined by SMPTE of the clip information file 151 of clip # 1 is “060A... 10”, and “clipBegin =“ smpte-30 = 00: 00: 00: 00 ”on the sixth line. ”And“ clipEnd = “smpte-30 = 00: 10: 00: 0” /> ”on the seventh line, the IN point set for clip # 1 to be played back in the playlist is“ TC = 00:00 ”and the OUT point of clip # 1 is recognized as“ TC = 00: 00: 10: 00 ”.
[0104]
After the processing in step S21, the process proceeds to step S22, and the playlist creation unit 86 recognizes the file name of clip data to be reproduced in the playlist based on the edit list interpreted in step S21.
[0105]
Specifically, the playlist creation unit 86 recognizes the file name of the clip information file 151 to be reproduced in the edit list specified by the UMID from the index file 133 based on the edit list. That is, the index file 133 describes the correspondence between the UMID added to the clip information file 151 and the file name of the clip information file. By referring to the correspondence, the playlist creating unit 86 The file name of the clip information file 151 to be reproduced recognized in step S21 is recognized.
[0106]
Then, the playlist creation unit 86 reads the clip information file 151 based on the file name of the clip information file 151, and clips to be reproduced in the playlist from the IN point and OUT point of the clip described in the edit list. Recognizes the data and recognizes the name of the file in which the clip data is recorded.
[0107]
After the processing in step S22, the process proceeds to step S23, and the playlist creating unit 86 reads out the picture pointer corresponding to the clip data to be reproduced in the playlist recognized in step S22 from the picture pointer file 164. Proceed from step S23 to step S24.
[0108]
In step S24, the playlist creation unit 86 causes the playback device to edit the clip data to be played back in the playlist with the edit points (IN point and OUT point) set for the clip data described in the edit list. ) To determine whether or not it can be played back in real time (performs a real-time playability determination). That is, the playlist creating unit 86 determines whether or not the playback device can play back the edited clip data that is the editing result in real time. The real-time playability determination is performed for all seek occurrence positions.
[0109]
Details of the real-time reproduction permission / inhibition determination are described in Japanese Patent Application Nos. 2002-366197 and 2002-366199. The techniques described in these documents can also be applied to the real-time playability determination performed by the editing terminal device 66 of FIG. In addition, for example, the AV data is virtually played under the same conditions as the playback device, and the real-time playback availability determination is performed by various methods such as determining whether the playback is performed in real time. Good.
[0110]
If it is determined in step S24 that the playlist creation unit 86 is not capable of real-time playback, the process proceeds to step S25, where the bridge essence creation unit 87 obtains a bridge essence (bridge essence file (for example, bridge essence image data file 175)). create. At this time, the bridge essence creation unit 87 determines a bridge essence creation position on the optical disc 67 based on the result of the real-time reproduction availability determination, and creates a bridge essence at the creation position.
[0111]
That is, depending on the physical arrangement state of clip data, the clip data may not be continuously reproduced (real time reproduction) without interruption based on the edit list due to the seek performance of the drive. In such a case, the bridge essence creation unit 87 transfers the clip data in a range where continuous reproduction is impossible among the clip data in the range where the edit points (IN point and OUT point) are set to another location on the optical disc 67. And rearrange them so that they are physically contiguous to create a bridge essence. Since the bridge essence is rearranged so as to be physically continuous, by reproducing the bridge essence instead of the clip data in a range where continuous reproduction is impossible, continuous reproduction in real time is guaranteed. Details of the creation of the bridge essence are described in Japanese Patent Application No. 2001-109341.
[0112]
After the processing in step S25, the process proceeds to step S26, and the playlist creation unit 86 creates a playlist picture pointer. That is, the playlist creating unit 86 uses the picture pointer corresponding to the clip data to be reproduced in the playlist, read from the picture pointer file 164 in step S23, as the playlist picture pointer. A file 174 is created.
[0113]
After the processing in step S26, the process proceeds to step S27, and the playlist creation unit 86 designates the file name of the clip data file to be reproduced in the playlist recognized in step S22 based on the edit list as the reproduction target. A playlist to be played (playlist file 173) is created, and the process proceeds to step S28.
[0114]
In step S28, the playlist creation unit 86 rewrites the playlist so that reproduction is performed with reference to the bridge essence. That is, the playlist creation unit 86 specifies the file name of the bridge essence file as the playback target for the essence data for which the bridge essence is created in step S25 among the clip data to be played back in the playlist. , Rewrite the playlist. Then, the playlist creation unit 86 ends the process.
[0115]
On the other hand, if it is determined in step S24 that the seek time is short and the playback apparatus can perform real-time playback in accordance with the edit point of the edit list, the playlist creation unit 86 proceeds to step S29 and plays Based on the edit list, the list creation unit 86 creates a playlist (playlist file 173) that designates the file name of the clip data file to be played back in the playlist recognized in step S22 as the playback target, End the process.
[0116]
In step S27 and step S29 described above, the playlist creation unit 86 creates the playlist by rewriting the edit list so that the file name of the clip data to be played in the playlist is designated as the playback target. When the clip data is played back on the device, it is not necessary to read out the clip information file 151 and recognize the clip data file to be played back in the playlist, and only to refer to the playlist to be played back in the playlist. Clip data can be played immediately. Therefore, the playback device does not require a lot of processing until the clip data is played back, and the time taken for playback can be shortened.
[0117]
Further, in step S24 and step S25 described above, the playlist creation unit 86 determines whether or not it can be played back in real time, and if it is determined that playback is not possible in real time, the bridge essence creation unit 87 Of the clip data in the range where the edit points are set, the clip data in the range where real-time playback is impossible is copied to another location on the optical disc 67, rearranged so that it is physically continuous, and bridge essence Therefore, real-time reproduction is guaranteed by reproducing bridge essence instead of clip data in a range where continuous reproduction is impossible.
[0118]
Note that the playlist creating unit 86 can also skip the process of step S29. In other words, if the playback device determines that the playback device can perform real-time playback according to the editing points of the edit list, the play list creation unit 86 does not create a playlist, and the playback device performs clip data according to the edit list. Can also be played.
[0119]
9 and 10 are diagrams showing examples of playlists described in the playlist file 173. In addition, FIG. 10 is a figure following FIG.
[0120]
FIG. 9 and FIG. 10 show examples of codes in a range specified from the <body> tag that is the start tag to the </ body> tag that is the end tag in the playlist.
[0121]
The contents of the playlist are described between the <par> tag on the second line and the </ par> tag on the 40th line.
[0122]
The <switch> tag on the third line specifies the type of codec (CODEC (Compressor DECompressor)), and is between the <switch> tag on the third line and the </ switch> on the 39th line. The codec type of the content described in can be specified.
[0123]
<! --Main Stream-> is a comment sentence representing the essence data, and <par systemComponent = “MPEG2HD25_1440_MP @ HL”> on the fifth line indicates that the codec type to be specified is “MPEG2HD25_1440_MP @ HL” ” Indicates that the codec is compatible. That is, a codec corresponding to an MP @ HL (main profile high level) decoder for MPEG (High Definition) image data encoded in MPEG2 and having a bit rate of 25 Mbps and a horizontal number of pixels of 1440 in the image. Is specified.
[0124]
In ““ MPEG2HD25 — 1440_MP @ HL ””, the number of pixels in the vertical direction of the image is omitted in order to shorten the description.
[0125]
Also, the 6th line <! --VIDEO-> is a comment sentence indicating that image data is described in the 7th to 38th lines below.
[0126]
“<!-Clip1->” on the seventh line is a comment sentence indicating that the code relating to clip # 1 is described in the eighth to twelfth lines below.
[0127]
“<Video src =” / PROAV / CLPR / 0001 / C0001V01. MXF ″ ”indicates that the file name of the data file of clip # 1 to be reproduced is“ C0001V01 ”. That is, the data of clip # 1 is the data of the image data file 152 (FIG. 4).
[0128]
“ClipBegin =“ smpte−30 = 00: 00: 00 ”” on the ninth line and “clipEnd =“ smpte-30 = 00: 05: 00 ”on the tenth line indicate a certain time. As a reference, the IN point of clip # 1 represents “TC = 00: 00: 00: 00”, and “clipEnd =“ smpte-30 = 00: 00: 00: 00 ”” This indicates that the OUT point is set to “TC = 00: 05: 00: 00: 00”. That is, the playback time of clip # 1 is 5 minutes.
[0129]
“Type =“ MPEG2HD25 — 1440_MP @ HL ”aspectRatio = 16: 9” in the 11th row indicates that the data type of clip # 1 is “MPEG2HD25 — 1440_MP @ HL”, and the aspect ratio of the image data is “16”. : 9 ". “Header =“ 65536 ”” on the 12th line indicates that the header size of the MXF (Media Exchange Format) file of the image data file 152 is 65536 bytes.
[0130]
“<!-Bridge Essence->” on the 13th line is a comment sentence indicating that the code relating to the bridge essence is described in the 14th to 29th lines below.
[0131]
“<Video src =” B0002V01. BMX ”” and “begin =“ smpte-30 = 00: 05: 00: 00: 00 ”,“ <video src = ”B0002V01. “BMX ″” indicates that the file name of the bridge essence to be reproduced is “B0002V01”. That is, the bridge essence data is data of the bridge essence image data file 175. Also, “begin =“ smpte-30 = 00: 05: 00: 00: 00 ”indicates that the bridge essence start position after editing is set to“ TC = 0: 05: 00: 00: 00 ”with reference to a certain time. It shows that there is. That is, the start position of the bridge essence is a time point of 5 minutes when the reproduction of the clip # 1 ends from the start position “TC = 00: 00: 00: 00” of the clip # 1.
[0132]
Here, assuming that the bridge essence 175 to be reproduced is the bridge essence # 1 as the bridge essence to be reproduced for the first time, “clipBegin =” smpte-30 = 00: 00: 00: on the 15th line. “00 ″” represents that the IN point of the bridge essence # 1 is “TC = 00: 00: 00: 00” on the basis of a certain time, and “clipEnd =“ smpte-30 = 00 ”on the 16th line. ": 00: 00: 12""indicates that the OUT point of the bridge essence # 1 is set to" TC = 00: 00: 02: 00 ". That is, the reproduction time of bridge essence # 1 is 12 frames.
[0133]
In the 17th line, “type =“ MPEG2HD25 — 1440_MP @ HL ”aspectRatio = 16: 9” /> ”, the data type of the bridge essence # 1 is“ MPEG2HD25 — 1440_MP @ HL ”and the aspect ratio of the image data is“ 16: 9 ".
[0134]
“<Video src =” B0002V01. BMX ”” and “begin =“ smpte-30 = 00: 05: 00: 12 ”,“ <video src = ”B0002V01. “BMX ″” indicates that the file name of the bridge essence # 2 to be reproduced is “B0002V01”. That is, the data of the bridge essence # 2 is the data of the bridge essence image data file 175. Also, “begin =“ smpte-30 = 00: 05: 00: 12 ”sets the start position of the edited bridge essence # 2 to“ TC = 00: 05: 00: 12 ”with a certain time as a reference. It represents what is being done. That is, the start position of the bridge essence # 2 is ended from the start position “TC = 0: 05: 00: 00: 00” of the bridge essence # 1 to be reproduced last time. The time is 12 frames.
[0135]
“ClipBegin =“ smpte-30 = 00: 00: 00: 17 ”” on the 19th line indicates that the IN point of bridge essence # 2 is “TC = 0: 00: 00: 17” with reference to a certain time. "ClipEnd =" smpte-30 = 00: 00: 00: 27 "" on the 20th line indicates that the OUT point of the bridge essence # 2 is set to "TC = 0: 00: 00: 27" It represents what is being done. That is, the reproduction time of bridge essence # 2 is 10 frames.
[0136]
“DecBegin =” smpte-30 = 00: 00: 00: 15 ”predecDur =“ 1 ”on the 21st line and“ decEnd = ”smpte-30 = 00: 00: 0: 28” postDecDur on the 22nd line = “1” is based on a certain time, the input start position to the decoder is “TC = 00: 00: 0: 15”, and the decoder input end position is “TC = 00: 00: 0: 28”. It represents that. The period (number of frames) that requires input to the decoder between the IN point and the input start position to the decoder is “1”, and input to the decoder between the OUT point and the decoder input end position is required. This means that a long period (the number of frames) is “1”.
[0137]
In other words, in the MPEG encoding method, it may be necessary to decode from the picture whose display order is earlier than the IN point. The start position of the decoding is specified by decBegin, and the frame that is not displayed but needs to be decoded. The number is specified by preDecDur. Also, in the MPEG encoding method, it may be necessary to decode up to a picture whose display order is later than the OUT point. The decoding end position is designated by decEnd, and the number of frames that are not displayed but need to be decoded. Is specified by postDecDur.
[0138]
Note that “decBegin” can be omitted when it is the same as “clipBegin”, and “decEnd” can be omitted when it is the same as “clipEnd”. For example, since “decBegin” and “decEnd” are not described in the 8th to 12th lines in which the code related to clip # 1 is described, “decBegin” is the same as “clipBegin”. “TC = 00: 00: 00: 00”, and “decEnd” is “TC = 0: 05: 00: 00: 00”, which is the same as “clipEnd”.
[0139]
“Type =“ MPEG2HD25 — 1440_MP @ HL ”” on the 23rd line and “aspectRatio = 16: 9” /> on the 24th line indicate that the data type of the bridge essence # 3 to be reproduced is “MPEG2HD25 — 1440_MP @ HL”. Yes, it represents that the aspect ratio of the image data is “16: 9”.
[0140]
“<Video src =” B0002V01. BMX ”” and “begin =“ smpte-30 = 00: 05: 00: 22 ”,“ <video src = ”B0002V01. “BMX ″” indicates that the file name of the bridge essence # 3 to be reproduced is “B0002V01”. That is, the bridge essence data is data of the bridge essence image data file 175. Also, “begin =” smpte-30 = 00: 05: 00: 22 ”means that the bridge essence start position after editing is set to“ TC = 0: 05: 00: 22 ”with a certain time as a reference. It shows that there is. That is, the start position of the bridge essence # 3 ends from the start position “TC = 00: 05: 00: 12” of the previous bridge essence # 2 to be played back, and the playback of the bridge essence # 2 of the previous playback target ends. This is the time point of 10 frames.
[0141]
On the 26th line, “clipBegin =“ smpte−30 = 00: 00: 01: 03 ”” indicates that the IN point of the bridge essence # 3 is “TC = 0: 00: 00: 01: 03” with reference to a certain time. “ClipEnd =“ smpte−30 = 00: 00: 01: 14 ”” on the 27th line indicates that the OUT point of the bridge essence # 3 is set to “TC = 00: 00: 00: 00” It represents what is being done. That is, the reproduction time of the bridge essence # 3 is 11 frames.
[0142]
“Type =“ MPEG2HD25 — 1440_MP @ HL ”” on the 28th line and “aspectRatio = 16: 9” on the 29th line indicate that the data type of the bridge essence # 3 to be reproduced is “MPEG2HD25 — 1440_MP @ HL”. This indicates that the aspect ratio of the image data is “16: 9”.
[0143]
“Header =“ 500000 ”/>” on the 29th line indicates that the offset to the frame to be reproduced is 500,000 bytes.
[0144]
"<!-Clip3->" on the 30th line is a comment sentence indicating that the code relating to clip # 3 is described in the 31st to 38th lines below.
[0145]
“<Video src =” / PROAV / CLPR / 0005 / C0005V01. “MXF ″” indicates that the file name of the data file of clip # 3 to be reproduced is “C0005V01”. “Begin =“ smpte-30 = 00: 05: 01: 03 ”on the 32nd line indicates that the start position of clip # 3 after editing is“ TC = 00: 05: 01: 03 ”with a certain time as a reference. It is set to. That is, the start position of clip # 3 is the end of playback of bridge essence # 3 of the previous playback target from the start position “TC = 0: 05: 00: 22” of bridge essence # 3 of the previous playback target. It is the time after the frame.
[0146]
In line 33, “clipBegin =“ smpte-30 = 00: 10: 00: 15 ””, the IN point of clip # 3 is “TC = 00: 10: 00: 15” with reference to a certain time. “ClipEnd =“ smpte−30 = 00: 15: 10: 00 ”” on the 34th line indicates that the OUT point of clip # 3 is “TC0: 00: 15: 10: 00”. Represents.
[0147]
“DecBegin =” smpte-30 = 00: 10: 00: 12 ”predecDur =“ 2 ”in the 35th line and“ decEnd = ”smpte-30 = 00: 15: 10: 00” postDecDur in the 36th line = “0”, with reference to a certain time, the input start position to the decoder is “TC = 00: 10: 00: 12”, and the decoder input end position is “TC = 0: 15: 10: 00”. It represents that. In addition, the period (number of frames) that requires input to the decoder between the IN point and the input start position to the decoder is “2”, and input to the decoder between the OUT point and the decoder input end position is required. This indicates that a long period (the number of frames) is “0”.
[0148]
“Type =“ MPEG2HD25 — 1440_MP @ HL ”” on the 37th line indicates that the data type of clip # 3 is “MPEG2HD25 — 1440_MP @ HL”. Of the “aspectRatio = 16: 9” header = “1000000” /> ”on the 38th line,“ aspectRatio = 16: 9 ”represents that the aspect ratio of the image data is“ 16: 9 ”, “Header =“ 1000000 ”/>” indicates that the header size of the MXF file of clip # 3 is 1000000 bytes.
[0149]
FIG. 11 is a diagram illustrating a configuration example of the reproducing device 201 that reproduces the optical disc 67.
[0150]
The playback control unit 211 includes a reading unit 221 and a decoding control unit 222.
[0151]
The playback control unit 211 plays the clip data such as the image data file 152 and the audio data file 153 recorded on the optical disc 67 mounted on the drive 212 in the playlist file 173 recorded on the optical disc 67 together with the clip data. Play based on the list.
[0152]
The reading unit 221 includes a picture pointer reading unit 231 and a playlist reading unit 232. The playlist reading unit 232 reads a playlist from the playlist file 173 recorded on the optical disc 67 loaded in the drive 212 via the disc I / F 241 and supplies it to the picture pointer reading unit 231.
[0153]
The picture pointer reading unit 231 sends a picture pointer of essence data (clip data and bridge essence) to be reproduced in the playlist supplied from the playlist reading unit 232 from the optical disk 67 mounted on the drive 212 to the disk I. Read through / F. That is, the picture pointer reading unit 231 reads the picture pointer corresponding to the clip data to be reproduced and the picture pointer corresponding to the bridge essence from the picture pointer file 164 and the playlist picture pointer file 174, respectively.
[0154]
The picture pointer reading unit 231 supplies the read picture pointer to the decoder control unit 222 together with the playlist supplied from the playlist reading unit 232.
[0155]
Based on the decoding type (codec type) described in the playlist, the decoding control unit 222 selects a decoder to be used for reproduction from the decoders 261-1 to 261-N of the decoding unit 213. Further, the decode control unit 222 controls the selected decoder based on the picture pointer and the playlist, and reproduces the essence data to be reproduced on the optical disc 67.
[0156]
The drive 212 is composed of a disk I / F 241. When the optical disk 67 is loaded in the drive 212, the disk I / F 241 reads a picture pointer and a playlist from the optical disk 67 and supplies them to the picture pointer reading unit 231 and the playlist reading unit 232, respectively. Further, the disk I / F 241 reads out other data and supplies it to the decoders 261-1 to 261 and decoder 261 -N of the decoder unit 213.
[0157]
The decoder unit 213 includes decoders 261-1,... In the following, when it is not necessary to individually distinguish each of the decoders 261-1 to 261-N, they are collectively referred to as a decoder 261.
[0158]
The decoder 261 is controlled by the decode control unit 222 and reproduces essence data to be reproduced recorded on the optical disc 67.
[0159]
FIG. 12 is a flowchart for explaining the reproduction process of the reproduction apparatus 201 in FIG. This reproduction process starts when the user inserts the optical disk 67 into the drive 212 and instructs to reproduce the optical disk 67 based on the playlist.
[0160]
In step S 41, the playlist reading unit 232 reads a playlist from the playlist file 173 recorded on the optical disc 67 and interprets it.
[0161]
For example, when the playlist is as shown in FIG. 9 and FIG. 10, the playlist reading unit 232 determines the codec type of the designated decoder from “<par systemComponent =“ MPEG2HD25 — 1440_MP @ HL ”>” on the fifth line. Is a codec corresponding to ““ MPEG2HD25 — 1440_MP @ HL ””, “<video src =” PROAV / CLPR / 0001 / C0001V01. MXF ″ ”interprets that the file name of the essence data to be reproduced specified in the playlist is“ C0001V01 ”.
[0162]
Also, the playlist read-out unit 232 has “clipBegin =” smpte-30 = 00: 00: 00: 00 ”on the ninth line and“ clipEnd = ”smpte-30 = 00: 05: 00” on the tenth line. 0:00 ”, it is interpreted that the IN point of the essence data to be reproduced is“ TC = 0: 00: 00: 00: 00 ”and the OUT point is“ TC = 0: 00: 00: 00: 00 ”.
[0163]
Furthermore, since “decBegin” and “decEnd” are not described in the playlist reading unit 232, “decBegin”, that is, the start position to the decoder is the same as the IN point “TC = 0: 00: 00: 00: 00” It is interpreted that “decEnd”, that is, the decoder end position is “TC = 00: 05: 00: 00: 00” which is the same as the OUT point.
[0164]
Then, the playlist reading unit 232 supplies the interpreted playlist to the picture pointer reading unit 231 and proceeds from step S41 to step S42.
[0165]
In step S42, the picture pointer reading unit 231 reads the picture pointer of the essence data to be reproduced by the playlist.
[0166]
For example, when the file name of the essence data to be played back by the playlist is “C0001V01”, the picture pointer from the picture pointer file 164 in which the picture pointer of the image data file 152 whose file name is “C0001V01” is described. Is read.
[0167]
Then, the picture pointer reading unit 231 supplies the read picture pointer together with the playlist supplied from the playlist reading unit 232 in step S41 to the decode control unit 222, and proceeds from step S42 to step S43.
[0168]
In step S43, the decoding control unit 222 recognizes the codec type of the designated decoder from the playlist supplied from the picture pointer reading unit 231, and selects the decoder 261.
[0169]
For example, when the codec type of the decoder specified in the playlist is a codec corresponding to ““ MPEG2HD25 — 1440_MP @ HL ””, the decoder 261 having the codec is selected as the decoder 261 that decodes the essence data to be played back. To do.
[0170]
After the processing of step S43, the process proceeds to step S44, and the decoder control unit 222 controls the decoder 261 to perform reproduction.
[0171]
Specifically, the decoder control unit 222 sets the decoding start position and decoding end position of the essence data to be reproduced based on the picture pointer and the playlist supplied from the picture pointer reading unit 231 in step S42, The decoder 261 is controlled. Based on the decoding start position and decoder end position set by the decoder control unit 222, the decoder 261 reads and decodes the essence data of the file having the file name designated as the reproduction target in the playlist from the optical disc 67 (reproduction). I do). Then, the decoder control unit 222 ends the process.
[0172]
In the playback process described above, in the playlist, the file name of the essence data is designated as the playback target. Therefore, the decoder 261 plays back the essence data immediately by playing back the essence data based on the playlist. Can do. Therefore, a lot of processing is not required until the reproduction of the essence data, and the time required for the reproduction can be reduced.
[0173]
Note that the playback device 201 repeats the process of playing back the clip data to be played back based on the playlist until the user gives an instruction to stop playback. For example, when playback processing is performed based on the playlist of FIGS. 9 and 10, after clip # 1 is played back, bridge essence # 1, bridge essence # 2, bridge essence # 3, and clip # 3 are played in this order. Is done.
[0174]
FIG. 13 is a diagram showing the concept of an edit list and a playlist.
[0175]
In FIG. 13, a clip information file 321-1 is a management file for managing an image data file 323-1 and an audio data file 324-1. The clip information file 321-2 is a management file for managing the image data file 323-2 and the audio data file 324-2.
[0176]
In the edit list 301, when the IN point and the OUT point are set in the image data file 323-1 and the image data file 323-2, a clip information file 321-which is a management file for managing the image data file 323-1. 1 and a clip information file 321-2 which is a management file for managing the image data file 323-2 are to be reproduced.
[0177]
Therefore, when clip data is reproduced based on the edit list 301, first, the clip information file 321-1 and the clip information file 321-2 are reproduced. Then, referring to the clip information file 321-1 and the clip information file 321-2, the image data file 323-1 and the image data file 323-2 are reproduced.
[0178]
Further, when the playlist 302 is created based on the edit list 301, in the playlist 302, the image data file 323-1 and the image data file 323-2 to be reproduced are directly designated as reproduction targets.
[0179]
Therefore, when clip data is reproduced based on the playlist 302, the image data file 323-1 and the image data file 323-2 are directly reproduced.
[0180]
Here, when the bridge essence file 331 has been created in order to guarantee real-time playback, the playlist 302 also specifies the bridge essence file 331 as a playback target.
[0181]
In the play list 302, the image data file 323-1 and the image data file 323-2 are directly designated as playback targets, so that the playback device immediately stores the direct image data file 323-1 and the image data file 323-2. Can be played. Accordingly, it is possible to shorten the time required for reproduction without requiring much processing until reproduction of the image data file 323-1 and the image data file 323-2.
[0182]
The editing terminal device 66 and the playback device 201 have been described as being configured separately from each other. However, the present invention is not limited to this, and some or all of the functions of each device are integrated with each other. You may make it do.
[0183]
In the above description, the edit list is created by the editing terminal device 66. However, the edit list is acquired by receiving the edit list created by another editing terminal device via a network such as the Internet. May be.
[0184]
In addition, in the present specification, the processes described in the flowcharts are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series according to the order described as steps. It also includes processing.
[0185]
【The invention's effect】
As described above, according to the present invention, data can be reproduced. In particular, the time required for data reproduction can be shortened, whereby the data can be reproduced in real time.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a video program production support system to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the editing terminal device in FIG. 1;
FIG. 3 is a diagram showing a configuration example of a directory structure for managing data by a file system.
4 is a diagram showing a detailed configuration example of the directory structure of FIG. 3;
5 is a diagram showing a detailed configuration example of the directory structure of FIG. 3;
6 is a flowchart for describing edit list creation processing of the edit list editing unit in FIG. 2; FIG.
FIG. 7 is a diagram showing an example of an edit list.
FIG. 8 is a flowchart for explaining playlist creation processing of the playlist creation unit of FIG. 2;
FIG. 9 is a diagram illustrating an example of a playlist.
FIG. 10 is a diagram illustrating an example of a playlist.
FIG. 11 is a block diagram illustrating a configuration example of a playback device.
FIG. 12 is a flowchart for explaining playback processing of the playback device of FIG. 11;
FIG. 13 is a diagram showing the concept of an edit list and a playlist.
[Explanation of symbols]
51 video program production support system, 61 planning terminal device, 62 network, 63 coverage terminal device, 64 imaging device, 65 field PC, 66 editing terminal device, 67 optical disc, 84 clip data editing unit, 85 edit list editing unit , 86 playlist creation unit, 87 bridge essence creation unit, 211 playback control unit, 212 drive, 213 decoding unit, 221 readout unit, 222 decoder control unit, 231 picture pointer readout unit, 232 playlist readout unit, 241 disc I / F, 261 decoder

Claims (4)

所定のデータを再生する再生装置に提供される情報を作成する情報作成装置において、
前記データを管理する管理ファイルを再生対象として指定する第1の再生制御情報を取得する再生制御情報取得手段と、
前記再生制御情報取得手段により取得した前記第1の再生制御情報に基づいて、前記データから構成されるファイルを再生対象として指定する第2の再生制御情報を作成する作成手段と
を備えることを特徴とする情報作成装置。
In an information creation device that creates information provided to a playback device that plays back predetermined data,
Reproduction control information acquisition means for acquiring first reproduction control information for designating a management file for managing the data as a reproduction target;
Creating means for creating second reproduction control information for designating a file composed of the data as a reproduction target based on the first reproduction control information obtained by the reproduction control information obtaining means; Information creation device.
前記第1の再生制御情報には、前記データに対して設定された編集点が記述されており、
前記再生装置が、前記編集点に基づく編集結果である前記データをリアルタイムで再生することができるか否かを判定する判定手段と、
前記判定手段により、前記再生装置が、前記編集結果である前記データをリアルタイムで再生することができないと判定された場合、前記編集点が設定された所定の範囲のデータを再配置する再配置手段と
をさらに備え、
前記作成手段は、前記再配置手段により再配置された前記データから構成されるファイルをも再生対象として指定する第2の再生制御情報を作成する
ことを特徴とする請求項1に記載の情報作成装置。
In the first reproduction control information, edit points set for the data are described.
Determining means for determining whether or not the playback device can play back the data that is an editing result based on the editing point in real time;
Relocation means for rearranging data in a predetermined range in which the editing points are set when the determination means determines that the playback apparatus cannot reproduce the data as the editing result in real time. And further comprising
2. The information creation according to claim 1, wherein the creation unit creates second playback control information that also designates a file including the data rearranged by the rearrangement unit as a playback target. apparatus.
所定のデータを再生する再生装置に提供される情報を作成する情報作成装置の情報作成方法において、
前記データを管理する管理ファイルを再生対象として指定する第1の再生制御情報を取得する再生制御情報取得ステップと、
前記再生制御情報取得ステップの処理により取得した前記第1の再生制御情報に基づいて、前記データから構成されるファイルを再生対象として指定する第2の再生制御情報を作成する作成ステップと
を含むことを特徴とする情報作成方法。
In an information creation method of an information creation device for creating information provided to a playback device that plays back predetermined data,
A reproduction control information acquisition step of acquiring first reproduction control information for designating a management file for managing the data as a reproduction target;
Creating a second reproduction control information for designating a file composed of the data as a reproduction target based on the first reproduction control information acquired by the process of the reproduction control information acquisition step. An information creation method characterized by
コンピュータに所定のデータを再生する再生装置に提供される情報を作成する情報作成処理を行わせるプログラムにおいて、
前記データを管理する管理ファイルを再生対象として指定する第1の再生制御情報を取得する再生制御情報取得ステップと、
前記再生制御情報取得ステップの処理により取得した前記第1の再生制御情報に基づいて、前記データから構成されるファイルを再生対象として指定する第2の再生制御情報を作成する作成ステップと
を備えることを特徴とするプログラム。
In a program for causing a computer to perform information creation processing for creating information provided to a playback device that plays back predetermined data,
A reproduction control information acquisition step of acquiring first reproduction control information for designating a management file for managing the data as a reproduction target;
A creation step of creating second playback control information for designating a file composed of the data as a playback target based on the first playback control information acquired by the processing of the playback control information acquisition step. A program characterized by
JP2003165834A 2003-06-11 2003-06-11 Information creating apparatus and method, and program Expired - Fee Related JP3833192B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003165834A JP3833192B2 (en) 2003-06-11 2003-06-11 Information creating apparatus and method, and program
PCT/JP2004/008507 WO2004112034A1 (en) 2003-06-11 2004-06-10 Information creation device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003165834A JP3833192B2 (en) 2003-06-11 2003-06-11 Information creating apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2005004851A true JP2005004851A (en) 2005-01-06
JP3833192B2 JP3833192B2 (en) 2006-10-11

Family

ID=33549230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003165834A Expired - Fee Related JP3833192B2 (en) 2003-06-11 2003-06-11 Information creating apparatus and method, and program

Country Status (2)

Country Link
JP (1) JP3833192B2 (en)
WO (1) WO2004112034A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0684329A (en) * 1992-09-01 1994-03-25 Matsushita Electric Ind Co Ltd Automatic cassette changer
JP4062820B2 (en) * 1999-06-28 2008-03-19 ソニー株式会社 Material accumulation and delivery apparatus and material accumulation and delivery method
JP4328989B2 (en) * 1999-11-24 2009-09-09 ソニー株式会社 REPRODUCTION DEVICE, REPRODUCTION METHOD, AND RECORDING MEDIUM
JP4065128B2 (en) * 2000-11-29 2008-03-19 松下電器産業株式会社 Recording apparatus, reproducing apparatus, program, computer-readable recording medium and method

Also Published As

Publication number Publication date
WO2004112034A1 (en) 2004-12-23
JP3833192B2 (en) 2006-10-11

Similar Documents

Publication Publication Date Title
US8972862B2 (en) Method and system for providing remote digital media ingest with centralized editorial control
US8126313B2 (en) Method and system for providing a personal video recorder utilizing network-based digital media content
US8644679B2 (en) Method and system for dynamic control of digital media content playback and advertisement delivery
US7970260B2 (en) Digital media asset management system and method for supporting multiple users
US9210482B2 (en) Method and system for providing a personal video recorder utilizing network-based digital media content
JP3677779B2 (en) Information processing apparatus and method, program, and recording medium
CA2600207A1 (en) Method and system for providing distributed editing and storage of digital media over a network
JP4967572B2 (en) Recording / reproducing apparatus and recording / reproducing method
JP5259780B2 (en) Video file creation apparatus and video file creation method
JP2005012390A (en) Information forming device and method, reproduction device and method, and program
JP3835801B2 (en) Information processing apparatus and method, program recording medium, and program
US20040267698A1 (en) Information processing apparatus and method, program, and recording medium
CN100562938C (en) Messaging device and method
JP2004297441A (en) Information preparation apparatus and method, reproducing apparatus and method, and program
US8046341B2 (en) Information processing apparatus for reproducing metadata and method, program, and recording medium
JP3833192B2 (en) Information creating apparatus and method, and program
JP3894444B2 (en) Information processing apparatus and method, program recording medium, and program
JP4434633B2 (en) Information processing apparatus and method, program recording medium, and program
JP2005005915A (en) Information processor and information processing method, recording medium and program
JP4507515B2 (en) Information processing apparatus and method, program, and recording medium
JP2005005916A (en) Information processing apparatus and method, recording medium, and program
JP2006079133A (en) Information processing device and method, program storage medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060718

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees