次に、図面を参照して、本発明の一実施の形態について説明する。
図1は、本発明を適用したAVネットワークシステム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない)の一実施の形態の構成例を示している。
ディスク装置1は、ディスク駆動部11、フォーマット変換部12、通信I/F13、主制御部14、操作部15、表示制御部16、および、表示部17で構成され、ネットワーク4を介して伝送されてくるAVデータのファイルを受信し、光ディスク7に記録し、また、光ディスク7に記録されたAVデータのファイルを読み出し、ネットワーク4を介して伝送する。
即ち、ディスク駆動部11には、光ディスク7が着脱される。ディスク駆動部11は、そこに装着された光ディスク7を駆動することにより、フォーマット変換部12から供給される、後述するAV独立フォーマットのファイルを光ディスク7に記録し(書き込み)、また、光ディスク7からAV独立フォーマットのファイルを読み出して、フォーマット変換部12に供給する。
フォーマット変換部12は、ディスク駆動部11から供給されるAV独立フォーマットのファイルを、後述する標準AV多重フォーマットのファイルに変換し、通信I/F13に供給する。また、フォーマット変換部12は、通信I/F13から供給される標準AV多重フォーマットのファイルを、AV独立フォーマットのファイルに変換し、ディスク駆動部11に供給する。
通信I/F13は、例えば、IEEE(Institute of Electrical and Electronics Engineers)1394ポートや、USB(Universal Serial Bus)ポート、LAN(Local Area Network)接続用のNIC(Network Interface Card)、あるいは、アナログモデムや、TA(Terminal Adapter)およびDSU(Digital Service Unit)、ADSL(Asymmetric Digital Subscriber Line)モデム等で構成され、例えば、インターネットやイントラネット等のネットワーク4を介して、標準AV多重フォーマットのファイルをやりとりする。即ち、通信I/F13は、フォーマット変換部12から供給される標準AV多重フォーマットのファイルを、ネットワーク4を介して伝送し、また、ネットワーク4を介して伝送されてくる標準AV多重フォーマットのファイルを受信して、フォーマット変換部12に供給する。
主制御部14は、ディスク装置1全体の制御を行う。即ち、主制御部14には、上述した、ディスク駆動部11、フォーマット変換部12、および、通信I/F13の他さらに、操作部15、および表示制御部16が接続されており、主制御部14は、例えば、操作部15から供給される信号に基づいて、自分自身で処理を行ったり、これらのブロック(ディスク駆動部11乃至表示制御部16)のうちの対応するブロックが実行する処理の制御を行う。
操作部15は、ユーザにより操作され、その操作に対応する信号(指令)を主制御部14に供給する。
表示制御部16は、それに接続された表示部17に画像を表示させるように制御する。即ち、主制御部14から供給される各種の画像データを、表示部17に対応するフォーマットの画像信号に変換して、表示部17に供給する。表示部17は、表示制御部16から供給された画像信号に対応する画像(例えば、後述する図26に示される処理対象指定画像)を表示する。
以上のように構成されるディスク装置1では、通信I/F13が、ネットワーク4を介して伝送されてくる標準AV多重フォーマットのファイルを受信し、フォーマット変換部12に供給する。フォーマット変換部12は、通信I/F13からの標準AV多重フォーマットのファイルを、AV独立フォーマットのファイルに変換し、ディスク駆動部11に供給する。そして、ディスク駆動部11は、フォーマット変換部12からのAV独立フォーマットのファイルを、そこに装着された光ディスク7に記録する。
また、ディスク装置1では、ディスク駆動部11が、そこに装着された光ディスク7からAV独立フォーマットのファイルを読み出し、フォーマット変換部12に供給する。フォーマット変換部12は、ディスク駆動部11からのAV独立フォーマットのファイルを、標準AV多重フォーマットのファイルに変換し、通信I/F13に供給する。そして、通信I/F13は、フォーマット変換部12からの標準AV多重フォーマットのファイルを、ネットワーク4を介して伝送する。
さらに、このような一連の処理の前処理として、ディスク装置1では、表示制御部16が、後述する図26に示されるようなユーザインタフェース用の画像を表示部17に表示させることができる。従って、ユーザは、表示部17に表示された画像を見ながら操作部15を操作する、といった簡単な操作を行うだけで、上述した一連の処理をディスク装置1に実行させることができる。なお、このようなユーザインタフェース用の画像(即ち、図26に示されるような、後述する処理対象指定画像)や、その画像を用いるユーザ操作(それに伴うディスク装置1の処理)の詳細については後述する。
ここで、標準AV多重フォーマットのファイルは、例えば、MXFの規格に準拠したファイルであり、ヘッダ、ボディ、フッタからなる。そして、標準AV多重フォーマットのファイルは、MXFの規格に準拠したファイルであるから、そのボディには、AVデータであるビデオデータとオーディオデータとが、例えば、1フレーム単位で多重化されて配置されている。
図1において、ネットワーク4に接続されているAV装置5や6は、MXFの規格に準拠したファイルを取り扱うことができるMXFの規格に準拠した装置であり、従って、AV装置5や6は、標準AV多重フォーマットのファイルを、ネットワーク4を介して、ディスク装置1に伝送することができる。さらに、AV装置5や6は、ネットワーク4を介して、ディスク装置1から伝送されてくる標準AV多重フォーマットのファイルを受信することができる。即ち、ディスク装置1と、AV装置5や6との間では、ネットワーク4を介して、標準AV多重フォーマットのファイルのファイル交換を行うことができる。さらに、AV装置5や6は、受信した標準AV多重フォーマットのファイルを対象に、そのストリーミング再生等の各種の処理を行うことができる。
ここで、AV装置5や6のように、現行のMXFの規格に準拠した装置を、以下、適宜、標準装置という。
一方、AV独立フォーマットのファイルは、標準AV多重フォーマットのファイルと同様に、ヘッダ、ボディ、フッタからなるが、そのボディの形式だけは、標準AV多重フォーマットとは異なるものとなっている。即ち、AV独立フォーマットのファイルでは、ビデオデータとオーディオデータとが別々のファイルとされている。そして、ビデオデータのファイルであるビデオファイルは、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを有するが、そのボディには、ビデオデータがまとめて配置されている。また、オーディオデータのファイルであるオーディオファイルも、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを有するが、そのボディには、オーディオデータがまとめて配置されている。
従って、仮に、ディスク装置1からAV装置5や6に対して、AV独立フォーマットのビデオファイルやオーディオファイルを伝送した場合、標準装置であるAV装置5や6では、AV独立フォーマットに対応していない限り、そのAV独立フォーマットのビデオファイルやオーディオファイルのボディに配置されたビデオデータやオーディオデータを扱うことはできないが、そのAV独立フォーマットのビデオファイルやオーディオファイル自体を扱うことはできる。即ち、AV独立フォーマットのビデオファイルやオーディオファイルは、標準AV多重フォーマットのファイルと同様に、ヘッダ、ボディ、フッタで構成され、そのヘッダとフッタとして、標準AV多重フォーマットのファイルと同一形式のものを採用しているから、そのボディの「中身」(ボディに配置されたデータ)を参照しない限り、AV独立フォーマットのビデオファイルやオーディオファイル自体は、標準AVフォーマット
のファイルと等価である(標準AVフォーマットに準拠したファイルになっている)。従って、標準装置であるAV装置5や6が、AV独立フォーマットに対応していない場合であっても、AV独立フォーマットのビデオファイルやオーディオファイル自体を扱うことはできる。
即ち、ディスク装置1と、標準装置であるAV装置5や6との間においては、AV独立フォーマットのファイルのファイル交換だけであれば、行うことが可能である。
以上のように、AV独立フォーマットのファイルは、そのボディの「中身」を参照しない限り、標準AV多重フォーマットのファイルと等価であり、この観点からは、AV独立フォーマットのファイルは、標準AV多重フォーマットのファイルと互換性があるということができる。
次に、図1において、ディスク装置2には、光ディスク7を着脱することができるようになっている。ディスク装置2は、例えば、AV装置5や6と同様に、標準装置であり、そこに装着された光ディスク7から、AV独立フォーマットのビデオファイルやオーディオファイルを読み出し、編集装置3に供給する。
即ち、上述したように、AV独立フォーマットのビデオファイルやオーディオファイルは、そのボディの「中身」を参照しない限り、標準AV多重フォーマットのファイルと等価であるから、標準装置であるディスク装置2は、光ディスク7から、AV独立フォーマットのビデオファイルやオーディオファイルを読み出すことができる。
編集装置3は、AV独立フォーマットのファイルを取り扱うことができる、AV独立フォーマットに対応した装置であり、ディスク装置2から供給されるAV独立フォーマットビデオファイルやオーディオファイルを対象に、例えば、AV独立編集を行い、その編集結果としてのAV独立フォーマットのビデオファイルやオーディオファイルを、ディスク装置2に供給する。
そして、ディスク装置2は、そこに装着された光ディスク7に、編集装置3から供給されるAV独立フォーマットのビデオファイルやオーディオファイルを記録する。
即ち、上述したように、AV独立フォーマットのビデオファイルやオーディオファイルは、そのボディの「中身」を参照しない限り、標準AV多重フォーマットのファイルと等価であるから、標準装置であるディスク装置2は、光ディスク7に、AV独立フォーマットのビデオファイルやオーディオファイルを記録することができる。
上述したように、標準AV多重フォーマットのファイルにおいては、そのボディに、ビデオデータとオーディオデータとが、例えば、1フレーム単位で多重化されて配置されているのに対して、AV独立フォーマットのビデオファイルやオーディオファイルにおいては、そのボディに、ビデオデータやオーディオデータがまとめて配置されているので、AV独立編集等の編集を容易に行うことができる。そして、AV独立フォーマットのファイルは、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを有するから、ボディの「中身」を参照しない限り、標準AV多重フォーマットのファイルと互換性があり、これにより、標準装置で扱うことができる。
図2は、標準AV多重フォーマットの例を示している。
ここで、図2では、ボディに配置されるビデオデータとオーディオデータとして、D10と呼ばれるMPEG(Moving Picture Experts Group) IMX方式で符号化されたビデオデータと、AES(Audio Engineering Society)3形式の非圧縮のオーディオデータを、それぞれ採用した場合の標準AV多重フォーマットを示している。
なお、ボディには、その他、DV(Digital Video)等の各種のフォーマットのビデオデータとオーディオデータを配置することが可能である。
標準AV多重フォーマットのファイルは、その先頭から、ヘッダ(File Header)、ボディ(File Body)、フッタ(File Footer)が順次配置されて構成される。
ヘッダには、その先頭から、ヘッダパーティションパック(Header Partition Pack)、ヘッダメタデータ(Header Metadata)、インデックステーブル(Index Table)が順次配置される。ヘッダパーティションパックには、ヘッダを特定するためのデータや、ボディに配置されるデータの形式、ファイルフォーマットを表す情報などが配置される。ヘッダメタデータには、例えば、ファイルの作成日や、ボディに配置されたデータに関する情報などのファイル単位のメタデータが配置される。インデックステーブルには、ボディに配置される、後述するエディットユニットの位置を表すテーブルが配置される。
なお、インデックステーブルは、オプションであり、ヘッダに含めても、含めなくても良い。また、前述の非特許文献1に記載されているように、ヘッダには、インデックステーブルの他、種々のオプションのデータを配置することができる。
また、ヘッダパーティションパックに配置されるファイルフォーマットを表す情報としては、標準AV多重フォーマットのファイルでは、標準AV多重フォーマットを表す情報が採用されるが、AV独立フォーマットのファイルでは、AV独立フォーマットを表す情報が採用される。但し、ヘッダパーティションパックの形式自体は、標準AV多重フォーマットとAV独立フォーマットにおいて同一である。
フッタは、フッタパーティションパック(Footer Partition Pack)で構成され、フッタパーティションパックには、フッタを特定するためのデータなどが配置される。
ボディは、1以上のエディットユニット(Edit Unit)で構成される。エディットユニットは、1フレームの単位であり、そこには、1フレーム分のAVデータその他が配置される。
即ち、エディットユニットは、その先頭から、システムアイテム(Sytem Item)、ピクチャアイテム(Picture Item)、サウンドアイテム(Sound Item)、オグジュアリアイテム(Auxiliary Item)が配置されて構成される。
システムアイテムには、その後段のピクチャアイテムに配置されるビデオデータのフレームについてのメタデータ(フレーム単位のメタデータ)が配置される。ここで、フレーム単位のメタデータとしては、例えば、タイムコードなどがある。
ピクチャアイテムには、1フレーム分のビデオデータが配置される。図2では、上述したD10形式のビデオデータが配置される。
ここで、ピクチャアイテムには、1フレームのビデオデータがKLV(Key,Length,Value)構造にKLVコーディングされて配置される。
KLV構造とは、その先頭から、キー(Key)、レングス(Length)、バリュー(Value)が順次配置された構造であり、キーには、バリューに配置されるデータがどのようなデータであるかを表す、SMPTE 298Mの規格に準拠した16バイトのラベルが配置される。レングスには、バリューに配置されるデータのデータ長が配置される。バリューには、実データ、即ち、ここでは、1フレームのビデオデータが配置される。
また、ピクチャアイテムは、そのデータ長が、KAG(KLV Alignment Grid)を基準とする固定長となっている。そして、ピクチャアイテムを固定長とするのに、スタッフィング(stuffing)のためのデータとしてのフィラー(Filler)が、やはりKLV構造とされて、ピクチャアイテムのビデオデータの後に配置される。
なお、ピクチャアイテムのデータ長であるKAGを基準とする固定長は、例えば、光ディスク7のセクタ長の整数倍(例えば、512バイトや2Kバイトなど)とされている。この場合、光ディスク7とピクチャアイテムとの、いわば親和性が高くなり、光ディスク7に対するピクチャアイテムの読み書き処理の高速化を図ることができる。
また、上述のシステムアイテム、並びに後述するサウンドアイテムおよびオグジュアリアイテムにおいても、ピクチャアイテムと同様に、KLV構造が採用されているとともに、そのデータ長がKAGを基準とする固定長になっている。
サウンドアイテムには、ピクチャアイテムに配置されたビデオデータのフレームにおける1フレーム分のオーディオデータが、上述のピクチャアイテムにおける場合と同様にKLV構造で配置される。
また、サウンドアイテムには、複数としての、例えば8チャネルのオーディオデータが多重化されて配置される。
即ち、サウンドアイテムにおいて、KLV構造のバリューには、その先頭から、エレメントヘッダEH(Element Header)、オーディオサンプルカウントASC(Audio Sample Count)、ストリームバリッドフラグSVF(Stream Valid Flags)、多重化された8チャネルのオーディオデータが順次配置される。
ここで、サウンドアイテムにおいて、8チャネルのオーディオデータは、1フレームにおける8チャネルそれぞれのオーディオデータの第1サンプル、第2サンプル、・・・といった順番に、オーディオデータのサンプルが配置されることにより多重化されている。図2の最下部に示したオーディオデータにおいて、括弧付きで示してある数字は、オーディオデータのサンプルが何サンプル目かを表している。
また、エレメントヘッダEHには、そのエレメントヘッダを特定するためのデータなどが配置される。オーディオサンプルカウントASCには、サウンドアイテムに配置されているオーディオデータのサンプル数が配置される。ストリームバリッドフラグSVFは、8ビット(1バイト)のフラグで、各ビットは、そのビットに対応するチャネルのオーディオデータが有効か、無効かを表す。即ち、ストリームバリッドフラグSVFの各ビットは、そのビットに対応するチャネルのオーディオデータが有効である場合に、例えば1とされ、無効である場合に、例えば0とされる。
オグジュアリアイテムには、必要なユーザデータが配置される。従って、オグジュアリアイテムは、ユーザが任意のデータを配置することができるエリアである。
以上のように、標準AV多重フォーマットでは、フレーム単位のメタデータが配置されるシステムアイテム、ビデオデータが配置されるピクチャアイテム、オーディオデータが配置されるサウンドアイテム、ユーザデータが配置されるオグジュアリアイテムが、1フレーム単位で多重化されており、さらに、サウンドアイテムでは、8チャネルのオーディオデータが、1サンプル単位で多重化されている。
このため、ビデオデータとオーディオデータが、別々にまとめて配置されているファイルでは、そのまとまったビデオデータのファイルとオーディオデータのファイルをすべて受信してからでないと、そのビデオデータおよびオーディオデータの再生を開始することができないが、標準AV多重フォーマットでは、ビデオデータとオーディオデータとがフレーム単位で多重化されているため、1フレーム分のビデオデータとオーディオデータを受信すれば、そのフレームのビデオデータおよびオーディオデータを、即座に再生することができる。従って、標準AV多重フォーマットは、ストリーミングに適しているということができる。
以上のように、標準AVフォーマットは、ビデオデータとオーディオデータとがフレーム単位で多重化されているので、ストリーミングには適している。しかしながら、その反面、ビデオデータとオーディオデータそれぞれを別々に編集するAV独立編集がしにくい。
さらに、ファイル単位のメタデータも、エディットユニットのシステムアイテムに散在しており、編集時等において扱いにくい。
また、標準AVフォーマットで採用可能なAES3形式では、オーディオデータの1サンプルに、少なくとも4バイトを割り当てる仕様になっており、ファイルの全体の大きさが大になる。
そこで、図3は、AV独立フォーマットの例を示している。
AV独立フォーマットでは、標準AV多重フォーマットにおいて多重化されているビデオデータ、オーディオデータ、ファイル単位のメタデータ、ユーザデータが、それぞれまとめて配置されたファイルとされる。
即ち、AV独立フォーマットでは、標準AV多重フォーマットにおいてビデオデータが配置されるピクチャアイテムがまとめてボディに配置され、さらに、そのボディに、標準AV多重フォーマットと同一形式のヘッダとフッタが付加されて、ビデオファイルが構成される。
なお、AV独立フォーマットのビデオファイルのボディには、光ディスク7のセクタ長の整数倍のピクチャアイテムがまとめて配置されているため、そのボディ全体の大きさも、光ディスク7のセクタ長の整数倍になっている。即ち、AV独立フォーマットのビデオファイルのボディは、セクタアラインメント(sector alignment)がとれた大きさとなっている。
また、図2では、標準AV多重フォーマットのファイルのヘッダに、インデックステーブルを図示してあるが、MXFでは、上述したように、インデックステーブルはオプションであり、図3のビデオファイルでは(後述するオーディオファイルでも同様)、インデックステーブルを採用していない。
AV独立フォーマットでは、標準AV多重フォーマットにおいてサウンドアイテムに配置される、多重化された8チャンネルのオーディオデータを、各チャンネルごとのオーディオデータに分離したものであって、AES3形式からWAVE形式に変換したものが、各チャネルごとのファイルのボディに、KLV構造で配置され、さらに、そのボディに、標準AV多重フォーマットと同一形式のヘッダとフッタが付加されて、オーディオファイルが構成される。
即ち、AV独立フォーマットでは、8チャンネルのオーディオデータについて、各チャネルのオーディオファイルが、独立に構成される。各チャネルのオーディオファイルは、そのチャネルのオーディオデータをWAVE形式にし、かつまとめてKLV構造化したものが、ボディに配置され、さらに、そのボディに、標準AV多重フォーマットと同一形式のヘッダとフッタが付加されて構成される。
なお、AV独立フォーマットのオーディオファイルのボディには、上述したように、あるチャネルのWAVE形式のオーディオデータをまとめてKLV構造化したものが配置されるが、このオーディオデータ全体の大きさが、光ディスク7のセクタ長の整数倍になるとは限らない。そこで、セクタアラインメントをとるために、AV独立フォーマットのオーディオファイルのボディには、KLV構造のオーディオデータの後に、セクタアライメントをとるのに必要な分のKLV構造のフィラーが配置される。
AV独立フォーマットでは、以上のようなビデオファイル、8チャネルそれぞれごとのオーディオファイルの他、標準AV多重フォーマットにおいてヘッダメタデータに配置されるファイル単位のメタデータがまとめて配置されたファイル単位のメタデータファイルと、標準AV多重フォーマットにおいてフレーム単位のメタデータが配置されたシステムアイテムがまとめて配置されたフレーム単位のメタデータファイルが構成される。さらに、AV独立フォーマットでは、標準AV多重フォーマットにおいてユーザデータが配置されたオグジュアリアイテムがまとめて配置されたオグジュアリファイルが構成される。
そして、AV独立フォーマットでは、ビデオファイル、8チャネルそれぞれごとのオーディオファイル、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイルそれぞれへのポインタが記述されたマスタファイル(master File)が構成される。
即ち、マスタファイルは、例えば、XML(Extensible Markup Language)で記述され、そこには、ビデオファイル、8チャネルそれぞれごとのオーディオファイル、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイルそれぞれへのポインタとして、例えば、各ファイルのファイル名が記述される。
従って、マスタファイルから、ビデオファイル、8チャネルそれぞれごとのオーディオファイル、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイルを参照することができる。
なお、例えば、オグジュアリファイルは、オプショナルなファイルとすることができる。
また、図3では、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイルは、標準AV多重フォーマットと同一形式のヘッダとフッタを有していないが、これらのファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイルも、標準AV多重フォーマットと同一形式のヘッダとフッタを付加して構成することができる。
さらに、AV独立フォーマットのビデオファイルとオーディオファイルのヘッダを構成するヘッダメタデータには、最小セットのファイル単位のメタデータが配置される。
即ち、AV独立フォーマットでは、標準AV多重フォーマットにおいてヘッダメタデータに配置されるファイル単位のメタデータがまとめて配置されたファイル単位のメタデータファイルが存在するので、そのメタデータファイルに配置されるファイル単位のメタデータを、ビデオファイルとオーディオファイルのヘッダを構成するヘッダメタデータに重複して配置するのは、冗長であり、また、AV独立フォーマットのファイル全体の大きさを大にすることになる。
しかしながら、MXFにおいて、ヘッダメタデータは、ヘッダに必須の項目であり、ヘッダメタデータをまったく配置せずにヘッダを構成したのでは、そのヘッダは、標準AV多重フォーマットと同一形式のヘッダでなくなることとなる。
一方、MXFにおいて、ヘッダメタデータに配置すべきファイル単位のメタデータには、種々の項目があるが、その項目の中には、必須のものと、オプショナルなものとがある。
そこで、ファイルの大きさが大になるのを抑制するとともに、標準AV多重フォーマットとの互換性を維持するために、AV独立フォーマットのビデオファイルとオーディオファイルのヘッダを構成するヘッダメタデータには、最小セットのファイル単位のメタデータ、即ち、MXFにおいて、ヘッダメタデータに配置することが必須とされている項目のメタデータのみが配置される。
以上のように、AV独立フォーマットでは、ビデオデータがまとめてビデオファイルに配置されるとともに、各チャネルのオーディオデータがまとめて、そのチャネルのオーディオファイルに配置されるので、ビデオデータとオーディオデータそれぞれを別々に編集するAV独立編集などの編集を、容易に行うことができる。
さらに、AV独立フォーマットでは、オーディオデータが、WAVE形式とされるので、標準AV独立フォーマットのように、AES3形式のオーディオデータを採用する場合に比較して、データ量を小さくすることができる。その結果、AV独立フォーマットのファイルを、光ディスク7等のストレージに記録する場合には、標準AV多重フォーマットのファイルを記録する場合に比較して、その記録に必要なストレージの容量を抑制することができる。
また、AV独立フォーマットのビデオファイルとオーディオファイルは、標準AV多重フォーマットのファイルと同様に、先頭から、ヘッダ、ボディ、フッタが配置されて構成され、さらに、ヘッダとフッタは、標準AV多重フォーマットと同一形式のものであるので、ディスク装置1において、AV独立フォーマットのビデオファイルやオーディオファイルを、リムーバブルな光ディスク7に記録し、その光ディスク7を、ディスク装置2に装着した場合に、ディスク装置2が、標準装置(MXFのファイルを扱うことのできる装置)であれば、光ディスク7から、AV独立フォーマットのビデオファイルやオーディオファイルを読み出すことができる。
さらに、AV独立フォーマットでは、ファイル単位のメタデータと、フレーム単位のメタデータとは、それぞれ別々にまとめられ、いずれも、1つのファイルとされるので、メタデータを使用した検索処理が容易となる。
次に、図4は、図1のディスク装置1が有するフォーマット変換部12の構成例を示している。
フォーマット変換部12は、標準/独立変換部21と、独立/標準変換部22とから構成されている。
標準/独立変換部21は、通信I/F13から供給される図2の標準AV多重フォーマットのファイルを、図3のAV独立フォーマットのファイルに変換し、ディスク駆動部11に供給する。独立/標準変換部22は、ディスク駆動部11から供給される図3のAV独立フォーマットのファイルを、図2の標準AV多重フォーマットのファイルに変換し、通信I/F13に供給する。
次に、図5は、図4の標準/独立変換部21の構成例を示している。
バッファ31には、通信I/F13から標準AV多重フォーマットのファイルが供給されるようになっている。バッファ31は、そこに供給される標準AV多重フォーマットのファイルを一時記憶する。
マスタファイル生成部32は、バッファ31に、標準AV多重フォーマットのファイルが記憶されると、その標準AV多重フォーマットのファイルについて、AV独立フォーマットのマスタファイルを生成し、バッファ44に供給する。
ヘッダ取得部33は、バッファ31に記憶された標準AV多重フォーマットのファイルからヘッダを抽出することで取得し、そのヘッダを、ヘッダメタデータ抽出部35に供給する。
ボディ取得部34は、バッファ31に記憶された標準AV多重フォーマットのファイルからボディを抽出することで取得し、そのボディを、システムアイテム抽出部36、オグジュアリアイテム抽出部38、ピクチャアイテム抽出部40、およびサウンドアイテム抽出部42に供給する。
ヘッダメタデータ抽出部35は、ヘッダ取得部33から供給されるヘッダから、ヘッダメタデータを抽出し、そのヘッダメタデータに配置されたファイル単位のメタデータを、メタデータファイル生成部37に供給する。システムアイテム抽出部36は、ボディ取得部34から供給されるボディの各エディットユニットから、フレーム単位のメタデータが配置されたシステムアイテムを抽出し、メタデータファイル生成部37に供給する。メタデータファイル生成部37は、ヘッダメタデータ抽出部35から供給されるファイル単位のメタデータを配置したファイル単位のメタデータファイルを生成するとともに、システムアイテム抽出部36から供給される各エディットユニットのシステムアイテムをまとめて(シーケンシャルに)配置したフレーム単位のメタデータファイルを生成し、そのファ
イル単位とフレーム単位のメタデータファイルを、バッファ44に供給する。
オグジュアリアイテム抽出部38は、ボディ取得部34から供給されるボディの各エディットユニットから、フレーム単位のユーザデータが配置されたオグジュアリアイテムを抽出し、オグジュアリファイル生成部39に供給する。オグジュアリファイル生成部39は、オグジュアリアイテム抽出部38から供給される各エディットユニットのオグジュアリアイテムをまとめて配置したオグジュアリファイルを生成し、バッファ44に供給する。
ピクチャアイテム抽出部40は、ボディ取得部34から供給されるボディの各エディットユニットから、フレーム単位のビデオデータが配置されたピクチャアリアイテムを抽出し、ビデオファイル生成部41に供給する。ビデオファイル生成部41は、ピクチャアイテム抽出部40から供給される各エディットユニットのピクチャアイテムをまとめてボディに配置し、さらに、そのボディに、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを付加したビデオファイルを生成し、バッファ44に供給する。
サウンドアイテム抽出部42は、ボディ取得部34から供給されるボディの各エディットユニットから、フレーム単位のオーディオデータが配置されたサウンドアイテムを抽出し、オーディオファイル生成部43に供給する。オーディオファイル生成部43は、サウンドアイテム抽出部42から供給される各エディットユニットのサウンドアイテムに配置された各チャネルのオーディオデータを、各チャネルごとにまとめてボディに配置し、さらに、そのボディに、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを付加した各チャネルごとのオーディオファイルを生成し、バッファ44に供給する。
バッファ44は、マスタファイル生成部32から供給されるマスタファイル、メタデータファイル生成部37から供給されるファイル単位とフレーム単位それぞれのメタデータファイル、オグジュアリファイル生成部39から供給されるオグジュアリファイル、ビデオファイル生成部41から供給されるビデオファイル、およびオーディオファイル生成部43から供給される各チャネルごとのオーディオファイルを一時記憶し、それらのファイルを、AV独立フォーマットのファイルとして、ディスク駆動部11に供給する。
次に、図6は、図5のビデオファイル生成部41の構成例を示している。
ピクチャアイテム抽出部40から供給される各エディットユニットのピクチャアイテムは、結合部51に供給される。結合部51は、そこに供給される各エディットユニットのピクチャアイテムを順次結合(連結)し、ヘッダ/フッタ付加部52に供給する。ヘッダ/フッタ付加部52は、結合部51から供給される、各エディットユニットのピクチャアイテムが結合されたものをボディとして、そのボディに、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを付加し、これにより、AV独立フォーマットのビデオファイルを構成して出力する。
次に、図7は、図5のオーディオファイル生成部43の構成例を示している。
サウンドアイテム抽出部42から供給される各エディットユニットのサウンドアイテムは、KLVデコーダ61に供給される。KLVデコーダ61は、各エディットユニットのサウンドアイテムに配置されたオーディオデータのKLV構造を分解し、その結果得られる、8チャネルが多重化されたオーディオデータ(以下、適宜、多重化オーディオデータという)を、チャネル分離部62に供給する。
チャネル分離部62は、KLVデコーダ61から供給される、各サウンドアイテムごとの多重化オーディオデータから、各チャネルのオーディオデータを分離し、その各チャネルのオーディオデータを、チャネルごとにまとめて、データ変換部63に供給する。
データ変換部63は、チャネル分離部62から供給される各チャネルのオーディオデータの符号化方式を変換する。即ち、標準AV多重フォーマットでは、オーディオデータは、AES3形式で符号化されたものとなっているが、AV独立フォーマットでは、オーディオデータはWAVE方式で符号化されたものとなっている。このため、データ変換部63は、チャネル分離部62から供給される、AES3方式で符号化されたオーディオデータ(AES3方式のオーディオデータ)を、WAVE方式で符号化されたオーディオデータ(WAVE方式のオーディオデータ)に変換する。
なお、ここでは、データ変換部63において、AES3方式のオーディオデータを、WAVE方式のオーディオデータに変換するようにしたが、データ変換部63では、オーディオデータを、WAVE方式以外のオーディオデータに変換することが可能である。即ち、データ変換部63でのオーディオデータの変換は、AES3方式のオーディオデータのデータ量を抑制することを目的として行うものであり、その目的を達成することができる符号化方式であれば、データ変換部63では、どのような符号化方式を採用しても良い。
また、オーディオデータのデータ量が問題とならない場合は、オーディオファイル生成部43は、データ変換部63を設けずに構成することが可能である。
データ変換部63で得られたWAVE方式の各チャネルごとのオーディオデータは、KLVエンコーダ64に供給される。KLVエンコーダ64は、データ変換部63から供給されるチャネルごとにまとめられたオーディオデータそれぞれを、KLV構造にKLVコーディングし、さらに、そのKLV構造とされた各チャネルのオーディオデータに、セクタアラインメントをとるための必要なフィラー(図3)を付加して、ヘッダ/フッタ付加部65に供給する。
ヘッダ/フッタ付加部65は、KLVエンコーダ64から供給される各チャネルのオーディオデータそれぞれをボディとして、各チャネルのボディに、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを付加し、これにより、AV独立フォーマットの各チャネルごとのオーディオファイルを構成して出力する。
次に、図5の標準/独立変換部21では、AV独立フォーマットのファイルとしてのマスタファイルを生成するマスタファイル生成処理、ファイル単位とフレーム単位のメタデータファイルそれぞれを生成するメタデータファイル生成処理、オグジュアリファイルを生成するオグジュアリファイル生成処理、ビデオファイルを生成するビデオファイル生成処理、オーディオファイルを生成するオーディオファイル生成処理が行われる。
そこで、図8乃至図13のフローチャートを参照して、標準/独立変換部21が行うマスタファイル生成処理、メタデータファイル生成処理、オグジュアリファイル生成処理、ビデオファイル生成処理、およびオーディオファイル生成処理について説明する。
まず最初に、図8のフローチャートを参照して、マスタファイル生成処理について説明する。
例えば、バッファ31(図5)に、標準AVフォーマットのファイルが供給されて記憶されると、マスタファイル生成処理が開始され、まず最初に、ステップS1において、マスタファイル生成部32(図5)は、ファイル単位とフレーム単位それぞれのメタデータファイル、オグジュアリファイル、ビデオファイル、各チャネルそれぞれのオーディオファイルのファイル名を生成し、ステップS2に進む。ステップS2では、マスタファイル生成部32は、ステップS1で生成した各ファイル名のファイルへのリンクを、XMLで記述したマスタファイルを生成し、バッファ44に供給して記憶させ、マスタファイル生成処理を終了する。
次に、図9のフローチャートを参照して、ファイル単位のメタデータファイルを生成するファイル単位のメタデータファイル生成処理について説明する。
例えば、バッファ31(図5)に、標準AVフォーマットのファイルが供給されて記憶されると、ファイル単位のメタデータファイル生成処理が開始され、まず最初に、ステップS11において、ヘッダ取得部33は、バッファ31に記憶された標準AVフォーマットのファイルからヘッダを取得し、ヘッダメタデータ抽出部35に供給して、ステップS12に進む。ステップS12では、ヘッダメタデータ抽出部35が、ヘッダ取得部33から供給されるヘッダから、ヘッダメタデータを抽出し、そのヘッダメタデータに配置されたファイル単位のメタデータを、メタデータファイル生成部37に供給して、ステップS13に進む。ステップS13では、メタデータファイル生成部37が、ヘッダメタデータ抽出部35から供給されるファイル単位のメタデータを配置したファイル単位のメタデータフ
ァイルを生成し、バッファ44に供給して記憶させ、ファイル単位のメタデータファイル生成処理を終了する。
次に、図10のフローチャートを参照して、フレーム単位のメタデータファイルを生成するフレーム単位のメタデータファイル生成処理について説明する。
例えば、バッファ31(図5)に、標準AVフォーマットのファイルが供給されて記憶されると、フレーム単位のメタデータファイル生成処理が開始され、まず最初に、ステップS21において、ボディ取得部34は、バッファ31に記憶された標準AV多重フォーマットのファイルからボディを取得し、システムアイテム抽出部36に供給して、ステップS22に進む。ステップS22では、システムアイテム抽出部36は、ボディ取得部34から供給されるボディの各エディットユニットから、フレーム単位のメタデータが配置されたシステムアイテムを抽出し、メタデータファイル生成部37に供給して、ステップS23に進む。ステップS23では、メタデータファイル生成部37は、システムアイテム抽出部36から供給される各エディットユニットのシステムアイテムを結合することにより
、その各エディットユニットのシステムアイテムまとめて配置したフレーム単位のメタデータファイルを生成し、バッファ44に供給して記憶させ、フレーム単位のメタデータファイル生成処理を終了する。
次に、図11のフローチャートを参照して、オグジュアリファイルを生成するオグジュアリファイル生成処理について説明する。
例えば、バッファ31(図5)に、標準AVフォーマットのファイルが供給されて記憶されると、オグジュアリファイル生成処理が開始され、まず最初に、ステップS31において、ボディ取得部34は、バッファ31に記憶された標準AV多重フォーマットのファイルからボディを取得し、オグジュアリアイテム抽出部38に供給して、ステップS32に進む。ステップS32では、オグジュアリアイテム抽出部38は、ボディ取得部34から供給されるボディの各エディットユニットからオグジュアリアイテムを抽出し、オグジュアリファイル生成部39に供給して、ステップS33に進む。ステップS33では、オグジュアリファイル生成部39は、オグジュアリアイテム抽出部38から供給される各エディットユニットのオグジュアリアイテムを結合することにより、その各エディットユニット
のオグジュアリアイテムまとめて配置したオグジュアリファイルを生成し、バッファ44に供給して記憶させ、オグジュアリファイル生成処理を終了する。
次に、図12のフローチャートを参照して、ビデオファイルを生成するビデオファイル生成処理について説明する。
例えば、バッファ31(図5)に、標準AVフォーマットのファイルが供給されて記憶されると、ビデオファイル生成処理が開始され、まず最初に、ステップS41において、ボディ取得部34は、バッファ31に記憶された標準AV多重フォーマットのファイルからボディを取得し、ピクチャアイテム抽出部40に供給して、ステップS42に進む。ステップS42では、ピクチャアイテム抽出部40は、ボディ取得部34から供給されるボディの各エディットユニットからピクチャアイテムを抽出し、ビデオファイル生成部41に供給して、ステップS43に進む。ステップS43では、ビデオファイル生成部41(図6)において、結合部51が、ピクチャアイテム抽出部40から供給される各エディットユニットのピクチャアイテムを結合することにより、その各エディットユニットのピクチャ
アイテムまとめて配置したボディを生成し、ヘッダ/フッタ付加部52に供給して、ステップS44に進む。
ステップS44では、ヘッダ/フッタ付加部52は、結合部51から供給されるボディに、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを付加し、これにより、AV独立フォーマットのビデオファイルを構成し、バッファ44に供給して記憶させ、ビデオファイル生成処理を終了する。
次に、図13のフローチャートを参照して、オーディオファイルを生成するオーディオファイル生成処理について説明する。
例えば、バッファ31(図5)に、標準AVフォーマットのファイルが供給されて記憶されると、オーディオファイル生成処理が開始され、まず最初に、ステップS51において、ボディ取得部34は、バッファ31に記憶された標準AV多重フォーマットのファイルからボディを取得し、サウンドアイテム抽出部42に供給して、ステップS52に進む。ステップS52では、サウンドアイテム抽出部42は、ボディ取得部34から供給されるボディの各エディットユニットからサウンドアイテムを抽出し、オーディオファイル生成部43に供給して、ステップS53に進む。ステップS53では、オーディオファイル生成部43(図7)において、KLVデコーダ61が、各エディットユニットのサウンドアイテムに配置されたオーディオデータのKLV構造を分解し、その結果得られる、8チャネルが
多重化されたオーディオデータ(多重化オーディオデータ)を、チャネル分離部62に供給して、ステップS54に進む。
ステップS54では、チャネル分離部62が、KLVデコーダ61から供給される、各サウンドアイテムごとの多重化オーディオデータから、各チャネルのAES3形式のオーディオデータを分離し、その各チャネルのAES3形式のオーディオデータを、チャネルごとにまとめて配置して、データ変換部63に供給する。
そして、ステップS55に進み、データ変換部63は、チャネル分離部62から供給される各チャネルのAES3形式のオーディオデータを、WAVE方式のオーディオデータに変換し、KLVエンコーダ64に供給して、ステップS56に進む。ステップS56では、KLVエンコーダ64が、データ変換部63から供給されるチャネルごとにまとめられたWAVE形式のオーディオデータそれぞれを、KLV構造にKLVコーディングし、さらに、そのKLV構造とされた各チャネルのオーディオデータに、セクタアラインメントをとるための必要なフィラー(図3)を付加する。
これにより、KLVエンコーダ64は、各チャネルのWAVE形式のオーディオデータをまとめて配置するとともに、必要なフィラーを配置した各チャネルのボディを生成し、ヘッダ/フッタ付加部65に供給して、ステップS57に進む。
ステップS57では、ヘッダ/フッタ付加部65が、KLVエンコーダ64から供給される各チャネルのボディに、標準AV多重フォーマットのファイルと同一形式のヘッダとフッタを付加し、これにより、AV独立フォーマットの各チャネルごとのオーディオファイルを構成し、バッファ44に供給して記憶させ、オーディオファイル生成処理を終了する。
次に、図14は、図4の独立/標準変換部22の構成例を示している。
バッファ101は、ディスク駆動部11(図1)から供給されるAV独立フォーマットのファイル(マスタファイル、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイル、ビデオファイル、8チャネルそれぞれのオーディオファイル)を一時記憶する。
ファイル取得部102は、バッファ101に記憶されたマスタファイルを参照することにより、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイル、ビデオファイル、8チャネルそれぞれのオーディオファイルのファイル名を認識し、そのファイル名に基づき、ファイル単位のメタデータファイル、フレーム単位のメタデータファイル、オグジュアリファイル、ビデオファイル、8チャネルそれぞれのオーディオファイルを、バッファ101を介し、ディスク駆動部11に光ディスク7から読み出させることで取得する。さらに、ファイル取得部102は、取得したファイル単位のメタデータファイルとフレーム単位のメタデータファイルをメタデータファイル処理部103に、オグジュアリファイルをオグジュアリファイル処理部104に、ビデオフ
ァイルをビデオファイル処理部105に、8チャネルそれぞれのオーディオファイルをオーディオファイル処理部106に、それぞれ供給する。
メタデータファイル処理部103は、ファイル取得部102から供給されるファイル単位のメタデータファイルからファイル単位のメタデータを抽出するとともに、フレーム単位のメタデータファイルからフレーム単位のメタデータが配置されたシステムアイテムを抽出し、データ合成部107に供給する。
オグジュアリファイル処理部104は、ファイル取得部102から供給されるオグジュアリファイルからオグジュアリアイテムを抽出し、データ合成部107に供給する。
ビデオファイル処理部105は、ファイル取得部102から供給されるビデオファイルからピクチャアイテムを抽出し、データ合成部107に供給する。
オーディオファイル処理部105は、ファイル取得部102から供給される8チャネルそれぞれのオーディオファイルから、各チャネルのオーディオデータを抽出し、さらに、その各チャネルのオーディオデータを多重化して配置したサウンドアイテムを構成して、データ合成部107に供給する。
データ合成部107は、メタデータファイル処理部103から供給されるファイル単位のメタデータおよびシステムアイテム、オグジュアリファイル処理部104から供給されるオグジュアリアイテム、ビデオファイル処理部105から供給されるピクチャアイテム、並びにオーディオファイル処理部106から供給されるサウンドアイテムを用いて、標準AV多重フォーマットのファイルを構成し、バッファ108に供給する。
バッファ108は、データ合成部107から供給される標準AV多重フォーマットのファイルを一時記憶し、通信I/F13(図1)に供給する。
次に、図15は、図14のビデオファイル処理部105の構成例を示している。
ファイル取得部102から供給されるビデオファイルは、ヘッダ/フッタ除去部111に供給される。ヘッダ/フッタ除去部111は、そこに供給されるビデオファイルからヘッダとフッタを除去し、残ったボディを、分解部112に供給する。分解部112は、ヘッダ/フッタ除去部111から供給されるボディに配置されたピクチャアイテムのシーケンスを分離することにより、そのシーケンスから、他のアイテム(システムアイテム、サウンドアイテム、オグジュアリアイテム)と多重化する単位、即ち、ここでは、フレーム単位のビデオデータが配置された個々のピクチャアイテムを抽出し、データ合成部107(図14)に供給する。
次に、図16は、図14のオーディオファイル処理部106の構成例を示している。
ファイル取得部102から供給される8チャネルそれぞれのオーディオファイルは、ヘッダ/フッタ除去部121に供給される。ヘッダ/フッタ除去部121は、そこに供給される8チャネルそれぞれのオーディオファイルから、ヘッダとフッタを除去し、その結果残る各チャネルのボディを、KLVデコーダ122に供給する。
KLVデコーダ122は、ヘッダ/フッタ除去部121から供給される各チャネルのボディのKLV構造を分解し、これにより得られる各チャネルのWAVE形式のオーディオデータを、データ変換部123に供給する。
データ変換部123は、KLVデコーダ122から供給されるオーディオデータに対して、図7のデータ変換部63における場合と逆の変換処理を施す。即ち、データ変換部123は、KLVデコーダ122から供給されるWAVE形式の各チャネルのオーディオデータを、AES3形式の各チャネルのオーディオデータに変換し、チャネル多重化部124に供給する。
チャネル多重化部124は、データ変換部124から供給される各チャネルのオーディオデータを、サンプル単位で多重化し、その結果得られる多重化オーディオデータを、KLVエンコーダ125に供給する。
KLVエンコーダ125は、チャネル多重化部124から供給される多重化オーディオデータを、ビデオデータの各フレームに対応する単位に区切り、その各フレームに対応する多重化オーディオデータをKLV構造にKLVコーディングする。さらに、KLVエンコーダ125は、各フレームに対応する多重化オーディオデータのKLV構造に対して、固定長のサウンドアイテムのデータ長に足りない分のフィラーのKLV構造を付加し、これにより、サウンドアイテムを構成して、データ合成部107(図14)に供給する。
次に、図17は、図14のデータ合成部107の構成例を示している。
ヘッダ/フッタ生成部131には、メタデータファイル処理部103が出力するファイル単位のメタデータが供給される。ヘッダ/フッタ生成部131は、標準AV多重フォーマットのファイルのヘッダとフッタを生成し、さらに、そのヘッダのヘッダメタデータに、メタデータファイル処理部103からのファイル単位のメタデータを配置して、そのヘッダとフッタを、ヘッダ/フッタ付加部133に供給する。
多重化部132には、メタデータファイル処理部103が出力するシステムアイテム、オグジュアリファイル処理部104が出力するオグジュアリアイテム、ビデオファイル処理部105が出力するピクチャアイテム、オーディオファイル処理部106が出力するサウンドアイテムが供給される。多重化部132は、そこに供給されるシステムアイレム、ピクチャアイテム、サウンドアイテム、オグジュアリアイテムを、その順で、順次多重化することにより、エディットユニットのシーケンスを構成し、そのエディットユニットのシーケンスを、ボディとして、ヘッダ/フッタ付加部133に供給する。
ヘッダ/フッタ付加部133は、多重化部132から供給されるボディに、ヘッダ/フッタ生成部131から供給されるヘッダとフッタを付加し、これにより、標準AV多重フォーマットのファイルを構成して出力する。
次に、図14の独立/標準変換部22では、メタデータファイルを処理するメタデータファイル処理、オグジュアリファイルを処理するオグジュアリファイル処理、ビデオファイルを処理するビデオファイル処理、オーディオファイルを処理するオーディオファイル処理、これらの処理結果を用いて標準AV多重フォーマットのファイルを合成(生成)する合成処理が行われる。
そこで、図18乃至図22のフローチャートを参照して、独立/標準変換部22が行うメタデータファイル処理、オグジュアリファイル処理、ビデオファイル処理、オーディオファイル処理、および合成処理について説明する。
まず最初に、図18のフローチャートを参照して、メタデータファイル処理について説明する。
メタデータファイル処理は、例えば、ディスク駆動部11によって光ディスク7から、マスタファイルが読み出され、バッファ101に記憶されると開始される。
即ち、まず最初に、ステップS101において、ファイル取得部102は、バッファ101に記憶されたマスタファイルを参照することにより、ファイル単位とフレーム単位それぞれのメタデータファイルのファイル名を認識する。さらに、ステップS101では、ファイル取得部102は、そのファイル名に基づき、ファイル単位とフレーム単位それぞれのメタデータファイルを、バッファ101を介し、ディスク駆動部11に光ディスク7から読み出させることで取得し、メタデータファイル処理部103に供給して、ステップS102に進む。ステップS102では、メタデータファイル処理部103は、ファイル取得部102から供給されるファイル単位のメタデータファイルからファイル単位のメタデータを抽出するとともに、フレーム単位のメタデータファイルからフレーム単位のメタ
データが配置されたシステムアイテムを抽出し、データ合成部107に供給して、メタデータファイル処理を終了する。
次に、図19のフローチャートを参照して、オグジュアリファイル処理について説明する。
オグジュアリファイル処理は、例えば、ディスク駆動部11によって光ディスク7から、マスタファイルが読み出され、バッファ101に記憶されると開始される。
即ち、まず最初に、ステップS111において、ファイル取得部102は、バッファ101に記憶されたマスタファイルを参照することにより、オグジュアリファイルのファイル名を認識する。さらに、ステップS111では、ファイル取得部102は、そのファイル名に基づき、オグジュアリファイルを、バッファ101を介し、ディスク駆動部11に光ディスク7から読み出させることで取得し、オグジュアリファイル処理部104に供給して、ステップS112に進む。
ステップS112では、オグジュアリファイル処理部104は、ファイル取得部102から供給されるオグジュアリファイルをオグジュアリアイテム単位に分解することで、オグジュアリファイルからオグジュアリアイテムを抽出(取得)し、データ合成部107に供給して、オグジュアリファイル処理を終了する。
次に、図20のフローチャートを参照して、ビデオファイル処理について説明する。
ビデオファイル処理は、例えば、ディスク駆動部11によって光ディスク7から、マスタファイルが読み出され、バッファ101に記憶されると開始される。
即ち、まず最初に、ステップS121において、ファイル取得部102は、バッファ101に記憶されたマスタファイルを参照することにより、ビデオファイルのファイル名を認識する。さらに、ステップS121では、ファイル取得部102は、そのファイル名に基づき、ビデオファイルを、バッファ101を介し、ディスク駆動部11に光ディスク7から読み出させることで取得し、ビデオファイル処理部105に供給して、ステップS122に進む。
ステップS122では、ビデオファイル処理部105(図15)のヘッダ/フッタ除去部111が、ファイル取得部102から供給されるビデオファイルからヘッダとフッタを除去し、その結果残ったボディを、分解部112に供給して、ステップS123に進む。ステップS123では、分解部112は、ヘッダ/フッタ除去部111から供給されるボディに配置されたピクチャアイテムのシーケンスを、個々のピクチャアイテムに分解し、データ合成部107に供給して、ビデオファイル処理を終了する。
次に、図21のフローチャートを参照して、オーディオファイル処理について説明する。
オーディオファイル処理は、例えば、ディスク駆動部11によって光ディスク7から、マスタファイルが読み出され、バッファ101に記憶されると開始される。
即ち、まず最初に、ステップS131において、ファイル取得部102は、バッファ101に記憶されたマスタファイルを参照することにより、8チャネルそれぞれのオーディオファイルのファイル名を認識する。さらに、ステップS131では、ファイル取得部102は、そのファイル名に基づき、8チャネルそれぞれのオーディオファイルを、バッファ101を介し、ディスク駆動部11に光ディスク7から読み出させることで取得し、オーディオファイル処理部106に供給して、ステップS132に進む。
ステップS132では、オーディファイル処理部106(図16)のヘッダ/フッタ除去部121が、ファイル取得部102から供給される8チャネルそれぞれのオーディオファイルから、ヘッダとフッタを除去し、その結果残る各チャネルのボディを、KLVデコーダ122に供給して、ステップS133に進む。ステップS133では、KLVデコーダ122は、ヘッダ/フッタ除去部121から供給される各チャネルのボディのKLV構造を分解し、これにより得られる各チャネルのWAVE形式のオーディオデータを、データ変換部123に供給して、ステップS134に進む。
ステップS134では、データ変換部123は、KLVデコーダ122から供給されるWAVE形式の各チャネルのオーディオデータを、AES3形式の各チャネルのオーディオデータに変換し、チャネル多重化部124に供給して、ステップS135に進む。ステップS135では、チャネル多重化部124は、データ変換部124から供給される各チャネルのオーディオデータを多重化し、その結果得られる多重化オーディオデータを、KLVエンコーダ125に供給して、ステップS136に進む。
ステップS136では、KLVエンコーダ125は、チャネル多重化部124から供給される多重化オーディオデータを、ビデオデータの各フレームに対応する単位に区切り、そのフレームに対応する多重化オーディオデータをKLV構造にKLVコーディングして、ステップS137に進む。さらに、ステップS137では、KLVエンコーダ125は、各フレームに対応する多重化オーディオデータのKLV構造に対して、必要なフィラーのKLV構造を付加し、これにより、サウンドアイテムを構成して、データ合成部107に供給し、オーディオファイル処理を終了する。
次に、図22のフローチャートを参照して、合成処理について説明する。
合成処理は、例えば、データ合成部107に対して、メタデータファイル処理部103からファイル単位のメタデータおよびシステムアイテムが、オグジュアリファイル処理部104からオグジュアリアイテムが、ビデオファイル処理部105からピクチャアイテムが、オーディオファイル処理部106からサウンドアイテムが、それぞれ供給されると開始される。
即ち、まず最初に、ステップS141において、データ合成部107(図17)のヘッダ/フッタ生成部131が、標準AV多重フォーマットのファイルのヘッダとフッタを生成し、さらに、そのヘッダのヘッダメタデータに、メタデータファイル処理部103からのファイル単位のメタデータを配置する。さらに、ステップS141では、ヘッダ/フッタ生成部131が、以上のようにして得られたヘッダとフッタを、ヘッダ/フッタ付加部133に供給して、ステップS142に進む。
ステップS142では、多重化部132が、メタデータファイル処理部103が出力するシステムアイテム、オグジュアリファイル処理部104が出力するオグジュアリアイテム、ビデオファイル処理部105が出力するピクチャアイテム、オーディオファイル処理部106が出力するサウンドアイテムを多重化し、その多重化の結果得られるエディットユニットのシーケンスを、ボディとして、ヘッダ/フッタ付加部133に供給して、ステップS143に進む。
ステップS143では、ヘッダ/フッタ付加部133は、多重化部132から供給されるボディに、ヘッダ/フッタ生成部131から供給されるヘッダとフッタを付加し、これにより、標準AV多重フォーマットのファイルを構成して出力し、合成処理を終了する。
次に、図23のフローチャートを参照して、ディスク装置1(図1)が実行する処理のうちの、光ディスク7に記録されているAV独立フォーマットのファイルを1以上読み出し、それらのフォーマットを標準AV多重フォーマットに変換して、ネットワーク4を介して他の装置(図1の例ではAV装置5または6)に転送する処理(以下、転送処理と称する)について説明する。
例えば、いま、光ディスク7には、図24に示されるようなディレクトリ構造で各種のデータ(AV独立フォーマットのデータ)がファイルとして記録されているとする。
図24において、シンボル151は、1つのディレクトリを表している。なお、符号は付していないが、シンボル(ディレクトリ)151と同一のその他のシンボルも、1つのディレクトリを表している。また、シンボル152は、1つのファイルを示している。なお、符号は付していないが、シンボル(ファイル)152と同一のその他のシンボルも、1つのファイルを示している。
なお、以下、特に断りの無い限り、ディレクトリとディレクトリのシンボルとは同一であるとみなして説明する。同様に、ファイルとファイルのシンボルとは同一であるとみなして説明する。また、各ディレクトリのそれぞれ、および、各ファイルのそれぞれの識別を容易なものとするために、以下、ファイルまたはディレクトリの後方に括弧( )書きでその名称を記載する。
図24の例では、光ディスク7には、PROAVディレクトリ151と、Generalディレクトリ(図中、その右方にGeneralと記述されているディレクトリ)とが設けられている。
PROAVディレクトリには、光ディスク7に記録されている全てのクリップ(クリップの詳細については後述する)とエディットリスト(エディットリストの詳細については図25を参照して後述する)とを管理するための管理情報等を含むインデックスファイル(INDEX.XML)、および、それと同一内容のバックアップ用のインデックスファイル(INDEX.RSV)が設けられている。
PROAVディレクトリには、さらに、光ディスク7に記録されているデータ全体に対するメタデータであり、例えば、再生履歴等の情報を含むファイルであるディスクインフォメーションファイル(DISCINFO.XML)、および、それと同一内容のバックアップ用のディスクインフォメーションファイル(DISKINFO.RSV)が設けられている。
また、PROAVディレクトリには、上述したファイル以外にも、クリップのデータが下位のディレクトリに設けられるクリップルートディレクトリ(CLPR)、および、エディットリストのデータが下位のディレクトリに設けられるエディットリストルートディレクトリ(EDTR)が設けられる。
クリップルートディレクトリ(CLPR)には、光ディスク7に記録されているクリップのデータが、クリップ毎に異なるディレクトリに分けて管理されている。
なお、クリップとは、図示せぬ撮像装置(例えば、デジタルビデオレコーダ等)の撮像処理の回数の単位である。またそれ以外にも、クリップは、その撮像処理の撮像開始から撮像終了までの時間を示す単位を示したり、その撮像処理により得られた各種のデータの長さを示す単位を示したり、その撮像処理により得られた各種のデータのデータ量を示す単位を示したりする。さらに、クリップは、その各種のデータの集合体そのものも示す場合もある。
ここでは、クリップとは、例えば、1回の撮像処理(撮像開始から撮像終了までの撮像処理)により得られた画像データおよびその画像データに対応する音声データ、並びに、メタデータ等の集合体を指す。
即ち、ここでは、光ディスク7に記録される1つのクリップとは、上述した図3に示されるような、マスタファイル(Master File)、ビデオファイル(Video)、1乃至8チャンネルのそれぞれのオーディオファイル(Audio1乃至8)、および、メタデータ(Metadata)の集合体を指す。
具体的には、例えば、図24は、光ディスク7に3つのクリップのデータが記録されている場合の例を示しており、3つのクリップのデータのそれぞれは、第1のクリップディレクトリ(C0001)、第2のクリップディレクトリ(C0002)、および、第3のクリップディレクトリ(C0003)といった3つのディレクトリのそれぞれに分けられて管理されている。
即ち、例えば、光ディスク7に記録された最初のクリップの各データは、第1のクリップディレクトリ(C0001)以下のファイルとして管理されている。
具体的には、例えば、図24に示されるように、この第1のクリップディレクトリ(C0001)には、このクリップを管理するファイルであるマスタファイル(C0001C01.SMI)、このクリップの画像データを含むファイルであるビデオファイル(C0001V01.MXF)、このクリップの各チャンネルの音声データのそれぞれを含む8つのファイルであるオーディオファイル(C0001A01.MXF乃至C0001A08.MXF)、このクリップのサブストリームデータを含むファイルであるローレゾデータファイル(C0001S01.MXF)、このクリップのエッセンスデータに対応する、リアルタイム性を要求されないメタデータ(以下、ノンリアルタイムメタデータと称する)を含むファイルであるノンリアルタイムメタデータファイル(C0001M01.XML)、このクリップのエッセンスデータに対応する、リアルタイム性を要求されるメタデータ(以下、リアルタイムメタデータと称する)を含むファイルであるリアルタイムメタデータファイル(C0001R01.BIM)が設けられている。
このように、図24の例では、再生時にリアルタイム性を要求されるデータである、画像(ビデオ)データ、ローレゾデータ、およびリアルタイムメタデータは、それぞれ1つのファイルとして管理され、読み出し時間が増加しないようになされている。なお、ローレゾデータとは、例えば、ビデオファイルに含まれる画像データと内容は同一の(各画像自体は同一の)画像データであるが、解像度が下げられたりしている画像データ等を指す。
また、上述したように、音声データも、再生時にリアルタイム性を要求されるが、7.1チャンネル等のような音声の多チャンネル化に対応するために、8チャンネル用意され、それぞれ異なるファイルとして管理されている。即ち、ここでは、音声データは8つのファイルとして管理されるように説明したが、これに限らず、音声データに対応するファイルは、7つ以下であってもよいし、9つ以上であってもよい。
同様に、画像データ、ローレゾデータ、およびリアルタイムメタデータも、場合によって、それぞれ、2つ以上のファイルとして管理されるようにしてもよい。
また、図24の例では、ノンリアルタイムメタデータファイル(C0001M01.XML)は、汎用性を持たせるためにXML形式で記述されているが、リアルタイムメタデータファイル(C0001R01.BIM)は、再生処理の処理時間や処理に必要な負荷を軽減させるために、XML形式のファイルをコンパイルしたBIM(BInary format for MPEG-7 data)形式のファイルとされている。
上述したような第1のクリップディレクトリ(C0001)のファイルの構成例は、全てのクリップディレクトリ、即ち、図24の例では、第2のクリップディレクトリ(C0002)および第3のクリップディレクトリ(C0003)においても、同様のファイルの構成例を適用することができる。従って、それらの説明については省略する。
図24において、このようなクリップルートディレクトリ(CLPR)の下方に示される、エディットリストルートディレクトリ(EDTR)には、光ディスク7に記録されているエディットリストが、その編集処理毎に異なるディレクトリに分けて管理されている。例えば、図24の例の場合、4つのエディットリストのそれぞれが、第1のエディットリストディレクトリ(E0001)、第2のエディットリストディレクトリ(E0002)、第3のエディットリストディレクトリ(E0003)、および、第4のエディットリストディレクトリ(E0004)といった4つのディレクトリのそれぞれに分けられて管理されている。
即ち、例えば、光ディスク7に記録されたクリップの1回目の編集結果を示すエディットリストは、第1のエディットリストディレクトリ(E0001)以下のファイルとして管理される。
具体的には、例えば、図24に示されるように、この第1のエディットリストディレクトリ(E0001)には、この編集結果(エディットリスト)を管理するファイルであるエディットリストファイル(E0001E01.SMI)、この編集後の素材データ(編集に用いられた全クリップの素材データの内、編集後のデータとして抽出された部分)に対応するメタデータ、または、そのメタデータに基づいて新たに生成されたメタデータを含むファイルであるエディットリスト用メタデータファイル(E0001M01.XML)が設けられている。
なお、素材データとは、各クリップを構成するデータのうちの、編集の対象となるデータ、即ち、画像データ(ビデオファイル)や音声データ(オーディオファイル)等を指す。
エディットリストファイル(E0001E01.SMI)は、例えば、図25に示されるように記述される。即ち、図25は、XMLで記述されたエディットリストファイルの具体的な記述例を示す図である。なお、図25において、各行頭の数字は、説明の便宜上付加したものであり、XML記述の一部ではない。
エディットリストファイルは、クリップの非破壊編集の編集情報を含むファイルであり、その編集結果の再生方法についても記述されている。
図25に示されるように、エディットリストファイルのXML記述は、主にボディタグ(<body> </body>)で囲まれるボディ部により構成される。図25の例では、このボディ部は、7乃至21行目に記述されている。なお、1乃至6行目には、このファイルがProfessioanal DiscのEdit List(エディットリスト)であることを示す情報が記述されている。
詳細には、ボディ部には、編集記述の時間的振る舞いと関係する情報が記述される。図25の例では、8行目の開始タグ「<par>」と20行目の終了タグ「</par>」の間に記述されるpar要素は、時間コンテナであり、複数の要素を同時に再生する単純時間グループを定義する。図25の例では、第1のクリップ(図25の例では、Clip1と記述されており、例えば、図24の第1のクリップディレクトリ(C0001)で管理されているクリップであるとする)と第2のクリップ(図25の例では、Clip2と記述されており、例えば、図24の第2のクリップディレクトリ(C0002)で管理されているクリップであるとする)が同時に再生されるように示されている。ただし、図25の例の場合、後述するように、2つのクリップの再生開始時間が互いにずれており、実際には、この2つのクリップが連続して再生されるように為されている。
図25において、10行目乃至13行目のref要素には、参照するファイルおよび参照するファイルを再生する際の条件等が記述されている。11行目の「src="urn:smpte:umid:060A2B340101010501010D1213000000FEDCBA9876543210FEDCBA9876543210"」の記述は、参照先のファイルに割り当てられたUMID(Unique Material IDentifier)が「060A2B340101010501010D1213000000FEDCBA9876543210FEDCBA9876543210」であることを示している。
なお、UMIDとは、各クリップをグローバルユニークに識別するためのクリップ固有の識別子であって、SMPTE(Society of Motion Picture and Television Engineers)により定められる識別子を指す。
また、12行目の「begin="smpte-30=00:00:00:00"」の記述は、この第1のクリップが開始される時刻、すなわち、素材が開始されるエディットリストのFTC(File Time Code)上での位置を示しており、単位はフレーム数である。なお、「smpte-30」は、使用するタイムコードが、SMPTEで定義される30フレーム毎秒のSMPTEタイムコードであることを示す記述である。
また、13行目の「clipBegin="smpte-30=00:00:00:00"」記述は、この第1のクリップの、再生を開始する位置、すなわち、素材の切り出し開始地点をこの第1のクリップのFTC上で示しており、単位はフレーム数である。その記述に続く(13行目の)「clipEnd="smpte-30=00:10:00:00"」は、この第1のクリップの再生を終了する位置、すなわち、素材の切り出し終了地点をこの第1のクリップのFTC上で示している。
以上のように、図25の例では、第1のクリップは、時刻「00:00:00:00」に、フレーム番号「00:00:00:00」の位置から再生が開始され、フレーム番号「00:10:00:00」の位置まで再生されることが、このエディットリストに記述されている。
また、第2のクリップについても、15行目乃至19行目において、第1のクリップの場合と同様に記述されている。図25の例では、第2のクリップは、時刻「00:10:00:00」に、フレーム番号「00:00:00:00」の位置から再生され、フレーム番号「00:05:30:00」の位置まで再生されることが、このエディットリストに記述されている。
そして、このエディットリストにおいては、以上のような第1のクリップの再生と第2のクリップの再生がpar要素により、同時に行われるように指定されている。従って、結果として、時刻「00:00:00:00」に、第1のクリップがフレーム番号「00:00:00:00」の位置からフレーム番号「00:10:00:00」まで再生される。これにより、時刻「00:10:00:00」になると、今度は、第2のクリップがフレーム番号「00:00:00:00」の位置からフレーム
番号「00:05:30:00」の位置まで再生される。以上のように、図25に示されるエディットリストにおいては、第1のクリップと第2のクリップが、連続して再生されるように編集されていることが示されている。
換言すると、このエディットリストは、第1のクリップ(Clip1)を10分再生し、その後に第2のクリップ(Clip2)を5分30秒再生することを示している。
以上のように、エディットリストファイルのXML記述には、クリップの非破壊編集の編集情報が記述されており、参照するクリップが記述されている。すなわち、ディスク装置1や編集装置3等(図1)は、このエディットリストファイルを参照することにより、エディットリストが参照するクリップを特定することができる。
なお、図25において、各データを示すUMIDの例が上述したように記述してあるが、これらは、エディットリスト内のUMIDの記述位置等を示すだけのものであり、それらの値が意味を持たない仮想のUMIDである。即ち、図25に記載されているUMIDは、実際のUMIDとは異なる意味の無いシンボルの組合せであり、実際には、SMPTEの定める方法に基づいて作成された正当なUMIDが上述した仮想UMIDの代わりに各位置に記述される。
図24に戻り、以上説明した第1のエディットリストディレクトリ(E0001)のファイルの構成例は、全てのエディットリスト(編集結果)、即ち、図24の例では、第2のエディットリストディレクトリ(E0002)乃至第4のエディットリストディレクトリ(E0004)においても、同様のファイルの構成例を適用することができる。従って、それらの説明については省略する。
以上において、1回の編集作業に対応するエディットリストディレクトリ(E0001乃至E0004)に含まれる各ファイルについて説明したが、ファイルの構成は上述した例に限らず、どのような構成であってもよい。
以上、PROAVディレクトリ151の構成例について説明した。次に、Generalディレクトリの構成例について説明する。
Generalディレクトリには、AVデータ以外のファイルが設けられる。具体的には、例えば、図24の例では、ファイル(一般ファイル)が設けられている。
図23に戻り、以上説明したようなディレクトリ構成(図24)で各データがファイルとして記録されている光ディスク7を対象とする転送処理について、以下、説明していく。
操作部15(図1)から転送処理を起動させる指令(ユーザの操作に対応する信号)が主制御部14に入力されると、主制御部14は、転送処理を開始する(起動する)。
即ち、ステップS201において、主制御部14は、ディスク駆動部11を制御して、光ディスク7にアクセスし、光ディスク7の記録内容を解析し、その解析結果に基づいて、「光ディスク7に記録されている各ファイルの中から、処理対象のファイル単体または複数のファイルの組合せをユーザに容易に指定させるための、ユーザインタフェース用画像(以下、このような画像を、処理対象指定画像と称する)」のデータを生成する。
なお、ステップS201は、一つの処理としてまとめられているが、実際には、図示はしないが、次のような第1の実行部と第2の実行部とのそれぞれにより実行される処理とすることができる。即ち、第1の実行部(特定部)とは、ディスク駆動部11を制御して、光ディスク7にアクセスし、光ディスク7の記録内容を解析し、その解析結果に基づいて、処理対象を特定するまでの処理(後述する図25に示されるような仮想ディレクトリ構造を生成するまでの処理)を実行するブロックである。これに対して、第2の実行部(生成部)は、特定された処理対象を羅列した画像(処理対象指定画像であって、例えば、図25に示される画像)に対応する画像データを生成するブロックである。なお、第1の実行部と第2の実行部のそれぞれは、ソフトウェアで構成することもできるし、ハードウェアで構成することもできるし、或いは、それらの組合せで構成することもできる。
そして、ステップS202において、主制御部14は、表示制御部16を制御して、ステップS201で生成された画像データに対応する画像、即ち、処理対象指定画像を表示部17に表示させる。
具体的には、例えば、いまの場合、光ディスク7の記録内容は、上述したように図24に示されるような内容(データ構造)とされているので、主制御部14は、例えば、図26に示されるような処理対象指定画像を表示部17に表示させる。
即ち、図26は、図24に示される光ディスク7の記録内容に基づいて生成された処理対象指定画像の例を示している。
図26において、その右方にClipと記述されているシンボル161は、光ディスク7に設けられている実際のディレクトリ(図24)のうちの、クリップルートディレクトリ(CLPR)に対応する仮想ディレクトリを示す。なお、符号は付していないが、シンボル(仮想ディレクトリ)161と同一のその他のシンボルも、所定の1つの仮想ディレクトリを示す。
シンボル162は、ユーザが操作部15を操作して指定することができる、1つの仮想ファイル(処理対象候補)を表している。なお、符号は付していないが、シンボル(仮想ファイル)162と同一のその他のシンボルも、所定の1つの仮想ファイルを示す。
ここで、仮想ファイル(処理対象候補)について説明する。
例えば、後述するように、転送処理においては、光ディスク7に記録されている各ファイルのうちの1つのクリップ(複数のファイルの組合せ)が光ディスク7から読み出され、フォーマット変換がなされた後、ネットワーク4を介して他の装置(図1の例では、AV装置5または6)に転送される。従って、この転送処理においては、転送される1つのクリップが処理対象となる。
このような一連の処理の前処理、即ち、処理対象のクリップをユーザに指定させるための処理の一つとして、例えば仮に、従来の様に、図24に示される画像(即ち、光ディスク7のデータ構造そのものを示す画像)が表示部17に表示されたとする。
この場合、ユーザは、例えば、上述した第1のクリップを処理対象として指定する場合、第1のクリップディレクトリ(C0001)の下に設けられているファイルの中から、第1のクリップを構成する全てのファイルを指定しなければならない。即ち、図24の例では、ユーザは、操作部15を操作して、クリップディレクトリ(C0001)の下に設けられている全てのファイル(ビデオファイル(C0001C01.SMI)乃至リアルタイムメタデータファイル(C0001R01.BIM)を処理対象として指定する、といった煩雑で時間のかかる操作をしなければならない。
さらに、図24の例では、たまたま、クリップディレクトリ(C0001)の下に設けられている全てのファイルが、第1のクリップを構成するために必要なファイルとされているが、実際には、第1のクリップとは関係ないファイルが、クリップディレクトリ(C0001)の下に設けられている可能性もある。このような場合、ユーザは、ファイルの右方に表示されるその名称(例えば、C0001C01.SMI等)だけを頼りに、第1のクリップを構成するために必要なファイルを見つけ出した後はじめて、見つけ出したそれらのファイルを処理対象として指定する、といったさらに煩雑で時間のかかる操作をしなければならない。
そこで、本実施の形態では、このような処理対象を指定するユーザ操作の負担を軽減させるために、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ユーザが処理対象として指定する可能性のある1以上のファイルの組合せ、即ち、ファイル単体または複数のファイル組合せ(上述した例では、ビデオファイル(C0001C01.SMI)乃至リアルタイムメタデータファイル(C0001R01.BIM)の組合せである第1のクリップ)を1組以上特定する。なお、以下、ユーザが処理対象として指定し得る1以上のファイル組合せを、処理対象候補と称する。
次に、主制御部14は、このようにして特定された1以上の処理対象候補毎に、対応する処理対象候補を構成する全データを含ませた1つの仮想ファイルを生成する。そして、主制御部14は、生成された1以上の仮想ファイルのそれぞれを、予め構成されている仮想ディレクトリ構造(例えば、図26に示されるようなディレクトリ構造)に含まれる1以上の仮想ディレクトリのうちの所定の1つに配置させ、1以上の仮想ファイルのそれぞれを示すシンボル(例えば、図26のシンボル162)、および、1以上の仮想ディレクトリのそれぞれを示すシンボル(例えば、図26のシンボル161)が、上述した仮想ディレクトリ構造に従って羅列された画像(データ)を(例えば、図26の画像を)、処理対象指定画像として生成し、表示部17に表示させるのである。
なお、仮想ファイルや仮想ディレクトリの名称は、ユーザが認識可能な名称であれば限定されないが、本実施の形態では、光ディスク7内の実際のファイルやディレクトリの名称そのものか、或いは、その実際の名称を容易に推定可能(ユーザにとって)な類似名称とされる。また、仮想ファイル(表示されるシンボル)は、上述したように、ユーザが処理対象を指定するためのシンボルであるので、その名称を表示させることは必須ではない。ただし、本実施の形態では、図26に示されるように、仮想ファイルに対応する実際のファイル(光ディスク7に記録されている実際の1以上のファイル)が如何なるファイルであるのかをユーザに容易に視認させることを目的として、その仮想ファイルを示すシンボルの図中右方には、その仮想ファイルの名称が配置されている(表示される)のでる。
さらに、本実施の形態では、仮想ファイルに対応する実際のファイルが如何なるファイルであるのかをユーザにさらに容易に視認させることを目的として、その仮想ファイルの名称には、対応する実際のファイルの拡張子(実際のファイルが複数の場合、主要なファイルの拡張子)がつけられている(そのように表示されている)。
以下、図26に示されている、仮想ディレクトリ(シンボル)と仮想ファイル(シンボル)について、個別に順次(図中上から順番に)説明していく。
なお、以下、特に断りの無い限り、仮想ディレクトリと仮想ディレクトリのシンボルとは同一であるとみなして説明する。同様に、仮想ファイルと仮想ファイルのシンボルとは同一であるとみなして説明する。また、各仮想ディレクトリのそれぞれ、および、各仮想ファイルのそれぞれの識別を容易なものとするために、以下、仮想ファイルまたは仮想ディレクトリの後方に括弧( )書きでその名称を記載する。
図26中、一番上の仮想ファイル(INDEX.XML)は、図24のインデックスファイル(INDEX.XML)およびインデックスファイル(INDEX.RSV)の2つに対応する。即ち、ユーザが、この仮想ファイル(INDEX.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、インデックスファイル(INDEX.XML)およびインデックスファイル(INDEX.RSV)の2つを処理対象として指定する。
仮想ファイル(INDEX.XML)の下方に示される仮想ファイル(DISCINFO.XML)は、図24のディスクインフォメーションファイル(DISCINFO.XML)およびディスクインフォメーションファイル(DISKINFO.RSV)の2つに対応する。即ち、ユーザが、この仮想ファイル(DISCINFO.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ディスクインフォメーションファイル(DISCINFO.XML)およびディスクインフォメーションファイル(DISKINFO.RSV)の2つを処理対象として指定する。
仮想ファイル(INDEX.XML)の下方に示される仮想ディレクトリ(Clip)161は、上述したように、図24のクリップルートディレクトリ(CLPR)に対応する。
図26の例では、この仮想ディレクトリ(Clip)161には、6つの仮想ファイル(C0001.MXF乃至C0003M01.XML)が設けられている。
仮想ファイル(C0001.MXF)162は、上述したように、第1のクリップを構成するファイル、即ち、図24の第1のクリップディレクトリ(C0001)に含まれる全てのファイルに対応する。具体的には、仮想ファイル(C0001.MXF)162は、図24に示される、マスタファイル(C0001C01.SMI)、ビデオファイル(C0001V01.MXF)、8つのオーディオファイル(C0001A01.MXF乃至C0001A08.MXF)、ローレゾデータファイル(C0001S01.MXF)、ノンリアルタイムメタデータファイル(C0001M01.XML)、およびリアルタイムメタデータファイル(C0001R01.BIM)といった総計13のファイルに対応する。即ち、ユーザが、この仮想ファイル(C0001.MXF)162を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、第1のクリップを構成するこれら13のファイルを処理対象として指定する。
これに対して、仮想ファイル(C0001M01.XML)は、図24のノンリアルタイムメタデータファイル(C0001M01.XML)1つに対応する。即ち、ユーザが、この仮想ファイル(C0001M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ノンリアルタイムメタデータファイル(C0001M01.XML)1つを処理対象として指定する。
このように、クリップそのものではなく、クリップを構成する各ファイルのうちの任意のファイルを任意の数だけ対応させた仮想ファイルを生成することも可能である。即ち、ユーザが処理対象として指定する可能性のある組合せ(考え得る全ての処理対象候補)のいずれも仮想ファイルとして生成することが可能である。
仮想ファイル(C0002.MXF)は、第2のクリップを構成するファイル、即ち、図24の第2のクリップディレクトリ(C0002)に設けられている全ての(13個の)ファイル(図24には図示せず)に対応する。即ち、ユーザが、この仮想ファイル(C0002.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、第2のクリップを構成するこれら13のファイルを処理対象として指定する。
仮想ファイル(C0002M01.XML)は、図24には図示されていないが、図24のクリップディレクトリ(C0002)に設けられているノンリアルタイムメタデータファイル(C0002M01.XML)1つに対応する。即ち、ユーザが、この仮想ファイル(C0002M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ノンリアルタイムメタデータファイル(C0002M01.XML)1つを処理対象として指定する。
同様に、仮想ファイル(C0003.MXF)は、第3のクリップを構成するファイル、即ち、図24のクリップディレクトリ(C0003)に設けられている全ての(13個の)ファイル(図24には図示せず)に対応する。即ち、ユーザが、この仮想ファイル(C0003.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、第3のクリップを構成するこれら13のファイルを処理対象として指定する。
仮想ファイル(C0003M01.XML)は、図24には図示されていないが、図24のクリップディレクトリ(C0003)に設けられているノンリアルタイムメタデータファイル(C0003M01.XML)1つに対応する。即ち、ユーザが、この仮想ファイル(C0003M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ノンリアルタイムメタデータファイル(C0003M01.XML)1つを処理対象として指定する。
この仮想ファイル(C0003M01.XML)の下方に示される仮想ディレクトリ(Edit)は、図24のエディットリストルートディレクトリ(EDTR)に対応する。
図26の例では、この仮想ディレクトリ(EDTR)には、12の仮想ファイル(E0001.MXF乃至E0004M01.XML)が設けられている。
仮想ファイル(E0001.MXF)は、図24の第1のエディットリストディレクトリ(E0001)に設けられている全てのファイル、即ち、図25に示されるようなエディットリストファイル(E0001E01.SMI)、および、エディットリスト用メタデータファイル(E0001M01.XML)といった2つのファイルに対応する。即ち、ユーザが、この仮想ファイル(E0001.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0001E01.SMI)に記述されている編集情報に基づいて再構成されたクリップ(例えば、エディットリストファイルE0001E01.SMIが図25に示されるエディットファイルデアルであるとすると、第1のクリップ(C0001.MXF)の00:00:00:00〜00:10:00:00と第2のクリップ(C0002.MXF)の00:00:00:00〜00:05:30:00までの部分を繋ぎ合わせたもの)、および、エディットリスト用メタデータファイル(E0001M01.XML)を処理対象として指定する。
これに対して、仮想ファイル(E0001E01.SMI)は、エディットリストファイル(E0001E01.SMI)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0001E01.SMI)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0001E01.SMI)に記述されている編集情報に基づいて再構成されたクリップを処理対象として指定する。
また、仮想ファイル(E0001M01.XML)は、エディットリスト用メタデータファイル(E0001M01.XML)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0001M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリスト用メタデータファイル(E0001M01.XML)の1つを処理対象として指定する。
以下、同様に、仮想ファイル(E0002.MXF)は、図24の第2のエディットリストディレクトリ(E0002)に設けられている全てのファイル、即ち、図24には図示はされていないが、エディットリストファイル(E0002E01.SMI)、および、エディットリスト用メタデータファイル(E0002M01.XML)といった2つのファイルに対応する。即ち、ユーザが、この仮想ファイル(E0002.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0002E01.SMI)に記述されている編集情報に基づいて再構成されたクリップ、および、エディットリスト用メタデータファイル(E0002M01.XML)を処理対象として指定する。
仮想ファイル(E0002E01.SMI)は、図24の第2のエディットリストディレクトリ(E0002)に設けられている2つのファイルのうちの、エディットリストファイル(E0002E01.SMI)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0002E01.SMI)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0002E01.SMI)に記述されている編集情報に基づいて再構成されたクリップを処理対象として指定する。
仮想ファイル(E0002M01.XML)は、図24の第2のエディットリストディレクトリ(E0002)に設けられている2つのファイルのうちの、エディットリスト用メタデータファイル(E0002M01.XML)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0002M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリスト用メタデータファイル(E0002M01.XML)の1つを処理対象として指定する。
仮想ファイル(E0003.MXF)は、図24の第3のエディットリストディレクトリ(E0003)に設けられている全てのファイル、即ち、図24には図示はされていないが、エディットリストファイル(E0003E01.SMI)、および、エディットリスト用メタデータファイル(E0003M01.XML)といった2つのファイルに対応する。即ち、ユーザが、この仮想ファイル(E0003.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0003E01.SMI)に記述されている編集情報に基づいて再構成されたクリップ、および、エディットリスト用メタデータファイル(E0003M01.XML)を処理対象として指定する。
仮想ファイル(E0003E01.SMI)は、図24の第3のエディットリストディレクトリ(E0003)に設けられている2つのファイルのうちの、エディットリストファイル(E0003E01.SMI)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0003E01.SMI)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0003E01.SMI)に記述されている編集情報に基づいて再構成されたクリップを処理対象として指定する。
仮想ファイル(E0003M01.XML)は、図24の第3のエディットリストディレクトリ(E0003)に設けられている2つのファイルのうちの、エディットリスト用メタデータファイル(E0003M01.XML)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0003M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリスト用メタデータファイル(E0003M01.XML)の1つを処理対象として指定する。
仮想ファイル(E0004.MXF)は、図24の第4のエディットリストディレクトリ(E0004)に設けられている全てのファイル、即ち、図24には図示はされていないが、エディットリストファイル(E0004E01.SMI)、および、エディットリスト用メタデータファイル(E0004M01.XML)といった2つのファイルに対応する。即ち、ユーザが、この仮想ファイル(E0004.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0004E01.SMI)に記述されている編集情報に基づいて再構成されたクリップ、および、エディットリスト用メタデータファイル(E0004M01.XML)を処理対象として指定する。
仮想ファイル(E0004E01.SMI)は、図24の第4のエディットリストディレクトリ(E0004)に設けられている2つのファイルのうちの、エディットリストファイル(E0004E01.SMI)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0004E01.SMI)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリストファイル(E0004E01.SMI)に記述されている編集情報に基づいて再構成されたクリップを処理対象として指定する。
仮想ファイル(E0004M01.XML)は、図24の第4のエディットリストディレクトリ(E0004)に設けられている2つのファイルのうちの、エディットリスト用メタデータファイル(E0004M01.XML)の1つに対応する。即ち、ユーザが、この仮想ファイル(E0004M01.XML)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、エディットリスト用メタデータファイル(E0004M01.XML)の1つを処理対象として指定する。
ところで、上述した例では、仮想ディレクトリは、光ディスク7に実際に設けられている(図24に図示されている)ディレクトリと対応させていたが、特に対応させる必要はなく、ユーザの操作性が向上するように、任意の仮想ディレクトリを設けることができる。
例えば、図26の例では、仮想ファイル(E0004M01.XML)の下方に、ローレゾデータを処理対象として指定するために生成される仮想ファイル(C0001S01.MXF乃至C0003S01.MXF)が配置される仮想ディレクトリ(Sub)が設けられている。
即ち、図26の例では、この仮想ディレクトリ(EDTR)には、3の仮想ファイル(C0001S01.MXF乃至C0003S01.MXF)が設けられている。
仮想ファイル(C0001S01.MXF)は、実際には、図24のクリップルートディレクトリ(CLPR)の第1のクリップディレクトリ(C0001)内に設けられているローレゾデータファイル(C0001S01.MXF)1つに対応する。即ち、ユーザが、この仮想ファイル(C0001S01.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ローレゾデータファイル(C0001S01.MXF)1つを処理対象として指定する。
同様に、仮想ファイル(C0002S01.MXF)は、実際には(図24には図示されていないが)、図24のクリップルートディレクトリ(CLPR)の第2のクリップディレクトリ(C0002)内に設けられているローレゾデータファイル(C0002S01.MXF)1つに対応する。即ち、ユーザが、この仮想ファイル(C0002S01.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ローレゾデータファイル(C0002S01.MXF)1つを処理対象として指定する。
仮想ファイル(C0003S01.MXF)は、実際には(図24には図示されていないが)、図24のクリップルートディレクトリ(CLPR)の第3のクリップディレクトリ(C0003)内に設けられているローレゾデータファイル(C0003S01.MXF)1つに対応する。即ち、ユーザが、この仮想ファイル(C0003S01.MXF)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、ローレゾデータファイル(C0003S01.MXF)1つを処理対象として指定する。
この仮想ファイル(C0003S01.MXF)の下方に示される仮想ディレクトリ(General)は、図24の同一名称の実ディレクトリ(General)に対応する。
図26の例では、この仮想ディレクトリ(General)には、仮想ファイル(一般ファイル)が設けられている。
仮想ファイル(一般ファイル)は、図24の同一名称のファイル(一般ファイル)の1つに対応する。即ち、ユーザが、この仮想ファイル(一般ファイル)を選択した場合、主制御部14は、光ディスク7に記録されている各ファイルのうちの、同一名称のファイル(一般ファイル)の1つを処理対象として指定する。
図23に戻り、ステップS202の処理で、このような処理対象指定画像(図26)を表示部17(図1)に表示させると、主制御部14は、ステップS203において、処理対象のクリップが選択されたか否かを判定する。
この間、ユーザは、操作部15を操作しながら、表示部17に表示された処理対象指定画像(図26)の中から、処理対象のクリップ、即ち、転送を所望するクリップを示す仮想ファイルを選択する。
即ち、ユーザにより仮想ファイルが選択されるまで、ステップS203において、処理対象のクリップが選択されていないと判定され、処理はステップS203に戻され、処理対象のクリップが選択されたか否かが再度判定される、といったループ処理が繰り返される。
例えば、いま、上述したように、ユーザが、操作部15を操作して、第1のクリップを示す仮想ファイル(C0001.MXF)162(図26)を選択したとする。即ち、操作部15が、仮想ファイル(C0001.MXF)が選択されたことを示す信号を主制御部14に供給したとする。
主制御部14は、この信号を取得すると、ステップS203において、処理対象のクリップが選択されたと判定し、ステップS204において、ディスク駆動部11を制御して、光ディスク7からそのクリップ(処理対象)を読み出し、フォーマット変換部12に供給する。
即ち、上述したように、いま選択された仮想ファイル(C0001.MXF)162は、第1のクリップを構成するファイル、即ち、図24の第1のクリップディレクトリ(C0001)に含まれる全てのファイルに対応する。具体的には、仮想ファイル(C0001.MXF)162は、図24に示される、マスタファイル(C0001C01.SMI)、ビデオファイル(C0001V01.MXF)、8つのオーディオファイル(C0001A01.MXF乃至C0001A08.MXF)、ローレゾデータファイル(C0001S01.MXF)、ノンリアルタイムメタデータファイル(C0001M01.XML)、およびリアルタイムメタデータファイル(C0001R01.BIM)といった総計13のファイルに対応する。従って、ステップS204の処理で、光ディスク7に記録されている各ファイルのうちの、第1のクリップを構成するこれら13のファイルがディスク駆動部11により読み出され、フォーマット変換部12に供給される。
すると、ステップS205において、フォーマット変換部12は、主制御部14の制御に基づいて、ディスク駆動部11から供給されたこのクリップ(第1のクリップ)のフォーマットを変換する。即ち、ステップS205の処理として、上述した図18乃至図22のそれぞれのフローチャートに従った処理が実行されて、第1のクリップのフォーマットが、上述したように、AV独立フォーマットから標準AV多重フォーマットに変換される。
そして、この標準AV多重フォーマットのクリップ(第1のクリップ)は、フォーマット変換部12から通信I/F13に供給される。
すると、ステップS206において、通信I/F13は、主制御部13の制御に基づいて、フォーマット変換部12から供給されたクリップ(標準AV多重フォーマットの第1のクリップ)をネットワーク4を介して他の装置(図1の例では、AV装置5または6)に転送する。
これにより、転送処理は終了となる。
ところで、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図27は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク205やROM203に予め記録しておくことができる。
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体211に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体211は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体211からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部208で受信し、内蔵するハードディスク205にインストールすることができる。
コンピュータは、CPU(Central Processing Unit)202を内蔵している。CPU202には、バス201を介して、入出力インタフェース210が接続されており、CPU202は、入出力インタフェース210を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部207が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)203に格納されているプログラムを実行する。あるいは、また、CPU202は、ハードディスク205に格納されているプログラム、衛星若しくはネットワークから転送され、通信部208で受信されてハードディスク205にインストールされたプログラム、またはドライブ209に装着されたリムーバブル記録媒体211か
ら読み出されてハードディスク205にインストールされたプログラムを、RAM(Random Access Memory)204にロードして実行する。これにより、CPU202は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU202は、その処理結果を、必要に応じて、例えば、入出力インタフェース210を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部206から出力、あるいは、通信部208から送信、さらには、ハードディスク205に記録等させる。
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
以上のように、ビデオデータとオーディオデータとが多重化されてボディに配置される標準AV多重フォーマットのファイルと、ビデオデータまたはオーディオデータそれぞれがまとめてボディに配置されるAV独立フォーマットのファイルとの間の相互変換を行うようにしたので、例えば、ネットワーク4を介してのファイルの伝送(ファイル交換やストリーミング)を行う場合には、標準AV多重フォーマットを使用し、光ディスク7へのファイルの記録を行う場合には、AV独立フォーマットを使用することが可能となる。
そして、光ディスク7に、AV独立フォーマットのファイルを記録する場合には、例えば、AV独立編集を容易に行うことが可能となる。
また、AV独立フォーマットでは、フレーム単位のメタデータを、1つのファイル(フレーム単位のメタデータファイル)に集めて(まとめて)配置するようにしたので、フレーム単位のメタデータの検索を、高速で行うことが可能となる。
さらに、AV独立フォーマットでは、オーディオデータの符号化方式として、WAVEを採用しているので、AES3を採用する標準AV多重フォーマットの場合に比較して、オーディオデータのデータ量を低減することができる。
また、AV独立フォーマットでは、標準AV多重フォーマットと同一のヘッダ、ボディ、フッタという形を採用し、さらに、ヘッダとフッタについては、標準AV多重フォーマットと同一形式のヘッダとフッタを採用することとしたので、標準AV多重フォーマットに対応している標準装置であれば、AV独立フォーマットのファイルの送受信や、記録媒体に対する読み書きを行うことができる。
さらに、標準AV多重フォーマットのファイルでは、そのボディに、ビデオデータや、オーディオデータ、ユーザデータ、フレーム単位のメタデータといった複数のエッセンスが多重化されて配置されているのに対して、AV独立フォーマットのファイル(のビデオファイルとオーディオファイル)では、そのボディに、ビデオデータまたはオーディオデータだけが配置されている。従って、AV独立フォーマットのファイルは、単一エッセンスをボディとしたMXFのファイルということができる。そして、この単一エッセンスをボディとしたMXFのファイルであるビデオファイルやオーディオファイルについては、単一エッセンスをボディとしたMXFを理解することができる装置であれば、その内容を読み出すことができる。
なお、本実施の形態では、ディスク装置1において、光ディスク7に対して、AV独立フォーマットのファイルを読み書きするようにしたが、AV独立フォーマットのファイルは、光ディスク7などのディスク状の記録媒体に限らず、磁気テープなどのテープ状の記録媒体や、半導体メモリ等に対して読み書きすることが可能である。
また、図1の実施の形態では、ディスク駆動部11、フォーマット変換部12、通信I/F13、主制御部14、操作部15、表示制御部16、および、表示部17によって、1つの装置であるディスク装置1を構成するようにしたが、ディスク駆動部11、フォーマット変換部12、通信I/F13、主制御部14、操作部15、表示制御部16、および、表示部17のそれぞれは、独立した1つの装置とすることが可能である。
さらに、本実施の形態では、標準AV多重フォーマットのファイルとして、MXFに準拠したファイルを採用することとしたが、標準AV多重フォーマットのファイルとしては、MXFに準拠したファイルの他、ヘッダ、ボディ、フッタからなり、ボディに、任意の2つのデータ(以上)が多重化されて配置されるファイルを採用することが可能である。
また、本実施の形態では、標準AV多重フォーマットのファイルのボディに、ビデオデータとオーディオデータとを多重化したものが配置されることとしたが、標準AV多重フォーマットのファイルのボディには、その他、例えば、2以上のビデオデータ(のストリーム)を多重化したものや、2以上のオーディオデータ(のストリーム)を多重化したものを配置するようにすることが可能である。
1,2 ディスク装置, 3 編集装置, 4 ネットワーク, 5,6 AV装置, 11 ディスク駆動部, 12 フォーマット変換部, 13 通信I/F, 21 標準/独立変換部, 22 独立/標準変換部, 31 バッファ, 32 マスタファイル生成部, 33 ヘッダ取得部, 34 ボディ取得部, 35 ヘッダメタデータ抽出部, 36 システムアイテム抽出部, 37 メタデータファイル生成部, 38 オグジュアリアイテム抽出部, 39 オグジュアリファイル生成部, 40 ピクチャアイテム抽出部, 41 ビデオファイル生成部, 42 サウンドアイテム抽出部, 43 オーディオファイル生成部, 44 バッファ, 51 結合部, 52 ヘッダ/フッタ付加部, 61 KLVデコーダ, 62 チャネル分離部, 63 データ変換部, 64 KLVエンコーダ, 65 ヘッダ/フッタ付加部, 101 バッファ, 102 ファイル取得部, 103 メタデータファイル処理部, 104 オグジュアリファイル処理部, 105 ビデオファイル処理部, 106 オーディオファイル処理部, 107 データ合成部, 108 バッファ, 111 ヘッダ/フッタ除去部, 112 分解部, 121 ヘッダ/フッタ除去部, 122 KLVデコーダ, 123 データ変換部, 124 チャネル多重化部, 125 KLVエンコーダ, 131 ヘッダ/フッタ生成部, 132 多重化部, 133 ヘッダ/フッタ付加部, 151 ディレクトリ(を示すシンボル), 152 ファイル(を示すシンボル), 161 仮想ディレクトリ(を示すシンボル), 162 仮想ファイル(を示すシンボル), 201 バス, 202 CPU, 203 ROM, 204 RAM, 205 ハードディスク, 206 出力部, 207 入力部, 208 通信部, 209 ドライブ, 210 入出力インタフェース, 211 リムーバブル記録媒体