JP4179030B2 - Recording apparatus and method, and reproducing apparatus and method - Google Patents

Recording apparatus and method, and reproducing apparatus and method Download PDF

Info

Publication number
JP4179030B2
JP4179030B2 JP2003111629A JP2003111629A JP4179030B2 JP 4179030 B2 JP4179030 B2 JP 4179030B2 JP 2003111629 A JP2003111629 A JP 2003111629A JP 2003111629 A JP2003111629 A JP 2003111629A JP 4179030 B2 JP4179030 B2 JP 4179030B2
Authority
JP
Japan
Prior art keywords
data
audio data
channels
recording
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003111629A
Other languages
Japanese (ja)
Other versions
JP2004319002A (en
Inventor
秀樹 安藤
寿郎 田中
貴士 古川
正樹 広瀬
宏郁 村上
光俊 真貝
隆夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003111629A priority Critical patent/JP4179030B2/en
Publication of JP2004319002A publication Critical patent/JP2004319002A/en
Application granted granted Critical
Publication of JP4179030B2 publication Critical patent/JP4179030B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、異なる複数のフォーマットのオーディオおよびビデオデータを、連続的な再生が可能なように1枚のディスク状記録媒体に混在して記録することが可能な記録装置および方法に関する。
【0002】
【従来の技術】
近年では、より波長の短いレーザ光を光源として用い、より大容量の記録再生を可能としたディスク状記録媒体が出現している。例えば、波長405nmのレーザ光を発する青紫色レーザを光源とし、片面1層構造の光ディスクを用いて23GB(ギガバイト)の記録容量が実現されている。
【0003】
一方、ビデオデータのデータフォーマットも、近年では、テレビジョン放送における画像の高精細度化などに伴い多岐にわたっており、符号化/復号化方式、データのビットレート、フレームレート、画素数、画面のアスペクト比など、それぞれ複数種類が一般的に用いられるようになっている。オーディオデータも同様に、ビット解像度や符号化/復号化方式など、それぞれ複数種類が一般的に用いられる。
【0004】
さらに、ビデオカメラなどでは、撮像信号に基づき、高解像度の本映像信号を出力すると共に低解像度の補助映像信号を生成することが提案されている。補助映像信号は、例えばネットワークを介して一刻も早く映像信号を送りたいときや、早送りや巻き戻しによりビデオ映像の頭出しを行う際のシャトル操作などのときに用いて好適である。
【0005】
非特許文献1には、上述した、大容量のディスク状記録媒体を用いると共に、高解像度の本映像信号を出力すると共に低解像度の補助映像信号を生成するようにしたビデオカメラが記載されている。
【0006】
【非特許文献1】
AV Watch編集部、”ソニー、青紫色レーザーディスクを使ったカムコーダなど”、”ソニー、青紫色レーザーディスクを使ったカムコーダなど−4月開催のNAB 2003に出展。スタジオレコーダなども展示”[online]、2003年3月5日、Impress Corporation、AV Watchホームページ、[平成15年3月25日検索]、インターネット<URL : http://www.watch.impress.co.jp/av/docs/20030305/sony.htm>
【0007】
【発明が解決しようとする課題】
このような状況において、上述した大容量のディスク状記録媒体に対して、複数の異なるデータフォーマットのオーディオ/ビデオデータ(以下、AVデータ)を混在させ、尚かつ、連続的に記録、再生を可能とすることが求められている。
【0008】
従来では、このように、複数の異なるデータフォーマットのAVデータを混在させ、且つ、連続的に記録媒体に記録し、複数の異なるデータフォーマットのAVデータが混在されて記録された記録媒体から、これら複数の異なるデータフォーマットのAVデータを連続的に再生し、また、編集するような技術は存在しなかった。
【0009】
特に、オーディオデータに関しては、複数チャンネルのデータを同時に扱うことが一般的となっており、使用されるチャンネル構成の変更にも柔軟に対応できることが求められている。
【0010】
したがって、この発明の目的は、異なる複数のフォーマットのオーディオおよびビデオデータを、連続的な再生が可能なように1枚のディスク状記録媒体に混在して記録できるようにした記録装置および方法を提供することにある。
【0011】
また、この発明の他の目的は、オーディオデータのチャンネル構成に変更にも柔軟に対応できるようにした記録装置および方法を提供することにある。
【0012】
【課題を解決するための手段】
この発明は、上述した課題を解決するために、複数のチャンネルのオーディオデータが多重化されて入力されたオーディオデータをディスク状記録媒体に記録する記録装置において、サンプル毎にプリアンブルが付加されたオーディオデータのデータ種類を、プリアンブルに含まれるオーディオデータが分離可能であるか否かを示す情報に基づき検出する検出手段と、検出手段による検出結果に基づきオーディオデータが複数のチャンネルがサンプル毎の分離が可能に多重化されたオーディオデータであると判断された場合、オーディオデータを複数のチャンネルそれぞれに分離する分離手段と、分離手段で複数のチャンネルそれぞれに分離された分離オーディオデータを、複数のチャンネルそれぞれの個別のファイルとしてディスク状記録媒体に記録し、検出手段による検出結果に基づきオーディオデータが複数のチャンネルがサンプル毎の分離が不能に多重化されたオーディオデータであると判断された場合、オーディオデータを単一のファイルとしてディスク状記録媒体に記録する記録手段とを有することを特徴とする記録装置である。
【0013】
また、この発明は、複数のチャンネルのオーディオデータが多重化されて入力されたオーディオデータをディスク状記録媒体に記録する記録方法において、サンプル毎にプリアンブルが付加されたオーディオデータのデータ種類を、プリアンブルに含まれるオーディオデータが分離可能であるか否かを示す情報に基づき検出する検出のステップと、検出のステップによる検出結果に基づきオーディオデータが複数のチャンネルがサンプル毎の分離が可能に多重化されたオーディオデータであると判断された場合、オーディオデータを複数のチャンネルそれぞれに分離する分離のステップと、分離のステップで複数のチャンネルそれぞれに分離されたオーディオデータを、複数のチャンネルそれぞれの個別のファイルとしてディスク状記録媒体に記録し、検出のステップによる検出結果に基づきオーディオデータが複数のチャンネルがサンプル毎の分離が不能に多重化されたオーディオデータであると判断された場合、オーディオデータを単一のファイルとしてディスク状記録媒体に記録する記録のステップとを有することを特徴とする記録方法である。
【0014】
また、この発明は、複数のチャンネルのオーディオデータが記録されたディスク状記録媒体からオーディオデータを再生する再生装置において、複数のチャンネルが多重化されたオーディオデータを複数のチャンネル毎に分離した分離オーディオデータがそれぞれ個別のファイルとして記録されたディスク状記録媒体から分離オーディオデータを再生する再生手段と、再生手段により再生された複数の分離オーディオデータに対して、オーディオデータが分離可能であるか否かを示す情報を含むプリアンブルをサンプル毎にそれぞれ付加して多重化する多重化手段とを有することを特徴とする再生装置である。
【0015】
また、この発明は、複数のチャンネルのオーディオデータが記録されたディスク状記録媒体からオーディオデータを再生する再生方法において、複数のチャンネルが多重化されたオーディオデータを複数のチャンネル毎に分離した分離オーディオデータがそれぞれ個別のファイルとして記録されたディスク状記録媒体から分離オーディオデータを再生する再生のステップと、再生のステップにより再生された複数の分離オーディオデータに対して、オーディオデータが分離可能であるか否かを示す情報を含むプリアンブルをサンプル毎にそれぞれ付加して多重化する多重化のステップとを有することを特徴とする再生方法である。
【0016】
上述したように、この発明は、オーディオデータのデータ種類を検出した検出結果に基づき、オーディオデータが複数のチャンネルがサンプルに基づく分離が可能に多重化されたオーディオデータであると判断された場合、オーディオデータを複数のチャンネルそれぞれに分離して複数のチャンネルそれぞれの個別のファイルとしてディスク状記録媒体に記録するようにしているため、オーディオデータのデータ種類が混在されて入力されたときに、複数チャンネルのそれぞれを分離可能なオーディオデータを判断し、チャンネル毎に分割されたファイルとして記録することができる。
【0017】
また、この発明は、複数のチャンネルが多重化されたオーディオデータを複数のチャンネル毎に分離した分離オーディオデータがそれぞれ個別のファイルとして記録されたディスク状記録媒体から分離オーディオデータを再生し、再生された複数の分離オーディオデータを多重化するようにしているため、ディスク状記録媒体に記録された複数のオーディオデータを再生して元の多重化されたオーディオデータを作成することができる。
【0018】
【発明の実施の形態】
以下、この発明の実施の一形態について説明する。この発明では、1枚のディスク状記録媒体(以下、ディスクと略称する)に対して、複数の信号種類(フォーマット)のオーディオデータおよびビデオデータ(以下、適宜、AVデータと略称する)を、当該複数の信号種類のAVデータを連続的に再生することができるように混在させて連続的に記録可能とする。
【0019】
なお、以下では、上述の「1枚のディスク状記録媒体に対して、複数の信号種類のAVデータを、当該複数の信号種類のAVデータを連続的に再生することができるように混在させて連続的に記録する、」ことを、繁雑さを避けるために、適宜「1枚のディスクに混在可能」などと称する。
【0020】
先ず、この発明において1枚のディスクに混在可能とするデータの信号種類(フォーマット)の例について説明する。
【0021】
符号化方式としては、例えばMPEG2(Moving Pictures Experts Group 2)方式においてフレーム内符号化によるIピクチャのみでビデオデータを構成する符号化方式や、Iピクチャと、予測符号化によるPピクチャおよびBピクチャとによりビデオデータを構成する符号化方式を1枚のディスクに混在可能とされる。勿論、MPEG2方式以外の符号化方式を混在させることも可能である。
【0022】
なお、上述の、Iピクチャのみでビデオデータを構成する符号化方式においては、ランダムアクセスの単位であるGOP(Group Of Picture)は、一枚のIピクチャで構成される。この方式を、以下、便宜上「シングルGOP方式」と称する。この発明の実施の一形態では、このシングルGOP方式は、MPEG2の4:2:2プロファイルが適用される。また、I、PおよびBピクチャを用いてビデオデータを構成する符号化方式では、GOPは、Iピクチャで完結し、1または複数のPおよびBピクチャを含む。以下では、便宜上、複数フレームからGOPが構成されるこの方式を、「ロングGOP方式」と称する。
【0023】
ビデオデータについては、一例として、上述のシングルGOP方式におけるビットレートモード30Mbps(Mega bit per second)、40Mbpsおよび50Mbpsのビデオデータが1枚のディスクに混在可能とされ、ロングGOPにおけるビットレートモード25Mbpsのビデオデータがさらに1枚のディスクに混在可能とされる。シングルGOPやロングGOPで、さらに他のビットレートモードを混在させてもよい。
【0024】
なお、ビットレートモードは、ビットレートモードで示されるビットレート値を最大値とするようにビデオデータを圧縮符号するモードである。例えば、ビットレートモード50Mbpsのビデオデータは、実際には、画像の複雑さなどに応じて、50Mbps以下のビットレートのデータを伝送データ中に含む。ビットレートモードで示されるビットレートに満たないデータ量のフレームに対し、ビットレートモードで示されるビットレートとのデータ量の差分を、所定のパディングデータで埋めることで、見かけのビットレートをビットレートモードで示されるビットレートとすることができる。
【0025】
また、ビデオデータに関して、走査方式はインタレース方式およびプログレッシブ方式のデータを1枚のディスクに混在可能とされ、それぞれの方式において複数のフレームレートのデータを1枚のディスクに混在可能とされる。画面サイズでは、アスペクト比が4:3および16:9のそれぞれのデータを1枚のディスクに混在して記録可能とされ、例えばアスペクト比が4:3であれば、標準的(SD:Standard Definision)な640画素×480ラインおよびより高精細(HD:High Definision)な1440画素×1088ラインのデータを1枚のディスクに混在可能である。アスペクト比が16:9の場合にも、複数種類の画像サイズのデータを同様に1枚のディスクに混在可能である。
【0026】
さらに、カラープロファイルも、上述の4:2:2に限らず、4:2:0など、他のフォーマットが混在可能である。
【0027】
オーディオデータについては、リニアPCM(Pulse Code Modulation)で符号化されたオーディオデータ(以下、リニアPCMオーディオデータと略称する)およびリニアPCM以外の符号化方式で符号化されたオーディオデータ(例えば、リニアPCMオーディオデータをさらに圧縮符号化したオーディオデータ)を1枚のディスクに混在可能である。オーディオデータは、例えば16ビットおよび24ビットといった複数種類のビット解像度に対応し、4チャンネルや8チャンネルなど、複数のチャンネル組み合わせを1枚のディスクに混在可能とされる。
【0028】
この発明の実施の一形態においては、オーディオデータは、0チャンネル(オーディオ無し)、4チャンネルおよび8チャンネルから記録チャンネル数を選択するようにされている。入力されたオーディオデータのチャンネル数が選択された記録チャンネル数に満たない場合は、残りのチャンネルに対して無音を示すオーディオデータが記録され、記録チャンネル数が維持される。例えば、記録チャンネル数として8チャンネルが選択されたときに、2チャンネルのオーディオデータが入力された場合、残りの6チャンネルは、無音のオーディオデータが記録され、記録データとしては、8チャンネルのオーディオデータとされる。
【0029】
また、複数チャンネルが多重化されて入力されたオーディオデータは、チャンネル毎に個別のオーディオデータとして記録される。再生の際には、例えば、個別のオーディオデータを元の多重化方式で多重化して出力される。
【0030】
この発明の実施の一形態においては、上述の本線系、すなわち、実際の放送や編集の対象とされるAVデータの他に、さらに、本線系のAVデータに対応した補助AVデータおよびメタデータが同一のディスク上に記録される。
【0031】
補助AVデータは、本線系のAVデータに基づくより低ビットレートとしたオーディオ/ビデオデータである。この補助AVデータは、本線系のAVデータを、ビットレートを例えば数Mbpsまで落とすように圧縮符号化して生成する。補助AVデータを生成するための符号化方式は、MPEG4を初めとして複数種類が存在するが、この発明の実施の一形態では、異なる複数の符号化方式で符号化された補助AVデータを1枚のディスクに混在可能である。また、同一の符号化方式であって、異なる符号化パラメータを用いて符号化された補助AVデータも、1枚のディスクに混在可能である。
【0032】
なお、この発明の実施の一形態では、補助AVデータで扱われるオーディオデータのチャンネル数は、8チャンネルに固定的とされる。すなわち、例えば補助AVデータのオーディオデータのチャンネル数を8チャンネルとして、上述した本線系のオーディオデータにおいて、記録チャンネルとして0チャンネルおよび4チャンネルの何れかが選択された場合や、選択された記録チャンネルに対してさらに入力チャンネル数が少ない場合でも、補助AVデータにおけるオーディオデータのチャンネル数は、8チャンネルである。本線系のオーディオデータの記録チャンネル数が8チャンネルに満たない場合、補助AVデータにおけるオーディオデータの残りのチャンネル(すなわち本線系のオーディオデータのチャンネルに対応しないチャンネル)は、無音を示すオーディオデータが記録される。
【0033】
メタデータは、あるデータに関する上位データであり、各種データの内容を表すためのインデックスとして機能する。メタデータには、上述の本線系のAVデータの時系列に沿って発生される時系列メタデータと、本線系のAVデータにおけるシーン毎など、所定の区間に対して発生される非時系列メタデータの2種類がある。
【0034】
時系列メタデータは、例えばタイムコード、UMID(Unique Material Identifier)、エッセンスマークが必須データとされる。さらに、撮影時におけるビデオカメラのアイリスやズーム情報といったカメラメタ情報を、時系列メタデータに含めることもできる。さらにまた、ARIB(Association of Radio Industries and Businesses)に規定される情報を時系列メタデータに含めることもできる。なお、ARIBに基づくデータおよびカメラメタ情報は、データサイズが比較的大きいので、排他的に混在させることが好ましい。カメラメタ情報およびARIBは、時間解像度を落として時分割多重で時系列メタデータに含ませることもできる。
【0035】
非時系列メタデータとしては、タイムコードやUMIDの変化点情報、エッセンスマークに関する情報、ユーザビットなどが含まれる。
【0036】
UMIDについて、概略的に説明する。UMIDは、ビデオデータ、オーディオデータおよびその他の素材データを識別するために唯一的に決定される、SMPTE−330Mにより規格化された識別子である。
【0037】
図1は、UMIDのデータ構造を示す。UMIDは、素材データを識別するためのID情報としてのベーシックUMIDと、素材データ内の各コンテンツを識別するためのシグネイチャメタデータとから構成される。ベーシックUMIDおよびシグネイチャメタデータは、それぞれ32バイトのデータ長からなるデータ領域を有する。ベーシックUMIDにシグネイチャメタデータが付加された64バイトのデータ長を有する領域を、拡張UMIDと称する。
【0038】
ベーシックUMIDは、12バイトのデータ長を有する領域Universal Labelと、1バイトのデータ長を有する領域Length Valueと、3バイトのデータ長を有する領域Instance Numberと、16バイトのデータ長を有する領域Material Numberとから構成される。
【0039】
領域Universal Labelは、直後から続くデータ列がUMIDであることを識別するための符号が格納される。領域Length Valueは、UMIDの長さが示される。ベーシックUMIDと拡張UMIDとでは符号の長さが異なるため、領域Lengthにおいて、ベーシックUMIDは値〔13h〕で示され、拡張UMIDは値〔33h〕で示される。なお、この括弧〔〕内の表記において、数字の後の「h」は、数字が16進表記であることを示す。領域Instance Numberは、素材データに上書き処理や編集処理が施されたか否かが示される。
【0040】
領域Material Numberは、4バイトのデータ長を有する領域Time Snapと、8バイトのデータ長を有する領域Rndと、4バイトのデータ長を有する領域Machine nodeの3つの領域からなる。領域Time Snapは、1日のスナップクロックサンプル数を示す。これにより、クロック単位で素材データの作成時刻などが示される。領域Rndは、正確でない時刻をセットしたときや、例えばIEEE(Institute Electrical and Erectronic Engineers)で定義された機器のネットワークアドレスが変化したときに、番号が重複して付されないようにするためのランダムナンバである。
【0041】
シグネイチャメタデータは、8バイトのデータ長を有する領域Time.Dateと、12バイトのデータ長を有する領域Spatial Co-ordinatedと、それぞれ4バイトのデータ長を有する領域Country、領域Organizationおよび領域Userとから構成される。
【0042】
領域Time/Dateは、素材が生成された時間と日付とが示される。領域Spatial Co-ordinatedは、素材が生成された時間に関する補正情報(時差情報)や、緯度、経度および高度で表される位置情報とが示される。位置情報は、例えばビデオカメラにGPS(Global Positioning System)に対応する機能を設けることで取得可能である。領域Country、領域Organizationおよび領域Userは、省略されたアルファベットの文字や記号などを用いて、それぞれ国名、組織名およびユーザ名が示される。
【0043】
なお、UMIDは、上述したように拡張UMIDを用いる場合、データ長が64バイトとなり、時系列的に順次記録するためには、容量が比較的大きい。そのため、時系列メタデータに対してUMIDを埋め込む際には、UMIDを所定の方式で圧縮することが好ましい。
【0044】
UMIDは、この発明の実施の一形態の用途に用いる限りは、先頭から10バイト乃至13バイトが固定的な値とされる。そのため、この発明の実施の一形態においては、UMIDの先頭から10バイト乃至先頭から13バイトは、省略することができる。また、UMIDを時系列メタデータに格納する際に、所定の方式でエンコードすることができる。この場合、エンコード方式としてBase64を用いると、エンコード結果がアスキーコードとなり、例えばXML文書に埋め込むのが容易となり好ましい。さらに、差分だけを用いることも考えられる。例えば、同一ディレクトリ内に同一時刻に発生されるデータには、一部が共通とされたUMIDが付与される。これを利用してUMIDの差分だけを用いることで、データ量を減らすことができる。
【0045】
エッセンスマークについて概略的に説明する。エッセンスマークは、撮影時において例えばビデオデータに構成される映像シーン(またはカット)である映像シーンデータに関連するインデックスを表す。エッセンスマークを用いることで、撮影後に、どのようなシーンであるかが映像シーンデータの再生処理をしなくても把握することができる。
【0046】
この発明の実施の一形態においては、エッセンスマークは、予め予約語として定義される。そのため、例えば撮像装置、再生装置および編集装置のインターフェイス間で、エッセンスマークを相手装置に応じて変換することなく、共通した制御を行うことが可能とされる。
【0047】
図2は、エッセンスマークを定義するために用いられる予約語の例を示す。なお、この図2の例は一例であって、さらに他のエッセンスマークを追加定義することも可能である。"_RecStart"は、記録の開始位置を示す撮影開始マークである。"_RecEnd"は、記録の終了位置を示す撮影終了マークである。"_ShotMark1"および"_ShotMark2"は、注目すべき時点などの任意の位置を示すショットマークである。"_Cut"は、カット位置を示すカットマークである。"_Flash"は、フラッシュが発光された位置を検出したフラッシュ検出位置を示すフラッシュマークである。"_FilterChange"は、撮像装置においてレンズフィルタを変更した位置を示すフィルタ変更マークである。"_ShutterSpeedChange"は、撮像装置においてシャッタ速度を変更した位置を示すシャッタ速度変更マークである。"_GainChange"は、フィルタなどのゲインを変更した位置を示すゲイン変更マークである。"_WhiteBalanceChange"は、ホワイトバランスを変更した位置を示すホワイトバランス変更マークである。"_OverBrightness"は、ビデオ信号の出力レベルが限界値を超えた位置を示すマークである。"_OverAudioLimiter"は、オーディオ信号の出力レベルが限界値を超えた位置を示す大音量マークである。上述までの各マークは、例えばビデオデータのフレーム単位で記録される。
【0048】
"_In-XXX"は、カットまたは素材の切り出し開始位置を示す編集開始マークである。"_Out-XXX"は、カットまたは素材の切り出し終了位置を示す編集終了マークである。編集開始マークおよび編集終了マークは、編集開始点(IN点)や編集終了点(OUT点)が追加される毎に、数字やアルファベットなどが"XXX"の部分にシーケンシャルにナンバリングされる。例えば、"_In-001"、"_In-002"、・・・のようになる。
【0049】
上述のように定義されたエッセンスマークを、粗編集処理時にインデックス情報として用いることで、目的とする映像シーンを効率的に選択することが可能とされる。
【0050】
図3は、エッセンスマークの一例のデータ構造を示す。エッセンスマークは、図2を用いて説明したように、映像シーンの特徴などがテキストデータにより表され、映像コンテンツデータ(本線系のAVデータ)と関連付けられたメタデータである。エッセンスマークは、KLV(Key Length Value)符号化されて記録や伝送がなされる。図3は、このKLV符号化されたエッセンスマークのフォーマットを示す。このフォーマットは、SMPTE 335M/RP210Aのメタデータ辞書に準拠したものである。
【0051】
KLV符号化されたエッセンスマークは、16バイトのデータ長を有する「Key」部と、1バイトのデータ長を有する「L(length)」部と、最大32バイトのデータ長を有する「Value」部とからなる。「Key」部は、SMPTE 335M/RP210Aに準拠した、KLV符号化されたデータ項目を示す識別子であり、この例では、エッセンスマークであることを示す値とされる。「L」部は、「L」部以降に続くデータ長をバイト単位で表す。最大で32バイトのデータ長が表現される。「Value」部は、エッセンスマークが格納されるテキストデータからなる領域である。
【0052】
次に、この発明の実施の一形態によるディスク上へのデータ配置について説明する。この発明の実施の一形態では、ディスク上に年輪を形成するようにしてデータを記録する。年輪データは、データの再生時間によって示されるデータ量を単位としてディスクに記録されるデータである。例えば本線系のオーディオデータおよびビデオデータに限定して説明すると、再生時間帯が対応するオーディオデータおよびビデオデータを、トラックの1周分以上のデータサイズを有する所定の再生時間単位毎に交互に配置して記録する。このように記録を行うことで、再生時間帯が対応するオーディオデータおよびビデオデータの組が時系列的に重層されて、年輪が形成される。
【0053】
この実施の一形態では、実際には、再生時間帯が対応するオーディオデータおよびビデオデータに加え、これらのデータに再生時間帯が対応する補助AVデータおよび時系列メタデータを一組として記録することで年輪を形成し、光ディスク1に対するデータの記録を行う。
【0054】
なお、年輪を形成するデータを年輪データと称する。年輪データは、ディスクにおける最小の記録単位であるセクタの整数倍のデータ量とされる。また、年輪は、その境界がディスクのセクタの境界と一致するように記録される。
【0055】
図4は、光ディスク1に対して年輪データが形成された一例の様子を示す。この図4の例では、光ディスク1の内周側から順に、オーディオ年輪データ#1、ビデオ年輪データ#1、オーディオ年輪データ#2、ビデオ年輪データ#2、補助AV年輪データ#1および時系列メタ年輪データ#1が記録されており、この周期で年輪データが扱われる。時系列メタ年輪データ#1の外周側には、さらに、次の周期の年輪データの一部がオーディオ年輪データ#3およびビデオ年輪データ#3として示されている。
【0056】
この図4の例は、時系列メタ年輪データの1年輪データ分の再生時間帯と補助AV年輪データの1年輪データ分の再生時間帯とが対応し、時系列メタ年輪データの1年輪データ分の再生時間帯とオーディオ年輪データの2周期分の再生時間帯が対応することを示している。同様に、時系列メタ年輪データの1年輪データ分の再生時間帯とビデオ年輪データの2周期分の再生時間帯が対応することを示している。このような、各年輪データの再生時間帯および周期の対応付けは、例えばそれぞれのデータレートなどに基づき設定される。なお、ビデオ年輪データやオーディオ年輪データの1年輪データ分の再生時間は、経験値的には1.5秒〜2秒程度が好ましい。
【0057】
図5は、上述の図4のように年輪が形成された光ディスク1に対するデータの読み書きが行われる一例の様子を示す。光ディスク1に十分な大きさの連続した空き領域が存在し、その空き領域に欠陥が無い場合、オーディオデータ、ビデオデータ、補助AVデータ時系列メタデータの各データ系列から、再生時間帯に基づきそれぞれ生成されたオーディオ年輪データ、ビデオ年輪データ、補助AV年輪データおよび時系列メタ年輪データは、図5Aに一例が示されるように、光ディスク1の空き領域に対して、恰も一筆書きをするように書き込まれる。このとき、何れのデータの境界も、光ディスク1のセクタの境界と一致するように書き込まれる。光ディスク1からのデータの読み出しも、書き込み時と同様にして行われる。
【0058】
一方、光ディスク1からある特定のデータ系列を読み出す場合には、読み出しデータ系列の記録位置にシークしてそのデータを読み出すという動作が繰り返される。図5Bは、このようにして補助AVデータの系列を選択的に読み出す様子を示す。例えば図4も参照し、補助AV年輪データ#1が読み出されたら、続いて記録されている時系列メタ年輪データ#1、オーディオ年輪データ#3およびビデオ年輪データ#3、ならびに、オーディオ年輪データ#4およびビデオ年輪データ#4(図示しない)をシークにより飛び越し、次の周期の補助AV年輪データ#2が読み出される。
【0059】
このように、データの光ディスク1への記録を、再生時間を単位とし、再生時間帯に応じた年輪データとして周期的に行うことで、同じような再生時間帯のオーディオ年輪データとビデオ年輪データとが光ディスク1上の近い位置に配置されるので、光ディスク1から、再生時刻が対応するのオーディオデータとビデオデータとを迅速に読み出して再生することが可能となる。また、年輪の境界とセクタの境界とが一致するように記録されるので、光ディスク1からオーディオデータまたはビデオデータだけを読み出すことが可能となり、オーディオデータまたはビデオデータだけの編集を迅速に行うことが可能となる。また、上述したように、オーディオ年輪データ、ビデオ年輪データ、補助AV年輪データおよび時系列メタ年輪データは、光ディスク1のセクタの整数倍のデータ量を有し、さらに、年輪データの境界とセクタの境界とが一致するように記録されている。そのため、オーディオ年輪データ、ビデオ年輪データ、補助AV年輪データおよび時系列メタ年輪データのうち何れか1系列のデータだけが必要な場合に、他のデータの読み出しを行うことなく、必要なデータだけを読み出すことができる。
【0060】
上述したような、年輪によるデータ配置の利便性を活かすためには、光ディスク1に対するデータの記録を、年輪の連続性が保証されるように行う必要がある。このことについて、図6を用いて説明する。例えば補助AV年輪データ(図6では「LR」と表示)だけ読み出すことを考える。
【0061】
例えば記録時に連続した十分に大きな空き領域が確保されていれば、複数周期の年輪を連続的に記録することができる。この場合、図6Aに示されるように、時間的に連続する補助AV年輪データを、最小のトラックジャンプで読み出すことができる。すなわち、補助AV年輪データを読み出したら、次の周期の年輪における補助AV年輪データを読み出すという動作を繰り返すことが可能となり、ピックアップがジャンプする距離が最短となる。
【0062】
これに対して、例えば記録時に連続した空き領域が確保できず、時間的に連続する補助AVデータを光ディスク1上の飛び飛びの領域に記録した場合、図6Bに一例が示されるように、最初の補助AV年輪データを読み出したら、例えば年輪の複数周期分に相当する距離をピックアップがジャンプして、次の補助AV年輪データを読み出さなければならない。この動作が繰り返されるため、図6Aに示される場合に比べて、補助AV年輪データの読み出し速度が低下してしまう。また、本線系のAVデータにおいては、図6Cに一例が示されるように、未編集AVデータ(AVクリップ)の再生が滞る可能性がある。
【0063】
そこで、この発明の実施の一形態では、年輪の連続性を保証するために、年輪の複数周期分の長さを持つアロケーションユニットを定義し、年輪でデータを記録する際に、このアロケーションユニットで定義されたアロケーションユニット長を越える長さの、連続した空き領域を確保する。
【0064】
図7を用いてより具体的に説明する。アロケーションユニット長は、予め設定される。アロケーションユニット長を、年輪で1周期に記録される各データの合計再生時間の複数倍に設定する。例えば、年輪の1周期に対応する再生時間が2秒であるとした場合、アロケーションユニット長を10秒に設定する。このアロケーションユニット長は、光ディスク1の空き領域の長さを計測する物差しとして用いられる(図7右上参照)。初期状態を、図7Aに一例が示されるように、使用済み領域が光ディスク1に対して飛び飛びに3箇所、配置されているものとし、使用済み領域に挟まれた部分を空き領域とする。
【0065】
この光ディスク1に対してある程度の長さを有するAVデータと、当該AVデータに対応する補助AVデータとを記録する場合、先ず、アロケーションユニット長と空き領域の長さとを比較して、アロケーションユニット長以上の長さを有する空き領域を予約領域として確保する(図7B)。この図7の例では、2つの空き領域のうち、右側の空き領域がアロケーションユニット長より長いとされ、予約領域として確保される。次に、この予約領域に対して、予約領域の先頭から年輪データを順次連続的に記録する(図7C)。このように年輪データを記録していき、予約領域の空き領域の長さが次に記録する年輪データの1周期分の長さに満たないときは(図7D)、予約領域を開放し、図7Aのように、光ディスク1上のさらに他の空き領域に対してアロケーションユニット長を適用させながら、予約領域にできる空き領域を探す。
【0066】
このように、複数周期分の年輪が記録できるだけの空き領域を探して、当該空き領域に年輪を記録することで、ある程度の年輪の連続性が保証され、年輪データの再生をスムースに行うことが可能とされる。なお、アロケーションユニット長は、上述では10秒に設定したが、これはこの例に限定されず、さらに長い再生時間に対応する長さをアロケーションユニット長として設定することができる。実際的には、10秒〜30秒の間でアロケーションユニット長を設定すると好ましい。
【0067】
次に、この発明の実施の一形態におけるデータの管理構造について、図8〜図11を用いて説明する。この発明の実施の一形態では、データは、ディレクトリ構造で管理される。ファイルシステムとしては例えばUDF(Universal Disk Format)が用いられ、図8に一例が示されるように、ルートディレクトリ(root)の直下にディレクトリPAVが設けられる。この実施の一形態では、このディレクトリPAV以下を定義する。
【0068】
すなわち、上述した、複数信号種のオーディオデータおよびビデオデータの1枚のディスク上への混在記録は、このディレクトリPAVの配下において定義される。この発明の実施の一形態におけるデータ管理が及ばないディレクトリPAVに対するデータの記録は、任意である。
【0069】
ディレクトリPAVの直下には、4つのファイル(INDEX.XML、INDEX.RSV、DISCINFO.XMLおよびDISCINFO.RSV)が置かれると共に、2つのディレクトリ(CLPRおよびEDTR)が設けられる。
【0070】
ディレクトリCLPRは、クリップデータを管理する。ここでいうクリップは、例えば撮影が開始されてから停止されるまでの、ひとまとまりのデータである。例えば、ビデオカメラの操作において、操作開始ボタンが押されてから操作停止ボタンが押される(操作開始ボタンが解放される)までが1つのクリップとされる。
【0071】
このひとまとまりのデータとは、上述した本線系のオーディオデータおよびビデオデータと、当該オーディオデータおよびビデオデータから生成された補助AVデータと、当該オーディオデータおよびビデオデータに対応した時系列メタデータと非時系列メタデータとからなる。ディレクトリCLPRの直下に設けられたディレクトリ「C0001」、「C0002」、・・・には、クリップ毎に、クリップを構成するひとまとまりのデータが格納される。
【0072】
すなわち、クリップは、図9に一例が示されるように、記録開始から終了までの共通の時間軸を有するビデオデータ、各チャンネルのオーディオデータ(1)、(2)、・・・、補助AVデータおよび時系列メタデータ、ならびに、非時系列メタデータから構成される。なお、図9では、非時系列メタデータは、省略されている。
【0073】
図10は、ディレクトリCLPRの直下に設けられた、一つのクリップ「C0001」に対応するディレクトリ「C0001」の一例の構造を示す。以下、ディレクトリCLPRの直下の一つのクリップに対応するディレクトリを、適宜、クリップディレクトリと称する。クリップディレクトリの構成は、上述した図9の構成と略対応するものである。すなわち、クリップディレクトリ「C0001」に対して、上述のひとまとまりのデータのそれぞれがファイル名により区別されて格納される。この図10の例では、ファイル名は、12桁で構成され、デリミタ「.」より前の8桁のうち、前側5桁がクリップを識別するために用いられ、デリミタ直前の3桁は、オーディオデータ、ビデオデータ、補助AVデータといった、データのタイプを示すために用いられている。また、デリミタ後の3桁は拡張子であって、データの形式を示している。
【0074】
より具体的には、この図10の例では、クリップ「C0001」を構成するひとまとまりのファイルとして、クリップ情報を示すファイル「C0001C01.SMI」、本線系ビデオデータファイル「C0001V01.MXF」、本線系の8ch分のオーディオデータファイル「C0001A01.MXF」〜「C0001A08.MXF」、補助AVデータファイル「C0001S01.MXF」、非時系列メタデータファイル「C0001M01.XML」、時系列メタデータファイル「C0001R01.BIM」およびポインタ情報ファイル「C0001I01.PPF」が、クリップディレクトリ「C0001」に格納される。
【0075】
このように、この発明の実施の一形態では、本線系のオーディオデータは、チャンネル毎にファイル(「C0001A01.MXF」〜「C0001A08.MXF」)に格納されて記録される。このとき、チャンネルペアのオーディオデータを単位として記録すると、再生の際のアクセス時間の短縮などの効果が期待でき、より好ましい。例えば、互いにチャンネルペアの関係にあるファイルをディスク上の物理的に近い位置に配置する。
【0076】
この発明の実施の一形態では、ディレクトリCLPR内におけるクリップディレクトリ間での上述のデータ信号種の混在は、許可される。例えば、本線系のビデオデータの信号種について、クリップディレクトリ「C0001」にシングルGOP、ビットレート50Mbpsのビデオデータを格納し、クリップディレクトリ「C0002」にロングGOP、ビットレート25Mbpsのビデオデータを格納することは可能である。一方、クリップディレクトリ内における各データ内でのデータ信号種の混在は、許可されない。例えば、ビデオデータにおいて、先頭からある時点まではビットレートモード50Mbpsで記録されており、その時点以降から末尾まではビットレートモード25Mbpsで記録されたようなビデオデータファイルは、格納できないものとされる。
【0077】
説明は図8に戻り、ディレクトリEDTRは、編集情報が管理される。この発明の実施の一形態では、編集結果は、エディットリストやプレイリストとして記録される。ディレクトリEDTRの直下に設けられたディレクトリ「E0001」、「E0002」、・・・には、編集結果毎に、編集結果を構成するひとまとまりのデータが格納される。
【0078】
エディットリストは、クリップに対する編集点(IN点、OUT点など)や再生順序などが記述されるリストであって、クリップに対する非破壊の編集結果と、後述するプレイリストとからなる。エディットリストの非破壊の編集結果を再生すると、リストの記述に従いクリップディレクトリに格納されたファイルを参照し、恰も編集された1本のストリームを再生するかのように、複数のクリップからの連続した再生映像が得られる。しかしながら、非破壊編集の結果では、ファイルの光ディスク1上での位置とは無関係にリスト中のファイルが参照されるため、再生時の連続性が保証されない。
【0079】
プレイリストは、編集結果に基づき、リストにより参照されるファイルやファイルの部分が連続的に再生するのが困難であると判断された場合に、当該ファイルやファイルの一部を光ディスク1上の所定の領域に再配置することで、エディットリストの再生時の連続性を保証するようにしたものである。
【0080】
編集作業により上述のエディットリストを作成した結果に基づき、編集に用いられるファイルの管理情報(例えば後述するインデックスファイル「INDEX.XML」)を参照し、編集作業に基づき非破壊で、すなわち、編集結果に基づき参照されるファイルが各クリップディレクトリに置かれたままの状態で、連続的な再生が可能か否かを、見積もる。その結果、連続的な再生が困難であると判断されると、該当するファイルを光ディスク1の所定領域にコピーする。この所定領域に再配置されたファイルを、ブリッジエッセンスファイルと称する。また、編集結果にブリッジエッセンスファイルを反映させたリストを、プレイリストと称する。
【0081】
例えば、編集結果が複雑なクリップの参照を行うようにされている場合、編集結果に基づく再生の際に、クリップからクリップへの移行の際にピックアップのシークが間に合わない事態が発生する可能性がある。このような場合に、プレイリストが作成され、ブリッジエッセンスファイルが光ディスク1の所定領域に記録される。
【0082】
図11は、ディレクトリEDTRの直下に設けられた、一つの編集結果「E0002」に対応するディレクトリ「E0002」の一例の構造を示す。以下、ディレクトリEDTRの直下の一つの編集結果に対応するディレクトリを、適宜、エディットディレクトリと称する。エディットディレクトリ「E0002」に対して、上述の編集結果により生成されたデータがそれぞれファイル名により区別されて格納される。ファイル名は、12桁で構成され、デリミタ「.」より前の8桁のうち、前側5桁がエディット作業を識別するために用いられ、デリミタ直前の3桁は、データのタイプを示すために用いられる。また、デリミタ後の3桁は拡張子であって、データの形式を示している。
【0083】
より具体的には、この図11の例では、編集結果「E0002」を構成するファイルとして、エディットリストファイル「E0002E01.SMI」時系列および非時系列メタデータの情報が記述されるファイル「E0002M01.XML」、プレイリストファイル「E0002P01.SMI」、本線系データによるブリッジエッセンスファイル「E0002V01.BMX」および「E0002A01.BMX」〜「E0002A04.BMX」、補助AVデータによるブリッジエッセンスファイル「E0002S01.BMX」および時系列、非時系列メタデータによるブリッジエッセンスファイル「E0002R01.BMX」が、エディットディレクトリ「E0002」に格納される。
【0084】
エディットディレクトリ「E0002」に格納されるこれらのファイルのうち影を付して示したファイル、すなわち本線系データによるブリッジエッセンスファイル「E0002V01.BMX」および「E0002A01.BMX」〜「E0002A04.BMX」、補助AVデータによるブリッジエッセンスファイル「E0002S01.BMX」および時系列、非時系列メタデータによるブリッジエッセンスファイル「E0002R01.BMX」は、プレイリストに属するファイルである。
【0085】
なお、上述したように、エディットリストによりクリップディレクトリに格納された例えばビデオデータが参照される。クリップディレクトリ間では、異なるデータ信号種の混在が可能なので、結果的に、エディットリスト上では、異なるデータ信号種の混在が可能とされる。
【0086】
説明は図8に戻り、ファイル「INDEX.XML」は、ディレクトリPAV以下に格納された素材情報を管理するインデックスファイルである。この例では、ファイル「INDEX.XML」は、XML(Extensible Markup Language)形式で記述される。このファイル「INDEX.XML」により、上述した各クリップおよびエディットリストが管理される。例えば、ファイル名とUMIDの変換テーブル、長さ情報(Duration)、当該光ディスク1全体を再生する際の各素材の再生順などが管理される。また、各クリップに属するビデオデータ、オーディオデータ、補助AVデータなどが管理されると共に、クリップディレクトリ内にファイルで管理されるクリップ情報が管理される。
【0087】
ファイル「DISCINFO.XML」は、このディスクに関する情報が管理される。再生位置情報なども、このファイル「DISCINFO.XML」に保存される。
【0088】
この発明の実施の一形態では、撮影が開始されてから停止されるまでの間に、クリップを構成するひとまとまりのデータにおいて所定の変化が検出された場合には、その変化検出位置に対応する位置でクリップが分割され、分割位置以降を新規のクリップとする。この新規のクリップに対応する新規のディレクトリがディレクトリCLPRに対して自動的に作成され、作成されたディレクトリに当該新規クリップを構成するひとまとまりのデータが格納される。
【0089】
クリップ分割は、少なくとも、クリップを構成するビデオデータおよびオーディオデータのうち何れか一方において、信号種(フォーマット)の変化が検出された場合になされる。分割の条件としては、より具体的には、以下の例が考えられる。先ず、ビデオデータに関しては、
(1)ビットレートの変化
(2)フレームレートの変化
(3)画像サイズの変化
(4)画像のアスペクト比の変化
(5)符号化方式の変化
オーディオデータに関しては、
(1)ビット解像度の変化
(2)サンプリング周波数の変化
(3)入力チャンネル数の変化
(4)符号化方式の変化
【0090】
これらのうち、何れか一つに変化が検出された場合に、変化が検出されたタイミングに対応した位置で自動的にクリップが分割される。このとき、あるデータに変化が検出された場合、そのデータと同一のクリップに属する他のデータも、同じタイミングで分割される。
【0091】
勿論、クリップ分割は、これに限らず、ビデオデータおよびオーディオデータのさらに他の属性の変化に応じて行うようにしてもよい。また、ビデオデータおよびオーディオデータに限らず、補助AVデータや時系列メタデータにおける所定の変化を検出してクリップ分割を行うようにしてもよい。
【0092】
例えば、補助AVデータについては、例えばビットレートモードや符号化方式が変更された場合に、クリップ分割するようにできる。また、時系列メタデータについては、例えば、ARIBによるメタデータとカメラデータとを排他的に記録する場合、ARIBおよびカメラデータ間でデータ種類の変更があった場合に、クリップ分割するようにできる。さらに、時系列メタデータを伝送するために当初設定されているデータレートが変更されたときに、クリップ分割することも可能である。
【0093】
さらに、本線系のビデオデータの変更に伴うクリップ分割の際に、本線系のオーディオデータおよび時系列メタデータを分割しないようにすることもできる。このようにすることで、クリップ分割によるファイルの増加を抑えることができる。なお、この場合でも、補助AVデータは、本線系のビデオデータの変更に伴い分割される。
【0094】
クリップ分割の際には、分割の境界を補助AVデータのGOPの境界に一致させると、クリップ内での時間軸とバイトオフセットとの関係が簡単になるので、処理が容易になり、好ましい。これは、例えばビデオデータやオーディオデータに上述した変化が検出された際に、図12Aに一例が示されるように、補助AVデータの次のGOP境界までクリップ分割を待つか(分割位置B)、前のGOP境界に遡ってクリップ分割を行うことでなされる(分割位置A)。実際には、分割位置Bでクリップ分割をするのが好ましい。
【0095】
これに限らず、クリップ分割の際の分割の境界が補助AVデータのGOP境界に一致しない場合に、補助AVデータのGOPの余った部分をスタッフィングバイトで埋め、補助AVデータと本線系のビデオデータなど他のデータに対してデータ量を揃えることも考えられる。すなわち、図12Bに一例が示されるように、補助AVデータにおいて、例えばビデオデータに変化が検出された位置の直前のGOPを当該クリップの最後のGOPとし、その最後のGOPの後端の境界から変化検出位置まで(図12B中に斜線で表示)をスタッフィングバイトで埋める。
【0096】
なお、本線系のビデオデータがシングルGOPであれば、任意のフレーム位置でクリップ分割を行うことができる。これに対して、本線系のビデオデータがロングGOPである場合には、クリップ分割位置のフレームが予測符号化によるPピクチャあるいはBピクチャによるフレームである可能性がある。そこで、ロングGOPのビデオデータに対してクリップ分割を行う場合には、クリップ分割位置で一旦GOPを完結させるようにする。これは、例えば、分割位置直前のフレームがBピクチャであれば当該フレームをPピクチャあるいはIピクチャに変換することで可能である。
【0097】
クリップ分割の際に、分割の元クリップと分割によって新規に生成されるクリップとに重複部分を持たせるようにしてもよい。例えば、分割の元クリップおよび/または新規クリップにおいて、信号種の変化点を時間的に含むように、変化のタイミングに対して時間的な余裕を持ってクリップ分割が行われる。
【0098】
一例として、本線系のビデオデータにおいて、当初のビットレート50Mbpsが30Mbpsに切り換えられる場合について、図13を用いて説明する。図12に示されるように、ビットレートが50Mbpsのビデオデータにおいては、ビットレートの切り換えが指示された位置からさらに所定の時間だけ余分(図中の斜線の部分)に、ビットレートが50Mbpsのままで記録がなされる。一方、ビットレートが30Mbpsのビデオデータは、ビットレートの切り換えが指示された位置よりも所定時間前(図中の斜線の部分)から、ビットレートが30Mbpsでの記録がなされる。
【0099】
ビットレート切り換え点がクリップ分割位置となるため、例えばクリップの開始位置を指定するためのコマンドである"clip Begin"を用いて、実際のファイルの先頭位置に対するクリップの開始位置を調整する必要がある。
【0100】
このような記録は、一例として、圧縮符号化以前のベースバンドのビデオデータにおいて、図13の斜線の部分をそれぞれバッファリングしておき、対応するビットレートでそれぞれ圧縮符号化する。そして、例えば50Mbpsのビデオデータの例では、ビットレート切り換え点以前のビデオデータによるファイルに対して、斜線部分のファイルを継ぎ足すことで可能である。これは、実際にファイルを継ぎ足さずとも、上述したエディットリストへの記述や、クリップディレクトリ内のクリップ情報を示すファイル「C0001C01.SMI」にその旨を記述するようにしてもよい。
【0101】
なお、クリップディレクトリ名およびクリップディレクトリ内の各ファイルのファイル名の命名規則は、上述の例に限定されない。例えば、ファイル名やクリップディレクトリ名として、上述したUMIDを利用することが考えられる。UMIDは、上述したように、拡張UMIDまで考えるとデータ長が64バイトとなり、ファイル名などに用いるには長いため、一部分だけを用いるのが好ましい。例えば、UMID中で、クリップ毎に異なる値が得られるような部分がファイル名などに用いられる。
【0102】
また、クリップが分割された場合には、クリップディレクトリ名やファイル名を、クリップの分割理由を反映させるように命名すると、クリップの管理上、好ましい。この場合、少なくとも、クリップの分割がユーザにより明示的になされたものか、装置側の自動処理によるものかを判別可能なように、命名する。
【0103】
図14は、この発明の実施の一形態に適用可能なディスク記録再生装置10の一例の構成を示す。ここでは、ディスク記録再生装置10は、ビデオカメラ(図示しない)に内蔵される記録再生部であるものとし、ビデオカメラにより撮像された撮像信号に基づくビデオ信号と、撮像に伴い入力されたオーディオ信号とが信号処理部31に入力され、ディスク記録再生装置10に供給される。また、信号入出力部31から出力されたビデオ信号およびオーディオ信号は、例えばモニタ装置に供給される。
【0104】
勿論、これは一例であって、ディスク記録再生装置10は、独立的に用いられる装置であるとしてもよい。例えば、記録部を有さないビデオカメラと組み合わせて用いることができる。ビデオカメラから出力されたビデオ信号およびオーディオ信号や、所定の制御信号、データが信号入出力部31を介してディスク記録再生装置10に入力される。また例えば、他の記録再生装置で再生されたビデオ信号およびオーディオ信号を、信号入出力部31に入力するようにできる。また、信号入出力部31に入力されるオーディオ信号は、ビデオ信号の撮像に伴い入力されるものに限定されず、例えば撮像後に、ビデオ信号の所望の区間にオーディオ信号を記録する、アフレコ(アフターレコーディング)のためのアフレコオーディオ信号でもよい。
【0105】
スピンドルモータ12は、サーボ制御部15からのスピンドルモータ駆動信号に基づいて、光ディスク1をCLV(Constant Linear Velocity)またはCAV(Constant Angler Velocity)で回転駆動する。
【0106】
ピックアップ部13は、信号処理部16から供給される記録信号に基づきレーザ光の出力を制御して、光ディスク1に記録信号を記録する。ピックアップ部13はまた、光ディスク1にレーザ光を集光して照射すると共に、光ディスク1からの反射光を光電変換して電流信号を生成し、RF(Radio Frequency)アンプ14に供給する。なお、レーザ光の照射位置は、サーボ制御部15からピックアップ部13に供給されるサーボ信号により所定の位置に制御される。
【0107】
RFアンプ14は、ピックアップ部13からの電流信号に基づいて、フォーカス誤差信号およびトラッキング誤差信号、ならびに、再生信号を生成し、トラッキング誤差信号およびフォーカス誤差信号をサーボ制御部15に供給し、再生信号を信号処理部16に供給する。
【0108】
サーボ制御部15は、フォーカスサーボ動作やトラッキングサーボ動作の制御を行う。具体的には、サーボ制御部15は、RFアンプ14からのフォーカス誤差信号とトラッキング誤差信号に基づいてフォーカスサーボ信号とトラッキングサーボ信号をそれぞれ生成し、ピックアップ部13のアクチュエータ(図示しない)に供給する。またサーボ制御部15は、スピンドルモータ12を駆動するスピンドルモータ駆動信号を生成して、光ディスク1を所定の回転速度で回転させるスピンドルサーボ動作の制御を行う。
【0109】
さらにサーボ制御部15は、ピックアップ部13を光ディスク1の径方向に移動させてレーザ光の照射位置を変えるスレッド制御を行う。なお、光ディスク1の信号読み出し位置の設定は、制御部20によって行われ、設定された読み出し位置から信号を読み出すことができるように、ピックアップ部13の位置が制御される。
【0110】
信号処理部16は、メモリコントローラ17から入力される記録データを変調して記録信号を生成し、ピックアップ部13に供給する。信号処理部16はまた、RFアンプ14からの再生信号を復調して再生データを生成し、メモリコントローラ17に供給する。
【0111】
メモリコントローラ17は、メモリ18に対する書き込みアドレスの制御を行い、データ変換部19から供給された記録データを適宜、メモリ18に記憶する。また、メモリコントローラ17は、メモリ18に対する読み出しアドレスの制御を行い、メモリ18に記憶されたデータを適宜、読み出し信号処理部16に供給する。同様にして、メモリコントローラ17はまた、信号処理部16からの再生データを、適宜、メモリ18に記憶すると共に、メモリ18に記憶されたデータを読み出し、データ変換部19に供給する。
【0112】
ビデオカメラで撮影された撮影画像に基づくビデオ信号とオーディオ信号が、信号入出力部31を介してデータ変換部19に供給される。詳細は後述するが、データ変換部19では、供給されたビデオ信号を、例えばMPEG2などの圧縮符号化方式を用い、制御部20に指示されたモードで圧縮符号化し、本線系のビデオデータを生成する。このとき、よりビットレートの低い圧縮符号化処理も行われ、補助AVデータが生成される。
【0113】
また、データ変換部19では、供給されたオーディオ信号を、制御部20に指示された方式で圧縮符号化し、本線系のオーディオデータとして出力する。オーディオ信号の場合は、圧縮符号化せずにリニアPCMオーディオデータのまま出力してもよい。
【0114】
データ変換部19で上述のようにして処理された本線系のオーディオデータおよびビデオデータ、ならびに、補助AVデータは、メモリコントローラ17に供給される。
【0115】
データ変換部19はまた、メモリコントローラ17から供給される再生データを、必要に応じて復号化し、所定のフォーマットの出力信号に変換して、信号入出力部31に供給する。
【0116】
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、これらを接続するためのバスなどからなり、このディスク記録再生装置10の全体を制御する。ROMは、CPUの起動時に読み込まれる初期プログラムや、ディスク記録再生装置10を制御するためのプログラムなどが予め記憶される。RAMは、CPUのワークメモリとして用いられる。また、制御部20により、ビデオカメラ部の制御もなされる。
【0117】
さらに、制御部20により、ROMに予め記憶されたプログラムに従い、光ディスク1にデータを記録し、記録されたデータを再生する際のファイルシステムが提供される。すなわち、このディスク記録再生装置10において、データの光ディスク1に対する記録、光ディスク1からのデータの再生は、制御部20の管理下において行われる。
【0118】
操作部21は、例えば、ユーザによって操作され、その操作に対応する操作信号を制御部20に供給する。制御部20は、操作部21からの操作信号などに基づき、サーボ制御部15、信号処理部16、メモリコントローラ17およびデータ変換部19を制御し、記録再生処理を実行させる。
【0119】
また、操作部21からの操作信号に基づき、例えば記録ビデオデータに対するビットレート、フレームレート、画像サイズ、画像アスペクト比の設定などが行われる。さらに、記録オーディオデータに対する圧縮符号化処理のON/OFFやビット解像度の設定を、操作部21から行うようにしてもよい。これらの設定に基づく制御信号がメモリコントローラ17およびデータ変換部19に供給される。
【0120】
さらに、操作部21により、本線系のオーディオデータの記録チャンネル数を設定することができる。この設定に基づく操作信号が操作部21から制御部20に供給される。制御部20では、この操作信号に基づき、設定された記録チャンネル数でオーディオデータを記録する旨を指令する制御信号が制御部20から信号処理部16、メモリコントローラ17、データ変換部19などに供給される。
【0121】
なお、このディスク記録再生装置10には、GPSによる信号を受信するためのアンテナ22と、アンテナ22で受信されたGPS信号を解析し、緯度、経度、高度からなる位置情報を出力するGPS部23とを有する。GPS部23から出力された位置情報は、制御部20に供給される。なお、アンテナ22およびGPS部23は、ビデオカメラ部に設けてもよいし、ディスク記録再生装置10の外部に外付けされる装置としてもよい。
【0122】
図15は、データ変換部19の一例の構成を示す。光ディスク1へのデータの記録時には、信号入出力部31から入力された記録すべき信号が、デマルチプレクサ41に供給される。信号入出力部31には、ビデオカメラ部から、動画のビデオ信号、当該ビデオ信号に付随するオーディオ信号が入力されると共に、カメラの撮影情報、例えばアイリスやズームに関する情報がカメラデータとしてリアルタイムに入力される。
【0123】
デマルチプレクサ41は、信号入出力部31から供給される信号から、関連する複数のデータ系列、すなわち、例えば、動画のビデオ信号と、そのビデオ信号に付随するオーディオ信号とを分離し、データ量検出部42に供給する。さらに、デマルチプレクサ41は、信号入出力部31から供給される信号からカメラデータを分離して出力する。このカメラデータは、制御部20に供給される。
【0124】
データ量検出部42は、デマルチプレクサ41から供給されたビデオ信号とオーディオ信号を、そのまま、画像信号変換部43、音声信号変換部44および補助AVデータ変換部48とにそれぞれ供給すると共に、そのビデオ信号とオーディオ信号のデータ量を検出し、メモリコントローラ17に供給する。すなわち、データ量検出部42は、デマルチプレクサ41から供給されるビデオ信号とオーディオ信号のそれぞれについて、例えば、所定の再生時間分のデータ量を検出し、メモリコントローラ17に供給する。
【0125】
画像信号変換部43は、データ量検出部42から供給されるビデオ信号を、制御部20からの指示に従い、例えばMPEG2方式で圧縮符号化し、その結果得られるビデオデータのデータ系列を、メモリコントローラ17に供給する。画像信号変換部43に対して、制御部20により、例えば圧縮符号化による発生符号量の最大ビットレートが設定される。画像信号変換部43は、圧縮符号化後の1フレームのデータ量を見積もり、その結果に基づき圧縮符号化処理を制御して、発生符号量が設定された最大ビットレートに収まるようにビデオデータに対する実際の圧縮符号化処理を行う。設定された最大ビットレートと、実際の圧縮符号化によるデータ量との差分は、例えば所定のパディングデータで埋められ、最大ビットレートが維持される。圧縮符号化されたビデオデータのデータ系列は、メモリコントローラ17に供給される。
【0126】
音声信号変換部44は、データ量検出部42から供給されるオーディオ信号がリニアPCMオーディオデータでない場合、制御部20からの指示に従い、当該オーディオ信号をリニアPCMオーディオデータに変換する。これに限らず、音声信号変換部44では、オーディオ信号を、例えばMPEG方式に則った、MP3(Moving Pictures Experts Group 1 Audio Layer 3)やAAC(Advanced Audio Coding)方式などで圧縮符号化することもできる。オーディオデータの圧縮符号化方式は、これらに限定されず、他の方式でもよい。音声信号変換部44から出力されるオーディオデータのデータ系列を、メモリコントローラ17に供給する。
【0127】
本線系のオーディオデータ(すなわちデータ量検出部42から供給されるオーディオ信号)は、例えば2チャンネルが対とされたチャンネルペアで入力される。このようなオーディオデータの伝送フォーマットとしては、例えばAES(Audio Engineering Society)により策定された、AES3-1992(r1997)がある。AES3-1992(r1997)によれば、オーディオデータは、チャンネル毎にサンプルがインターリーブされたチャンネルペアでシリアル伝送される。
【0128】
このAES3-1992(r1997)によれば、オーディオデータは、1サンプル毎にサブフレームに格納される。サブフレームは、図16Aに一例が示されるように、第0ビットから第3ビットに所定のビットパターンからなるプリアンブルが配され、ビット解像度が24ビットのこの例では、第4ビットから第27ビットにオーディオデータの1サンプルが格納される。オーディオデータに続けて、ビットV、U、CおよびPが配される。これらビットV、U、CおよびPは、それぞれバリディティビット、ユーザデータビット、チャンネルステータスビットおよびパリティビットである。図16Bに一例が示されるように、2サブフレームでオーディオデータの1フレームが構成され、192フレームで1ブロックとされる。
【0129】
各サブフレームの先頭に配されるプリアンブルは、特定のビットパターンからなる。第1チャンネルのプリアンブルは、ブロックの開始フレームフレーム(0)のみ異なる値(”Z”とする)が用いられ、以降、フレーム(1)からフレーム(191)は、同じ値(”X”とする)が用いられる。第2チャンネルのプリアンブルは、全て第1チャンネルのプリアンブルとは異なる同一の値(”Y”とする)が用いられる。このフォーマットによれば、プリアンブルを検出することで、ブロックの開始位置、ならびに、第1および第2チャンネルのサンプルの識別が可能である。
【0130】
また、各サブフレーム毎に1ビットが伝送されるチャンネルステータスビット(C)を1ブロック分、すなわち192ビット(24バイト)集めて、チャンネルステータスデータが構成される。この24バイトを用いて、伝送されるオーディオデータの様々な属性情報などが格納される。図16Cは、このチャンネルステータスデータの最初の1バイト(第0バイト)を示す。第0ビットは、このデータがチャンネルステータスデータであることを示し、第1ビット1(図16Cの斜線部分)は、伝送されるデータがリニアPCMのオーディオデータであるか否かを示す。第2〜第4ビットは、オーディオデータのエンファシス情報が格納される。第5ビットは、伝送されるオーディオデータのサンプリング周波数がロックされているか否かが示される。第6および第7ビットは、伝送されるオーディオデータのサンプリング周波数が示される。
【0131】
この発明の実施の一形態では、リニアPCMのオーディオデータが入力された場合、チャンネルペアで入力されたオーディオデータをそれぞれのチャンネルに分離して、チャンネル毎のオーディオデータをそれぞれ個別のファイルに格納して記録する。このオーディオデータのチャンネル分離処理は、例えば、この音声信号変換部44で行うことができる。例えば入力されたオーディオデータのビットパターンに基づきプリアンブルを検出し、検出されたプリアンブルに基づき第1および第2チャンネルのオーディオデータのサンプルをそれぞれ抜き出し、チャンネル毎に並べ替えて出力する。
【0132】
それぞれのチャンネルに分離されたオーディオデータは、メモリコントローラ17および信号処理部16を介してピックアップ部13に供給され、チャンネル毎の個別のオーディオデータファイルとして光ディスク1に記録される。このように、2チャンネルが対とされて入力されたオーディオデータを、1チャンネル毎のオーディオデータに分離して記録することで、チャンネル単位の処理を容易とすることができる。
【0133】
オーディオデータのチャンネル分離は、これに限らず、例えばメモリ18およびメモリコントローラ17を利用して行うこともできる。入力された状態のまま、2チャンネル対でメモリ18に記憶されたオーディオデータを、メモリコントローラ17により読み出しアドレスを所定に制御しながら読み出す。例えば、同一チャンネルのサンプル同士を並べて出力するように、読み出しを制御する。また、オーディオデータのチャンネル分離を信号入出力装置31において行ってもよい。
【0134】
また、この発明の実施の一形態では、上述したように、設定された記録チャンネル数よりも少ないチャンネル数でオーディオデータが入力された場合、用いられないチャンネルは、無音を示すオーディオデータを出力する。無音を示すオーディオデータは、例えば、無音を示すオーディオデータを1サンプル生成してメモリやレジスタなどに記憶させる。それを、クロックに合わせて繰り返し読み出すことで、無音を示すオーディオデータを連続的に出力することができる。このような処理は、音声信号変換部44で行うことができる。もちろん、メモリ18およびメモリコントローラ17を用いて行ってもよいし、信号入出力装置31において行ってもよい。
【0135】
さらに、この発明の実施の一形態によれば、本線系のオーディオデータとしてノンオーディオのオーディオデータが入力され、これをリニアPCMのオーディオデータに復号化せずに記録する場合、チャンネル分離を行わない。例えば上述したAES3-1992(r1997)によれば、リニアPCMのオーディオデータ以外のデータも伝送することができるように定められている。伝送されるデータがリニアPCMのオーディオデータであるか否かは、図16Cを用いて上述したように、チャンネルステータスデータの最初の1バイトにおける第1ビットを参照することで知ることができる。この第1ビットにより、入力されるデータがリニアPCMのオーディオデータではないことが示されていれば、当該データに対して上述したチャンネル分離の処理を行わない。例えば、サブフレームから1ワードずつデータが取り出され、順に並べられて出力される。
【0136】
一方、補助AVデータ変換部48は、データ量検出部42から供給されるビデオ信号を、制御部20からの指示に従い、例えばMPEG4方式で圧縮符号化して補助AVデータを生成する。この実施の一形態では、このとき、ビットレートが数Mbpsに固定的とされ、1枚のIピクチャおよび9枚のPピクチャの10フレームでGOPが形成される。
【0137】
また、上述したように、この発明の実施の一形態では、補助AVデータにおいて、オーディオデータは、本線系のオーディオデータのチャンネル数にかかわらず、常に8チャンネルのオーディオデータとして扱われる。補助AVデータ変換部48では、データ量検出部42から供給されるオーディオデータのチャンネル数が8チャンネルに満たない場合、残りのチャンネルに対して無音を示すオーディオデータを生成して、ビデオ信号と共に符号化する。無音を示すオーディオデータは、例えば、上述したように、無音を示すオーディオデータの1サンプルを例えばメモリなどに記憶させ、これを繰り返し読み出すことで生成できる。
【0138】
なお、上述の構成は一例であって、これに限定されるものではない。例えば、信号入出力部31に対し、本線系のAVデータ、カメラデータなどがそれぞれ独立的に入力される場合には、デマルチプレクサ41を省略することができる。また、本線系のオーディオデータがリニアPCMオーディオデータである場合には、音声信号変換部44での処理を省略することもできる。
【0139】
そして、メモリコントローラ17に供給されたビデオデータとオーディオデータは、上述したようにして、光ディスク1に供給されて記録される。
【0140】
記録は、上述したように、光ディスク1上に年輪が形成されながら行われる。データ変換部19のデータ量検出部42は、例えばオーディオデータにおいて、1年輪データ分の時間の再生に必要なオーディオデータが検出されたら、その旨をメモリコントローラ17に通知する。メモリコントローラ17は、この通知を受けて、1年輪データ分の再生に必要なオーディオデータをメモリ18に記憶させたか否かの判定を行い、その判定結果を制御部20に通知する。制御部20では、この判定結果に基づき、1年輪データ分の再生時間に対応するオーディオデータをメモリ18から読み出すようにメモリコントローラ17を制御する。メモリコントローラ17により、この制御に基づきメモリ18からオーディオデータが読み出され、信号制御部16に供給されて光ディスク1上にオーディオデータが記録される。
【0141】
1年輪データ分の再生時間に対応するオーディオデータが記録されると、次は、例えばビデオデータに対して同様の処理がなされ、オーディオ年輪データの次から1年輪データ分のビデオ年輪データが記録される。補助AVデータも、同様にして、1年輪データ分の再生時間に対応するデータが順次、記録される。
【0142】
また、時系列メタデータについては、例えばカメラデータがデマルチプレクサ41から制御部20に供給されると共に、時系列メタデータのうちUMIDなどの幾つかのデータは、制御部20で生成される。カメラデータと制御部20で生成されたデータとがまとめて時系列メタデータとされ、メモリコントローラ17を介してメモリ18に記憶される。メモリコントローラ17では、上述と同様にして、1年輪データ分の再生時間に対応する時系列メタデータをメモリ18から読み出し、信号処理部16に供給する。
【0143】
なお、制御部20では、非時系列メタデータも生成される。非時系列メタデータは、当該データが属するクリップのクリップディレクトリに記録される。
【0144】
光ディスク1に対して上述のようにして記録されるデータは、図8〜図11を用いて既に説明したように、ファイルに格納され、オーディオデータはチャンネル毎にファイルに格納され、ディレクトリ構造により管理される。例えば、データの光ディスク1への記録の際に、制御部20により、各ファイルのアドレス情報やディレクトリ構造におけるポインタ情報、ファイル名およびディレクトリ名情報などの管理情報が光ディスク1の所定の管理領域に記録される。また、記録されたファイル情報などがインデックスファイル「INDEX.XML」に反映される。
【0145】
一方、光ディスク1からのデータの再生時においては、上述したようにして、光ディスク1からビデオデータ、各チャンネルのオーディオデータ、補助AVデータおよび時系列メタデータが読み出される。このとき、高ビットレートである本線系のビデオデータの再生速度で、本線系のオーディオデータ、補助AVデータ、時系列メタデータといった低ビットレートのデータも再生し、光ディスク1からのデータの再生速度を、読み出すデータによって変えないようにする。光ディスク1から読み出されたビデオデータおよび補助AVデータは、メモリコントローラ17から画像データ変換部45および補助AVデータ変換部49にそれぞれ供給される。オーディオデータは、メモリコントローラ17から音声データ変換部46に供給される。
【0146】
画像データ変換部45は、メモリコントローラ17から供給される本線系のビデオデータのデータ系列を復号化し、その結果得られるビデオ信号をマルチプレクサ47に供給する。また、補助AVデータ変換部49は、メモリコントローラ17から供給される補助AVデータのデータ系列を復号化し、その結果得られるビデオ信号および8チャンネル分のオーディオ信号をマルチプレクサ47に供給する。
【0147】
また、音声データ変換部46は、メモリコントローラ17から供給されるオーディオデータがリニアPCMのオーディオデータであれば、例えば、そのデータ系列を2チャンネル毎に対として、1サンプル毎にプリアンブルとビットV、U、CおよびPを付加してサブフレームを構成し、チャンネル毎にサブフレームをインターリーブしてフレームを構成し、さらに192フレームで1ブロックを構成して、AES3-1992(r1997)により規定されるシリアルのオーディオデータとして出力する。このオーディオデータは、マルチプレクサ47に供給される。一方、メモリコントローラ17から供給されるオーディオデータがノンオーディオのオーディオデータである場合は、例えば1ワード毎にサブフレームに格納して、上述のようにしてシリアルのデータを形成し、出力する。このデータは、マルチプレクサ47に供給される。
【0148】
なお、画像データ変換部45、音声データ変換部46および補助AVデータ変換部49において、供給された再生データを復号化せずに、そのままマルチプレクサ47に供給し、多重化して出力することも可能である。さらに、マルチプレクサ47を省略し、それぞれのデータを独立的に出力することも可能である。
【0149】
以上のように構成されたディスク記録再生装置10では、ユーザが操作部21を操作することにより、データの記録を指令すると、信号入出力部31から供給されるデータがデータ変換部19、メモリコントローラ17、信号処理部16およびピックアップ部13を介して光ディスク1に供給され、記録される。
【0150】
記録の際に、ユーザは、操作部21を操作することにより、本線系のビデオデータのビットレートを変更することができる。例えば、当初、ビットレートを50Mbpsに設定して記録を行い、光ディスク1の記録可能領域が少なくなったときにビットレートを30Mbpsなどの低いビットレートに変更し、録り逃しが無いようにするなどの使用法が考えられる。
【0151】
このとき、ビットレートの変更のタイミングに対応して、クリップが分割され、変更後のデータが新規のクリップとして光ディスク1に記録される。ビットレートの変更の検出は、操作部21に対してなされた操作を検出することで行ってもよいし、制御部20でビデオデータのビットレートを監視した結果に基づき行うことも可能である。例えば、メモリコントローラ17で、データ変換部19から供給された本線系のビデオデータのヘッダにおける、ビットレート情報が記述される所定のビット位置のデータを抽出して、ビットレートが変更されたことを検出することが可能である。
【0152】
ビットレートの変更が検出されると、例えば、制御部20によりメモリコントローラ17が制御され、ビットレート変更前のデータがメモリ18から掃き出されて光ディスク1に記録され、変更後のデータにより新たな年輪が形成される。
【0153】
本線系のビデオデータの変更が検出されると、他のデータ、すなわち、本線系のオーディオデータ、補助AVデータおよび時系列メタデータも同様にしてメモリコントローラ17による制御がなされ、クリップの分割が行われる。このとき、上述したように、補助AVデータのGOP境界に合わせて本線系のAVデータを分割することができる。
【0154】
また、本線系のビデオデータのビットレートが変更された場合、実際のビデオデータのビットレートを徐々に変化させていくようにすると、再生画像に不自然な変化が現れず、好ましい。
【0155】
先ず、高ビットレートから低ビットレートに変化させる場合について、図17を用いて説明する。当初、ビットレートモードが50Mbpsに設定されているものとする。記録中の操作部21に対する操作により、時刻t0においてビットレートモードを30Mbpsに変更するように指示される。制御部20は、その指示を受けて、データ変換部19の画像信号変換部43Bに対してビットレート変更を指示する。このとき、時刻t0から所定時間後の時刻t1を目標として、ビットレートが徐々に低くなるように、ビットレートの変化速度に対して時定数処理がなされる。そして、時刻t1が実際のビットレートの変更点とされ、この点でクリップ分割が行われる。
【0156】
またこの場合、時点t0でビットレートの変更が指示されても、実際には、時点t1に達するまでは、変更前のビットレートモードのビデオデータとして扱われる。例えば、ビットレートモードで指定されたビットレートによるデータ量と、実際の圧縮符号化による発生符号量との差分が所定のパディングデータで埋められる。
【0157】
低ビットレートから高ビットレートに変化させる場合は、上述の逆の処理になる。すなわち、例えば当初30Mbpsに設定されているビットレートを50Mbpsに変更するような場合、先ず、変更の指示のタイミングでビットレートモードが30Mbpsから50Mbpsに変更される。そして、制御部20からデータ変換部19の画像信号変換部43Bに対して、所定の時間をかけて徐々にビットレートを高くするように、ビットレートの変化速度に対して時定数処理がなされる。また、例えば、ビットレートモードで指定されたビットレートによるデータ量と、実際の圧縮符号化による発生符号量との差分が所定のパディングデータで埋められる。クリップ分割は、例えばビットレートモードの変更点で行われる。
【0158】
制御部20から画像信号変換部43Bに対して、所定の時間間隔で少しずつ小さい値のビットレートを指示することで、上述のように、ビットレートを徐々に変更することができる。画像信号変換部43Bでは、少しずつ小さく指示されるビットレートの値に応じて符号化後のフレームの総符号量を見積もり、見積もられた値に応じて符号化処理を行う。
【0159】
一方、オーディオデータに関しては、例えばリニアPCMオーディオデータとして入力された本線系のオーディオデータのビット解像度の変更に対応することができる。変更が検出されると、上述のビデオデータの場合と同様に、変更点でクリップが分割される。ここでも、補助AVデータのGOP境界に合わせてクリップ分割を行うことが可能である。
【0160】
オーディオデータの場合には、ビット解像度の変更後に変更前のビット解像度を維持し、ビット解像度の変更によるクリップ分割を行わないようにできる。例えば、この発明の実施の一形態によるディスク記録再生装置10に対して外部から入力されるオーディオデータを光ディスク1に記録する際に、入力されるオーディオデータのビット解像度が当初24ビットだったものが、ある時点で16ビットに変更された場合、ビット解像度の変更後も、ビット解像度は24ビットのままとすることができる。
【0161】
なお、以降、オーディオデータに関して、「24ビットのビット解像度」および「16ビットのビット解像度」を適宜、それぞれ「24ビット」および「16ビット」と略称する。
【0162】
図18を用いて説明する。当初、24ビットで入力されていたオーディオデータが、ビット解像度変更点において、ビット解像度が16ビットに変更される(図18A)。このとき、16ビットに変更されたオーディオデータの下位側(LSB側)8ビットに、図18Bに一例が示されるように、オーディオデータにおいて無音を示すデータ(例えば値「0」)が付加され、全体として24ビットとされる。このとき、付加する8ビットのデータは無音に限らず、ディザを加えるようにしてもよい。
【0163】
また例えば、当初16ビットだったオーディオデータが24ビットに変更された場合も同様に、ビット解像度の変更後も、ビット解像度は16ビットのままとすることができる。
【0164】
図19を用いて説明する。当初、16ビットで入力されていたオーディオデータが、ビット解像度変更点において、ビット解像度が24ビットに変更される(図19A)。このとき、図19Bに一例が示されるように、24ビットで入力されたオーディオデータの下位側(LSB側)の8ビットが捨てられ、全体として16ビットとされる。
【0165】
さらに、リニアPCMオーディオデータとして入力されていたオーディオデータが、リニアPCM以外の符号化方式で符号化されたオーディオデータ(以降、ノンオーディオのオーディオデータと称する)に変更された場合には、ノンオーディオのオーディオデータをミュートし、クリップ分割をせずに記録を続行することができる。ミュートは、例えば無音を表すオーディオデータを記録することでなされ、ノンオーディオのオーディオデータは、無音のオーディオデータとして記録される。すなわち、ノンオーディオのオーディオデータは、無音を表すオーディオデータと置き換えられることになる。
【0166】
なお、ノンオーディオのオーディオデータがリニアPCMオーディオデータに変更された場合には、分割後のクリップでリニアPCMオーディオデータを記録することができる。
【0167】
以上のようなオーディオデータのビット解像度の変換処理やノンオーディオのオーディオデータ入力時の無音処理は、例えば、制御部20の指示に基づく音声信号変換部45で行うことができる。これに限らず、制御部20の指示に基づくメモリコントローラ17の制御により、メモリ18からオーディオデータを読み出す際の処理により行うこともできる。例えば、メモリ18に、ノンオーディオのオーディオデータ表すデータを例えば1サンプル分格納しておき、当該データを繰り返し読み出す。
【0168】
オーディオデータの解像度は、オーディオデータが例えば放送局などで一般的に用いられる、AES/EBU(Audio Engineering Society/European Broadcasting Union)による規格に準拠したフォーマット(例えば上述のAES3-1992(r1997))で伝送される場合には、ヘッダの所定位置に対してビット解像度の情報が格納されるので、このデータを抜き出すことで、判定できる。また、リニアPCMオーディオデータと、ノンオーディオのオーディオデータの識別も、同様にしてヘッダ情報などから判別することができる。
【0169】
なお、上述では、本線系のビデオデータについて、記録中のビットレートの変更について説明したが、これはこの例に限定されず、この発明の実施の一形態によるディスク記録再生装置10は、記録中のフレームレートの変更や画像サイズ、アスペクト比の変更などにも対応可能である。この場合には、再生時に、フレームレートの変更の際には時間軸方向の補間/間引き処理を、画像サイズやアスペクト比の変更の際にはフレーム内での補間/間引き処理を行うことで、一定のフレームレート、画像サイズ、画像アスペクト比でビデオデータを出力することができる。このような補間/間引き処理は、例えば、メモリコントローラ17により、メモリ18に記憶されたビデオデータに対して行われる。画像信号変換部43Bにおいて行ってもよい。
【0170】
また、上述では、本線系のビデオデータの符号化方式をMPEG2として説明したが、これはこの例に限定されず、さらに他の方式で符号化されたビデオデータを混在記録するようにできる。また、ビデオデータのビットレートや他のパラメータについても、同様に、上述した以外のものにも対応可能である。
【0171】
オーディオデータについても同様に、符号化してノンオーディオとする場合、さらに他の符号化方式を用いることができる。オーディオデータについても、ビット解像度も、16ビットおよび24ビットに限らず、32ビットや8ビット、12ビットなど、他のビット解像度のオーディオデータを混在記録するようにできる。また、オーディオデータのサンプリング周波数は、標準的には48kHzであるが、これもこの例に限定されず、例えば96kHz、192kHzなど、他のサンプリング周波数のオーディオデータを混在記録するようにできる。
【0172】
さらに、補助AVデータもMPEG4方式に限定されず、他の方式で符号化したビデオデータを混在記録するようにできる。
【0173】
さらにまた、光ディスク1に記録されたクリップの一覧表示を、図示されないモニタ装置などに表示できるようにすると、好ましい。例えば、ユーザの操作部21に対する操作に応じてインデックスファイル「INDEX.XML」を読み込み、光ディスク1に記録されている全クリップの情報を得る。そして、各クリップディレクトリを参照し、補助AVデータに基づきサムネイル画像を自動的に作成する。サムネイル画像は、例えば補助AVデータの所定位置のフレームを読み込んで、所定の画像サイズに縮小などしてその都度、作成される。
【0174】
各クリップのサムネイル画像データがメモリコントローラ17に供給され、メモリ18に記憶される。そして、メモリ18に記憶されたサムネイル画像データがメモリコントローラ17により読み出され、データ変換部19および信号入出力部31を介して図示されないモニタ装置に供給され、モニタ装置にサムネイル画像が一覧表示される。モニタ装置に対するサムネイル画像の表示制御は、操作部21からの操作により行うことができる。また、操作部21に対する所定の操作により、サムネイル画像から所望の画像を選択し、選択されたサムネイル画像に対応したクリップを再生するようにできる。
【0175】
上述のサムネイル画像のモニタ装置への表示の際に、表示されるサムネイル画像に対応するクリップの諸情報、例えば本線系ビデオデータのビットレート、符号化方式などを、サムネイル画像と共に表示するようにできる。これは、、各クリップディレクトリから時系列メタデータや非時系列メタデータを読み出すことで、可能である。
【0176】
なお、上述では、AES3-1992(r1997)に規定される、チャンネルペアのオーディオデータをチャンネル分離し、チャンネル毎のオーディオデータファイルとして光ディスク1に記録し、光ディスク1にチャンネル毎に記録されたオーディオデータを、サンプル毎にチャンネル間でインターリーブしてシリアルオーディオデータとして出力するように説明したが、これはこの例に限定されない。すなわち、他の方式により多チャンネルが多重されて供給されたオーディオデータの場合も、チャンネルを分離してチャンネル毎のオーディオデータファイルとして光ディスク1に記録するようにできる。出力の場合も同様である。なお、出力の場合、光ディスク1に記録する際に入力された方式とは異なる方式により、多チャンネルのオーディオデータを多重化して出力することができる。
【0177】
【発明の効果】
以上説明したように、この発明では、複数チャンネルが多重化されて入力されたリニアPCMのオーディオデータをチャンネル分離し、チャンネル毎にファイルに格納して記録媒体に記録している。そのため、チャンネル毎のデータ処理が容易になり、チャンネル構成の変更にも柔軟に対応できるという効果がある。
【0178】
また、この発明の実施の一形態では、設定された記録チャンネルに対して入力オーディオデータのチャンネル数が満たないときに、用いられていないチャンネルに無音を示すオーディオデータを出力するようにしているため、オーディオデータのチャンネル数が変更されても、チャンネル数が維持され、再生時の処理が容易になるという効果がある。
【0179】
さらに、この発明の実施の一形態では、入力されたオーディオデータのデータ種類に応じてチャンネルの処理方法を選択するようにしているので、入力されたオーディオデータがリニアPCMのオーディオデータであれば、チャンネルペアを分離してチャンネル毎のオーディオデータファイルとして記録し、入力されたオーディオデータがノンオーディオのオーディオデータであればチャンネルペアを分離しないで記録することができる効果がある。
【図面の簡単な説明】
【図1】UMIDのデータ構造を示す略線図である。
【図2】エッセンスマークを定義するために用いられる予約語の例を示す略線図である。
【図3】エッセンスマークの一例のデータ構造を示す略線図である。
【図4】光ディスクに対して年輪データが形成された一例の様子を示す略線図である。
【図5】年輪が形成された光ディスクに対するデータの読み書きが行われる一例の様子を示す略線図である。
【図6】年輪の連続性が保証されるようにデータ記録を行うことを説明するための図である。
【図7】アロケーションユニットについて説明するための図である。
【図8】この発明の実施の一形態におけるデータの管理構造について説明するための図である。
【図9】クリップの構造を概略的に示す略線図である。
【図10】この発明の実施の一形態におけるデータの管理構造について説明するための図である。
【図11】この発明の実施の一形態におけるデータの管理構造について説明するための図である。
【図12】クリップ分割の境界を補助AVデータのGOPの境界に一致させることを説明するための図である。
【図13】クリップ分割の際に元クリップと分割によって新規に生成されるクリップとに重複部分を持たせることを説明するための図である。
【図14】この発明の実施の一形態に適用可能なディスク記録再生装置の一例の構成を示すブロック図である。
【図15】データ変換部の一例の構成を示すブロック図である。
【図16】オーディオデータの一例のデータフォーマットを示す略線図である。
【図17】ビットレートが変更されたときに実際のビデオデータのビットレートを徐々に変化させていくことを説明するための図である。
【図18】オーディオデータのビット解像度が変更されたときの処理を説明するための図である。
【図19】オーディオデータのビット解像度が変更されたときの処理を説明するための図である。
【符号の説明】
1・・・光ディスク、10・・・ディスク記録再生装置、16・・・信号処理部、17・・・メモリコントローラ、18・・・メモリ、19・・・データ変換部、20・・・制御部、21・・・操作部、31・・・信号入出力部、42・・・データ量検出部、43・・・画像信号変換部、44・・・音声信号変換部、45・・・画像データ変換部、46・・・音声データ変換部、48・・・補助AVデータ変換部、49・・・補助AVデータ変換部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a recording apparatus and method capable of recording audio and video data of a plurality of different formats in a mixed manner on a single disk-shaped recording medium so that continuous reproduction is possible.
[0002]
[Prior art]
In recent years, a disk-shaped recording medium has emerged that uses a laser beam having a shorter wavelength as a light source and enables recording and reproduction with a larger capacity. For example, a recording capacity of 23 GB (gigabyte) is realized by using a blue-violet laser emitting laser light having a wavelength of 405 nm as a light source and using an optical disk having a single-sided single layer structure.
[0003]
On the other hand, the data format of video data has been diversified in recent years with the increase in the definition of images in television broadcasting, and the encoding / decoding method, data bit rate, frame rate, number of pixels, screen aspect ratio, etc. A plurality of types such as ratios are generally used. Similarly, a plurality of types of audio data such as bit resolution and encoding / decoding method are generally used.
[0004]
Furthermore, in video cameras and the like, it has been proposed to output a high-resolution main video signal and generate a low-resolution auxiliary video signal based on an imaging signal. The auxiliary video signal is suitable for use when, for example, it is desired to send a video signal as soon as possible via a network, or when a shuttle operation is performed when cueing a video image by fast-forwarding or rewinding.
[0005]
Non-Patent Document 1 describes a video camera that uses the above-described large-capacity disk-shaped recording medium, outputs a high-resolution main video signal, and generates a low-resolution auxiliary video signal. .
[0006]
[Non-Patent Document 1]
AV Watch editorial department, “Sony, camcorder using blue-violet laser disc, etc.”, “Sony, camcorder using blue-violet laser disc, etc. Exhibited at NAB 2003 held in April. Studio recorder etc. also exhibited” [online] , March 5, 2003, Impression Corporation, AV Watch website, [Search on March 25, 2003], Internet <URL: http://www.watch.impress.co.jp/av/docs/20030305/ sony.htm>
[0007]
[Problems to be solved by the invention]
In such a situation, audio / video data (hereinafter referred to as AV data) having a plurality of different data formats can be mixed with the above-described large-capacity disc-shaped recording medium, and can be continuously recorded and reproduced. Is required.
[0008]
Conventionally, a plurality of AV data of different data formats are mixed and continuously recorded on a recording medium, and a plurality of AV data of different data formats are recorded from the recording medium. There has been no technique for continuously reproducing and editing AV data of a plurality of different data formats.
[0009]
In particular, regarding audio data, it is common to handle data of a plurality of channels at the same time, and it is required to be able to flexibly cope with changes in the channel configuration used.
[0010]
Accordingly, an object of the present invention is to provide a recording apparatus and method capable of recording audio and video data of a plurality of different formats mixedly on a single disk-shaped recording medium so that continuous reproduction is possible. There is to do.
[0011]
Another object of the present invention is to provide a recording apparatus and method that can flexibly cope with changes in the channel configuration of audio data.
[0012]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention provides a recording apparatus for recording audio data input by multiplexing audio data of a plurality of channels on a disk-shaped recording medium. Preamble added for each sample The data type of the audio data Based on information indicating whether or not the audio data contained in the preamble is separable The detection means to detect, and a plurality of channels of audio data are sampled based on the detection result by the detection means Every Separation means for separating audio data into each of a plurality of channels when it is determined that the audio data is multiplexed so as to be separable; Separation The separated audio data separated into a plurality of channels by means is recorded on a disc-shaped recording medium as individual files of the plurality of channels. If it is determined that the audio data is multiplexed in such a manner that a plurality of channels cannot be separated for each sample based on the detection result by the detection means, the audio data is stored in a disc-shaped recording medium as a single file. Record And a recording device.
[0013]
Also, the present invention provides a recording method for recording audio data input by multiplexing audio data of a plurality of channels on a disk-shaped recording medium. Preamble added for each sample The data type of the audio data Based on information indicating whether or not the audio data contained in the preamble is separable Multiple channels of audio data are sampled based on the detection step to detect and the detection results from the detection step Every A separation step of separating the audio data into a plurality of channels when it is determined that the audio data is multiplexed so as to be separated; Separation The audio data separated into each of the plurality of channels in the above step is recorded on a disc-shaped recording medium as individual files of the plurality of channels. When it is determined that the audio data is multiplexed audio data in which a plurality of channels cannot be separated for each sample based on the detection result of the detection step, the audio data is recorded as a single file on a disc-shaped recording medium. To record And a recording step.
[0014]
The present invention also relates to a separated audio in which audio data in which a plurality of channels are multiplexed is separated for each of a plurality of channels in a reproducing apparatus for reproducing audio data from a disc-shaped recording medium on which audio data of a plurality of channels is recorded. Reproducing means for reproducing separated audio data from a disc-shaped recording medium in which data is recorded as individual files, and a plurality of separated audio data reproduced by the reproducing means For each sample, a preamble including information indicating whether the audio data can be separated is added to each sample. And a multiplexing means for multiplexing.
[0015]
The present invention also relates to a reproduction method for reproducing audio data from a disc-shaped recording medium on which audio data of a plurality of channels are recorded, and separated audio in which audio data in which a plurality of channels are multiplexed is separated for each of the plurality of channels. A reproduction step of reproducing separated audio data from a disk-shaped recording medium in which data is recorded as individual files, and a plurality of separated audio data reproduced by the reproduction step For each sample, a preamble including information indicating whether the audio data can be separated is added to each sample. And a multiplexing step for multiplexing.
[0016]
As described above, the present invention is based on the detection result of detecting the data type of the audio data, and when it is determined that the audio data is the multiplexed audio data that can be separated based on the samples of a plurality of channels. Audio data is separated into a plurality of channels and recorded on a disc-shaped recording medium as individual files for each of the plurality of channels. Therefore, when audio data types are mixed and input, multiple channels are recorded. Audio data that can be separated can be determined and recorded as a file divided for each channel.
[0017]
Further, the present invention reproduces and reproduces separated audio data from a disc-shaped recording medium in which separated audio data obtained by separating audio data in which a plurality of channels are multiplexed for each of the plurality of channels is recorded as individual files. Since the plurality of separated audio data is multiplexed, the plurality of audio data recorded on the disk-shaped recording medium can be reproduced to create the original multiplexed audio data.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described. In the present invention, audio data and video data (hereinafter abbreviated as AV data as appropriate) of a plurality of signal types (formats) are recorded on one disc-shaped recording medium (hereinafter abbreviated as a disc). AV data of a plurality of signal types can be mixed and continuously recorded so that they can be reproduced continuously.
[0019]
In the following description, “a single disc-shaped recording medium is mixed with AV data of a plurality of signal types so that the AV data of the plurality of signal types can be continuously reproduced. “Continuous recording” is referred to as “can be mixed on one disk” as appropriate in order to avoid complication.
[0020]
First, an example of signal types (formats) of data that can be mixed in one disk in the present invention will be described.
[0021]
As an encoding method, for example, in the MPEG2 (Moving Pictures Experts Group 2) method, an encoding method in which video data is configured only by an I picture by intraframe encoding, an I picture, and a P picture and a B picture by predictive encoding, Thus, the encoding system constituting the video data can be mixed on one disk. Of course, it is possible to mix encoding methods other than the MPEG2 method.
[0022]
Note that, in the above-described encoding method in which video data is configured by only I pictures, a GOP (Group Of Picture) which is a unit of random access is configured by one I picture. Hereinafter, this method is referred to as a “single GOP method” for convenience. In the embodiment of the present invention, the MPEG2 4: 2: 2 profile is applied to the single GOP method. In addition, in an encoding method in which video data is configured using I, P, and B pictures, a GOP is completed with an I picture and includes one or more P and B pictures. Hereinafter, for convenience, this method in which a GOP is composed of a plurality of frames is referred to as a “long GOP method”.
[0023]
For video data, as an example, the bit rate mode of 30 Mbps (Mega bit per second), 40 Mbps, and 50 Mbps in the single GOP method described above can be mixed in one disk, and the bit rate mode in the long GOP is 25 Mbps. Video data can be further mixed in one disc. Other bit rate modes may be mixed in a single GOP or a long GOP.
[0024]
The bit rate mode is a mode for compressing and encoding video data so that the bit rate value indicated in the bit rate mode is the maximum value. For example, video data in a bit rate mode of 50 Mbps actually includes data with a bit rate of 50 Mbps or less in the transmission data depending on the complexity of the image. For frames with a data amount less than the bit rate indicated in the bit rate mode, the apparent bit rate is changed to the bit rate by filling the difference in the data amount with the bit rate indicated in the bit rate mode with the specified padding data. The bit rate indicated by the mode can be used.
[0025]
As for video data, interlaced and progressive data can be mixed in one disk as a scanning method, and data of a plurality of frame rates can be mixed in one disk in each method. With respect to the screen size, data with aspect ratios of 4: 3 and 16: 9 can be recorded on a single disc. For example, when the aspect ratio is 4: 3, the standard (SD: Standard Definision 640 pixels × 480 lines and higher definition (HD) data of 1440 pixels × 1088 lines can be mixed in one disc. Even when the aspect ratio is 16: 9, data of a plurality of types of image sizes can be similarly mixed on one disk.
[0026]
Further, the color profile is not limited to 4: 2: 2 described above, and other formats such as 4: 2: 0 can be mixed.
[0027]
As for audio data, audio data encoded with linear PCM (Pulse Code Modulation) (hereinafter abbreviated as linear PCM audio data) and audio data encoded with an encoding method other than linear PCM (for example, linear PCM) Audio data obtained by further compressing and encoding audio data) can be mixed in one disc. The audio data corresponds to a plurality of types of bit resolutions such as 16 bits and 24 bits, and a combination of a plurality of channels such as 4 channels and 8 channels can be mixed in one disc.
[0028]
In the embodiment of the present invention, the number of recording channels is selected from 0 channel (no audio), 4 channels, and 8 channels. If the number of input audio data channels is less than the selected number of recording channels, audio data indicating silence is recorded for the remaining channels, and the number of recording channels is maintained. For example, when 8 channels are selected as the number of recording channels and audio data of 2 channels is input, silent audio data is recorded in the remaining 6 channels, and 8 channels of audio data are recorded as recording data. It is said.
[0029]
In addition, audio data input by multiplexing a plurality of channels is recorded as individual audio data for each channel. At the time of reproduction, for example, individual audio data is multiplexed and output by the original multiplexing method.
[0030]
In one embodiment of the present invention, in addition to the above-mentioned main line system, that is, AV data to be actually broadcasted and edited, auxiliary AV data and metadata corresponding to the main line AV data are further included. Recorded on the same disc.
[0031]
The auxiliary AV data is audio / video data having a lower bit rate based on main line AV data. The auxiliary AV data is generated by compressing and encoding main-line AV data so as to reduce the bit rate to, for example, several Mbps. There are a plurality of types of encoding methods for generating auxiliary AV data, including MPEG4. In one embodiment of the present invention, one piece of auxiliary AV data encoded by a plurality of different encoding methods is used. Can be mixed on different disks. Also, auxiliary AV data that is the same encoding method and is encoded using different encoding parameters can be mixed in one disc.
[0032]
In the embodiment of the present invention, the number of channels of audio data handled by the auxiliary AV data is fixed to 8 channels. That is, for example, the number of channels of audio data of auxiliary AV data is set to 8 channels, and in the main line audio data described above, when any one of channels 0 and 4 is selected as the recording channel, or the selected recording channel On the other hand, even when the number of input channels is smaller, the number of audio data channels in the auxiliary AV data is eight. When the number of recording channels of main audio data is less than eight, audio data indicating silence is recorded in the remaining audio data channels in the auxiliary AV data (that is, channels not corresponding to main audio data channels). Is done.
[0033]
Metadata is high-order data related to certain data, and functions as an index for representing the contents of various data. The metadata includes time series metadata generated along the time series of the main AV data and non-time series metadata generated for a predetermined section such as for each scene in the main AV data. There are two types of data.
[0034]
The time series metadata includes, for example, a time code, a UMID (Unique Material Identifier), and an essence mark as essential data. Furthermore, camera metadata such as iris and zoom information of the video camera at the time of shooting can be included in the time-series metadata. Furthermore, information defined in ARIB (Association of Radio Industries and Businesses) can be included in the time-series metadata. Note that the data based on ARIB and the camera meta information have a relatively large data size and are therefore preferably mixed exclusively. The camera metadata and ARIB can be included in the time series metadata by time division multiplexing with a reduced time resolution.
[0035]
The non-time series metadata includes time code and UMID change point information, information on essence marks, user bits, and the like.
[0036]
The UMID will be schematically described. The UMID is an identifier standardized by SMPTE-330M that is uniquely determined to identify video data, audio data, and other material data.
[0037]
FIG. 1 shows the data structure of UMID. The UMID includes basic UMID as ID information for identifying material data, and signature metadata for identifying each content in the material data. The basic UMID and signature metadata each have a data area having a data length of 32 bytes. An area having a data length of 64 bytes in which the signature metadata is added to the basic UMID is referred to as an extended UMID.
[0038]
The basic UMID includes an area Universal Label having a data length of 12 bytes, an area Length Value having a data length of 1 byte, an area Instance Number having a data length of 3 bytes, and an area Material Number having a data length of 16 bytes. It consists of.
[0039]
The area Universal Label stores a code for identifying that the data string that immediately follows is a UMID. The area Length Value indicates the length of the UMID. Since the code length differs between the basic UMID and the extended UMID, the basic UMID is indicated by the value [13h] and the extended UMID is indicated by the value [33h] in the area Length. In the notation in parentheses [], “h” after the number indicates that the number is in hexadecimal notation. The area Instance Number indicates whether or not the material data has been overwritten or edited.
[0040]
The region Material Number is composed of three regions: a region Time Snap having a data length of 4 bytes, a region Rnd having a data length of 8 bytes, and a region Machine node having a data length of 4 bytes. The area Time Snap indicates the number of snap clock samples per day. As a result, the creation time of the material data is shown in units of clocks. The area Rnd is a random number to prevent duplicate numbers from being assigned when an incorrect time is set, or when the network address of a device defined by IEEE (Institute Electrical and Erectronic Engineers) changes, for example. It is.
[0041]
The signature metadata includes an area Time.Date having a data length of 8 bytes, an area Spatial Co-ordinated having a data length of 12 bytes, and an area Country, an area organization, and an area User each having a data length of 4 bytes. Composed.
[0042]
The area Time / Date indicates the time and date when the material was generated. In the area Spatial Co-ordinated, correction information (time difference information) relating to the time when the material is generated and position information represented by latitude, longitude, and altitude are indicated. The position information can be acquired, for example, by providing a function corresponding to GPS (Global Positioning System) in the video camera. In the area Country, the area Organization, and the area User, a country name, an organization name, and a user name are indicated by using omitted alphabetic characters and symbols, respectively.
[0043]
As described above, when the extended UMID is used, the UMID has a data length of 64 bytes and has a relatively large capacity for sequential recording in time series. Therefore, when embedding the UMID in the time series metadata, it is preferable to compress the UMID by a predetermined method.
[0044]
As long as the UMID is used for the application of the embodiment of the present invention, the first 10 bytes to 13 bytes are fixed values. Therefore, in one embodiment of the present invention, the first 10 bytes to the first 13 bytes of the UMID can be omitted. Further, when storing the UMID in the time-series metadata, it can be encoded by a predetermined method. In this case, it is preferable to use Base64 as the encoding method because the encoding result is an ASCII code, which can be easily embedded in, for example, an XML document. Furthermore, it is possible to use only the difference. For example, UMID that is partially shared is assigned to data generated at the same time in the same directory. By using only the UMID difference using this, the amount of data can be reduced.
[0045]
The essence mark will be schematically described. The essence mark represents an index related to video scene data which is a video scene (or cut) configured in video data, for example, at the time of shooting. By using the essence mark, it is possible to grasp what kind of scene it is after shooting without performing reproduction processing of video scene data.
[0046]
In one embodiment of the present invention, the essence mark is defined as a reserved word in advance. Therefore, for example, common control can be performed between the interfaces of the imaging device, the playback device, and the editing device without converting the essence mark according to the counterpart device.
[0047]
FIG. 2 shows an example of reserved words used to define essence marks. Note that the example of FIG. 2 is an example, and further essence marks can be additionally defined. “_RecStart” is a shooting start mark indicating a recording start position. “_RecEnd” is a shooting end mark indicating the recording end position. “_ShotMark1” and “_ShotMark2” are shot marks indicating arbitrary positions such as time points to be noted. “_Cut” is a cut mark indicating a cut position. “_Flash” is a flash mark indicating a flash detection position where the position where the flash is emitted is detected. “_FilterChange” is a filter change mark indicating a position where the lens filter is changed in the imaging apparatus. “_ShutterSpeedChange” is a shutter speed change mark indicating a position where the shutter speed is changed in the imaging apparatus. “_GainChange” is a gain change mark indicating a position where a gain of a filter or the like is changed. “_WhiteBalanceChange” is a white balance change mark indicating a position where the white balance is changed. “_OverBrightness” is a mark indicating a position where the output level of the video signal exceeds the limit value. “_OverAudioLimiter” is a large volume mark indicating a position where the output level of the audio signal exceeds the limit value. Each mark described above is recorded, for example, in units of video data frames.
[0048]
“_In-XXX” is an edit start mark indicating a cut start position of a cut or material. “_Out-XXX” is an edit end mark indicating the cut end position of the cut or material. The edit start mark and the edit end mark are numbered sequentially in the “XXX” portion every time an edit start point (IN point) or an edit end point (OUT point) is added. For example, “_In-001”, “_In-002”, and so on.
[0049]
By using the essence marks defined as described above as index information during the rough editing process, it is possible to efficiently select a target video scene.
[0050]
FIG. 3 shows an example of the data structure of the essence mark. As described with reference to FIG. 2, the essence mark is metadata in which the characteristics of the video scene and the like are represented by text data and associated with video content data (main-line AV data). The essence mark is KLV (Key Length Value) encoded and recorded or transmitted. FIG. 3 shows a format of the KLV encoded essence mark. This format is based on the metadata dictionary of SMPTE 335M / RP210A.
[0051]
The KLV encoded essence mark includes a “Key” portion having a data length of 16 bytes, an “L (length)” portion having a data length of 1 byte, and a “Value” portion having a data length of 32 bytes at the maximum. It consists of. The “Key” portion is an identifier indicating a KLV-encoded data item based on SMPTE 335M / RP210A, and in this example, is a value indicating an essence mark. The “L” part represents the data length following the “L” part in bytes. A maximum data length of 32 bytes is expressed. The “Value” portion is an area composed of text data in which essence marks are stored.
[0052]
Next, data arrangement on a disk according to an embodiment of the present invention will be described. In one embodiment of the present invention, data is recorded so as to form an annual ring on a disk. The annual ring data is data recorded on the disc in units of the data amount indicated by the data reproduction time. For example, when limited to main line audio data and video data, audio data and video data corresponding to a reproduction time zone are alternately arranged for each predetermined reproduction time unit having a data size of one track or more of a track. And record. By recording in this way, a set of audio data and video data corresponding to the reproduction time zone is layered in time series to form an annual ring.
[0053]
In this embodiment, in fact, in addition to the audio data and video data corresponding to the playback time zone, auxiliary AV data and time-series metadata corresponding to the playback time zone are recorded as a set to these data. An annual ring is formed and data is recorded on the optical disc 1.
[0054]
The data forming the annual ring is referred to as annual ring data. The annual ring data has a data amount that is an integral multiple of the sector, which is the smallest recording unit on the disc. The annual rings are recorded so that their boundaries coincide with the boundaries of the disk sectors.
[0055]
FIG. 4 shows an example of annual ring data formed on the optical disc 1. In the example of FIG. 4, in order from the inner circumference side of the optical disc 1, audio annual ring data # 1, video annual ring data # 1, audio annual ring data # 2, video annual ring data # 2, auxiliary AV annual ring data # 1, and time series meta data. Annual ring data # 1 is recorded, and annual ring data is handled in this cycle. On the outer peripheral side of the time series meta annual ring data # 1, a part of the annual ring data of the next cycle is further shown as audio annual ring data # 3 and video annual ring data # 3.
[0056]
In the example of FIG. 4, the playback time zone for the 1-year ring data of the time-series meta annual ring data and the playback time zone for the 1-year ring data of the auxiliary AV annual ring data correspond to each other. It is shown that the playback time zone of 2 corresponds to the playback time zone for two periods of the audio annual ring data. Similarly, it is shown that the playback time zone for one annual ring data of the time series meta annual ring data corresponds to the playback time zone for two cycles of video annual ring data. Such association between the reproduction time zone and the cycle of each annual ring data is set based on, for example, each data rate. It should be noted that the playback time for one year ring data of video annual ring data and audio annual ring data is preferably about 1.5 to 2 seconds in terms of experience.
[0057]
FIG. 5 shows an example of reading / writing data from / to the optical disc 1 on which annual rings are formed as shown in FIG. If there is a continuous free area of sufficient size on the optical disc 1 and there is no defect in the free area, each data series of audio data, video data, and auxiliary AV data time series metadata is used based on the playback time zone. The generated audio annulus data, video annulus data, auxiliary AV annulus data, and time-series meta annulus data are written so that a single stroke is written in an empty area of the optical disc 1 as shown in FIG. 5A. It is. At this time, any data boundary is written so as to coincide with the sector boundary of the optical disc 1. Reading of data from the optical disc 1 is performed in the same manner as in writing.
[0058]
On the other hand, when reading a specific data series from the optical disc 1, the operation of seeking to the recording position of the read data series and reading the data is repeated. FIG. 5B shows how the auxiliary AV data series is selectively read in this way. For example, referring also to FIG. 4, when auxiliary AV annual ring data # 1 is read out, time series meta annual ring data # 1, audio annual ring data # 3 and video annual ring data # 3, and audio annual ring data are recorded. # 4 and video annual ring data # 4 (not shown) are skipped by seeking, and auxiliary AV annual ring data # 2 of the next cycle is read out.
[0059]
As described above, the recording of data on the optical disc 1 is periodically performed as the annual ring data corresponding to the playback time zone in units of the playback time, so that the audio annual ring data and the video annual ring data in the same playback time zone can be obtained. Are arranged at close positions on the optical disc 1, it is possible to quickly read out and reproduce the audio data and video data corresponding to the reproduction time from the optical disc 1. Further, since the annual ring boundary and the sector boundary are recorded so as to coincide with each other, it is possible to read out only the audio data or the video data from the optical disc 1, and it is possible to quickly edit only the audio data or the video data. It becomes possible. Further, as described above, the audio annulus data, video annulus data, auxiliary AV annulus data, and time-series meta annulus data have a data amount that is an integral multiple of the sector of the optical disc 1, and further, the boundaries of the annulus data and the sector Recorded to coincide with the boundary. Therefore, when only one series of data is required among audio annual ring data, video annual ring data, auxiliary AV annual ring data and time series meta annual ring data, only necessary data is read without reading other data. Can be read.
[0060]
In order to take advantage of the convenience of data arrangement by annual rings as described above, it is necessary to record data on the optical disc 1 so as to ensure the continuity of annual rings. This will be described with reference to FIG. For example, consider reading only auxiliary AV annual ring data (indicated as “LR” in FIG. 6).
[0061]
For example, if a sufficiently large continuous space is secured at the time of recording, a plurality of cycles of annual rings can be continuously recorded. In this case, as shown in FIG. 6A, temporally continuous auxiliary AV annual ring data can be read with the minimum track jump. That is, when the auxiliary AV annual ring data is read, it is possible to repeat the operation of reading the auxiliary AV annual ring data in the annual ring of the next cycle, and the distance that the pickup jumps becomes the shortest.
[0062]
On the other hand, for example, when a continuous free area cannot be secured at the time of recording and auxiliary AV data that is temporally continuous is recorded in a skipped area on the optical disc 1, as shown in FIG. When the auxiliary AV annual ring data is read, for example, the pickup jumps a distance corresponding to a plurality of cycles of the annual ring, and the next auxiliary AV annual ring data must be read. Since this operation is repeated, the reading speed of the auxiliary AV annual ring data is reduced as compared with the case shown in FIG. 6A. Further, in the main line AV data, as shown in FIG. 6C, the reproduction of unedited AV data (AV clip) may be delayed.
[0063]
Therefore, in one embodiment of the present invention, in order to guarantee the continuity of the annual ring, an allocation unit having a length corresponding to a plurality of cycles of the annual ring is defined, and when the data is recorded with the annual ring, Allocate a contiguous free space whose length exceeds the defined allocation unit length.
[0064]
This will be described more specifically with reference to FIG. The allocation unit length is set in advance. The allocation unit length is set to a multiple of the total playback time of each data recorded in one cycle with annual rings. For example, if the playback time corresponding to one cycle of the annual ring is 2 seconds, the allocation unit length is set to 10 seconds. This allocation unit length is used as a ruler for measuring the length of the empty area of the optical disc 1 (see the upper right in FIG. 7). As an example, FIG. 7A shows an initial state in which three used areas are arranged so as to be separated from the optical disc 1, and a portion sandwiched between the used areas is an empty area.
[0065]
When recording AV data having a certain length on the optical disc 1 and auxiliary AV data corresponding to the AV data, first, the allocation unit length is compared with the length of the free area. An empty area having the above length is secured as a reserved area (FIG. 7B). In the example of FIG. 7, it is assumed that the right empty area of the two empty areas is longer than the allocation unit length, and is reserved as a reserved area. Next, annual ring data is sequentially recorded in this reserved area from the beginning of the reserved area (FIG. 7C). In this way, when the annual ring data is recorded, and the length of the free space in the reserved area is less than the length of one cycle of the annual ring data to be recorded next (FIG. 7D), the reserved area is released, As in 7A, a free area that can be made a reserved area is searched for while applying the allocation unit length to another free area on the optical disc 1.
[0066]
In this way, by searching for an empty area that can be recorded by an annual ring for a plurality of cycles and recording the annual ring in the empty area, a certain degree of continuity of the annual ring is guaranteed, and the annual ring data can be reproduced smoothly. It is possible. Although the allocation unit length is set to 10 seconds in the above description, this is not limited to this example, and a length corresponding to a longer reproduction time can be set as the allocation unit length. Actually, it is preferable to set the allocation unit length between 10 seconds and 30 seconds.
[0067]
Next, a data management structure according to an embodiment of the present invention will be described with reference to FIGS. In one embodiment of the present invention, data is managed in a directory structure. For example, UDF (Universal Disk Format) is used as the file system, and a directory PAV is provided immediately below the root directory (root) as shown in FIG. In this embodiment, the directory PAV and below are defined.
[0068]
That is, the above-described mixed recording of a plurality of signal types of audio data and video data on one disc is defined under the directory PAV. The recording of data in the directory PAV that cannot be managed in the embodiment of the present invention is optional.
[0069]
Four files (INDEX.XML, INDEX.RSV, DISCINFO.XML, and DISCINFO.RSV) are placed directly under the directory PAV, and two directories (CLPR and EDTR) are provided.
[0070]
The directory CLPR manages clip data. A clip here is a set of data from when shooting is started to when it is stopped, for example. For example, in the operation of the video camera, one clip is a period from when the operation start button is pressed until the operation stop button is pressed (the operation start button is released).
[0071]
This group of data includes the main line audio data and video data described above, auxiliary AV data generated from the audio data and video data, time-series metadata corresponding to the audio data and video data, and non-data. It consists of time series metadata. In the directories “C0001”, “C0002”,... Provided immediately below the directory CLPR, a set of data constituting the clip is stored for each clip.
[0072]
That is, as an example is shown in FIG. 9, the clip is a video data having a common time axis from the start to the end of recording, audio data (1), (2),..., Auxiliary AV data of each channel. And time-series metadata, and non-time-series metadata. In FIG. 9, the non-time series metadata is omitted.
[0073]
FIG. 10 shows an example of the structure of a directory “C0001” corresponding to one clip “C0001” provided immediately below the directory CLPR. Hereinafter, a directory corresponding to one clip immediately below the directory CLPR is appropriately referred to as a clip directory. The structure of the clip directory substantially corresponds to the structure of FIG. 9 described above. That is, in the clip directory “C0001”, each of the above-described pieces of data is stored by being distinguished by the file name. In the example of FIG. 10, the file name is composed of 12 digits, and among the 8 digits before the delimiter “.”, The front 5 digits are used to identify the clip, and the 3 digits immediately before the delimiter are the audio digits. Used to indicate the type of data, such as data, video data, auxiliary AV data. Further, the three digits after the delimiter are an extension and indicate the data format.
[0074]
More specifically, in the example of FIG. 10, the file “C0001C01.SMI” indicating the clip information, the main line video data file “C0001V01.MXF”, the main line system are included as a group of files constituting the clip “C0001”. Audio data files “C0001A01.MXF” to “C0001A08.MXF”, auxiliary AV data file “C0001S01.MXF”, non-time series metadata file “C0001M01.XML”, time series metadata file “C0001R01.BIM” And the pointer information file “C0001I01.PPF” are stored in the clip directory “C0001”.
[0075]
As described above, in one embodiment of the present invention, main-line audio data is stored and recorded in the files (“C0001A01.MXF” to “C0001A08.MXF”) for each channel. At this time, it is more preferable to record the audio data of the channel pair as a unit because an effect such as shortening of the access time during reproduction can be expected. For example, files that are in a channel pair relationship with each other are placed on physically close positions on the disk.
[0076]
In the embodiment of the present invention, mixing of the above-described data signal types between the clip directories in the directory CLPR is permitted. For example, for main line video data signal types, single GOP and bit rate 50 Mbps video data are stored in the clip directory “C0001”, and long GOP and bit rate 25 Mbps video data are stored in the clip directory “C0002”. Is possible. On the other hand, mixing of data signal types in each data in the clip directory is not permitted. For example, in video data, a video data file recorded at a bit rate mode of 50 Mbps from the beginning to a certain point and a video data file recorded at a bit rate mode of 25 Mbps from that point to the end cannot be stored. .
[0077]
Returning to FIG. 8, the directory EDTR manages editing information. In one embodiment of the present invention, the editing result is recorded as an edit list or a play list. In the directories “E0001”, “E0002”,... Provided immediately below the directory EDTR, a set of data constituting the editing result is stored for each editing result.
[0078]
The edit list is a list in which edit points (IN point, OUT point, etc.) and playback order for clips are described. The edit list includes nondestructive edit results for clips and a play list described later. When the edit result of non-destructive editing of the edit list is played back, the files stored in the clip directory are referred to according to the description of the list. Playback video is obtained. However, as a result of nondestructive editing, the file in the list is referred regardless of the position of the file on the optical disc 1, so that continuity during reproduction is not guaranteed.
[0079]
When it is determined that it is difficult to continuously reproduce a file or a part of a file that is referred to by the playlist based on the editing result, the playlist is stored on the optical disc 1 as a predetermined part of the file or the file. By re-arranging in this area, the continuity at the time of playback of the edit list is guaranteed.
[0080]
Based on the result of creating the above edit list by editing work, the management information of the file used for editing (for example, an index file “INDEX.XML” described later) is referred to, and non-destructive based on the editing work, that is, the editing result It is estimated whether or not continuous reproduction is possible with the file referred to based on the file being placed in each clip directory. As a result, if it is determined that continuous reproduction is difficult, the corresponding file is copied to a predetermined area of the optical disc 1. The file rearranged in the predetermined area is referred to as a bridge essence file. A list in which the bridge essence file is reflected in the edited result is referred to as a play list.
[0081]
For example, if the editing result is a reference to a complicated clip, there is a possibility that the pickup seek may not be in time for the transition from clip to clip during playback based on the editing result. is there. In such a case, a playlist is created and a bridge essence file is recorded in a predetermined area of the optical disc 1.
[0082]
FIG. 11 shows an example of the structure of the directory “E0002” corresponding to one editing result “E0002” provided immediately below the directory EDTR. Hereinafter, a directory corresponding to one editing result directly under the directory EDTR is appropriately referred to as an edit directory. In the edit directory “E0002”, data generated by the above-described editing result is stored with being distinguished by file names. The file name is composed of 12 digits. Of the 8 digits before the delimiter “.”, The first 5 digits are used to identify the editing operation, and the 3 digits immediately before the delimiter are used to indicate the type of data. Used. Further, the three digits after the delimiter are an extension and indicate the data format.
[0083]
More specifically, in the example of FIG. 11, as a file constituting the editing result “E0002”, an edit list file “E0002E01.SMI” file “E0002M01.S” in which information of time series and non-time series metadata is described. `` XML '', playlist file `` E0002P01.SMI '', bridge essence files `` E0002V01.BMX '' and `` E0002A01.BMX '' to `` E0002A04.BMX '' with main line data, bridge essence file `` E0002S01.BMX '' with auxiliary AV data and A bridge essence file “E0002R01.BMX” based on time-series and non-time-series metadata is stored in the edit directory “E0002”.
[0084]
Of these files stored in the edit directory “E0002”, the shaded files, that is, the bridge essence files “E0002V01.BMX” and “E0002A01.BMX” to “E0002A04.BMX” by the main line data, auxiliary The bridge essence file “E0002S01.BMX” based on AV data and the bridge essence file “E0002R01.BMX” based on time-series and non-time-series metadata are files belonging to a playlist.
[0085]
As described above, for example, video data stored in the clip directory is referred to by the edit list. Since different data signal types can be mixed between clip directories, as a result, different data signal types can be mixed on the edit list.
[0086]
Returning to FIG. 8, the file “INDEX.XML” is an index file for managing material information stored under the directory PAV. In this example, the file “INDEX.XML” is described in an XML (Extensible Markup Language) format. Each file and edit list described above are managed by this file “INDEX.XML”. For example, the conversion table of file name and UMID, length information (Duration), the playback order of each material when playing back the entire optical disc 1, and the like are managed. In addition, video data, audio data, auxiliary AV data, and the like belonging to each clip are managed, and clip information managed by files is managed in the clip directory.
[0087]
The file “DISCINFO.XML” manages information about this disc. Playback position information and the like are also stored in this file “DISCINFO.XML”.
[0088]
In one embodiment of the present invention, when a predetermined change is detected in a set of data constituting a clip from when shooting is started to when it is stopped, it corresponds to the change detection position. The clip is divided at the position, and the clip after the division position is set as a new clip. A new directory corresponding to the new clip is automatically created for the directory CLPR, and a set of data constituting the new clip is stored in the created directory.
[0089]
Clip division is performed when a change in signal type (format) is detected in at least one of video data and audio data constituting the clip. More specifically, the following example can be considered as a condition for division. First, regarding video data,
(1) Bit rate change
(2) Change in frame rate
(3) Change in image size
(4) Change in image aspect ratio
(5) Changes in encoding method
For audio data,
(1) Bit resolution change
(2) Change in sampling frequency
(3) Change in the number of input channels
(4) Changes in encoding method
[0090]
When a change is detected in any one of these, the clip is automatically divided at a position corresponding to the timing when the change is detected. At this time, when a change is detected in certain data, other data belonging to the same clip as that data is also divided at the same timing.
[0091]
Of course, clip division is not limited to this, and may be performed in accordance with changes in other attributes of video data and audio data. Further, not only video data and audio data, but also clip division may be performed by detecting a predetermined change in auxiliary AV data or time-series metadata.
[0092]
For example, the auxiliary AV data can be clip-divided when the bit rate mode or the encoding method is changed, for example. As for the time series metadata, for example, when the metadata by ARIB and the camera data are exclusively recorded, the clip can be divided when the data type is changed between the ARIB and the camera data. Furthermore, it is possible to perform clip division when the data rate initially set for transmitting time-series metadata is changed.
[0093]
Furthermore, it is possible not to divide the main line audio data and the time-series metadata when the clip is divided along with the change of the main line video data. By doing in this way, the increase of the file by clip division can be suppressed. Even in this case, the auxiliary AV data is divided along with the change of the main line video data.
[0094]
When dividing a clip, it is preferable to make the division boundary coincide with the GOP boundary of the auxiliary AV data because the relationship between the time axis and the byte offset in the clip becomes simple, and the processing becomes easy. For example, when the above-described change is detected in video data or audio data, as shown in an example in FIG. 12A, whether clip division is waited until the next GOP boundary of auxiliary AV data (division position B), or This is done by dividing the clip back to the previous GOP boundary (division position A). Actually, it is preferable to perform clip division at the division position B.
[0095]
Not limited to this, when the division boundary at the time of clip division does not coincide with the GOP boundary of the auxiliary AV data, the surplus portion of the GOP of the auxiliary AV data is filled with stuffing bytes, and the auxiliary AV data and the main video data are recorded. It is also possible to arrange the data amount for other data. That is, as shown in FIG. 12B, in the auxiliary AV data, for example, the GOP immediately before the position where the change is detected in the video data is set as the last GOP of the clip, and from the boundary at the rear end of the last GOP. The change detection position (indicated by hatching in FIG. 12B) is filled with stuffing bytes.
[0096]
If the main line video data is a single GOP, clip division can be performed at an arbitrary frame position. On the other hand, when the main line video data is a long GOP, the frame at the clip division position may be a frame of P picture or B picture by predictive coding. Therefore, when clip division is performed on video data of a long GOP, the GOP is once completed at the clip division position. For example, if the frame immediately before the division position is a B picture, the frame can be converted into a P picture or an I picture.
[0097]
At the time of clip division, an overlapping portion may be provided between the original clip of the division and the clip newly generated by the division. For example, in the original clip and / or the new clip, the clip division is performed with a time allowance with respect to the change timing so that the change point of the signal type is included in time.
[0098]
As an example, a case where the original bit rate of 50 Mbps is switched to 30 Mbps in main line video data will be described with reference to FIG. As shown in FIG. 12, in the case of video data with a bit rate of 50 Mbps, the bit rate remains at 50 Mbps after a predetermined time (shaded area in the figure) further from the position where the bit rate switching is instructed. Is recorded. On the other hand, video data with a bit rate of 30 Mbps is recorded at a bit rate of 30 Mbps from a predetermined time before the position instructed to switch the bit rate (the hatched portion in the figure).
[0099]
Since the bit rate switching point becomes the clip division position, it is necessary to adjust the start position of the clip with respect to the actual start position of the file using, for example, “clip Begin” which is a command for specifying the start position of the clip. .
[0100]
As an example, such recording is performed by buffering the hatched portions in FIG. 13 in the baseband video data before compression encoding, and compressing them at the corresponding bit rate. For example, in the case of video data of 50 Mbps, it is possible to add a hatched file to a file of video data before the bit rate switching point. This may be described in the edit list described above or the file “C0001C01.SMI” indicating the clip information in the clip directory without actually adding files.
[0101]
Note that the naming rules for the clip directory name and the file name of each file in the clip directory are not limited to the above example. For example, the above-described UMID may be used as a file name or clip directory name. As described above, the UMID has a data length of 64 bytes when considering the extended UMID and is long to be used for a file name or the like, so it is preferable to use only a part. For example, a part in UMID where a different value is obtained for each clip is used for a file name or the like.
[0102]
In addition, when the clip is divided, it is preferable in terms of clip management that the clip directory name and the file name are named so as to reflect the reason for dividing the clip. In this case, it is named so that at least it can be discriminated whether the clip has been explicitly divided by the user or by automatic processing on the apparatus side.
[0103]
FIG. 14 shows an example of the configuration of a disc recording / reproducing apparatus 10 applicable to one embodiment of the present invention. Here, it is assumed that the disk recording / reproducing apparatus 10 is a recording / reproducing unit built in a video camera (not shown), and a video signal based on an imaging signal imaged by the video camera and an audio signal input along with imaging. Are input to the signal processing unit 31 and supplied to the disk recording / reproducing apparatus 10. The video signal and audio signal output from the signal input / output unit 31 are supplied to, for example, a monitor device.
[0104]
Of course, this is merely an example, and the disk recording / reproducing apparatus 10 may be an apparatus used independently. For example, it can be used in combination with a video camera that does not have a recording unit. Video signals and audio signals output from the video camera, predetermined control signals, and data are input to the disc recording / reproducing apparatus 10 via the signal input / output unit 31. Further, for example, video signals and audio signals reproduced by other recording / reproducing apparatuses can be input to the signal input / output unit 31. In addition, the audio signal input to the signal input / output unit 31 is not limited to that input along with the imaging of the video signal. For example, after the imaging, the audio signal is recorded in a desired section of the video signal. It may be an after-recording audio signal for recording.
[0105]
The spindle motor 12 rotationally drives the optical disc 1 with CLV (Constant Linear Velocity) or CAV (Constant Angler Velocity) based on the spindle motor drive signal from the servo control unit 15.
[0106]
The pickup unit 13 controls the output of the laser light based on the recording signal supplied from the signal processing unit 16 and records the recording signal on the optical disc 1. The pickup unit 13 also condenses and irradiates the optical disc 1 with laser light, photoelectrically converts the reflected light from the optical disc 1 to generate a current signal, and supplies it to an RF (Radio Frequency) amplifier 14. The irradiation position of the laser beam is controlled to a predetermined position by a servo signal supplied from the servo control unit 15 to the pickup unit 13.
[0107]
The RF amplifier 14 generates a focus error signal, a tracking error signal, and a reproduction signal based on the current signal from the pickup unit 13, supplies the tracking error signal and the focus error signal to the servo control unit 15, and reproduces the reproduction signal. Is supplied to the signal processing unit 16.
[0108]
The servo control unit 15 controls the focus servo operation and the tracking servo operation. Specifically, the servo control unit 15 generates a focus servo signal and a tracking servo signal based on the focus error signal and the tracking error signal from the RF amplifier 14 and supplies them to an actuator (not shown) of the pickup unit 13. . The servo control unit 15 generates a spindle motor drive signal for driving the spindle motor 12 and controls a spindle servo operation for rotating the optical disc 1 at a predetermined rotation speed.
[0109]
Further, the servo control unit 15 performs thread control for moving the pickup unit 13 in the radial direction of the optical disc 1 to change the irradiation position of the laser beam. The signal reading position of the optical disc 1 is set by the control unit 20, and the position of the pickup unit 13 is controlled so that a signal can be read from the set reading position.
[0110]
The signal processing unit 16 modulates the recording data input from the memory controller 17 to generate a recording signal, and supplies the recording signal to the pickup unit 13. The signal processing unit 16 also demodulates the reproduction signal from the RF amplifier 14 to generate reproduction data, and supplies the reproduction data to the memory controller 17.
[0111]
The memory controller 17 controls the write address for the memory 18 and stores the recording data supplied from the data converter 19 in the memory 18 as appropriate. The memory controller 17 controls the read address for the memory 18 and supplies the data stored in the memory 18 to the read signal processor 16 as appropriate. Similarly, the memory controller 17 also appropriately stores the reproduction data from the signal processing unit 16 in the memory 18, reads out the data stored in the memory 18, and supplies the data to the data conversion unit 19.
[0112]
A video signal and an audio signal based on a photographed image photographed by the video camera are supplied to the data conversion unit 19 via the signal input / output unit 31. As will be described in detail later, the data conversion unit 19 compresses and encodes the supplied video signal in a mode instructed by the control unit 20 using a compression encoding method such as MPEG2, for example, and generates main-line video data. To do. At this time, compression encoding processing with a lower bit rate is also performed, and auxiliary AV data is generated.
[0113]
Further, the data conversion unit 19 compresses and encodes the supplied audio signal by a method instructed by the control unit 20 and outputs it as main-line audio data. In the case of an audio signal, linear PCM audio data may be output without being compressed and encoded.
[0114]
The main-line audio data and video data and auxiliary AV data processed as described above by the data converter 19 are supplied to the memory controller 17.
[0115]
The data converter 19 also decodes the reproduction data supplied from the memory controller 17 as necessary, converts it into an output signal of a predetermined format, and supplies it to the signal input / output unit 31.
[0116]
The control unit 20 includes a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), a bus for connecting them, and the like, and controls the entire disk recording / reproducing apparatus 10. To do. The ROM stores in advance an initial program that is read when the CPU is started, a program for controlling the disk recording / reproducing apparatus 10, and the like. The RAM is used as a work memory for the CPU. The video camera unit is also controlled by the control unit 20.
[0117]
Further, the control unit 20 provides a file system for recording data on the optical disc 1 and reproducing the recorded data in accordance with a program stored in advance in the ROM. That is, in the disc recording / reproducing apparatus 10, recording of data on the optical disc 1 and reproduction of data from the optical disc 1 are performed under the control of the control unit 20.
[0118]
The operation unit 21 is operated by a user, for example, and supplies an operation signal corresponding to the operation to the control unit 20. The control unit 20 controls the servo control unit 15, the signal processing unit 16, the memory controller 17, and the data conversion unit 19 based on an operation signal from the operation unit 21, and executes recording / reproduction processing.
[0119]
Further, for example, a bit rate, a frame rate, an image size, and an image aspect ratio for recording video data are set based on an operation signal from the operation unit 21. Further, ON / OFF of compression encoding processing for recorded audio data and setting of bit resolution may be performed from the operation unit 21. Control signals based on these settings are supplied to the memory controller 17 and the data converter 19.
[0120]
Furthermore, the number of recording channels for main line audio data can be set by the operation unit 21. An operation signal based on this setting is supplied from the operation unit 21 to the control unit 20. In the control unit 20, based on this operation signal, a control signal instructing to record audio data with the set number of recording channels is supplied from the control unit 20 to the signal processing unit 16, the memory controller 17, the data conversion unit 19, and the like. Is done.
[0121]
The disk recording / reproducing apparatus 10 includes an antenna 22 for receiving a GPS signal, and a GPS unit 23 that analyzes the GPS signal received by the antenna 22 and outputs position information including latitude, longitude, and altitude. And have. The position information output from the GPS unit 23 is supplied to the control unit 20. The antenna 22 and the GPS unit 23 may be provided in the video camera unit or may be externally attached to the disk recording / reproducing apparatus 10.
[0122]
FIG. 15 shows an exemplary configuration of the data converter 19. When recording data on the optical disc 1, a signal to be recorded input from the signal input / output unit 31 is supplied to the demultiplexer 41. The signal input / output unit 31 receives a video signal of a moving image and an audio signal accompanying the video signal from the video camera unit, and inputs camera shooting information, for example, information related to iris and zoom, as camera data in real time. Is done.
[0123]
The demultiplexer 41 separates a plurality of related data series from the signal supplied from the signal input / output unit 31, that is, for example, a video signal of a moving image and an audio signal accompanying the video signal, and detects a data amount To the unit 42. Further, the demultiplexer 41 separates and outputs camera data from the signal supplied from the signal input / output unit 31. This camera data is supplied to the control unit 20.
[0124]
The data amount detection unit 42 supplies the video signal and audio signal supplied from the demultiplexer 41 to the image signal conversion unit 43, the audio signal conversion unit 44, and the auxiliary AV data conversion unit 48 as they are, The data amount of the signal and the audio signal is detected and supplied to the memory controller 17. That is, the data amount detection unit 42 detects, for example, a data amount for a predetermined reproduction time for each of the video signal and the audio signal supplied from the demultiplexer 41 and supplies the detected data amount to the memory controller 17.
[0125]
The image signal conversion unit 43 compresses and encodes the video signal supplied from the data amount detection unit 42 in accordance with, for example, the MPEG2 system in accordance with an instruction from the control unit 20, and the data sequence of the video data obtained as a result is converted to the memory controller 17 To supply. For the image signal converter 43, the control unit 20 sets the maximum bit rate of the generated code amount by, for example, compression coding. The image signal conversion unit 43 estimates the data amount of one frame after compression coding, controls the compression coding processing based on the result, and applies the video data to the video data so that the generated code amount is within the set maximum bit rate. An actual compression encoding process is performed. The difference between the set maximum bit rate and the amount of data by actual compression encoding is filled with, for example, predetermined padding data, and the maximum bit rate is maintained. The data sequence of the compressed and encoded video data is supplied to the memory controller 17.
[0126]
When the audio signal supplied from the data amount detection unit 42 is not linear PCM audio data, the audio signal conversion unit 44 converts the audio signal into linear PCM audio data according to an instruction from the control unit 20. The audio signal conversion unit 44 is not limited to this, and the audio signal may be compression-encoded by, for example, MP3 (Moving Pictures Experts Group 1 Audio Layer 3) or AAC (Advanced Audio Coding) method according to the MPEG method. it can. The compression encoding method of audio data is not limited to these, and other methods may be used. A data series of audio data output from the audio signal conversion unit 44 is supplied to the memory controller 17.
[0127]
The main-line audio data (that is, the audio signal supplied from the data amount detection unit 42) is input in a channel pair in which, for example, two channels are paired. As such an audio data transmission format, for example, there is AES3-1992 (r1997) established by AES (Audio Engineering Society). According to AES3-1992 (r1997), audio data is serially transmitted through a channel pair in which samples are interleaved for each channel.
[0128]
According to AES3-1992 (r1997), audio data is stored in a subframe for each sample. As shown in an example in FIG. 16A, in the subframe, a preamble including a predetermined bit pattern is arranged from the 0th bit to the 3rd bit, and in this example in which the bit resolution is 24 bits, the 4th bit to the 27th bit. One sample of audio data is stored in. Following the audio data, bits V, U, C and P are arranged. These bits V, U, C and P are a validity bit, a user data bit, a channel status bit and a parity bit, respectively. As an example is shown in FIG. 16B, one frame of audio data is composed of two subframes, and one block is composed of 192 frames.
[0129]
The preamble arranged at the head of each subframe is composed of a specific bit pattern. For the preamble of the first channel, a different value (referred to as “Z”) is used only for the start frame frame (0) of the block, and thereafter, the same value (“X”) is assumed for frames (1) to (191). ) Is used. For the second channel preamble, the same value ("Y") different from the first channel preamble is used. According to this format, it is possible to identify the block start position and the samples of the first and second channels by detecting the preamble.
[0130]
In addition, channel status data (C) for transmitting 1 bit for each subframe is collected for one block, that is, 192 bits (24 bytes) to form channel status data. The 24 bytes are used to store various attribute information of audio data to be transmitted. FIG. 16C shows the first byte (0th byte) of this channel status data. The 0th bit indicates that this data is channel status data, and the 1st bit 1 (shaded portion in FIG. 16C) indicates whether or not the data to be transmitted is linear PCM audio data. The second to fourth bits store emphasis information of audio data. The fifth bit indicates whether or not the sampling frequency of transmitted audio data is locked. The sixth and seventh bits indicate the sampling frequency of the audio data to be transmitted.
[0131]
In an embodiment of the present invention, when linear PCM audio data is input, the audio data input in the channel pair is separated into respective channels, and the audio data for each channel is stored in individual files. Record. The audio data channel separation processing can be performed by the audio signal conversion unit 44, for example. For example, the preamble is detected based on the bit pattern of the input audio data, the samples of the audio data of the first and second channels are extracted based on the detected preamble, are rearranged for each channel, and are output.
[0132]
The audio data separated into each channel is supplied to the pickup unit 13 via the memory controller 17 and the signal processing unit 16, and is recorded on the optical disc 1 as an individual audio data file for each channel. As described above, the audio data input in pairs of two channels is recorded separately as audio data for each channel, thereby facilitating processing in units of channels.
[0133]
The channel separation of audio data is not limited to this, and can be performed using the memory 18 and the memory controller 17, for example. The audio data stored in the memory 18 for the two channel pairs is read while being input, while the memory controller 17 controls the read address to a predetermined value. For example, the readout is controlled so that samples of the same channel are output side by side. Further, channel separation of audio data may be performed in the signal input / output device 31.
[0134]
In the embodiment of the present invention, as described above, when audio data is input with a number of channels smaller than the set number of recording channels, the unused channels output audio data indicating silence. . As audio data indicating silence, for example, one sample of audio data indicating silence is generated and stored in a memory or a register. By repeatedly reading it according to the clock, audio data indicating silence can be continuously output. Such processing can be performed by the audio signal converter 44. Of course, it may be performed using the memory 18 and the memory controller 17 or may be performed in the signal input / output device 31.
[0135]
Furthermore, according to an embodiment of the present invention, when non-audio audio data is input as main-line audio data and recorded without decoding into linear PCM audio data, channel separation is not performed. . For example, according to AES3-1992 (r1997) described above, data other than linear PCM audio data can be transmitted. Whether or not the data to be transmitted is linear PCM audio data can be known by referring to the first bit in the first byte of the channel status data as described above with reference to FIG. 16C. If the first bit indicates that the input data is not linear PCM audio data, the channel separation process described above is not performed on the data. For example, data is extracted one word at a time from the subframe, arranged in order, and output.
[0136]
On the other hand, the auxiliary AV data conversion unit 48 compresses and encodes the video signal supplied from the data amount detection unit 42 according to an instruction from the control unit 20, for example, according to the MPEG4 system, and generates auxiliary AV data. In this embodiment, at this time, the bit rate is fixed to several Mbps, and a GOP is formed by 10 frames of one I picture and nine P pictures.
[0137]
Further, as described above, in the embodiment of the present invention, in the auxiliary AV data, the audio data is always handled as 8-channel audio data regardless of the number of main-line audio data channels. When the number of channels of the audio data supplied from the data amount detection unit 42 is less than 8 channels, the auxiliary AV data conversion unit 48 generates audio data indicating silence for the remaining channels and encodes it with the video signal. Turn into. For example, as described above, audio data indicating silence can be generated by storing one sample of audio data indicating silence in, for example, a memory or the like, and repeatedly reading the sample.
[0138]
In addition, the above-mentioned structure is an example, Comprising: It is not limited to this. For example, when main line AV data, camera data, and the like are independently input to the signal input / output unit 31, the demultiplexer 41 can be omitted. Further, when the main line audio data is linear PCM audio data, the processing in the audio signal conversion unit 44 can be omitted.
[0139]
The video data and audio data supplied to the memory controller 17 are supplied to the optical disc 1 and recorded as described above.
[0140]
Recording is performed while annual rings are formed on the optical disc 1 as described above. The data amount detection unit 42 of the data conversion unit 19 notifies the memory controller 17 of the fact that, for example, in the audio data, the audio data necessary for reproduction of the time corresponding to the annual ring data is detected. In response to this notification, the memory controller 17 determines whether or not the audio data necessary for reproduction of the annual ring data is stored in the memory 18 and notifies the control unit 20 of the determination result. Based on the determination result, the control unit 20 controls the memory controller 17 so as to read out audio data corresponding to the reproduction time for one year ring data from the memory 18. Based on this control, the memory controller 17 reads audio data from the memory 18, supplies the audio data to the signal control unit 16, and records the audio data on the optical disc 1.
[0141]
When the audio data corresponding to the playback time for one annual ring data is recorded, next, for example, the same processing is performed on the video data, and the video annual ring data for one annual ring data is recorded after the audio annual ring data. The Similarly, the auxiliary AV data is sequentially recorded with data corresponding to the reproduction time for the annual ring data.
[0142]
As for the time series metadata, for example, camera data is supplied from the demultiplexer 41 to the control unit 20, and some data such as UMID among the time series metadata is generated by the control unit 20. The camera data and the data generated by the control unit 20 are combined into time series metadata and stored in the memory 18 via the memory controller 17. In the same manner as described above, the memory controller 17 reads time-series metadata corresponding to the reproduction time for one annual ring data from the memory 18 and supplies it to the signal processing unit 16.
[0143]
Note that the control unit 20 also generates non-time series metadata. Non-time series metadata is recorded in the clip directory of the clip to which the data belongs.
[0144]
The data recorded on the optical disc 1 as described above is stored in a file as described above with reference to FIGS. 8 to 11, and the audio data is stored in a file for each channel and managed by a directory structure. Is done. For example, when data is recorded on the optical disk 1, management information such as address information of each file, pointer information in the directory structure, file name, and directory name information is recorded in a predetermined management area of the optical disk 1 by the control unit 20. Is done. Also, the recorded file information is reflected in the index file “INDEX.XML”.
[0145]
On the other hand, when data is reproduced from the optical disc 1, video data, audio data of each channel, auxiliary AV data, and time-series metadata are read from the optical disc 1 as described above. At this time, low bit rate data such as main line audio data, auxiliary AV data, and time series metadata is also reproduced at the high bit rate main line video data reproduction rate, and the data reproduction rate from the optical disc 1 is reproduced. Is not changed depending on the data to be read. Video data and auxiliary AV data read from the optical disc 1 are supplied from the memory controller 17 to the image data conversion unit 45 and the auxiliary AV data conversion unit 49, respectively. The audio data is supplied from the memory controller 17 to the audio data conversion unit 46.
[0146]
The image data conversion unit 45 decodes the data series of the main line video data supplied from the memory controller 17 and supplies the resulting video signal to the multiplexer 47. Further, the auxiliary AV data conversion unit 49 decodes the data series of the auxiliary AV data supplied from the memory controller 17, and supplies the resulting video signal and audio signals for 8 channels to the multiplexer 47.
[0147]
Further, the audio data conversion unit 46, for example, if the audio data supplied from the memory controller 17 is linear PCM audio data, for example, the data series is paired for every two channels, and a preamble and a bit V for each sample. U, C and P are added to form a subframe, and subframes are interleaved for each channel to form a frame, and 192 frames constitute one block, which is defined by AES3-1992 (r1997). Output as serial audio data. The audio data is supplied to the multiplexer 47. On the other hand, when the audio data supplied from the memory controller 17 is non-audio audio data, for example, it is stored in a subframe for each word, and serial data is formed and output as described above. This data is supplied to the multiplexer 47.
[0148]
In the image data conversion unit 45, the audio data conversion unit 46, and the auxiliary AV data conversion unit 49, the supplied reproduction data can be supplied as it is to the multiplexer 47 without being decoded, and multiplexed and output. is there. Further, it is possible to omit the multiplexer 47 and output each data independently.
[0149]
In the disc recording / reproducing apparatus 10 configured as described above, when the user commands the data recording by operating the operation unit 21, the data supplied from the signal input / output unit 31 is converted to the data conversion unit 19, the memory controller. 17, supplied to the optical disc 1 through the signal processing unit 16 and the pickup unit 13 and recorded.
[0150]
At the time of recording, the user can change the bit rate of the main line video data by operating the operation unit 21. For example, initially, recording is performed with the bit rate set to 50 Mbps, and when the recordable area of the optical disk 1 is reduced, the bit rate is changed to a low bit rate such as 30 Mbps so that no recording is missed. Can be used.
[0151]
At this time, the clip is divided in accordance with the timing of changing the bit rate, and the changed data is recorded on the optical disc 1 as a new clip. The change of the bit rate may be detected by detecting an operation performed on the operation unit 21 or based on the result of monitoring the bit rate of the video data by the control unit 20. For example, the memory controller 17 extracts data at a predetermined bit position in which the bit rate information is described in the header of the main line video data supplied from the data conversion unit 19 to confirm that the bit rate has been changed. It is possible to detect.
[0152]
When the change in the bit rate is detected, for example, the memory controller 17 is controlled by the control unit 20, the data before the bit rate change is swept from the memory 18 and recorded on the optical disc 1, and a new data is created by the data after the change. Annual rings are formed.
[0153]
When a change in main line video data is detected, other data, that is, main line audio data, auxiliary AV data, and time-series metadata are similarly controlled by the memory controller 17 to divide the clip. Is called. At this time, as described above, the main AV data can be divided in accordance with the GOP boundary of the auxiliary AV data.
[0154]
Further, when the bit rate of the main line video data is changed, it is preferable to gradually change the bit rate of the actual video data so that an unnatural change does not appear in the reproduced image.
[0155]
First, the case of changing from a high bit rate to a low bit rate will be described with reference to FIG. Assume that the bit rate mode is initially set to 50 Mbps. By operating the operation unit 21 during recording, the time t 0 Is instructed to change the bit rate mode to 30 Mbps. In response to the instruction, the control unit 20 instructs the image signal conversion unit 43B of the data conversion unit 19 to change the bit rate. At this time, time t 0 Time t after a predetermined time from 1 A time constant process is performed on the change rate of the bit rate so that the bit rate gradually decreases. And time t 1 Is the actual bit rate change point, and clip division is performed at this point.
[0156]
Also in this case, time t 0 Even if the change of the bit rate is instructed at 1 Until it is reached, it is treated as video data in the bit rate mode before the change. For example, the difference between the data amount at the bit rate specified in the bit rate mode and the generated code amount by the actual compression encoding is filled with predetermined padding data.
[0157]
When changing from a low bit rate to a high bit rate, the above processing is reversed. That is, for example, when the bit rate initially set to 30 Mbps is changed to 50 Mbps, first, the bit rate mode is changed from 30 Mbps to 50 Mbps at the timing of the change instruction. Then, the time constant processing is performed on the change rate of the bit rate so that the bit rate is gradually increased over a predetermined time from the control unit 20 to the image signal conversion unit 43B of the data conversion unit 19. . Further, for example, the difference between the data amount at the bit rate specified in the bit rate mode and the generated code amount by the actual compression encoding is filled with predetermined padding data. Clip division is performed, for example, at a change point of the bit rate mode.
[0158]
As described above, the bit rate can be gradually changed by instructing the image signal conversion unit 43B from the control unit 20 to a bit rate with a small value at predetermined time intervals. In the image signal conversion unit 43B, the total code amount of the encoded frame is estimated according to the value of the bit rate that is instructed little by little, and the encoding process is performed according to the estimated value.
[0159]
On the other hand, with respect to audio data, for example, it is possible to cope with a change in bit resolution of main-line audio data input as linear PCM audio data. When a change is detected, the clip is divided at the change point as in the case of the video data described above. Again, clip division can be performed in accordance with the GOP boundary of the auxiliary AV data.
[0160]
In the case of audio data, the bit resolution before the change can be maintained after the bit resolution is changed, and clip division by changing the bit resolution can be prevented. For example, when audio data input from the outside to the disk recording / reproducing apparatus 10 according to the embodiment of the present invention is recorded on the optical disk 1, the bit resolution of the input audio data was initially 24 bits. If the bit resolution is changed to 16 bits at a certain time, the bit resolution can be kept at 24 bits even after the bit resolution is changed.
[0161]
Hereinafter, regarding audio data, “24-bit bit resolution” and “16-bit bit resolution” are abbreviated as “24-bit” and “16-bit”, respectively, as appropriate.
[0162]
This will be described with reference to FIG. The audio data that was initially input in 24 bits is changed to 16 bits in the bit resolution change point (FIG. 18A). At this time, data indicating silence (for example, a value “0”) in the audio data is added to the lower 8 bits (LSB side) of the audio data changed to 16 bits, as shown in FIG. 18B. The total is 24 bits. At this time, 8-bit data to be added is not limited to silence, and dither may be added.
[0163]
For example, when the audio data that was originally 16 bits is changed to 24 bits, the bit resolution can be kept at 16 bits even after the bit resolution is changed.
[0164]
This will be described with reference to FIG. The audio data that was initially input at 16 bits is changed to a bit resolution of 24 bits at the bit resolution change point (FIG. 19A). At this time, as shown in an example in FIG. 19B, 8 bits on the lower side (LSB side) of the audio data input in 24 bits are discarded to be 16 bits as a whole.
[0165]
Furthermore, when the audio data input as linear PCM audio data is changed to audio data encoded by an encoding method other than linear PCM (hereinafter referred to as non-audio audio data), non-audio Audio data can be muted and recording can continue without splitting the clip. The mute is performed, for example, by recording audio data representing silence, and non-audio audio data is recorded as silence audio data. That is, non-audio audio data is replaced with audio data representing silence.
[0166]
If the non-audio audio data is changed to linear PCM audio data, the linear PCM audio data can be recorded with the divided clips.
[0167]
The audio data bit resolution conversion process and the silence process when inputting non-audio audio data as described above can be performed by the audio signal conversion unit 45 based on an instruction from the control unit 20, for example. However, the present invention is not limited to this, and the processing can be performed by reading audio data from the memory 18 under the control of the memory controller 17 based on an instruction from the control unit 20. For example, data representing non-audio audio data, for example, for one sample is stored in the memory 18 and the data is repeatedly read out.
[0168]
The resolution of the audio data is a format (for example, the above-mentioned AES3-1992 (r1997)) compliant with the standard by AES / EBU (Audio Engineering Society / European Broadcasting Union), in which the audio data is generally used in broadcasting stations, for example. In the case of transmission, since information of bit resolution is stored at a predetermined position of the header, it can be determined by extracting this data. Also, identification of linear PCM audio data and non-audio audio data can be similarly determined from header information and the like.
[0169]
In the above description, the bit rate change during recording is described for main line video data. However, this is not limited to this example, and the disc recording / reproducing apparatus 10 according to the embodiment of the present invention is recording It is possible to cope with changes in the frame rate, image size, aspect ratio, etc. In this case, during playback, interpolation / decimation processing in the time axis direction is performed when the frame rate is changed, and interpolation / decimation processing within the frame is performed when the image size or aspect ratio is changed. Video data can be output at a constant frame rate, image size, and image aspect ratio. Such interpolation / decimation processing is performed on the video data stored in the memory 18 by the memory controller 17, for example. You may perform in the image signal conversion part 43B.
[0170]
In the above description, the encoding method of main line video data has been described as MPEG2, but this is not limited to this example, and video data encoded by another method can be recorded in a mixed manner. Similarly, the bit rate and other parameters of the video data can be dealt with other than those described above.
[0171]
Similarly, when encoding audio data to be non-audio, another encoding method can be used. For audio data, the bit resolution is not limited to 16 bits and 24 bits, and audio data of other bit resolutions such as 32 bits, 8 bits, and 12 bits can be recorded together. The sampling frequency of audio data is typically 48 kHz, but is not limited to this example, and audio data of other sampling frequencies such as 96 kHz and 192 kHz can be recorded in a mixed manner.
[0172]
Further, the auxiliary AV data is not limited to the MPEG4 system, and video data encoded by another system can be recorded together.
[0173]
Furthermore, it is preferable to display a list of clips recorded on the optical disc 1 on a monitor device (not shown). For example, the index file “INDEX.XML” is read according to the user's operation on the operation unit 21 to obtain information on all clips recorded on the optical disc 1. Then, referring to each clip directory, a thumbnail image is automatically created based on the auxiliary AV data. A thumbnail image is created each time, for example, by reading a frame at a predetermined position of auxiliary AV data and reducing it to a predetermined image size.
[0174]
Thumbnail image data of each clip is supplied to the memory controller 17 and stored in the memory 18. Then, the thumbnail image data stored in the memory 18 is read out by the memory controller 17 and supplied to a monitor device (not shown) via the data conversion unit 19 and the signal input / output unit 31, and a list of thumbnail images is displayed on the monitor device. The Display control of thumbnail images on the monitor device can be performed by an operation from the operation unit 21. Further, a predetermined operation on the operation unit 21 can be used to select a desired image from the thumbnail images and reproduce a clip corresponding to the selected thumbnail image.
[0175]
When displaying the above-described thumbnail image on the monitor device, various information of the clip corresponding to the displayed thumbnail image, for example, the bit rate of the main video data, the encoding method, etc. can be displayed together with the thumbnail image. . This is possible by reading time-series metadata and non-time-series metadata from each clip directory.
[0176]
In the above description, channel pair audio data defined in AES3-1992 (r1997) is channel-separated and recorded on the optical disc 1 as an audio data file for each channel, and the audio data recorded on the optical disc 1 for each channel. Is described as being output as serial audio data by interleaving between channels for each sample, but this is not limited to this example. That is, even in the case of audio data supplied with multiple channels multiplexed by other methods, the channels can be separated and recorded on the optical disc 1 as audio data files for each channel. The same applies to the output. In the case of output, multi-channel audio data can be multiplexed and output by a method different from the method input when recording on the optical disc 1.
[0177]
【The invention's effect】
As described above, according to the present invention, linear PCM audio data input by multiplexing a plurality of channels is separated into channels, stored in a file for each channel, and recorded on a recording medium. Therefore, data processing for each channel is facilitated, and there is an effect that a change in channel configuration can be flexibly handled.
[0178]
In the embodiment of the present invention, audio data indicating silence is output to an unused channel when the number of input audio data channels is less than the set recording channel. Even if the number of channels of audio data is changed, the number of channels is maintained, and there is an effect that processing at the time of reproduction becomes easy.
[0179]
Furthermore, in the embodiment of the present invention, the channel processing method is selected according to the data type of the input audio data. Therefore, if the input audio data is linear PCM audio data, The channel pair is separated and recorded as an audio data file for each channel. If the input audio data is non-audio audio data, the channel pair can be recorded without being separated.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a data structure of a UMID.
FIG. 2 is a schematic diagram illustrating an example of a reserved word used for defining an essence mark.
FIG. 3 is a schematic diagram illustrating a data structure of an example of an essence mark.
FIG. 4 is a schematic diagram illustrating an example in which annual ring data is formed on an optical disc.
FIG. 5 is a schematic diagram showing an example in which data is read from and written to an optical disk on which annual rings are formed.
FIG. 6 is a diagram for explaining that data recording is performed so as to ensure continuity of annual rings.
FIG. 7 is a diagram for explaining an allocation unit;
FIG. 8 is a diagram for illustrating a data management structure according to an embodiment of the present invention.
FIG. 9 is a schematic diagram schematically showing the structure of a clip.
FIG. 10 is a diagram for illustrating a data management structure according to an embodiment of the present invention.
FIG. 11 is a diagram for illustrating a data management structure according to an embodiment of the present invention.
FIG. 12 is a diagram for explaining that the boundary of clip division is matched with the boundary of GOP of auxiliary AV data.
FIG. 13 is a diagram for explaining that an overlap portion is provided between an original clip and a clip newly generated by division at the time of clip division.
FIG. 14 is a block diagram showing a configuration of an example of a disc recording / reproducing apparatus applicable to an embodiment of the present invention.
FIG. 15 is a block diagram illustrating an exemplary configuration of a data conversion unit.
FIG. 16 is a schematic diagram illustrating a data format of an example of audio data.
FIG. 17 is a diagram for explaining that the bit rate of actual video data is gradually changed when the bit rate is changed;
FIG. 18 is a diagram for explaining processing when the bit resolution of audio data is changed;
FIG. 19 is a diagram for explaining processing when the bit resolution of audio data is changed;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Optical disk, 10 ... Disc recording / reproducing apparatus, 16 ... Signal processing part, 17 ... Memory controller, 18 ... Memory, 19 ... Data conversion part, 20 ... Control part , 21, operation unit, 31, signal input / output unit, 42, data amount detection unit, 43, image signal conversion unit, 44, audio signal conversion unit, 45, image data. Conversion unit, 46... Audio data conversion unit, 48... Auxiliary AV data conversion unit, 49... Auxiliary AV data conversion unit

Claims (10)

複数のチャンネルのオーディオデータが多重化されて入力されたオーディオデータをディスク状記録媒体に記録する記録装置において、
サンプル毎にプリアンブルが付加されたオーディオデータのデータ種類を、該プリアンブルに含まれるオーディオデータが分離可能であるか否かを示す情報に基づき検出する検出手段と、
上記検出手段による検出結果に基づき上記オーディオデータが複数のチャンネルがサンプル毎の分離が可能に多重化されたオーディオデータであると判断された場合、該オーディオデータを上記複数のチャンネルそれぞれに分離する分離手段と、
上記分離手段で上記複数のチャンネルそれぞれに分離された分離オーディオデータを、上記複数のチャンネルそれぞれの個別のファイルとしてディスク状記録媒体に記録し、上記検出手段による検出結果に基づき上記オーディオデータが複数のチャンネルがサンプル毎の分離が不能に多重化されたオーディオデータであると判断された場合、該オーディオデータを単一のファイルとして上記ディスク状記録媒体に記録する記録手段と
を有することを特徴とする記録装置。
In a recording apparatus for recording audio data input by multiplexing audio data of a plurality of channels on a disk-shaped recording medium,
Detection means for detecting the data type of audio data to which a preamble is added for each sample based on information indicating whether or not the audio data included in the preamble is separable ;
Separation that separates the audio data into each of the plurality of channels when it is determined that the audio data is multiplexed in such a manner that a plurality of channels can be separated for each sample based on the detection result by the detection means Means,
The separated audio data separated into each of the plurality of channels by the separating means is recorded on a disc-shaped recording medium as an individual file for each of the plurality of channels, and the plurality of audio data is recorded based on the detection result by the detecting means. And a recording means for recording the audio data as a single file on the disk-shaped recording medium when the channel is determined to be multiplexed audio data that cannot be separated for each sample. Recording device.
請求項1に記載の記録装置において、
上記オーディオデータの上記複数のチャンネルが上記記録手段に対して設定された記録チャンネル数に満たないとき、上記記録手段は、該記録チャンネルのうち上記オーディオデータの記録に使用されないチャンネルのデータとして無音を示すオーディオデータを上記ディスク状記録媒体に記録するようにしたことを特徴とする記録装置。
The recording apparatus according to claim 1,
When the plurality of channels of the audio data are less than the number of recording channels set for the recording means, the recording means generates silence as data of channels not used for recording the audio data among the recording channels. A recording apparatus for recording audio data to be recorded on the disk-shaped recording medium.
請求項1に記載の記録装置において、
上記オーディオデータは、チャンネルペアのオーディオデータが多重化されたデータであって、上記記録手段は、上記複数のチャンネルのそれぞれの個別ファイルを上記チャンネルペア単位で上記ディスク状記録媒体に記録するようにしたことを特徴とする記録装置。
The recording apparatus according to claim 1,
The audio data is data in which audio data of channel pairs is multiplexed, and the recording means records the individual files of the plurality of channels on the disk-shaped recording medium in units of the channel pairs. A recording apparatus characterized by that.
請求項1に記載の記録装置において、
上記オーディオデータは、2チャンネルのオーディオデータがサンプル毎にインターリーブされて上記多重化されていることを特徴とする記録装置。
The recording apparatus according to claim 1,
2. The recording apparatus according to claim 1, wherein the audio data is multiplexed by interleaving 2-channel audio data for each sample.
複数のチャンネルのオーディオデータが多重化されて入力されたオーディオデータをディスク状記録媒体に記録する記録方法において、
サンプル毎にプリアンブルが付加されたオーディオデータのデータ種類を、該プリアンブルに含まれるオーディオデータが分離可能であるか否かを示す情報に基づき検出する検出のステップと、
上記検出のステップによる検出結果に基づき上記オーディオデータが複数のチャンネルがサンプル毎の分離が可能に多重化されたオーディオデータであると判断された場合、該オーディオデータを上記複数のチャンネルそれぞれに分離する分離のステップと、
上記分離のステップで上記複数のチャンネルそれぞれに分離されたオーディオデータを、上記複数のチャンネルそれぞれの個別のファイルとしてディスク状記録媒体に記録し、上記検出のステップによる検出結果に基づき上記オーディオデータが複数のチャンネルがサンプル毎の分離が不能に多重化されたオーディオデータであると判断された場合、該オーディオデータを単一のファイルとして上記ディスク状記録媒体に記録する記録のステップと
を有することを特徴とする記録方法。
In a recording method of recording audio data input by multiplexing audio data of a plurality of channels on a disk-shaped recording medium,
A detection step of detecting the data type of audio data to which a preamble is added for each sample based on information indicating whether or not the audio data included in the preamble is separable ;
When it is determined that the audio data is multiplexed audio data so that a plurality of channels can be separated for each sample based on the detection result in the detection step, the audio data is separated into each of the plurality of channels. The separation step,
A plurality of audio data separated into each of the plurality of channels in steps of the separation, and recorded on the disc-shaped recording medium as separate files for each of the plurality of channels, the audio data based on the detection result of the step of the detection A recording step of recording the audio data as a single file on the disk-shaped recording medium when it is determined that the audio data is multiplexed audio data that cannot be separated for each sample. Recording method.
複数のチャンネルのオーディオデータが記録されたディスク状記録媒体からオーディオデータを再生する再生装置において、
複数のチャンネルが多重化されたオーディオデータを上記複数のチャンネル毎に分離した分離オーディオデータがそれぞれ個別のファイルとして記録されたディスク状記録媒体から上記分離オーディオデータを再生する再生手段と、
上記再生手段により再生された複数の上記分離オーディオデータに対して、オーディオデータが分離可能であるか否かを示す情報を含むプリアンブルをサンプル毎にそれぞれ付 加して多重化する多重化手段と
を有することを特徴とする再生装置。
In a playback device for playing back audio data from a disc-shaped recording medium on which audio data of a plurality of channels is recorded,
Reproduction means for reproducing the separated audio data from a disc-shaped recording medium in which separated audio data obtained by separating the audio data in which a plurality of channels are multiplexed for each of the plurality of channels is recorded as individual files;
For a plurality of the separating audio data reproduced by the reproducing means, and a multiplexing means for multiplexing and pressurized with each preamble for each sample containing information indicating whether the audio data is separable A playback device comprising:
請求項に記載の再生装置において、
上記多重化手段は、上記複数の分離オーディオデータをサンプル毎の分離が可能に多重化するようにしたことを特徴とする再生装置。
The playback device according to claim 6 , wherein
The reproducing apparatus according to claim 1, wherein the multiplexing means multiplexes the plurality of separated audio data so as to allow separation for each sample.
請求項に記載の再生装置において、
上記多重化手段は、互いにチャンネルペアを構成する上記複数の分離オーディオデータを多重化するようにしたことを特徴とする再生装置。
The playback device according to claim 6 , wherein
The reproducing apparatus according to claim 1, wherein the multiplexing means multiplexes the plurality of separated audio data constituting a channel pair with each other.
請求項に記載の再生装置において、
上記多重化手段は、2チャンネルのオーディオデータをサンプル毎にインターリーブして上記多重化を行うことを特徴とする再生装置。
The playback device according to claim 6 , wherein
The reproducing apparatus according to claim 1, wherein the multiplexing means interleaves 2-channel audio data for each sample and performs the multiplexing.
複数のチャンネルのオーディオデータが記録されたディスク状記録媒体からオーディオデータを再生する再生方法において、
複数のチャンネルが多重化されたオーディオデータを上記複数のチャンネル毎に分離した分離オーディオデータがそれぞれ個別のファイルとして記録されたディスク状記録媒体から上記分離オーディオデータを再生する再生のステップと、
上記再生のステップにより再生された複数の上記分離オーディオデータに対して、オーディオデータが分離可能であるか否かを示す情報を含むプリアンブルをサンプル毎にそれぞれ付加して多重化する多重化のステップと
を有することを特徴とする再生方法。
In a reproduction method for reproducing audio data from a disk-shaped recording medium on which audio data of a plurality of channels is recorded,
A reproduction step of reproducing the separated audio data from a disc-shaped recording medium in which separated audio data obtained by separating audio data in which a plurality of channels are multiplexed for each of the plurality of channels is recorded as individual files;
A multiplexing step in which a preamble including information indicating whether or not the audio data can be separated is added to each of the plurality of separated audio data reproduced in the reproduction step and multiplexed for each sample ; A reproduction method characterized by comprising:
JP2003111629A 2003-04-16 2003-04-16 Recording apparatus and method, and reproducing apparatus and method Expired - Fee Related JP4179030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003111629A JP4179030B2 (en) 2003-04-16 2003-04-16 Recording apparatus and method, and reproducing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003111629A JP4179030B2 (en) 2003-04-16 2003-04-16 Recording apparatus and method, and reproducing apparatus and method

Publications (2)

Publication Number Publication Date
JP2004319002A JP2004319002A (en) 2004-11-11
JP4179030B2 true JP4179030B2 (en) 2008-11-12

Family

ID=33472123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003111629A Expired - Fee Related JP4179030B2 (en) 2003-04-16 2003-04-16 Recording apparatus and method, and reproducing apparatus and method

Country Status (1)

Country Link
JP (1) JP4179030B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4618799B2 (en) 2005-10-25 2011-01-26 キヤノン株式会社 Movie recording device

Also Published As

Publication number Publication date
JP2004319002A (en) 2004-11-11

Similar Documents

Publication Publication Date Title
JP4865884B2 (en) Information recording medium
JP4314531B2 (en) Playback apparatus and method, and program
US20070031112A1 (en) Fast generation of a personalized DVD from a common template
US20050196128A1 (en) Reproducing apparatus and reproducing method
JP4144533B2 (en) Playback apparatus and method
WO2005036876A1 (en) File reproduction device, file reproduction method, file reproduction method program, and recording medium containing the file reproduction method program
JP3921593B2 (en) Information processing apparatus and method, program storage medium, program, and information recording medium
JP3610975B2 (en) Recording apparatus and method
JP3873921B2 (en) Recording apparatus and method
CN100562938C (en) Messaging device and method
JP3982465B2 (en) Disk device, disk device control method, and disk device control program
JP2004127399A (en) Information recording medium, information recording device and method, information reproducing device and method, information recording/reproducing device and method, computer program for recording or reproducing control, and data structure containing control signal
KR20060043135A (en) Reproducing apparatus, reproducing method, driving apparatus and driving method
US6453113B1 (en) Editing apparatus and editing method
JP4179030B2 (en) Recording apparatus and method, and reproducing apparatus and method
JP3972911B2 (en) Data processing apparatus and method, and reproducing apparatus and method
US8224154B2 (en) Recording control device and method, program, and recording medium
JP2004310833A (en) Recorder and recording method
JPH1198447A (en) Image pickup device, edit device and edit system
JP2000215648A (en) Recording device
JP2004310832A (en) Recording device and method
JP2004312158A (en) Signal processing apparatus and method, and recording apparatus and method
JP2007293946A (en) Recording controller and recording control method, and program
JP2005004878A (en) Recording device and method, and recording program
JP4564021B2 (en) Information recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060320

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110905

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120905

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130905

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees