JP2004312158A - Signal processing apparatus and method, and recording apparatus and method - Google Patents

Signal processing apparatus and method, and recording apparatus and method Download PDF

Info

Publication number
JP2004312158A
JP2004312158A JP2003100359A JP2003100359A JP2004312158A JP 2004312158 A JP2004312158 A JP 2004312158A JP 2003100359 A JP2003100359 A JP 2003100359A JP 2003100359 A JP2003100359 A JP 2003100359A JP 2004312158 A JP2004312158 A JP 2004312158A
Authority
JP
Japan
Prior art keywords
data
bit rate
maximum bit
generated code
code amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003100359A
Other languages
Japanese (ja)
Inventor
Toshiro Tanaka
寿郎 田中
Hideki Ando
秀樹 安藤
Kenji Hyodo
賢次 兵頭
Mitsutoshi Magai
光俊 真貝
Fumiaki Henmi
文明 逸見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003100359A priority Critical patent/JP2004312158A/en
Publication of JP2004312158A publication Critical patent/JP2004312158A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a recording apparatus and method for suppressing occurrence of a visual sense of incongruity caused when video data with different bit rates are consecutively reproduced. <P>SOLUTION: Video data are compression-coded while being controlled so that a generated code amount is limited within a designated maximum bit rate. When a second maximum bit rate is designated during compression coding at a first maximum bit rate, a coding means is controlled so as to change the generated code amount gradually for a prescribed time (t<SB>1</SB>-t<SB>0</SB>). Further, a difference between the designated maximum bit rate and the generated code amount is filled by padding data so that the apparent generated code amount is equal to the maximum bit rate. In the case of the first maximum bit rate> the second maximum bit rate, after the generated code amount becomes within the second maximum bit rate, the amount of the padding data is designated for the difference between the second maximum bit rate and the generated code amount. Since the bit rate is gradually changed, no rapid change in the image quality is caused. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、異なる複数のフォーマットのビデオデータを、連続的な再生が可能なように1枚のディスク状記録媒体に混在して記録することが可能な記録装置および方法に関する。
【0002】
【従来の技術】
近年では、より波長の短いレーザ光を光源として用い、より大容量の記録再生を可能としたディスク状記録媒体が出現している。例えば、波長405nmのレーザ光を発する青紫色レーザを光源とし、片面1層構造の光ディスクを用いて23GB(ギガバイト)の記録容量が実現されている。
【0003】
一方、ビデオデータのデータフォーマットも、近年では、テレビジョン放送における画像の高精細度化などに伴い多岐にわたっており、符号化/復号化方式、データのビットレート、フレームレート、画素数、画面のアスペクト比など、それぞれ複数種類が一般的に用いられるようになっている。オーディオデータも同様に、ビット解像度や符号化/復号化方式など、それぞれ複数種類が一般的に用いられる。
【0004】
さらに、ビデオカメラなどでは、撮像信号に基づき、高解像度の本映像信号を出力すると共に低解像度の補助映像信号を生成することが提案されている。補助映像信号は、例えばネットワークを介して一刻も早く映像信号を送りたいときや、早送りや巻き戻しによりビデオ映像の頭出しを行う際のシャトル操作などのときに用いて好適である。
【0005】
非特許文献1には、上述した、大容量のディスク状記録媒体を用いると共に、高解像度の本映像信号を出力すると共に低解像度の補助映像信号を生成するようにしたビデオカメラが記載されている。
【0006】
【非特許文献1】
AV Watch編集部、”ソニー、青紫色レーザーディスクを使ったカムコーダなど”、”ソニー、青紫色レーザーディスクを使ったカムコーダなど−4月開催のNAB 2003に出展。スタジオレコーダなども展示”[online]、2003年3月5日、Impress Corporation、AV Watchホームページ、[平成15年3月25日検索]、インターネット<URL : http://www.watch.impress.co.jp/av/docs/20030305/sony.htm>
【0007】
【発明が解決しようとする課題】
このような状況において、上述した大容量のディスク状記録媒体に対して、複数の異なるデータフォーマットのオーディオ/ビデオデータ(以下、AVデータ)を混在させ、尚かつ、連続的に記録、再生を可能とすることが求められている。
【0008】
ここで、特にビデオデータについて、異なるビットレートのデータを連続的に再生する場合を考える。同一の符号化方式で符号化する場合、ビットレートが高い方が圧縮率が低く、より高画質となることが期待される。また、ビットレートが低いと高圧縮率となり、画質の劣化が著しくなる。そのため、ビットレートの異なるビデオデータを連続的に再生すると、ビットレートの切り替え点で画質が急激に変化し、視覚的な違和感を生じてしまうという問題点があった、
【0009】
したがって、この発明の目的は、ビットレートの異なるビデオデータを連続的に再生した場合の視覚的な違和感を抑制することが可能な記録装置および方法を提供することにある。
【0010】
【課題を解決するための手段】
この発明は、上述した課題を解決するために、指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化手段を有し、符号化手段は、第1の最大ビットレートでビデオデータの圧縮符号化中に第2の最大ビットレートが指定されたら、発生符号量が徐々に変化するように圧縮符号化の制御を行うようにしたことを特徴とする信号処理装置である。
【0011】
また、この発明は、指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化のステップを有し、符号化のステップは、第1の最大ビットレートでビデオデータの圧縮符号化中に第2の最大ビットレートが指定されたら、発生符号量が徐々に変化するように圧縮符号化の制御を行うようにしたことを特徴とする信号処理方法である。
【0012】
また、この発明は、ビデオデータを圧縮符号化してディスク状記録媒体に記録する記録装置において、指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化手段と、符号化手段で圧縮符号化されたビデオデータをディスク状記録媒体に記録する記録手段とを有し、符号化手段は、第1の最大ビットレートでビデオデータの圧縮符号化中に第2の最大ビットレートが指定されたら、発生符号量が徐々に変化するように圧縮符号化の制御を行うようにしたことを特徴とする記録装置である。
【0013】
また、この発明は、、ビデオデータを圧縮符号化してディスク状記録媒体に記録する記録方法において、指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化のステップと、符号化のステップで圧縮符号化されたビデオデータをディスク状記録媒体に記録する記録のステップとを有し、符号化のステップは、第1の最大ビットレートでビデオデータの圧縮符号化中に第2の最大ビットレートが指定されたら、発生符号量が徐々に変化するように圧縮符号化の制御を行うようにしたことを特徴とする信号処理方法である。
【0014】
上述したように、この発明は、指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行うようにされ、第1の最大ビットレートでビデオデータの圧縮符号化中に第2の最大ビットレートが指定されたら、発生符号量が徐々に変化するように圧縮符号化の制御を行うようにしているため、圧縮符号化の際の最大ビットレートが第1の最大ビットレートから第2の最大ビットレートへ切り替えられても、急激な画質の変化が起こらず、視覚的に違和感の抑えられた画像を得ることができる。
【0015】
また、この発明は、指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行いディスク状記録媒体に記録するようにされ、符号化の際に、第1の最大ビットレートでビデオデータの圧縮符号化中に第2の最大ビットレートが指定されたら、発生符号量が徐々に変化するように圧縮符号化の制御を行うようにしているため、ディスク状記録媒体からの再生画像は、急激な画質の変化が起こらず、視覚的に違和感が抑えらる。
【0016】
【発明の実施の形態】
以下、この発明の実施の一形態について説明する。この発明では、1枚のディスク状記録媒体(以下、ディスクと略称する)に対して、複数の信号種類(フォーマット)のオーディオデータおよびビデオデータ(以下、適宜、AVデータと略称する)を、当該複数の信号種類のAVデータを連続的に再生することができるように混在させて連続的に記録可能とする。
【0017】
なお、以下では、上述の「1枚のディスク状記録媒体に対して、複数の信号種類のAVデータを、当該複数の信号種類のAVデータを連続的に再生することができるように混在させて連続的に記録する、」ことを、繁雑さを避けるために、適宜「1枚のディスクに混在可能」などと称する。
【0018】
先ず、この発明において1枚のディスクに混在可能とするデータの信号種類(フォーマット)の例について説明する。
【0019】
符号化方式としては、例えばMPEG2(Moving Pictures Experts Group 2)方式においてフレーム内符号化によるIピクチャのみでビデオデータを構成する符号化方式や、Iピクチャと、予測符号化によるPピクチャおよびBピクチャとによりビデオデータを構成する符号化方式を1枚のディスクに混在可能とされる。勿論、MPEG2方式以外の符号化方式を混在させることも可能である。
【0020】
なお、上述の、Iピクチャのみでビデオデータを構成する符号化方式においては、ランダムアクセスの単位であるGOP(Group Of Picture)は、一枚のIピクチャで構成される。この方式を、以下、便宜上「シングルGOP方式」と称する。この発明の実施の一形態では、このシングルGOP方式は、MPEG2の4:2:2プロファイルが適用される。また、I、PおよびBピクチャを用いてビデオデータを構成する符号化方式では、GOPは、Iピクチャで完結し、1または複数のPおよびBピクチャを含む。以下では、便宜上、複数フレームからGOPが構成されるこの方式を、「ロングGOP方式」と称する。
【0021】
ビデオデータについては、一例として、上述のシングルGOP方式におけるビットレートモード30Mbps(Mega bit per second)、40Mbpsおよび50Mbpsのビデオデータが1枚のディスクに混在可能とされ、ロングGOPにおけるビットレートモード25Mbpsのビデオデータがさらに1枚のディスクに混在可能とされる。シングルGOPやロングGOPで、さらに他のビットレートモードを混在させてもよい。
【0022】
なお、ビットレートモードは、ビットレートモードで示されるビットレート値を最大値とするようにビデオデータを圧縮符号するモードである。例えば、ビットレートモード50Mbpsのビデオデータは、実際には、画像の複雑さなどに応じて、50Mbps以下のビットレートのデータを伝送データ中に含む。ビットレートモードで示されるビットレートに満たないデータ量のフレームに対し、ビットレートモードで示されるビットレートとのデータ量の差分を、所定のパディングデータで埋めることで、見かけのビットレートをビットレートモードで示されるビットレートとすることができる。
【0023】
また、ビデオデータに関して、走査方式はインタレース方式およびプログレッシブ方式のデータを1枚のディスクに混在可能とされ、それぞれの方式において複数のフレームレートのデータを1枚のディスクに混在可能とされる。画面サイズでは、アスペクト比が4:3および16:9のそれぞれのデータを1枚のディスクに混在して記録可能とされ、例えばアスペクト比が4:3であれば、標準的(SD:Standard Definision)な640画素×480ラインおよびより高精細(HD:High Definision)な1440画素×1088ラインのデータを1枚のディスクに混在可能である。アスペクト比が16:9の場合にも、複数種類の画像サイズのデータを同様に1枚のディスクに混在可能である。
【0024】
さらに、カラープロファイルも、上述の4:2:2に限らず、4:2:0など、他のフォーマットが混在可能である。
【0025】
オーディオデータについては、リニアPCM(Pulse Code Modulation)で符号化されたオーディオデータ(以下、リニアPCMオーディオデータと略称する)およびリニアPCM以外の符号化方式で符号化されたオーディオデータ(例えば、リニアPCMオーディオデータをさらに圧縮符号化したオーディオデータ)を1枚のディスクに混在可能である。オーディオデータは、例えば16ビットおよび24ビットといった複数種類のビット解像度に対応し、4chや8chなど、複数のチャンネル組み合わせを1枚のディスクに混在可能とされる。
【0026】
この発明の実施の一形態においては、上述の本線系、すなわち、実際の放送や編集の対象とされるAVデータの他に、さらに、本線系のAVデータに対応した補助AVデータおよびメタデータが同一のディスク上に記録される。
【0027】
補助AVデータは、本線系のAVデータに基づくより低ビットレートとしたオーディオ/ビデオデータである。この補助AVデータは、本線系のAVデータを、ビットレートを例えば数Mbpsまで落とすように圧縮符号化して生成する。補助AVデータを生成するための符号化方式は、MPEG4を初めとして複数種類が存在するが、この発明の実施の一形態では、異なる複数の符号化方式で符号化された補助AVデータを1枚のディスクに混在可能である。また、同一の符号化方式であって、異なる符号化パラメータを用いて符号化された補助AVデータも、1枚のディスクに混在可能である。
【0028】
メタデータは、あるデータに関する上位データであり、各種データの内容を表すためのインデックスとして機能する。メタデータには、上述の本線系のAVデータの時系列に沿って発生される時系列メタデータと、本線系のAVデータにおけるシーン毎など、所定の区間に対して発生される非時系列メタデータの2種類がある。
【0029】
時系列メタデータは、例えばタイムコード、UMID(Unique Material Identifier)、エッセンスマークが必須データとされる。さらに、撮影時におけるビデオカメラのアイリスやズーム情報といったカメラメタ情報を、時系列メタデータに含めることもできる。さらにまた、ARIB(Association of Radio Industries and Businesses)に規定される情報を時系列メタデータに含めることもできる。なお、ARIBに基づくデータおよびカメラメタ情報は、データサイズが比較的大きいので、排他的に混在させることが好ましい。カメラメタ情報およびARIBは、時間解像度を落として時分割多重で時系列メタデータに含ませることもできる。
【0030】
非時系列メタデータとしては、タイムコードやUMIDの変化点情報、エッセンスマークに関する情報、ユーザビットなどが含まれる。
【0031】
UMIDについて、概略的に説明する。UMIDは、ビデオデータ、オーディオデータおよびその他の素材データを識別するために唯一的に決定される、SMPTE−330Mにより規格化された識別子である。
【0032】
図1は、UMIDのデータ構造を示す。UMIDは、素材データを識別するためのID情報としてのベーシックUMIDと、素材データ内の各コンテンツを識別するためのシグネイチャメタデータとから構成される。ベーシックUMIDおよびシグネイチャメタデータは、それぞれ32バイトのデータ長からなるデータ領域を有する。ベーシックUMIDにシグネイチャメタデータが付加された64バイトのデータ長を有する領域を、拡張UMIDと称する。
【0033】
ベーシックUMIDは、12バイトのデータ長を有する領域Universal Labelと、1バイトのデータ長を有する領域Length Valueと、3バイトのデータ長を有する領域Instance Numberと、16バイトのデータ長を有する領域Material Numberとから構成される。
【0034】
領域Universal Labelは、直後から続くデータ列がUMIDであることを識別するための符号が格納される。領域Length Valueは、UMIDの長さが示される。ベーシックUMIDと拡張UMIDとでは符号の長さが異なるため、領域Lengthにおいて、ベーシックUMIDは値〔13h〕で示され、拡張UMIDは値〔33h〕で示される。なお、この括弧〔〕内の表記において、数字の後の「h」は、数字が16進表記であることを示す。領域Instance Numberは、素材データに上書き処理や編集処理が施されたか否かが示される。
【0035】
領域Material Numberは、4バイトのデータ長を有する領域Time Snapと、8バイトのデータ長を有する領域Rndと、4バイトのデータ長を有する領域Machine nodeの3つの領域からなる。領域Time Snapは、1日のスナップクロックサンプル数を示す。これにより、クロック単位で素材データの作成時刻などが示される。領域Rndは、正確でない時刻をセットしたときや、例えばIEEE(Institute Electrical and Erectronic Engineers)で定義された機器のネットワークアドレスが変化したときに、番号が重複して付されないようにするためのランダムナンバである。
【0036】
シグネイチャメタデータは、8バイトのデータ長を有する領域Time.Dateと、12バイトのデータ長を有する領域Spatial Co−ordinatedと、それぞれ4バイトのデータ長を有する領域Country、領域Organizationおよび領域Userとから構成される。
【0037】
領域Time/Dateは、素材が生成された時間と日付とが示される。領域Spatial Co−ordinatedは、素材が生成された時間に関する補正情報(時差情報)や、緯度、経度および高度で表される位置情報とが示される。位置情報は、例えばビデオカメラにGPS(Global Positioning System)に対応する機能を設けることで取得可能である。領域Country、領域Organizationおよび領域Userは、省略されたアルファベットの文字や記号などを用いて、それぞれ国名、組織名およびユーザ名が示される。
【0038】
なお、UMIDは、上述したように拡張UMIDを用いる場合、データ長が64バイトとなり、時系列的に順次記録するためには、容量が比較的大きい。そのため、時系列メタデータに対してUMIDを埋め込む際には、UMIDを所定の方式で圧縮することが好ましい。
【0039】
UMIDは、この発明の実施の一形態の用途に用いる限りは、先頭から10バイト乃至13バイトが固定的な値とされる。そのため、この発明の実施の一形態においては、UMIDの先頭から10バイト乃至先頭から13バイトは、省略することができる。また、UMIDを時系列メタデータに格納する際に、所定の方式でエンコードすることができる。この場合、エンコード方式としてBase64を用いると、エンコード結果がアスキーコードとなり、例えばXML文書に埋め込むのが容易となり好ましい。さらに、差分だけを用いることも考えられる。例えば、同一ディレクトリ内に同一時刻に発生されるデータには、一部が共通とされたUMIDが付与される。これを利用してUMIDの差分だけを用いることで、データ量を減らすことができる。
【0040】
エッセンスマークについて概略的に説明する。エッセンスマークは、撮影時において例えばビデオデータに構成される映像シーン(またはカット)である映像シーンデータに関連するインデックスを表す。エッセンスマークを用いることで、撮影後に、どのようなシーンであるかが映像シーンデータの再生処理をしなくても把握することができる。
【0041】
この発明の実施の一形態においては、エッセンスマークは、予め予約語として定義される。そのため、例えば撮像装置、再生装置および編集装置のインターフェイス間で、エッセンスマークを相手装置に応じて変換することなく、共通した制御を行うことが可能とされる。
【0042】
図2は、エッセンスマークを定義するために用いられる予約語の例を示す。なお、この図2の例は一例であって、さらに他のエッセンスマークを追加定義することも可能である。”_RecStart”は、記録の開始位置を示す撮影開始マークである。”_RecEnd”は、記録の終了位置を示す撮影終了マークである。”_ShotMark1”および”_ShotMark2”は、注目すべき時点などの任意の位置を示すショットマークである。”_Cut”は、カット位置を示すカットマークである。”_Flash”は、フラッシュが発光された位置を検出したフラッシュ検出位置を示すフラッシュマークである。”_FilterChange”は、撮像装置においてレンズフィルタを変更した位置を示すフィルタ変更マークである。”_ShutterSpeedChange”は、撮像装置においてシャッタ速度を変更した位置を示すシャッタ速度変更マークである。”_GainChange”は、フィルタなどのゲインを変更した位置を示すゲイン変更マークである。”_WhiteBalanceChange”は、ホワイトバランスを変更した位置を示すホワイトバランス変更マークである。”_OverBrightness”は、ビデオ信号の出力レベルが限界値を超えた位置を示すマークである。”_OverAudioLimiter”は、オーディオ信号の出力レベルが限界値を超えた位置を示す大音量マークである。上述までの各マークは、例えばビデオデータのフレーム単位で記録される。
【0043】
”_In−XXX”は、カットまたは素材の切り出し開始位置を示す編集開始マークである。”_Out−XXX”は、カットまたは素材の切り出し終了位置を示す編集終了マークである。編集開始マークおよび編集終了マークは、編集開始点(IN点)や編集終了点(OUT点)が追加される毎に、数字やアルファベットなどが”XXX”の部分にシーケンシャルにナンバリングされる。例えば、”_In−001”、”_In−002”、・・・のようになる。
【0044】
上述のように定義されたエッセンスマークを、粗編集処理時にインデックス情報として用いることで、目的とする映像シーンを効率的に選択することが可能とされる。
【0045】
図3は、エッセンスマークの一例のデータ構造を示す。エッセンスマークは、図2を用いて説明したように、映像シーンの特徴などがテキストデータにより表され、映像コンテンツデータ(本線系のAVデータ)と関連付けられたメタデータである。エッセンスマークは、KLV(Key Length Value)符号化されて記録や伝送がなされる。図3は、このKLV符号化されたエッセンスマークのフォーマットを示す。このフォーマットは、SMPTE 335M/RP210Aのメタデータ辞書に準拠したものである。
【0046】
KLV符号化されたエッセンスマークは、16バイトのデータ長を有する「Key」部と、1バイトのデータ長を有する「L(length)」部と、最大32バイトのデータ長を有する「Value」部とからなる。「Key」部は、SMPTE 335M/RP210Aに準拠した、KLV符号化されたデータ項目を示す識別子であり、この例では、エッセンスマークであることを示す値とされる。「L」部は、「L」部以降に続くデータ長をバイト単位で表す。最大で32バイトのデータ長が表現される。「Value」部は、エッセンスマークが格納されるテキストデータからなる領域である。
【0047】
次に、この発明の実施の一形態によるディスク上へのデータ配置について説明する。この発明の実施の一形態では、ディスク上に年輪を形成するようにしてデータを記録する。年輪データは、データの再生時間によって示されるデータ量を単位としてディスクに記録されるデータである。例えば本線系のオーディオデータおよびビデオデータに限定して説明すると、再生時間帯が対応するオーディオデータおよびビデオデータを、トラックの1周分以上のデータサイズを有する所定の再生時間単位毎に交互に配置して記録する。このように記録を行うことで、再生時間帯が対応するオーディオデータおよびビデオデータの組が時系列的に重層されて、年輪が形成される。
【0048】
この実施の一形態では、実際には、再生時間帯が対応するオーディオデータおよびビデオデータに加え、これらのデータに再生時間帯が対応する補助AVデータおよび時系列メタデータを一組として記録することで年輪を形成し、光ディスク1に対するデータの記録を行う。
【0049】
なお、年輪を形成するデータを年輪データと称する。年輪データは、ディスクにおける最小の記録単位であるセクタの整数倍のデータ量とされる。また、年輪は、その境界がディスクのセクタの境界と一致するように記録される。
【0050】
図4は、光ディスク1に対して年輪データが形成された一例の様子を示す。この図4の例では、光ディスク1の内周側から順に、オーディオ年輪データ#1、ビデオ年輪データ#1、オーディオ年輪データ#2、ビデオ年輪データ#2、補助AV年輪データ#1および時系列メタ年輪データ#1が記録されており、この周期で年輪データが扱われる。時系列メタ年輪データ#1の外周側には、さらに、次の周期の年輪データの一部がオーディオ年輪データ#3およびビデオ年輪データ#3として示されている。
【0051】
この図4の例は、時系列メタ年輪データの1年輪データ分の再生時間帯と補助AV年輪データの1年輪データ分の再生時間帯とが対応し、時系列メタ年輪データの1年輪データ分の再生時間帯とオーディオ年輪データの2周期分の再生時間帯が対応することを示している。同様に、時系列メタ年輪データの1年輪データ分の再生時間帯とビデオ年輪データの2周期分の再生時間帯が対応することを示している。このような、各年輪データの再生時間帯および周期の対応付けは、例えばそれぞれのデータレートなどに基づき設定される。なお、ビデオ年輪データやオーディオ年輪データの1年輪データ分の再生時間は、経験値的には1.5秒〜2秒程度が好ましい。
【0052】
図5は、上述の図4のように年輪が形成された光ディスク1に対するデータの読み書きが行われる一例の様子を示す。光ディスク1に十分な大きさの連続した空き領域が存在し、その空き領域に欠陥が無い場合、オーディオデータ、ビデオデータ、補助AVデータ時系列メタデータの各データ系列から、再生時間帯に基づきそれぞれ生成されたオーディオ年輪データ、ビデオ年輪データ、補助AV年輪データおよび時系列メタ年輪データは、図5Aに一例が示されるように、光ディスク1の空き領域に対して、恰も一筆書きをするように書き込まれる。このとき、何れのデータの境界も、光ディスク1のセクタの境界と一致するように書き込まれる。光ディスク1からのデータの読み出しも、書き込み時と同様にして行われる。
【0053】
一方、光ディスク1からある特定のデータ系列を読み出す場合には、読み出しデータ系列の記録位置にシークしてそのデータを読み出すという動作が繰り返される。図5Bは、このようにして補助AVデータの系列を選択的に読み出す様子を示す。例えば図4も参照し、補助AV年輪データ#1が読み出されたら、続いて記録されている時系列メタ年輪データ#1、オーディオ年輪データ#3およびビデオ年輪データ#3、ならびに、オーディオ年輪データ#4およびビデオ年輪データ#4(図示しない)をシークにより飛び越し、次の周期の補助AV年輪データ#2が読み出される。
【0054】
このように、データの光ディスク1への記録を、再生時間を単位とし、再生時間帯に応じた年輪データとして周期的に行うことで、同じような再生時間帯のオーディオ年輪データとビデオ年輪データとが光ディスク1上の近い位置に配置されるので、光ディスク1から、再生時刻が対応するのオーディオデータとビデオデータとを迅速に読み出して再生することが可能となる。また、年輪の境界とセクタの境界とが一致するように記録されるので、光ディスク1からオーディオデータまたはビデオデータだけを読み出すことが可能となり、オーディオデータまたはビデオデータだけの編集を迅速に行うことが可能となる。また、上述したように、オーディオ年輪データ、ビデオ年輪データ、補助AV年輪データおよび時系列メタ年輪データは、光ディスク1のセクタの整数倍のデータ量を有し、さらに、年輪データの境界とセクタの境界とが一致するように記録されている。そのため、オーディオ年輪データ、ビデオ年輪データ、補助AV年輪データおよび時系列メタ年輪データのうち何れか1系列のデータだけが必要な場合に、他のデータの読み出しを行うことなく、必要なデータだけを読み出すことができる。
【0055】
上述したような、年輪によるデータ配置の利便性を活かすためには、光ディスク1に対するデータの記録を、年輪の連続性が保証されるように行う必要がある。このことについて、図6を用いて説明する。例えば補助AV年輪データ(図6では「LR」と表示)だけ読み出すことを考える。
【0056】
例えば記録時に連続した十分に大きな空き領域が確保されていれば、複数周期の年輪を連続的に記録することができる。この場合、図6Aに示されるように、時間的に連続する補助AV年輪データを、最小のトラックジャンプで読み出すことができる。すなわち、補助AV年輪データを読み出したら、次の周期の年輪における補助AV年輪データを読み出すという動作を繰り返すことが可能となり、ピックアップがジャンプする距離が最短となる。
【0057】
これに対して、例えば記録時に連続した空き領域が確保できず、時間的に連続する補助AVデータを光ディスク1上の飛び飛びの領域に記録した場合、図6Bに一例が示されるように、最初の補助AV年輪データを読み出したら、例えば年輪の複数周期分に相当する距離をピックアップがジャンプして、次の補助AV年輪データを読み出さなければならない。この動作が繰り返されるため、図6Aに示される場合に比べて、補助AV年輪データの読み出し速度が低下してしまう。また、本線系のAVデータにおいては、図6Cに一例が示されるように、未編集AVデータ(AVクリップ)の再生が滞る可能性がある。
【0058】
そこで、この発明の実施の一形態では、年輪の連続性を保証するために、年輪の複数周期分の長さを持つアロケーションユニットを定義し、年輪でデータを記録する際に、このアロケーションユニットで定義されたアロケーションユニット長を越える長さの、連続した空き領域を確保する。
【0059】
図7を用いてより具体的に説明する。アロケーションユニット長は、予め設定される。アロケーションユニット長を、年輪で1周期に記録される各データの合計再生時間の複数倍に設定する。例えば、年輪の1周期に対応する再生時間が2秒であるとした場合、アロケーションユニット長を10秒に設定する。このアロケーションユニット長は、光ディスク1の空き領域の長さを計測する物差しとして用いられる(図7右上参照)。初期状態を、図7Aに一例が示されるように、使用済み領域が光ディスク1に対して飛び飛びに3箇所、配置されているものとし、使用済み領域に挟まれた部分を空き領域とする。
【0060】
この光ディスク1に対してある程度の長さを有するAVデータと、当該AVデータに対応する補助AVデータとを記録する場合、先ず、アロケーションユニット長と空き領域の長さとを比較して、アロケーションユニット長以上の長さを有する空き領域を予約領域として確保する(図7B)。この図7の例では、2つの空き領域のうち、右側の空き領域がアロケーションユニット長より長いとされ、予約領域として確保される。次に、この予約領域に対して、予約領域の先頭から年輪データを順次連続的に記録する(図7C)。このように年輪データを記録していき、予約領域の空き領域の長さが次に記録する年輪データの1周期分の長さに満たないときは(図7D)、予約領域を開放し、図7Aのように、光ディスク1上のさらに他の空き領域に対してアロケーションユニット長を適用させながら、予約領域にできる空き領域を探す。
【0061】
このように、複数周期分の年輪が記録できるだけの空き領域を探して、当該空き領域に年輪を記録することで、ある程度の年輪の連続性が保証され、年輪データの再生をスムースに行うことが可能とされる。なお、アロケーションユニット長は、上述では10秒に設定したが、これはこの例に限定されず、さらに長い再生時間に対応する長さをアロケーションユニット長として設定することができる。実際的には、10秒〜30秒の間でアロケーションユニット長を設定すると好ましい。
【0062】
次に、この発明の実施の一形態におけるデータの管理構造について、図8、図9および図10を用いて説明する。この発明の実施の一形態では、データは、ディレクトリ構造で管理される。ファイルシステムとしては例えばUDF(Universal Disk Format)が用いられ、図8に一例が示されるように、ルートディレクトリ(root)の直下にディレクトリPAVが設けられる。この実施の一形態では、このディレクトリPAV以下を定義する。
【0063】
すなわち、上述した、複数信号種のオーディオデータおよびビデオデータの1枚のディスク上への混在記録は、このディレクトリPAVの配下において定義される。この発明の実施の一形態におけるデータ管理が及ばないディレクトリPAVに対するデータの記録は、任意である。
【0064】
ディレクトリPAVの直下には、4つのファイル(INDEX.XML、INDEX.RSV、DISCINFO.XMLおよびDISCINFO.RSV)が置かれると共に、2つのディレクトリ(CLPRおよびEDTR)が設けられる。
【0065】
ディレクトリCLPRは、クリップデータを管理する。ここでいうクリップは、例えば撮影が開始されてから停止されるまでの、ひとまとまりのデータである。例えば、ビデオカメラの操作において、操作開始ボタンが押されてから操作停止ボタンが押される(操作開始ボタンが解放される)までが1つのクリップとされる。
【0066】
このひとまとまりのデータとは、上述した本線系のオーディオデータおよびビデオデータと、当該オーディオデータおよびビデオデータから生成された補助AVデータと、当該オーディオデータおよびビデオデータに対応した時系列メタデータと非時系列メタデータとからなる。ディレクトリCLPRの直下に設けられたディレクトリ「C0001」、「C0002」、・・・には、クリップ毎に、クリップを構成するひとまとまりのデータが格納される。
【0067】
図9は、ディレクトリCLPRの直下に設けられた、一つのクリップ「C0001」に対応するディレクトリ「C0001」の一例の構造を示す。以下、ディレクトリCLPRの直下の一つのクリップに対応するディレクトリを、適宜、クリップディレクトリと称する。クリップディレクトリ「C0001」に対して、上述のひとまとまりのデータのそれぞれがファイル名により区別されて格納される。この図9の例では、ファイル名は、12桁で構成され、デリミタ「.」より前の8桁のうち、前側5桁がクリップを識別するために用いられ、デリミタ直前の3桁は、オーディオデータ、ビデオデータ、補助AVデータといった、データのタイプを示すために用いられている。また、デリミタ後の3桁は拡張子であって、データの形式を示している。
【0068】
より具体的には、この図9の例では、クリップ「C0001」を構成するひとまとまりのファイルとして、クリップ情報を示すファイル「C0001C01.SMI」、本線系ビデオデータファイル「C0001V01.MXF」、本線系の8ch分のオーディオデータファイル「C0001A01.MXF」〜「C0001A08.MXF」、補助AVデータファイル「C0001S01.MXF」、非時系列メタデータファイル「C0001M01.XML」、時系列メタデータファイル「C0001R01.BIM」およびポインタ情報ファイル「C0001I01.PPF」が、クリップディレクトリ「C0001」に格納される。
【0069】
この発明の実施の一形態では、ディレクトリCLPR内におけるクリップディレクトリ間での上述のデータ信号種の混在は、許可される。例えば、本線系のビデオデータの信号種について、クリップディレクトリ「C0001」にシングルGOP、ビットレート50Mbpsのビデオデータを格納し、クリップディレクトリ「C0002」にロングGOP、ビットレート25Mbpsのビデオデータを格納することは可能である。一方、クリップディレクトリ内における各データ内でのデータ信号種の混在は、許可されない。例えば、ビデオデータにおいて、先頭からある時点まではビットレートモード50Mbpsで記録されており、その時点以降から末尾まではビットレートモード25Mbpsで記録されたようなビデオデータファイルは、格納できないものとされる。
【0070】
説明は図8に戻り、ディレクトリEDTRは、編集情報が管理される。この発明の実施の一形態では、編集結果は、エディットリストやプレイリストとして記録される。ディレクトリEDTRの直下に設けられたディレクトリ「E0001」、「E0002」、・・・には、編集結果毎に、編集結果を構成するひとまとまりのデータが格納される。
【0071】
エディットリストは、クリップに対する編集点(IN点、OUT点など)や再生順序などが記述されるリストであって、クリップに対する非破壊の編集結果と、後述するプレイリストとからなる。エディットリストの非破壊の編集結果を再生すると、リストの記述に従いクリップディレクトリに格納されたファイルを参照し、恰も編集された1本のストリームを再生するかのように、複数のクリップからの連続した再生映像が得られる。しかしながら、非破壊編集の結果では、ファイルの光ディスク1上での位置とは無関係にリスト中のファイルが参照されるため、再生時の連続性が保証されない。
【0072】
プレイリストは、編集結果に基づき、リストにより参照されるファイルやファイルの部分が連続的に再生するのが困難であると判断された場合に、当該ファイルやファイルの一部を光ディスク1上の所定の領域に再配置することで、エディットリストの再生時の連続性を保証するようにしたものである。
【0073】
編集作業により上述のエディットリストを作成した結果に基づき、編集に用いられるファイルの管理情報(例えば後述するインデックスファイル「INDEX.XML」)を参照し、編集作業に基づき非破壊で、すなわち、編集結果に基づき参照されるファイルが各クリップディレクトリに置かれたままの状態で、連続的な再生が可能か否かを、見積もる。その結果、連続的な再生が困難であると判断されると、該当するファイルを光ディスク1の所定領域にコピーする。この所定領域に再配置されたファイルを、ブリッジエッセンスファイルと称する。また、編集結果にブリッジエッセンスファイルを反映させたリストを、プレイリストと称する。
【0074】
例えば、編集結果が複雑なクリップの参照を行うようにされている場合、編集結果に基づく再生の際に、クリップからクリップへの移行の際にピックアップのシークが間に合わない事態が発生する可能性がある。このような場合に、プレイリストが作成され、ブリッジエッセンスファイルが光ディスク1の所定領域に記録される。
【0075】
図10は、ディレクトリEDTRの直下に設けられた、一つの編集結果「E0002」に対応するディレクトリ「E0002」の一例の構造を示す。以下、ディレクトリEDTRの直下の一つの編集結果に対応するディレクトリを、適宜、エディットディレクトリと称する。エディットディレクトリ「E0002」に対して、上述の編集結果により生成されたデータがそれぞれファイル名により区別されて格納される。ファイル名は、12桁で構成され、デリミタ「.」より前の8桁のうち、前側5桁がエディット作業を識別するために用いられ、デリミタ直前の3桁は、データのタイプを示すために用いられる。また、デリミタ後の3桁は拡張子であって、データの形式を示している。
【0076】
より具体的には、この図10の例では、編集結果「E0002」を構成するファイルとして、エディットリストファイル「E0002E01.SMI」時系列および非時系列メタデータの情報が記述されるファイル「E0002M01.XML」、プレイリストファイル「E0002P01.SMI」、本線系データによるブリッジエッセンスファイル「E0002V01.BMX」および「E0002A01.BMX」〜「E0002A04.BMX」、補助AVデータによるブリッジエッセンスファイル「E0002S01.BMX」および時系列、非時系列メタデータによるブリッジエッセンスファイル「E0002R01.BMX」が、エディットディレクトリ「E0002」に格納される。
【0077】
エディットディレクトリ「E0002」に格納されるこれらのファイルのうち影を付して示したファイル、すなわち本線系データによるブリッジエッセンスファイル「E0002V01.BMX」および「E0002A01.BMX」〜「E0002A04.BMX」、補助AVデータによるブリッジエッセンスファイル「E0002S01.BMX」および時系列、非時系列メタデータによるブリッジエッセンスファイル「E0002R01.BMX」は、プレイリストに属するファイルである。
【0078】
なお、上述したように、エディットリストによりクリップディレクトリに格納された例えばビデオデータが参照される。クリップディレクトリ間では、異なるデータ信号種の混在が可能なので、結果的に、エディットリスト上では、異なるデータ信号種の混在が可能とされる。
【0079】
説明は図8に戻り、ファイル「INDEX.XML」は、ディレクトリPAV以下に格納された素材情報を管理するインデックスファイルである。この例では、ファイル「INDEX.XML」は、XML(Extensible Markup Language)形式で記述される。このファイル「INDEX.XML」により、上述した各クリップおよびエディットリストが管理される。例えば、ファイル名とUMIDの変換テーブル、長さ情報(Duration)、当該光ディスク1全体を再生する際の各素材の再生順などが管理される。また、各クリップに属するビデオデータ、オーディオデータ、補助AVデータなどが管理されると共に、クリップディレクトリ内にファイルで管理されるクリップ情報が管理される。
【0080】
ファイル「DISCINFO.XML」は、このディスクに関する情報が管理される。再生位置情報なども、このファイル「DISCINFO.XML」に保存される。
【0081】
この発明の実施の一形態では、撮影が開始されてから停止されるまでの間に、クリップを構成するひとまとまりのデータにおいて所定の変化が検出された場合には、その変化検出位置に対応する位置でクリップが分割され、分割位置以降を新規のクリップとする。この新規のクリップに対応する新規のディレクトリがディレクトリCLPRに対して自動的に作成され、作成されたディレクトリに当該新規クリップを構成するひとまとまりのデータが格納される。
【0082】
クリップ分割は、少なくとも、クリップを構成するビデオデータおよびオーディオデータのうち何れか一方において、信号種(フォーマット)の変化が検出された場合になされる。分割の条件としては、より具体的には、以下の例が考えられる。先ず、ビデオデータに関しては、
(1)ビットレートの変化
(2)フレームレートの変化
(3)画像サイズの変化
(4)画像のアスペクト比の変化
(5)符号化方式の変化
オーディオデータに関しては、
(1)ビット解像度の変化
(2)サンプリング周波数の変化
(3)入力チャンネル数の変化
(4)符号化方式の変化
【0083】
これらのうち、何れか一つに変化が検出された場合に、変化が検出されたタイミングに対応した位置で自動的にクリップが分割される。このとき、あるデータに変化が検出された場合、そのデータと同一のクリップに属する他のデータも、同じタイミングで分割される。
【0084】
勿論、クリップ分割は、これに限らず、ビデオデータおよびオーディオデータのさらに他の属性の変化に応じて行うようにしてもよい。また、ビデオデータおよびオーディオデータに限らず、補助AVデータや時系列メタデータにおける所定の変化を検出してクリップ分割を行うようにしてもよい。
【0085】
例えば、補助AVデータについては、例えばビットレートモードや符号化方式が変更された場合に、クリップ分割するようにできる。また、時系列メタデータについては、例えば、ARIBによるメタデータとカメラデータとを排他的に記録する場合、ARIBおよびカメラデータ間でデータ種類の変更があった場合に、クリップ分割するようにできる。さらに、時系列メタデータを伝送するために当初設定されているデータレートが変更されたときに、クリップ分割することも可能である。
【0086】
さらに、本線系のビデオデータの変更に伴うクリップ分割の際に、本線系のオーディオデータおよび時系列メタデータを分割しないようにすることもできる。このようにすることで、クリップ分割によるファイルの増加を抑えることができる。なお、この場合でも、補助AVデータは、本線系のビデオデータの変更に伴い分割される。
【0087】
クリップ分割の際には、分割の境界を補助AVデータのGOPの境界に一致させると、クリップ内での時間軸とバイトオフセットとの関係が簡単になるので、処理が容易になり、好ましい。これは、例えばビデオデータやオーディオデータに上述した変化が検出された際に、図11Aに一例が示されるように、補助AVデータの次のGOP境界までクリップ分割を待つか(分割位置B)、前のGOP境界に遡ってクリップ分割を行うことでなされる(分割位置A)。実際には、分割位置Bでクリップ分割をするのが好ましい。
【0088】
これに限らず、クリップ分割の際の分割の境界が補助AVデータのGOP境界に一致しない場合に、補助AVデータのGOPの余った部分をスタッフィングバイトで埋め、補助AVデータと本線系のビデオデータなど他のデータに対してデータ量を揃えることも考えられる。すなわち、図11Bに一例が示されるように、補助AVデータにおいて、例えばビデオデータに変化が検出された位置の直前のGOPを当該クリップの最後のGOPとし、その最後のGOPの後端の境界から変化検出位置まで(図11B中に斜線で表示)をスタッフィングバイトで埋める。
【0089】
なお、本線系のビデオデータがシングルGOPであれば、任意のフレーム位置でクリップ分割を行うことができる。これに対して、本線系のビデオデータがロングGOPである場合には、クリップ分割位置のフレームが予測符号化によるPピクチャあるいはBピクチャによるフレームである可能性がある。そこで、ロングGOPのビデオデータに対してクリップ分割を行う場合には、クリップ分割位置で一旦GOPを完結させるようにする。これは、例えば、分割位置直前のフレームがBピクチャであれば当該フレームをPピクチャあるいはIピクチャに変換することで可能である。
【0090】
クリップ分割の際に、分割の元クリップと分割によって新規に生成されるクリップとに重複部分を持たせるようにしてもよい。例えば、分割の元クリップおよび/または新規クリップにおいて、信号種の変化点を時間的に含むように、変化のタイミングに対して時間的な余裕を持ってクリップ分割が行われる。
【0091】
一例として、本線系のビデオデータにおいて、当初のビットレート50Mbpsが30Mbpsに切り換えられる場合について、図12を用いて説明する。図12に示されるように、ビットレートが50Mbpsのビデオデータにおいては、ビットレートの切り換えが指示された位置からさらに所定の時間だけ余分(図中の斜線の部分)に、ビットレートが50Mbpsのままで記録がなされる。一方、ビットレートが30Mbpsのビデオデータは、ビットレートの切り換えが指示された位置よりも所定時間前(図中の斜線の部分)から、ビットレートが30Mbpsでの記録がなされる。
【0092】
ビットレート切り換え点がクリップ分割位置となるため、例えばクリップの開始位置を指定するためのコマンドである”clip Begin”を用いて、実際のファイルの先頭位置に対するクリップの開始位置を調整する必要がある。
【0093】
このような記録は、一例として、圧縮符号化以前のベースバンドのビデオデータにおいて、図12の斜線の部分をそれぞれバッファリングしておき、対応するビットレートでそれぞれ圧縮符号化する。そして、例えば50Mbpsのビデオデータの例では、ビットレート切り換え点以前のビデオデータによるファイルに対して、斜線部分のファイルを継ぎ足すことで可能である。これは、実際にファイルを継ぎ足さずとも、上述したエディットリストへの記述や、クリップディレクトリ内のクリップ情報を示すファイル「C0001C01.SMI」にその旨を記述するようにしてもよい。
【0094】
なお、クリップディレクトリ名およびクリップディレクトリ内の各ファイルのファイル名の命名規則は、上述の例に限定されない。例えば、ファイル名やクリップディレクトリ名として、上述したUMIDを利用することが考えられる。UMIDは、上述したように、拡張UMIDまで考えるとデータ長が64バイトとなり、ファイル名などに用いるには長いため、一部分だけを用いるのが好ましい。例えば、UMID中で、クリップ毎に異なる値が得られるような部分がファイル名などに用いられる。
【0095】
また、クリップが分割された場合には、クリップディレクトリ名やファイル名を、クリップの分割理由を反映させるように命名すると、クリップの管理上、好ましい。この場合、少なくとも、クリップの分割がユーザにより明示的になされたものか、装置側の自動処理によるものかを判別可能なように、命名する。
【0096】
図13は、この発明の実施の一形態に適用可能なディスク記録再生装置10の一例の構成を示す。ここでは、ディスク記録再生装置10は、ビデオカメラ(図示しない)に内蔵される記録再生部であるものとし、ビデオカメラにより撮像された撮像信号に基づくビデオ信号と、撮像に伴い録音されたオーディオ信号とが信号処理部31に入力され、ディスク記録再生装置10に供給される。また、信号入出力部31から出力されたビデオ信号およびオーディオ信号は、例えばモニタ装置に供給される。
【0097】
勿論、これは一例であって、ディスク記録再生装置10は、独立的に用いられる装置であるとしてもよい。例えば、記録部を有さないビデオカメラと組み合わせて用いることができる。ビデオカメラから出力されたビデオ信号およびオーディオ信号や、所定の制御信号、データが信号入出力部31を介してディスク記録再生装置10に入力される。また例えば、他の記録再生装置で再生されたビデオ信号およびオーディオ信号を、信号入出力部31に入力するようにできる。また、信号入出力部31に入力されるオーディオ信号は、ビデオ信号の撮像に伴い入力されるものに限定されず、例えば撮像後に、ビデオ信号の所望の区間にオーディオ信号を記録する、アフレコ(アフターレコーディング)のためのアフレコオーディオ信号でもよい。
【0098】
スピンドルモータ12は、サーボ制御部15からのスピンドルモータ駆動信号に基づいて、光ディスク1をCLV(Constant Linear Velocity)またはCAV(Constant Angler Velocity)で回転駆動する。
【0099】
ピックアップ部13は、信号処理部16から供給される記録信号に基づきレーザ光の出力を制御して、光ディスク1に記録信号を記録する。ピックアップ部13はまた、光ディスク1にレーザ光を集光して照射すると共に、光ディスク1からの反射光を光電変換して電流信号を生成し、RF(Radio Frequency)アンプ14に供給する。なお、レーザ光の照射位置は、サーボ制御部15からピックアップ部13に供給されるサーボ信号により所定の位置に制御される。
【0100】
RFアンプ14は、ピックアップ部13からの電流信号に基づいて、フォーカス誤差信号およびトラッキング誤差信号、ならびに、再生信号を生成し、トラッキング誤差信号およびフォーカス誤差信号をサーボ制御部15に供給し、再生信号を信号処理部16に供給する。
【0101】
サーボ制御部15は、フォーカスサーブフォUSAやトラッキングサーボ動作の制御を行う。具体的には、サーボ制御部15は、RFアンプ14からのフォーカス誤差信号とトラッキング誤差信号に基づいてフォーカスサーボ信号とトラッキングサーボ信号をそれぞれ生成し、ピックアップ部13のアクチュエータ(図示しない)に供給する。またサーボ制御部15は、スピンドルモータ12を駆動するスピンドルモータ駆動信号を生成して、光ディスク1を所定の回転速度で回転させるスピンドルサーボ動作の制御を行う。
【0102】
さらにサーボ制御部15は、ピックアップ部13を光ディスク1の径方向に移動させてレーザ光の照射位置を変えるスレッド制御を行う。なお、光ディスク1の信号読み出し位置の設定は、制御部20によって行われ、設定された読み出し位置から信号を読み出すことができるように、ピックアップ部13の位置が制御される。
【0103】
信号処理部16は、メモリコントローラ17から入力される記録データを変調して記録信号を生成し、ピックアップ部13に供給する。信号処理部16はまた、RFアンプ14からの再生信号を復調して再生データを生成し、メモリコントローラ17に供給する。
【0104】
メモリコントローラ17は、データ変換部19からの記録データを、後述するように、適宜、メモリ18に記憶すると共に、それを読み出し、信号処理部16に供給する。メモリコントローラ17はまた、信号処理部16からの再生データを、適宜、メモリ18に記憶すると共に、それを読み出し、データ変換部19に供給する。
【0105】
ビデオカメラで撮影された撮影画像に基づくビデオ信号とオーディオ信号が、信号入出力部31を介してデータ変換部19に供給される。詳細は後述するが、データ変換部19では、供給されたビデオ信号を、例えばMPEG2などの圧縮符号化方式を用い、制御部20に指示されたモードで圧縮符号化し、本線系のビデオデータを生成する。このとき、よりビットレートの低い圧縮符号化処理も行われ、補助AVデータが生成される。
【0106】
また、データ変換部19では、供給されたオーディオ信号を、制御部20に指示された方式で圧縮符号化し、本線系のオーディオデータとして出力する。オーディオ信号の場合は、圧縮符号化せずにリニアPCMオーディオデータのまま出力してもよい。
【0107】
データ変換部19で上述のようにして処理された本線系のオーディオデータおよびビデオデータ、ならびに、補助AVデータは、メモリコントローラ17に供給される。
【0108】
データ変換部19はまた、メモリコントローラ17から供給される再生データを、必要に応じて復号化し、所定のフォーマットの出力信号に変換して、信号入出力部31に供給する。
【0109】
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、これらを接続するためのバスなどからなり、このディスク記録再生装置10の全体を制御する。ROMは、CPUの起動時に読み込まれる初期プログラムや、ディスク記録再生装置10を制御するためのプログラムなどが予め記憶される。RAMは、CPUのワークメモリとして用いられる。また、制御部20により、ビデオカメラ部の制御もなされる。
【0110】
さらに、制御部20により、ROMに予め記憶されたプログラムに従い、光ディスク1にデータを記録し、記録されたデータを再生する際のファイルシステムが提供される。すなわち、このディスク記録再生装置10において、データの光ディスク1に対する記録、光ディスク1からのデータの再生は、制御部20の管理下において行われる。
【0111】
操作部21は、例えば、ユーザによって操作され、その操作に対応する操作信号を制御部20に供給する。制御部20は、操作部21からの操作信号などに基づき、サーボ制御部15、信号処理部16、メモリコントローラ17およびデータ変換部19を制御し、記録再生処理を実行させる。
【0112】
また、操作部21からの操作信号に基づき、例えば記録ビデオデータに対するビットレート、フレームレート、画像サイズ、画像アスペクト比の設定などが行われる。さらに、記録オーディオデータに対する圧縮符号化処理のON/OFFやビット解像度の設定を、操作部21から行うようにしてもよい。これらの設定に基づく制御信号がメモリコントローラ17およびデータ変換部19に供給される。
【0113】
なお、このディスク記録再生装置10には、GPSによる信号を受信するためのアンテナ22と、アンテナ22で受信されたGPS信号を解析し、緯度、経度、高度からなる位置情報を出力するGPS部23とを有する。GPS部23から出力された位置情報は、制御部20に供給される。なお、アンテナ22およびGPS部23は、ビデオカメラ部に設けてもよいし、ディスク記録再生装置10の外部に外付けされる装置としてもよい。
【0114】
図14は、データ変換部19の一例の構成を示す。光ディスク1へのデータの記録時には、信号入出力部31から入力された記録すべき信号が、デマルチプレクサ41に供給される。信号入出力部31には、ビデオカメラ部から、動画のビデオ信号、当該ビデオ信号に付随するオーディオ信号が入力されると共に、カメラの撮影情報、例えばアイリスやズームに関する情報がカメラデータとしてリアルタイムに入力される。
【0115】
デマルチプレクサ41は、信号入出力部31から供給される信号から、関連する複数のデータ系列、すなわち、例えば、動画のビデオ信号と、そのビデオ信号に付随するオーディオ信号とを分離し、データ量検出部42に供給する。さらに、デマルチプレクサ41は、信号入出力部31から供給される信号からカメラデータを分離して出力する。このカメラデータは、制御部20に供給される。
【0116】
データ量検出部42は、デマルチプレクサ41から供給されたビデオ信号とオーディオ信号を、そのまま、画像信号変換部43Aおよび43Bと、音声信号変換部44とにそれぞれ供給すると共に、そのビデオ信号とオーディオ信号のデータ量を検出し、メモリコントローラ17に供給する。すなわち、データ量検出部42は、デマルチプレクサ41から供給されるビデオ信号とオーディオ信号のそれぞれについて、例えば、所定の再生時間分のデータ量を検出し、メモリコントローラ17に供給する。
【0117】
画像信号変換部43Bは、データ量検出部42から供給されるビデオ信号を、制御部20からの指示に従い、例えばMPEG2方式で圧縮符号化し、その結果得られるビデオデータのデータ系列を、メモリコントローラ17に供給する。画像信号変換部43Bに対して、制御部20により、例えば圧縮符号化による発生符号量の最大ビットレートが設定される。画像信号変換部43Bは、圧縮符号化後の1フレームのデータ量を見積もり、その結果に基づき圧縮符号化処理を制御して、発生符号量が設定された最大ビットレートに収まるようにビデオデータに対する実際の圧縮符号化処理を行う。設定された最大ビットレートと、実際の圧縮符号化によるデータ量との差分は、例えば所定のパディングデータで埋められ、最大ビットレートが維持される。圧縮符号化されたビデオデータのデータ系列は、メモリコントローラ17に供給される。
【0118】
一方、画像信号変換部43Aは、データ量検出部42から供給されるビデオ信号を、制御部20からの指示に従い、例えばMPEG4方式で圧縮符号化して補助AVデータを生成する。この実施の一形態では、このとき、ビットレートが数Mbpsに固定的とされ、1枚のIピクチャおよび9枚のPピクチャの10フレームでGOPが形成される。
【0119】
また、音声信号変換部44は、データ量検出部42から供給されるオーディオ信号がリニアPCMオーディオデータでない場合、制御部20からの指示に従い、当該オーディオ信号をリニアPCMオーディオデータに変換する。これに限らず、音声信号変換部44では、オーディオ信号を、例えばMPEG方式に則った、MP3(Moving Pictures Experts Group 1 Audio Layer 3)やAAC(Advanced Audio Coding)方式などで圧縮符号化することもできる。オーディオデータの圧縮符号化方式は、これらに限定されず、他の方式でもよい。音声信号変換部44から出力されるオーディオデータのデータ系列を、メモリコントローラ17に供給する。
【0120】
なお、上述の構成は一例であって、これに限定されるものではない。例えば、信号入出力部31に対し、本線系のAVデータ、カメラデータなどがそれぞれ独立的に入力される場合には、デマルチプレクサ41を省略することができる。また、本線系のオーディオデータがリニアPCMオーディオデータである場合には、音声信号変換部44での処理を省略することもできる。
【0121】
そして、メモリコントローラ17に供給されたビデオデータとオーディオデータは、上述したようにして、光ディスク1に供給されて記録される。
【0122】
記録は、上述したように、光ディスク1上に年輪が形成されながら行われる。データ変換部19のデータ量検出部42は、例えばオーディオデータにおいて、1年輪データ分の時間の再生に必要なオーディオデータが検出されたら、その旨をメモリコントローラ17に通知する。メモリコントローラ17は、この通知を受けて、1年輪データ分の再生に必要なオーディオデータをメモリ18に記憶させたか否かの判定を行い、その判定結果を制御部20に通知する。制御部20では、この判定結果に基づき、1年輪データ分の再生時間に対応するオーディオデータをメモリ18から読み出すようにメモリコントローラ17を制御する。メモリコントローラ17により、この制御に基づきメモリ18からオーディオデータが読み出され、信号制御部16に供給されて光ディスク1上にオーディオデータが記録される。
【0123】
1年輪データ分の再生時間に対応するオーディオデータが記録されると、次は、例えばビデオデータに対して同様の処理がなされ、オーディオ年輪データの次から1年輪データ分のビデオ年輪データが記録される。補助AVデータも、同様にして、1年輪データ分の再生時間に対応するデータが順次、記録される。
【0124】
また、時系列メタデータについては、例えばカメラデータがデマルチプレクサ41から制御部20に供給されると共に、時系列メタデータのうちUMIDなどの幾つかのデータは、制御部20で生成される。カメラデータと制御部20で生成されたデータとがまとめて時系列メタデータとされ、メモリコントローラ17を介してメモリ18に記憶される。メモリコントローラ17では、上述と同様にして、1年輪データ分の再生時間に対応する時系列メタデータをメモリ18から読み出し、信号処理部16に供給する。
【0125】
なお、制御部20では、非時系列メタデータも生成される。非時系列メタデータは、当該データが属するクリップのクリップディレクトリに記録される。
【0126】
光ディスク1に対して上述のようにして記録されるデータは、図8、図9および図10を用いて既に説明したように、ファイルに格納され、ディレクトリ構造により管理される。例えば、データの光ディスク1への記録の際に、制御部20により、各ファイルのアドレス情報やディレクトリ構造におけるポインタ情報、ファイル名およびディレクトリ名情報などの管理情報が光ディスク1の所定の管理領域に記録される。また、記録されたファイル情報などがインデックスファイル「INDEX.XML」に反映される。
【0127】
一方、光ディスク1からのデータの再生時においては、上述したようにして、光ディスク1からビデオデータ、オーディオデータ、補助AVデータおよび時系列メタデータが読み出される。このとき、高ビットレートである本線系のビデオデータの再生速度で、本線系のオーディオデータ、補助AVデータ、時系列メタデータといった低ビットレートのデータも再生し、光ディスク1からのデータの再生速度を、読み出すデータによって変えないようにする。光ディスク1から読み出されたビデオデータおよび補助AVデータは、メモリコントローラ17から画像データ変換部45Bおよび45Aにそれぞれ供給される。オーディオデータは、メモリコントローラ17から音声データ変換部46に供給される。
【0128】
画像データ変換部45Aおよび45Bは、メモリコントローラ17から供給される補助AVデータおよび本線系のビデオデータのデータ系列を復号化し、その結果得られるビデオ信号を、マルチプレクサ47に供給する。また、音声データ変換部46は、メモリコントローラ17から供給されるオーディオデータのデータ系列を復号化し、その結果得られるオーディオ信号を、マルチプレクサ47に供給する。
【0129】
なお、画像データ変換部45A、45Bおよび音声データ変換部46において、供給された再生データを復号化せずに、そのままマルチプレクサ47に供給し、多重化して出力することも可能である。さらに、マルチプレクサ47を省略し、それぞれのデータを独立的に出力することも可能である。
【0130】
以上のように構成されたディスク記録再生装置10では、ユーザが操作部21を操作することにより、データの記録を指令すると、信号入出力部31から供給されるデータがデータ変換部19、メモリコントローラ17、信号処理部16およびピックアップ部13を介して光ディスク1に供給され、記録される。
【0131】
記録の際に、ユーザは、操作部21を操作することにより、本線系のビデオデータのビットレートを変更することができる。例えば、当初、ビットレートを50Mbpsに設定して記録を行い、光ディスク1の記録可能領域が少なくなったときにビットレートを30Mbpsなどの低いビットレートに変更し、録り逃しが無いようにするなどの使用法が考えられる。
【0132】
このとき、ビットレートの変更のタイミングに対応して、クリップが分割され、変更後のデータが新規のクリップとして光ディスク1に記録される。ビットレートの変更の検出は、操作部21に対してなされた操作を検出することで行ってもよいし、制御部20でビデオデータのビットレートを監視した結果に基づき行うことも可能である。例えば、メモリコントローラ17で、データ変換部19から供給された本線系のビデオデータのヘッダにおける、ビットレート情報が記述される所定のビット位置のデータを抽出して、ビットレートが変更されたことを検出することが可能である。
【0133】
ビットレートの変更が検出されると、例えば、制御部20によりメモリコントローラ17が制御され、ビットレート変更前のデータがメモリ18から掃き出されて光ディスク1に記録され、変更後のデータにより新たな年輪が形成される。
【0134】
本線系のビデオデータの変更が検出されると、他のデータ、すなわち、本線系のオーディオデータ、補助AVデータおよび時系列メタデータも同様にしてメモリコントローラ17による制御がなされ、クリップの分割が行われる。このとき、上述したように、補助AVデータのGOP境界に合わせて本線系のAVデータを分割することができる。
【0135】
また、本線系のビデオデータのビットレートが変更された場合、実際のビデオデータのビットレートを徐々に変化させていくようにすると、再生画像に不自然な変化が現れず、好ましい。
【0136】
先ず、高ビットレートから低ビットレートに変化させる場合について、図15を用いて説明する。当初、ビットレートモードが50Mbpsに設定されているものとする。記録中の操作部21に対する操作により、時刻tにおいてビットレートモードを30Mbpsに変更するように指示される。制御部20は、その指示を受けて、データ変換部19の画像信号変換部43Bに対してビットレート変更を指示する。このとき、時刻tから所定時間後の時刻tを目標として、ビットレートが徐々に低くなるように、ビットレートの変化速度に対して時定数処理がなされる。そして、時刻tが実際のビットレートの変更点とされ、この点でクリップ分割が行われる。
【0137】
またこの場合、時点tでビットレートの変更が指示されても、実際には、時点tに達するまでは、変更前のビットレートモードのビデオデータとして扱われる。例えば、ビットレートモードで指定されたビットレートによるデータ量と、実際の発生符号量との差分が所定のパディングデータで埋められる。
【0138】
低ビットレートから高ビットレートに変化させる場合は、上述の逆の処理になる。すなわち、例えば当初30Mbpsに設定されているビットレートを50Mbpsに変更するような場合、先ず、変更の指示のタイミングでビットレートモードが30Mbpsから50Mbpsに変更される。そして、制御部20からデータ変換部19の画像信号変換部43Bに対して、所定の時間をかけて徐々にビットレートを高くするように、ビットレートの変化速度に対して時定数処理がなされる。また、例えば、ビットレートモードで指定されたビットレートによるデータ量と、実際の圧縮符号化による発生符号量との差分が所定のパディングデータで埋められる。クリップ分割は、例えばビットレートモードの変更点で行われる。
【0139】
制御部20から画像信号変換部43Bに対して、所定の時間間隔で少しずつ小さい値のビットレートを指示することで、上述のように、ビットレートを徐々に変更することができる。画像信号変換部43Bでは、少しずつ小さく指示されるビットレートの値に応じて符号化後のフレームの総符号量を見積もり、見積もられた値に応じて符号化処理を行う。
【0140】
一方、オーディオデータに関しては、例えばリニアPCMオーディオデータとして入力された本線系のオーディオデータのビット解像度の変更に対応することができる。変更が検出されると、上述のビデオデータの場合と同様に、変更点でクリップが分割される。ここでも、補助AVデータのGOP境界に合わせてクリップ分割を行うことが可能である。
【0141】
オーディオデータの場合には、ビット解像度の変更後に変更前のビット解像度を維持し、ビット解像度の変更によるクリップ分割を行わないようにできる。例えば、この発明の実施の一形態によるディスク記録再生装置10に対して外部から入力されるオーディオデータを光ディスク1に記録する際に、入力されるオーディオデータのビット解像度が当初24ビットだったものが、ある時点で16ビットに変更された場合、ビット解像度の変更後も、ビット解像度は24ビットのままとすることができる。
【0142】
なお、以降、オーディオデータに関して、「24ビットのビット解像度」および「16ビットのビット解像度」を適宜、それぞれ「24ビット」および「16ビット」と略称する。
【0143】
図16を用いて説明する。当初、24ビットで入力されていたオーディオデータが、ビット解像度変更点において、ビット解像度が16ビットに変更される(図16A)。このとき、16ビットに変更されたオーディオデータの下位側(LSB側)8ビットに、図16Bに一例が示されるように、オーディオデータにおいて無音を示すデータ(例えば値「0」)が付加され、全体として24ビットとされる。このとき、付加する8ビットのデータは無音に限らず、ディザを加えるようにしてもよい。
【0144】
また例えば、当初16ビットだったオーディオデータが24ビットに変更された場合も同様に、ビット解像度の変更後も、ビット解像度は16ビットのままとすることができる。
【0145】
図17を用いて説明する。当初、16ビットで入力されていたオーディオデータが、ビット解像度変更点において、ビット解像度が24ビットに変更される(図17A)。このとき、図17Bに一例が示されるように、24ビットで入力されたオーディオデータの下位側(LSB側)の8ビットが捨てられ、全体として16ビットとされる。
【0146】
さらに、リニアPCMオーディオデータとして入力されていたオーディオデータが、リニアPCM以外の符号化方式で符号化されたオーディオデータ(以降、ノンオーディオのオーディオデータと称する)に変更された場合には、ノンオーディオのオーディオデータをミュートし、クリップ分割をせずに記録を続行することができる。ミュートは、例えば無音を表すオーディオデータを記録することでなされ、ノンオーディオのオーディオデータは、無音のオーディオデータとして記録される。すなわち、ノンオーディオのオーディオデータは、無音を表すオーディオデータと置き換えられることになる。
【0147】
なお、ノンオーディオのオーディオデータがリニアPCMオーディオデータに変更された場合には、分割後のクリップでリニアPCMオーディオデータを記録することができる。
【0148】
以上のようなオーディオデータのビット解像度の変換処理やノンオーディオのオーディオデータ入力時の無音処理は、例えば、制御部20の指示に基づく音声信号変換部45で行うことができる。これに限らず、制御部20の指示に基づくメモリコントローラ17の制御により、メモリ18からオーディオデータを読み出す際の処理により行うこともできる。例えば、メモリ18に、ノンオーディオのオーディオデータ表すデータを例えば1サンプル分格納しておき、当該データを繰り返し読み出す。
【0149】
なお、オーディオデータの解像度は、オーディオデータが例えば放送局などで一般的に用いられる、AES/EBU(Audio Engineering Society/European Broadcasting Union)による規格に準拠したフォーマットで伝送される場合には、ヘッダの所定位置に対してビット解像度の情報が格納されるので、このデータを抜き出すことで、判定できる。また、リニアPCMオーディオデータと、ノンオーディオのオーディオデータの識別も、同様にしてヘッダ情報などから判別することができる。
【0150】
なお、上述では、本線系のビデオデータについて、記録中のビットレートの変更について説明したが、これはこの例に限定されず、この発明の実施の一形態によるディスク記録再生装置10は、記録中のフレームレートの変更や画像サイズ、アスペクト比の変更などにも対応可能である。この場合には、再生時に、フレームレートの変更の際には時間軸方向の補間/間引き処理を、画像サイズやアスペクト比の変更の際にはフレーム内での補間/間引き処理を行うことで、一定のフレームレート、画像サイズ、画像アスペクト比でビデオデータを出力することができる。このような補間/間引き処理は、例えば、メモリコントローラ17により、メモリ18に記憶されたビデオデータに対して行われる。画像信号変換部43Bにおいて行ってもよい。
【0151】
なお、上述では、本線系のビデオデータの符号化方式をMPEG2として説明したが、これはこの例に限定されず、さらに他の方式で符号化されたビデオデータを混在記録するようにできる。また、ビデオデータのビットレートや他のパラメータについても、同様に、上述した以外のものにも対応可能である。
【0152】
オーディオデータについても同様に、符号化してノンオーディオとする場合、さらに他の符号化方式を用いることができる。オーディオデータについても、ビット解像度も、16ビットおよび24ビットに限らず、32ビットや8ビット、12ビットなど、他のビット解像度のオーディオデータを混在記録するようにできる。また、オーディオデータのサンプリング周波数は、標準的には48kHzであるが、これもこの例に限定されず、例えば96kHz、192kHzなど、他のサンプリング周波数のオーディオデータを混在記録するようにできる。
【0153】
さらに、補助AVデータもMPEG4方式に限定されず、他の方式で符号化したビデオデータを混在記録するようにできる。
【0154】
さらにまた、光ディスク1に記録されたクリップの一覧表示を、図示されないモニタ装置などに表示できるようにすると、好ましい。例えば、ユーザの操作部21に対する操作に応じてインデックスファイル「INDEX.XML」を読み込み、光ディスク1に記録されている全クリップの情報を得る。そして、各クリップディレクトリを参照し、補助AVデータに基づきサムネイル画像を自動的に作成する。サムネイル画像は、例えば補助AVデータの所定位置のフレームを読み込んで、所定の画像サイズに縮小などしてその都度、作成される。
【0155】
各クリップのサムネイル画像データがメモリコントローラ17に供給され、メモリ18に記憶される。そして、メモリ18に記憶されたサムネイル画像データがメモリコントローラ17により読み出され、データ変換部19および信号入出力部31を介して図示されないモニタ装置に供給され、モニタ装置にサムネイル画像が一覧表示される。モニタ装置に対するサムネイル画像の表示制御は、操作部21からの操作により行うことができる。また、操作部21に対する所定の操作により、サムネイル画像から所望の画像を選択し、選択されたサムネイル画像に対応したクリップを再生するようにできる。
【0156】
なお、上述のサムネイル画像のモニタ装置への表示の際に、表示されるサムネイル画像に対応するクリップの諸情報、例えば本線系ビデオデータのビットレート、符号化方式などを、サムネイル画像と共に表示するようにできる。これは、、各クリップディレクトリから時系列メタデータや非時系列メタデータを読み出すことで、可能である。
【0157】
【発明の効果】
以上説明したように、この発明では、ビデオデータの記録の際に、ビットレートの変更が指示されてから所定の時間をかけて徐々にビットレートを変化させるようにしているため、再生画像において、急激な画質の変化が起こらず、ビットレートの変更に伴う視覚的な違和感が抑えられた画像が得られる効果がある。
【図面の簡単な説明】
【図1】UMIDのデータ構造を示す略線図である。
【図2】エッセンスマークを定義するために用いられる予約語の例を示す略線図である。
【図3】エッセンスマークの一例のデータ構造を示す略線図である。
【図4】光ディスクに対して年輪データが形成された一例の様子を示す略線図である。
【図5】年輪が形成された光ディスクに対するデータの読み書きが行われる一例の様子を示す略線図である。
【図6】年輪の連続性が保証されるようにデータ記録を行うことを説明するための図である。
【図7】アロケーションユニットについて説明するための図である。
【図8】この発明の実施の一形態におけるデータの管理構造について説明するための図である。
【図9】この発明の実施の一形態におけるデータの管理構造について説明するための図である。
【図10】この発明の実施の一形態におけるデータの管理構造について説明するための図である。
【図11】クリップ分割の境界を補助AVデータのGOPの境界に一致させることを説明するための図である。
【図12】クリップ分割の際に元クリップと分割によって新規に生成されるクリップとに重複部分を持たせることを説明するための図である。
【図13】この発明の実施の一形態に適用可能なディスク記録再生装置の一例の構成を示すブロック図である。
【図14】データ変換部の一例の構成を示すブロック図である。
【図15】ビットレートが変更されたときに実際のビデオデータのビットレートを徐々に変化させていくことを説明するための図である。
【図16】オーディオデータのビット解像度が変更されたときの処理を説明するための図である。
【図17】オーディオデータのビット解像度が変更されたときの処理を説明するための図である。
【符号の説明】
1・・・光ディスク、10・・・ディスク記録再生装置、16・・・信号処理部、17・・・メモリコントローラ、18・・・メモリ、19・・・データ変換部、20・・・制御部、21・・・操作部、31・・・信号入出力部、42・・・データ量検出部、43A,43B・・・画像信号変換部、44・・・音声信号変換部、45A,45B・・・画像データ変換部、46・・・音声データ変換部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a recording apparatus and method capable of recording video data of a plurality of different formats mixedly on a single disk-shaped recording medium so as to enable continuous reproduction.
[0002]
[Prior art]
In recent years, a disk-shaped recording medium that uses a laser beam having a shorter wavelength as a light source and enables recording and reproducing with a larger capacity has appeared. For example, a recording capacity of 23 GB (gigabyte) is realized using a blue-violet laser emitting a laser beam having a wavelength of 405 nm as a light source and an optical disk having a single-sided single-layer structure.
[0003]
On the other hand, in recent years, the data format of video data has also been diversified with the increase in definition of an image in television broadcasting, and the encoding / decoding method, the data bit rate, the frame rate, the number of pixels, the screen aspect A plurality of types such as ratios are generally used. Similarly, a plurality of types of audio data are generally used such as a bit resolution and an encoding / decoding method.
[0004]
Further, in video cameras and the like, it has been proposed to output a high-resolution main video signal and generate a low-resolution auxiliary video signal based on an imaging signal. The auxiliary video signal is suitable for use when, for example, it is desired to send a video signal as soon as possible via a network, or when a shuttle operation is performed when locating a video video by fast-forwarding or rewinding.
[0005]
Non-Patent Document 1 describes a video camera that uses a large-capacity disc-shaped recording medium, outputs a high-resolution main video signal, and generates a low-resolution auxiliary video signal. .
[0006]
[Non-patent document 1]
AV Watch editorial department, "Sony, camcorder using blue-violet laser disc, etc.", "Sony, camcorder using blue-violet laser disc, etc.-Exhibited at NAB 2003 held in April. Also exhibited studio recorder." [Online] , March 5, 2003, Impression Corporation, AV Watch website, [Search March 25, 2003], Internet <URL: http: // www. watch. impress. co. jp / av / docs / 22003305 / sony. htm>
[0007]
[Problems to be solved by the invention]
In such a situation, audio / video data (hereinafter, AV data) of a plurality of different data formats can be mixed and continuously recorded and reproduced on the large-capacity disk-shaped recording medium described above. Is required.
[0008]
Here, a case is considered in which data of different bit rates are continuously reproduced, particularly for video data. When encoding is performed using the same encoding method, it is expected that the higher the bit rate, the lower the compression ratio and the higher the image quality. On the other hand, if the bit rate is low, the compression ratio becomes high, and the image quality deteriorates significantly. Therefore, when video data having different bit rates are continuously reproduced, there is a problem that the image quality changes abruptly at the bit rate switching point, causing a sense of visual discomfort.
[0009]
Therefore, an object of the present invention is to provide a recording apparatus and a recording method capable of suppressing visual discomfort when continuously reproducing video data having different bit rates.
[0010]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention includes an encoding unit that performs compression encoding of video data while controlling a generated code amount so as to be within a specified maximum bit rate. Wherein, when the second maximum bit rate is designated during the compression encoding of video data at the first maximum bit rate, the compression encoding is controlled so that the generated code amount gradually changes. Is a signal processing device.
[0011]
Also, the present invention has an encoding step of performing compression encoding of video data while controlling a generated code amount so as to be within a specified maximum bit rate, and the encoding step includes a first maximum bit rate. A signal processing method characterized in that, when a second maximum bit rate is designated during compression encoding of video data at a bit rate, compression encoding control is performed so that the generated code amount gradually changes. It is.
[0012]
According to the present invention, in a recording apparatus for compressing and encoding video data and recording the video data on a disk-shaped recording medium, the compression encoding of the video data is performed while controlling the generated code amount so as to fall within a specified maximum bit rate. Encoding means; and recording means for recording the video data compression-encoded by the encoding means on a disk-shaped recording medium, wherein the encoding means compresses and encodes the video data at a first maximum bit rate. A second maximum bit rate is designated, the compression encoding control is performed so that the generated code amount gradually changes.
[0013]
Further, the present invention provides a recording method for compressing and encoding video data and recording the video data on a disk-shaped recording medium, wherein the compression encoding of the video data is performed while controlling the generated code amount so as to be within a specified maximum bit rate. And a recording step of recording the video data compressed and encoded in the encoding step on a disc-shaped recording medium, wherein the encoding step includes the step of recording the video data at a first maximum bit rate. A second maximum bit rate is designated during the compression encoding of the above, the compression encoding is controlled so that the generated code amount gradually changes.
[0014]
As described above, according to the present invention, video data is compressed and encoded while controlling the generated code amount so as to be within a specified maximum bit rate, and the video data is compressed at the first maximum bit rate. If the second maximum bit rate is specified during the encoding, the compression encoding is controlled so that the generated code amount gradually changes. Therefore, the maximum bit rate at the time of the compression encoding is set to the first maximum bit rate. Even if the maximum bit rate is switched from the maximum bit rate to the second maximum bit rate, an abrupt change in image quality does not occur, and an image with visually uncomfortable feeling can be obtained.
[0015]
Further, according to the present invention, video data is compressed and encoded while controlling the generated code amount so as to be within a specified maximum bit rate, and recorded on a disk-shaped recording medium. If the second maximum bit rate is specified during the compression encoding of video data at the maximum bit rate of 1, the compression encoding is controlled so that the generated code amount gradually changes. The reproduced image from the recording medium does not cause a sudden change in image quality, and visually discomfort is suppressed.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described. According to the present invention, a plurality of signal types (formats) of audio data and video data (hereinafter, abbreviated as AV data) are applied to one disc-shaped recording medium (hereinafter, abbreviated as a disc). AV data of a plurality of signal types are mixed and continuously recorded so that they can be continuously reproduced.
[0017]
In the following, a plurality of signal types of AV data are mixed on one disk-shaped recording medium so that the plurality of signal types of AV data can be continuously reproduced. Continuous recording "is referred to as" can be mixed on one disc "as appropriate in order to avoid complexity.
[0018]
First, an example of signal types (formats) of data that can be mixed on one disk in the present invention will be described.
[0019]
As an encoding method, for example, in the MPEG2 (Moving Pictures Experts Group 2) method, an encoding method in which video data is composed of only I pictures by intra-frame encoding, an I picture, a P picture and a B picture by predictive encoding, and the like. Thus, it is possible to mix the encoding methods constituting video data on one disc. Of course, it is also possible to mix encoding methods other than the MPEG2 method.
[0020]
Note that, in the above-described coding scheme in which video data is composed of only I pictures, a GOP (Group Of Picture), which is a unit of random access, is composed of one I picture. This system is hereinafter referred to as "single GOP system" for convenience. In the embodiment of the present invention, the 4: 2: 2 profile of MPEG2 is applied to the single GOP method. Further, in an encoding method in which video data is configured using I, P, and B pictures, a GOP is completed with an I picture and includes one or a plurality of P and B pictures. In the following, for convenience, this method in which a GOP is composed of a plurality of frames is referred to as a “long GOP method”.
[0021]
As for the video data, as an example, a bit rate mode of 30 Mbps (Mega bit per second), video data of 40 Mbps and 50 Mbps in the above-mentioned single GOP method can be mixed on one disc, and a bit rate mode of 25 Mbps in a long GOP can be mixed. Video data can be further mixed on one disk. Other bit rate modes may be mixed in a single GOP or a long GOP.
[0022]
The bit rate mode is a mode in which video data is compression-coded so that the bit rate value indicated in the bit rate mode becomes the maximum value. For example, video data in a bit rate mode of 50 Mbps actually includes data of a bit rate of 50 Mbps or less in transmission data depending on the complexity of an image or the like. For frames with a data amount less than the bit rate indicated in the bit rate mode, the difference between the data amount and the bit rate indicated in the bit rate mode is padded with predetermined padding data to reduce the apparent bit rate. The bit rate indicated by the mode can be used.
[0023]
As for the video data, interlaced data and progressive data can be mixed on one disk, and data of a plurality of frame rates can be mixed on one disk in each system. In the screen size, data with aspect ratios of 4: 3 and 16: 9 can be mixedly recorded on a single disc. For example, if the aspect ratio is 4: 3, standard (SD: Standard Definition) is used. ) 640 pixels × 480 lines and data of 1440 pixels × 1088 lines of higher definition (HD: High Definition) can be mixed on one disc. Even when the aspect ratio is 16: 9, data of a plurality of types of image sizes can be similarly mixed on one disc.
[0024]
Further, the color profile is not limited to 4: 2: 2, and other formats such as 4: 2: 0 can be mixed.
[0025]
For audio data, audio data encoded by linear PCM (Pulse Code Modulation) (hereinafter abbreviated as linear PCM audio data) and audio data encoded by an encoding method other than linear PCM (for example, linear PCM) Audio data obtained by further compressing and encoding audio data) can be mixed on one disc. Audio data corresponds to a plurality of types of bit resolutions, for example, 16 bits and 24 bits, and a plurality of channel combinations such as 4 ch and 8 ch can be mixed on one disc.
[0026]
In one embodiment of the present invention, in addition to the above-mentioned main line system, that is, AV data to be actually broadcast or edited, auxiliary AV data and metadata corresponding to main line system AV data are further included. Recorded on the same disk.
[0027]
The auxiliary AV data is audio / video data at a lower bit rate based on main-line AV data. The auxiliary AV data is generated by compressing and encoding main-line AV data such that the bit rate is reduced to, for example, several Mbps. There are a plurality of types of encoding schemes for generating auxiliary AV data, such as MPEG4. In one embodiment of the present invention, one piece of auxiliary AV data encoded by a plurality of different encoding schemes is used. Can be mixed on the same disk. Auxiliary AV data encoded using the same encoding method and using different encoding parameters can be mixed on one disc.
[0028]
Metadata is high-order data related to certain data, and functions as an index for representing the contents of various data. The metadata includes time-series metadata generated along the above-described main-line AV data time-series and non-time-series metadata generated for a predetermined section such as each scene in the main-line AV data. There are two types of data.
[0029]
The time-series metadata includes, for example, a time code, a UMID (Unique Material Identifier), and an essence mark as essential data. Further, camera meta information such as iris and zoom information of a video camera at the time of shooting can be included in the time-series metadata. Furthermore, information defined in ARIB (Association of Radio Industries and Businesses) can be included in the time-series metadata. Note that data based on ARIB and camera meta information have a relatively large data size, and therefore are preferably exclusively mixed. The camera meta information and ARIB may be included in time-series metadata by time division multiplexing with a reduced time resolution.
[0030]
The non-time-sequential metadata includes time code and UMID change point information, information on essence marks, user bits, and the like.
[0031]
The UMID will be schematically described. The UMID is an identifier that is uniquely determined for identifying video data, audio data, and other material data and is standardized by SMPTE-330M.
[0032]
FIG. 1 shows a data structure of the UMID. The UMID includes a basic UMID as ID information for identifying material data, and signature metadata for identifying each content in the material data. Each of the basic UMID and the signature metadata has a data area having a data length of 32 bytes. An area having a data length of 64 bytes in which the signature metadata is added to the basic UMID is called an extended UMID.
[0033]
The basic UMID is composed of an area Universal Label having a data length of 12 bytes, an area Length Value having a data length of 1 byte, an area Instance Number having a data length of 3 bytes, and an area Material Number having a data length of 16 bytes. It is composed of
[0034]
In the area Universal Label, a code for identifying that a data string immediately following is a UMID is stored. The area Length Value indicates the length of the UMID. Since the code lengths of the basic UMID and the extended UMID are different, the basic UMID is indicated by the value [13h] and the extended UMID is indicated by the value [33h] in the area Length. In the notation in the brackets [], "h" after the number indicates that the number is in hexadecimal notation. The area Instance Number indicates whether material data has been overwritten or edited.
[0035]
The area Material Number is composed of three areas: an area Time Snap having a data length of 4 bytes, an area Rnd having a data length of 8 bytes, and an area Machine node having a data length of 4 bytes. The area Time Snap indicates the number of snap clock samples per day. Thus, the creation time of the material data and the like are indicated in clock units. The region Rnd has a random number for preventing numbers from being assigned repeatedly when an incorrect time is set or when the network address of a device defined by, for example, IEEE (Institute for Electrical and Electronic Engineers) changes. It is.
[0036]
The signature metadata has an area Time. Date, an area Spatial Co-ordered having a data length of 12 bytes, and an area Country, an area Organization, and an area User each having a data length of 4 bytes.
[0037]
The area Time / Date indicates the time and date when the material was generated. The area Spatial Co-ordered indicates correction information (time difference information) related to the time when the material was generated, and position information represented by latitude, longitude, and altitude. The position information can be obtained, for example, by providing a video camera with a function corresponding to GPS (Global Positioning System). In the area Country, the area Organization, and the area User, a country name, an organization name, and a user name are indicated using abbreviated alphabetic characters and symbols.
[0038]
As described above, when the extended UMID is used as described above, the data length is 64 bytes, and the capacity is relatively large for sequentially recording in chronological order. Therefore, when embedding the UMID in the time-series metadata, it is preferable to compress the UMID by a predetermined method.
[0039]
The UMID has a fixed value of 10 to 13 bytes from the head as long as it is used for the application of the embodiment of the present invention. Therefore, in the embodiment of the present invention, 10 bytes from the beginning to 13 bytes from the beginning of the UMID can be omitted. When storing the UMID in the time-series metadata, it can be encoded by a predetermined method. In this case, it is preferable to use Base64 as the encoding method because the encoding result becomes an ASCII code and can be easily embedded in, for example, an XML document. Further, it is conceivable to use only the difference. For example, data generated at the same time in the same directory is given a UMID partially common. By utilizing this and using only the UMID difference, the data amount can be reduced.
[0040]
The essence mark will be schematically described. The essence mark represents an index associated with video scene data, which is a video scene (or cut) formed, for example, in video data at the time of shooting. By using the essence mark, it is possible to grasp what kind of scene is after shooting without performing a process of reproducing video scene data.
[0041]
In one embodiment of the present invention, the essence mark is defined in advance as a reserved word. Therefore, for example, common control can be performed between the interfaces of the imaging device, the reproduction device, and the editing device without converting the essence mark according to the partner device.
[0042]
FIG. 2 shows an example of a reserved word used to define an essence mark. Note that the example of FIG. 2 is an example, and it is possible to additionally define another essence mark. “_RecStart” is a shooting start mark indicating a recording start position. “_RecEnd” is a shooting end mark indicating a recording end position. “_ShotMark1” and “_ShotMark2” are shot marks that indicate an arbitrary position such as a point of interest. “_Cut” is a cut mark indicating a cut position. “_Flash” is a flash mark indicating a flash detection position at which a position at which a flash has been emitted is detected. “_FilterChange” is a filter change mark indicating a position at which the lens filter has been changed in the imaging apparatus. “_ShutterSpeedChange” is a shutter speed change mark indicating a position at which the shutter speed has been changed in the imaging apparatus. “_GainChange” is a gain change mark indicating a position where the gain of a filter or the like is changed. “_WhiteBalanceChange” is a white balance change mark indicating a position where the white balance has been changed. “_OverBrightness” is a mark indicating a position where the output level of the video signal has exceeded the limit value. “_OverAudioLimiter” is a loud volume mark indicating a position where the output level of the audio signal has exceeded the limit value. Each mark described above is recorded, for example, in video data frame units.
[0043]
“_In-XXX” is an edit start mark indicating a cut or material cutout start position. “_Out-XXX” is an edit end mark indicating a cut or material cutout end position. The edit start mark and the edit end mark are sequentially numbered in the portion of “XXX” in the numbers and alphabets each time an edit start point (IN point) and an edit end point (OUT point) are added. For example, “_In-001”, “_In-002”,...
[0044]
By using the essence mark defined as above as index information at the time of the rough editing process, it is possible to efficiently select a target video scene.
[0045]
FIG. 3 shows a data structure of an example of the essence mark. As described with reference to FIG. 2, the essence mark is metadata in which characteristics of a video scene and the like are represented by text data and are associated with video content data (main-line AV data). The essence mark is recorded and transmitted after being encoded by KLV (Key Length Value). FIG. 3 shows the format of the KLV-coded essence mark. This format is based on the metadata dictionary of SMPTE 335M / RP210A.
[0046]
The KLV-encoded essence mark includes a “Key” portion having a data length of 16 bytes, an “L (length)” portion having a data length of 1 byte, and a “Value” portion having a data length of up to 32 bytes. Consists of The “Key” portion is an identifier indicating a KLV-encoded data item based on SMPTE 335M / RP210A, and in this example, is a value indicating an essence mark. The “L” part indicates the data length following the “L” part in bytes. A data length of up to 32 bytes is represented. The “Value” part is an area composed of text data in which an essence mark is stored.
[0047]
Next, data arrangement on a disk according to an embodiment of the present invention will be described. In one embodiment of the present invention, data is recorded such that annual rings are formed on a disk. Annual ring data is data recorded on a disc in units of a data amount indicated by the data reproduction time. For example, the description will be limited to audio data and video data of the main line, and audio data and video data corresponding to the reproduction time zone are alternately arranged for each predetermined reproduction time unit having a data size of one or more rounds of a track. And record. By performing recording in this manner, sets of audio data and video data corresponding to the reproduction time zone are layered in chronological order, and annual rings are formed.
[0048]
In this embodiment, actually, in addition to audio data and video data corresponding to the playback time zone, auxiliary AV data and time-series metadata corresponding to the playback time zone are recorded as a set of these data. To form an annual ring and record data on the optical disc 1.
[0049]
The data forming the annual rings is referred to as annual ring data. The annual ring data has a data amount that is an integral multiple of a sector, which is the smallest recording unit on the disk. Also, the annual rings are recorded such that their boundaries coincide with the boundaries of the sectors of the disk.
[0050]
FIG. 4 shows an example in which annual ring data is formed on the optical disc 1. In the example of FIG. 4, the audio annual ring data # 1, the video annual ring data # 1, the audio annual ring data # 2, the video annual ring data # 2, the auxiliary AV annual ring data # 1, and the time-series meta data The annual ring data # 1 is recorded, and the annual ring data is handled in this cycle. On the outer circumference side of the time-series meta annual ring data # 1, a part of the annual ring data of the next cycle is further shown as audio annual ring data # 3 and video annual ring data # 3.
[0051]
In the example of FIG. 4, the reproduction time zone for one annual ring data of the time-series meta annual ring data and the reproduction time zone for one annual ring data of the auxiliary AV annual ring data correspond to each other. And the reproduction time zone corresponding to two cycles of the audio annual ring data. Similarly, it shows that the playback time zone for one annual ring data of the time-series meta annual ring data corresponds to the playback time zone for two cycles of the video annual ring data. Such association between the reproduction time zone and the cycle of each annual ring data is set based on, for example, the respective data rates. It should be noted that the playback time for one annual ring data of the video annual ring data and the audio annual ring data is preferably about 1.5 seconds to 2 seconds based on experience.
[0052]
FIG. 5 shows an example in which data is read from and written to the optical disc 1 on which annual rings are formed as in FIG. 4 described above. If there is a continuous space area of sufficient size on the optical disc 1 and there is no defect in the space area, each data sequence of audio data, video data and auxiliary AV data time-series metadata is determined based on the reproduction time zone. The generated audio annulus data, video annulus data, auxiliary AV annulus data, and time-series meta annulus data are written in the empty area of the optical disc 1 in a single stroke, as shown in an example in FIG. 5A. It is. At this time, the data is written such that the boundaries of any data coincide with the boundaries of the sectors of the optical disc 1. Reading of data from the optical disc 1 is performed in the same manner as at the time of writing.
[0053]
On the other hand, when reading a specific data series from the optical disc 1, the operation of seeking to the recording position of the read data series and reading the data is repeated. FIG. 5B shows the manner of selectively reading the sequence of auxiliary AV data in this manner. For example, referring also to FIG. 4, when the auxiliary AV annual ring data # 1 is read, the time-series meta annual ring data # 1, the audio annual ring data # 3 and the video annual ring data # 3, and the audio annual ring data that are subsequently recorded are recorded. # 4 and video annulus data # 4 (not shown) are skipped by seek, and auxiliary AV annulus data # 2 of the next cycle is read.
[0054]
As described above, by recording data on the optical disc 1 periodically as annual ring data corresponding to the playback time zone in units of the playback time, audio annual ring data and video annual ring data in the same playback time zone are obtained. Are located at a close position on the optical disk 1, so that the audio data and the video data corresponding to the reproduction time can be quickly read from the optical disk 1 and reproduced. Further, since the data is recorded so that the boundary between the annual rings and the boundary between the sectors coincide with each other, it is possible to read out only the audio data or the video data from the optical disc 1, and it is possible to quickly edit only the audio data or the video data. It becomes possible. Further, as described above, the audio annual ring data, the video annual ring data, the auxiliary AV annual ring data, and the time-series meta annual ring data have an amount of data that is an integral multiple of the sector of the optical disk 1, and furthermore, the boundary between the annual ring data and the sector. It is recorded so as to match the boundary. Therefore, when only one of the audio annual ring data, the video annual ring data, the auxiliary AV annual ring data, and the time-series meta annual ring data is required, only the necessary data is read without reading other data. Can be read.
[0055]
In order to utilize the convenience of the data arrangement by the annual rings as described above, it is necessary to record the data on the optical disk 1 so that the continuity of the annual rings is ensured. This will be described with reference to FIG. For example, suppose that only the auxiliary AV annual ring data (displayed as “LR” in FIG. 6) is read.
[0056]
For example, if a sufficiently large free area that is continuous at the time of recording is secured, a plurality of annual rings can be recorded continuously. In this case, as shown in FIG. 6A, temporally continuous auxiliary AV annual ring data can be read with the minimum track jump. That is, once the auxiliary AV annual ring data is read, the operation of reading the auxiliary AV annual ring data in the annual ring of the next cycle can be repeated, and the distance over which the pickup jumps is minimized.
[0057]
On the other hand, for example, when a continuous free area cannot be secured at the time of recording, and temporally continuous auxiliary AV data is recorded in discrete areas on the optical disc 1, as shown in FIG. When the auxiliary AV annual ring data is read, the pickup jumps a distance corresponding to, for example, a plurality of cycles of the annual ring, and the next auxiliary AV annual ring data must be read. Since this operation is repeated, the reading speed of the auxiliary AV annual ring data is reduced as compared with the case shown in FIG. 6A. As shown in FIG. 6C, reproduction of unedited AV data (AV clip) may be delayed in mainline AV data.
[0058]
Therefore, in one embodiment of the present invention, in order to guarantee the continuity of the annual rings, an allocation unit having a length corresponding to a plurality of periods of the annual rings is defined. A continuous free area with a length exceeding the defined allocation unit length is secured.
[0059]
This will be described more specifically with reference to FIG. The allocation unit length is set in advance. The allocation unit length is set to a multiple of the total reproduction time of each data recorded in one cycle by the annual ring. For example, if the reproduction time corresponding to one cycle of the annual ring is 2 seconds, the allocation unit length is set to 10 seconds. This allocation unit length is used as a ruler for measuring the length of the empty area of the optical disc 1 (see the upper right of FIG. 7). In the initial state, as shown in an example of FIG. 7A, it is assumed that three used areas are arranged at intervals with respect to the optical disc 1, and a portion sandwiched between the used areas is an empty area.
[0060]
When recording AV data having a certain length on the optical disc 1 and auxiliary AV data corresponding to the AV data, first, the allocation unit length is compared with the length of the empty area to determine the allocation unit length. An empty area having the above length is secured as a reserved area (FIG. 7B). In the example of FIG. 7, the free area on the right side of the two free areas is longer than the allocation unit length, and is reserved as a reserved area. Next, annual ring data is sequentially and continuously recorded in the reserved area from the beginning of the reserved area (FIG. 7C). The annual ring data is recorded in this manner, and when the length of the vacant area of the reserved area is less than the length of one cycle of the annual ring data to be recorded next (FIG. 7D), the reserved area is released, and FIG. As shown in FIG. 7A, a free area that can be made a reserved area is searched for while applying the allocation unit length to still another free area on the optical disc 1.
[0061]
In this way, by searching for an empty area in which the annual rings for a plurality of cycles can be recorded and recording the annual rings in the empty area, a certain degree of continuity of the annual rings is guaranteed, and the reproduction of the annual ring data can be performed smoothly. It is possible. Although the allocation unit length is set to 10 seconds in the above description, this is not limited to this example, and a length corresponding to a longer reproduction time can be set as the allocation unit length. In practice, it is preferable to set the allocation unit length between 10 seconds and 30 seconds.
[0062]
Next, a data management structure according to an embodiment of the present invention will be described with reference to FIGS. 8, 9, and 10. FIG. In one embodiment of the present invention, data is managed in a directory structure. For example, a UDF (Universal Disk Format) is used as the file system, and a directory PAV is provided immediately below a root directory (root) as shown in an example in FIG. In this embodiment, the directory PAV and below are defined.
[0063]
That is, the mixed recording of audio data and video data of a plurality of signal types on one disk is defined under the directory PAV. Recording of data in the directory PAV beyond data management in the embodiment of the present invention is optional.
[0064]
Immediately below the directory PAV, four files (INDEX.XML, INDEX.RSV, DISCINFO.XML and DISCINFO.RSV) are placed, and two directories (CLPR and EDTR) are provided.
[0065]
The directory CLPR manages clip data. The clip referred to here is, for example, a set of data from the start of shooting to the stop thereof. For example, in the operation of the video camera, a clip from when the operation start button is pressed to when the operation stop button is pressed (the operation start button is released) is regarded as one clip.
[0066]
The set of data includes the above-mentioned main audio data and video data, auxiliary AV data generated from the audio data and video data, and time-series metadata corresponding to the audio data and video data. It consists of time-series metadata. In a directory “C0001”, “C0002”,... Provided immediately below the directory CLPR, a set of data constituting the clip is stored for each clip.
[0067]
FIG. 9 shows an example structure of a directory “C0001” provided immediately below the directory CLPR and corresponding to one clip “C0001”. Hereinafter, a directory corresponding to one clip immediately below the directory CLPR is appropriately referred to as a clip directory. In the clip directory “C0001”, each of the above-described group of data is stored while being distinguished by a file name. In the example of FIG. 9, the file name is composed of 12 digits, of the 8 digits preceding the delimiter ".", The first 5 digits are used to identify a clip, and the 3 digits immediately before the delimiter are audio. It is used to indicate a data type such as data, video data, and auxiliary AV data. The three digits after the delimiter are extensions, which indicate the data format.
[0068]
More specifically, in the example of FIG. 9, a file “C0001C01.SMI” indicating clip information, a main line video data file “C0001V01.MXF”, and a main line 8ch audio data files “C0001A01.MXF” to “C0001A08.MXF”, auxiliary AV data file “C0001S01.MXF”, non-time-series metadata file “C0001M01.XML”, and time-series metadata file “C0001R01.BIM” ”And the pointer information file“ C0001I01.PPF ”are stored in the clip directory“ C0001 ”.
[0069]
In an embodiment of the present invention, the above data signal types are allowed to be mixed between clip directories in the directory CLPR. For example, for a signal type of main line video data, a single GOP and a video data with a bit rate of 50 Mbps are stored in the clip directory “C0001”, and a video data with a long GOP and a bit rate of 25 Mbps are stored in the clip directory “C0002”. Is possible. On the other hand, mixing of data signal types in each data in the clip directory is not permitted. For example, in video data, a video data file recorded in a bit rate mode of 50 Mbps from the beginning to a certain point in time and recorded in a bit rate mode of 25 Mbps from the point in time to the end cannot be stored. .
[0070]
Returning to FIG. 8, the directory EDTR manages editing information. In one embodiment of the present invention, the editing result is recorded as an edit list or a play list. In the directories “E0001”, “E0002”,... Provided immediately below the directory EDTR, a group of data constituting the editing result is stored for each editing result.
[0071]
The edit list is a list in which edit points (IN points, OUT points, etc.) and reproduction order of the clip are described, and includes a non-destructive edit result of the clip and a playlist described later. When the non-destructive editing result of the edit list is played, the files stored in the clip directory are referred to according to the description of the list, and continuous editing from a plurality of clips is performed as if one edited stream was played. A reproduced video is obtained. However, as a result of the non-destructive editing, the file in the list is referred to regardless of the position of the file on the optical disk 1, and thus continuity at the time of reproduction is not guaranteed.
[0072]
When it is determined based on the editing result that it is difficult to continuously play back the file or part of the file referred to by the list, the playlist or the part of the file The continuity at the time of reproduction of the edit list is assured by rearranging the edit list in the area.
[0073]
Based on the result of creating the above-mentioned edit list by the editing operation, the management information of the file used for the editing (for example, an index file “INDEX.XML” described later) is referred to, and the editing result is non-destructive. It is estimated whether or not continuous playback is possible with the file referred to based on each clip directory kept as it is. As a result, when it is determined that continuous reproduction is difficult, the corresponding file is copied to a predetermined area of the optical disc 1. The file relocated to the predetermined area is called a bridge essence file. A list in which the bridge essence file is reflected in the edited result is called a playlist.
[0074]
For example, if the edited result refers to a complicated clip, when playing back based on the edited result, there is a possibility that the pickup seek may not be in time when transitioning from clip to clip. is there. In such a case, a playlist is created, and the bridge essence file is recorded in a predetermined area of the optical disc 1.
[0075]
FIG. 10 shows an example of a structure of a directory “E0002” provided immediately below the directory EDTR and corresponding to one editing result “E0002”. Hereinafter, a directory corresponding to one editing result immediately below the directory EDTR is appropriately referred to as an edit directory. In the edit directory “E0002”, data generated as a result of the above-described editing is stored while being distinguished from each other by a file name. The file name consists of 12 digits. Of the 8 digits before the delimiter ".", The first 5 digits are used to identify the editing operation, and the 3 digits immediately before the delimiter are used to indicate the type of data. Used. The three digits after the delimiter are extensions, which indicate the data format.
[0076]
More specifically, in the example of FIG. 10, as a file constituting the editing result “E0002”, the edit list file “E0002E01.SMI” is a file “E0002M01.SMI” in which information of time-series and non-time-series metadata is described. XML ", the playlist file" E0002P01.SMI ", the bridge essence files" E0002V01.BMX "and" E0002A01.BMX "to" E0002A04.BMX "based on main line data, the bridge essence file" E0002S01.BMX "based on auxiliary AV data, and A bridge essence file “E0002R01.BMX” based on time-series and non-time-series metadata is stored in the edit directory “E0002”.
[0077]
Of these files stored in the edit directory "E0002", the files indicated with shadows, that is, the bridge essence files "E0002V01.BMX" and "E0002A01.BMX" to "E0002A04.BMX", which are composed of main line data, The bridge essence file “E0002S01.BMX” based on AV data and the bridge essence file “E0002R01.BMX” based on time-series and non-time-series metadata are files belonging to a playlist.
[0078]
As described above, the edit list refers to, for example, video data stored in the clip directory. Since different data signal types can be mixed between the clip directories, different data signal types can be mixed on the edit list as a result.
[0079]
Returning to FIG. 8, the file “INDEX.XML” is an index file for managing material information stored under the directory PAV. In this example, the file “INDEX.XML” is described in an XML (Extensible Markup Language) format. The clip and the edit list described above are managed by the file “INDEX.XML”. For example, a conversion table of a file name and a UMID, length information (Duration), and a reproduction order of each material when reproducing the entire optical disc 1 are managed. In addition, video data, audio data, auxiliary AV data, and the like belonging to each clip are managed, and clip information managed by files in the clip directory is managed.
[0080]
The file “DISCINFO.XML” manages information about the disc. Reproduction position information and the like are also stored in this file “DISCINFO.XML”.
[0081]
In one embodiment of the present invention, when a predetermined change is detected in a set of data constituting a clip during a period from when shooting is started to when the shooting is stopped, the change corresponding to the change detection position is detected. The clip is divided at the position, and the part after the division position is a new clip. A new directory corresponding to the new clip is automatically created in the directory CLPR, and a set of data constituting the new clip is stored in the created directory.
[0082]
Clip division is performed when a change in the signal type (format) is detected in at least one of the video data and the audio data constituting the clip. More specifically, the following example can be considered as a condition for division. First, regarding video data,
(1) Change in bit rate
(2) Changes in frame rate
(3) Change in image size
(4) Change in image aspect ratio
(5) Change in coding method
For audio data,
(1) Change in bit resolution
(2) Change in sampling frequency
(3) Change in the number of input channels
(4) Change in encoding method
[0083]
When a change is detected in any one of these, the clip is automatically divided at a position corresponding to the timing when the change is detected. At this time, if a change is detected in certain data, other data belonging to the same clip as the data is also divided at the same timing.
[0084]
Of course, clip division is not limited to this, and may be performed according to a change in still another attribute of video data and audio data. The clip division may be performed by detecting a predetermined change in not only video data and audio data but also auxiliary AV data and time-series metadata.
[0085]
For example, the auxiliary AV data can be divided into clips when the bit rate mode or the encoding method is changed, for example. Further, as for the time-series metadata, for example, when the metadata by ARIB and the camera data are exclusively recorded, when the data type is changed between ARIB and camera data, the clip can be divided. Furthermore, when the data rate initially set for transmitting the time-series metadata is changed, clip division is also possible.
[0086]
Furthermore, when the clip is divided according to the change of the main line video data, the main line audio data and the time-series metadata may not be divided. By doing so, it is possible to suppress an increase in files due to clip division. Even in this case, the auxiliary AV data is divided according to the change of the main line video data.
[0087]
At the time of clip division, it is preferable to make the division boundary coincide with the GOP boundary of the auxiliary AV data, because the relationship between the time axis and the byte offset in the clip becomes simple, and the processing becomes easy. For example, when the above-described change is detected in the video data or the audio data, as shown in an example in FIG. 11A, the clip division is waited until the next GOP boundary of the auxiliary AV data (division position B). This is performed by performing clip division by going back to the previous GOP boundary (division position A). Actually, it is preferable to divide the clip at the division position B.
[0088]
However, the present invention is not limited to this. If the division boundary at the time of clip division does not match the GOP boundary of the auxiliary AV data, the surplus portion of the GOP of the auxiliary AV data is filled with stuffing bytes, and the auxiliary AV data and the main line video data are filled. For example, the data amount may be made equal to other data. That is, as shown in FIG. 11B, in the auxiliary AV data, for example, the GOP immediately before the position where a change is detected in the video data is set as the last GOP of the clip, and from the rear end boundary of the last GOP. The stuffing byte is filled up to the change detection position (indicated by hatching in FIG. 11B).
[0089]
If the main line video data is a single GOP, clip division can be performed at an arbitrary frame position. On the other hand, if the main line video data is a long GOP, the frame at the clip division position may be a P-picture or B-picture frame by predictive coding. Therefore, when clip division is performed on video data of a long GOP, the GOP is once completed at the clip division position. This can be achieved by, for example, converting the frame immediately before the division position into a P picture or an I picture if the frame is a B picture.
[0090]
At the time of clip division, the original clip of the division and the clip newly generated by the division may have an overlapping portion. For example, in the original clip and / or the new clip of the division, the clip is divided with a margin for the timing of the change so that the change point of the signal type is temporally included.
[0091]
As an example, a case where the initial bit rate of 50 Mbps is switched to 30 Mbps in main line video data will be described with reference to FIG. As shown in FIG. 12, in video data with a bit rate of 50 Mbps, the bit rate is kept at 50 Mbps for a predetermined time (diagonally shaded portion) from the position where the bit rate switching is instructed. Is recorded. On the other hand, video data having a bit rate of 30 Mbps is recorded at a bit rate of 30 Mbps from a predetermined time before the position where the bit rate switching is instructed (the hatched portion in the figure).
[0092]
Since the bit rate switching point is the clip division position, it is necessary to adjust the clip start position with respect to the actual file start position using, for example, "clip Begin" which is a command for designating the clip start position. .
[0093]
In such recording, as an example, in the baseband video data before the compression encoding, the hatched portions in FIG. 12 are respectively buffered, and compression encoding is performed at the corresponding bit rates. For example, in the case of video data of 50 Mbps, it is possible to add a hatched file to a file of video data before the bit rate switching point. This may be described in the edit list described above or in the file “C0001C01.SMI” indicating the clip information in the clip directory without actually adding the files.
[0094]
The naming rule of the clip directory name and the file name of each file in the clip directory is not limited to the above example. For example, the UMID described above may be used as a file name or a clip directory name. As described above, considering the extended UMID, the UMID has a data length of 64 bytes and is long for use in a file name or the like. Therefore, it is preferable to use only a part of the UMID. For example, a portion in the UMID where a different value is obtained for each clip is used for a file name or the like.
[0095]
When a clip is divided, it is preferable to name the clip directory or the file name so as to reflect the reason for dividing the clip from the viewpoint of clip management. In this case, the clip is named so that it can be determined at least whether the clip has been explicitly divided by the user or whether the clip has been automatically processed by the apparatus.
[0096]
FIG. 13 shows an example of the configuration of a disc recording / reproducing apparatus 10 applicable to an embodiment of the present invention. Here, it is assumed that the disk recording / reproducing device 10 is a recording / reproducing unit built in a video camera (not shown), and a video signal based on an image signal captured by the video camera and an audio signal recorded along with the image capturing. Is input to the signal processing unit 31 and supplied to the disk recording / reproducing device 10. The video signal and the audio signal output from the signal input / output unit 31 are supplied to, for example, a monitor device.
[0097]
Of course, this is only an example, and the disk recording / reproducing device 10 may be a device used independently. For example, it can be used in combination with a video camera having no recording unit. Video and audio signals output from the video camera, predetermined control signals, and data are input to the disk recording / reproducing device 10 via the signal input / output unit 31. For example, a video signal and an audio signal reproduced by another recording / reproducing device can be input to the signal input / output unit 31. The audio signal input to the signal input / output unit 31 is not limited to the signal input along with the imaging of the video signal. For example, after the imaging, an audio signal is recorded in a desired section of the video signal. Recording).
[0098]
The spindle motor 12 drives the optical disc 1 to rotate at a constant linear velocity (CLV) or a constant angle velocity (CAV) based on a spindle motor drive signal from the servo controller 15.
[0099]
The pickup unit 13 controls the output of the laser beam based on the recording signal supplied from the signal processing unit 16, and records the recording signal on the optical disc 1. The pickup unit 13 also focuses and irradiates the optical disc 1 with laser light, generates a current signal by photoelectrically converting reflected light from the optical disc 1, and supplies the current signal to an RF (Radio Frequency) amplifier 14. The irradiation position of the laser beam is controlled to a predetermined position by a servo signal supplied from the servo control unit 15 to the pickup unit 13.
[0100]
The RF amplifier 14 generates a focus error signal, a tracking error signal, and a reproduction signal based on the current signal from the pickup unit 13, supplies the tracking error signal and the focus error signal to the servo control unit 15, Is supplied to the signal processing unit 16.
[0101]
The servo control unit 15 controls a focus serve USA and a tracking servo operation. Specifically, the servo control unit 15 generates a focus servo signal and a tracking servo signal based on the focus error signal and the tracking error signal from the RF amplifier 14, respectively, and supplies them to an actuator (not shown) of the pickup unit 13. . Further, the servo control unit 15 generates a spindle motor drive signal for driving the spindle motor 12, and controls a spindle servo operation for rotating the optical disc 1 at a predetermined rotation speed.
[0102]
Further, the servo control unit 15 performs sled control of moving the pickup unit 13 in the radial direction of the optical disc 1 to change the irradiation position of the laser light. The setting of the signal reading position of the optical disc 1 is performed by the control unit 20, and the position of the pickup unit 13 is controlled so that a signal can be read from the set reading position.
[0103]
The signal processing unit 16 generates a recording signal by modulating the recording data input from the memory controller 17, and supplies the recording signal to the pickup unit 13. The signal processing unit 16 also demodulates the reproduction signal from the RF amplifier 14 to generate reproduction data, and supplies the reproduction data to the memory controller 17.
[0104]
The memory controller 17 appropriately stores the recording data from the data conversion unit 19 in the memory 18 as described later, reads the data, and supplies the read data to the signal processing unit 16. The memory controller 17 also stores the read data from the signal processing unit 16 in the memory 18 as appropriate, reads out the read data, and supplies the read data to the data conversion unit 19.
[0105]
A video signal and an audio signal based on the image captured by the video camera are supplied to the data conversion unit 19 via the signal input / output unit 31. Although the details will be described later, the data conversion unit 19 compresses and encodes the supplied video signal using a compression encoding method such as MPEG2 in a mode instructed by the control unit 20 to generate main line video data. I do. At this time, compression encoding processing with a lower bit rate is also performed, and auxiliary AV data is generated.
[0106]
Further, the data conversion unit 19 compresses and encodes the supplied audio signal in a method instructed by the control unit 20, and outputs the audio signal as main-line audio data. In the case of an audio signal, linear PCM audio data may be output without compression encoding.
[0107]
The main line audio data and video data and the auxiliary AV data processed as described above by the data conversion unit 19 are supplied to the memory controller 17.
[0108]
The data converter 19 also decodes the reproduced data supplied from the memory controller 17 as necessary, converts the data into an output signal in a predetermined format, and supplies the output signal to the signal input / output unit 31.
[0109]
The control unit 20 includes a CPU (Central Processing Unit), a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and a bus for connecting these, and controls the entire disk recording / reproducing apparatus 10. I do. In the ROM, an initial program which is read when the CPU is started, a program for controlling the disk recording and reproducing apparatus 10, and the like are stored in advance. The RAM is used as a work memory of the CPU. The control unit 20 also controls the video camera unit.
[0110]
Further, the control unit 20 provides a file system for recording data on the optical disc 1 according to a program stored in the ROM in advance and reproducing the recorded data. That is, in the disc recording / reproducing apparatus 10, recording of data on the optical disc 1 and reproduction of data from the optical disc 1 are performed under the control of the control unit 20.
[0111]
The operation unit 21 is operated by a user, for example, and supplies an operation signal corresponding to the operation to the control unit 20. The control unit 20 controls the servo control unit 15, the signal processing unit 16, the memory controller 17, and the data conversion unit 19 based on an operation signal from the operation unit 21 and the like, and executes a recording / reproducing process.
[0112]
Further, based on an operation signal from the operation unit 21, for example, setting of a bit rate, a frame rate, an image size, an image aspect ratio, and the like for recording video data is performed. Further, ON / OFF of the compression encoding process for the recording audio data and setting of the bit resolution may be performed from the operation unit 21. Control signals based on these settings are supplied to the memory controller 17 and the data conversion unit 19.
[0113]
The disk recording / reproducing apparatus 10 includes an antenna 22 for receiving a signal by GPS, and a GPS unit 23 for analyzing a GPS signal received by the antenna 22 and outputting position information including latitude, longitude, and altitude. And The position information output from the GPS unit 23 is supplied to the control unit 20. The antenna 22 and the GPS unit 23 may be provided in the video camera unit, or may be a device externally attached to the disk recording / reproducing device 10.
[0114]
FIG. 14 shows an example of the configuration of the data conversion unit 19. When data is recorded on the optical disc 1, a signal to be recorded input from the signal input / output unit 31 is supplied to the demultiplexer 41. A video signal of a moving image and an audio signal accompanying the video signal are input from the video camera unit to the signal input / output unit 31, and shooting information of the camera, for example, information on an iris and zoom is input in real time as camera data. Is done.
[0115]
The demultiplexer 41 separates a plurality of related data sequences from the signal supplied from the signal input / output unit 31, for example, a video signal of a moving image and an audio signal accompanying the video signal, and detects a data amount. To the unit 42. Further, the demultiplexer 41 separates the camera data from the signal supplied from the signal input / output unit 31 and outputs the separated camera data. This camera data is supplied to the control unit 20.
[0116]
The data amount detection unit 42 supplies the video signal and the audio signal supplied from the demultiplexer 41 as they are to the image signal conversion units 43A and 43B and the audio signal conversion unit 44, respectively. Is detected and supplied to the memory controller 17. That is, the data amount detection unit 42 detects, for example, a data amount for a predetermined reproduction time for each of the video signal and the audio signal supplied from the demultiplexer 41 and supplies the data amount to the memory controller 17.
[0117]
The image signal conversion unit 43B compresses and encodes the video signal supplied from the data amount detection unit 42 according to an instruction from the control unit 20 by, for example, the MPEG2 method, and converts the resulting video data sequence into the memory controller 17. To supply. For the image signal conversion unit 43B, the control unit 20 sets, for example, the maximum bit rate of the generated code amount by compression coding. The image signal converter 43B estimates the data amount of one frame after the compression encoding, controls the compression encoding process based on the result, and controls the video encoding so that the generated code amount falls within the set maximum bit rate. An actual compression encoding process is performed. The difference between the set maximum bit rate and the data amount by the actual compression encoding is filled with, for example, predetermined padding data, and the maximum bit rate is maintained. The data sequence of the video data that has been compression-encoded is supplied to the memory controller 17.
[0118]
On the other hand, the image signal conversion unit 43A compresses and encodes the video signal supplied from the data amount detection unit 42 by, for example, the MPEG4 system according to an instruction from the control unit 20 to generate auxiliary AV data. In this embodiment, at this time, the bit rate is fixed to several Mbps, and a GOP is formed by 10 frames of one I picture and nine P pictures.
[0119]
When the audio signal supplied from the data amount detection unit 42 is not linear PCM audio data, the audio signal conversion unit 44 converts the audio signal into linear PCM audio data according to an instruction from the control unit 20. Not limited to this, the audio signal conversion unit 44 may compress and encode the audio signal using, for example, an MP3 (Moving Pictures Experts Group 1 Audio Layer 3) or an AAC (Advanced Audio Coding) method in accordance with the MPEG method. it can. The compression coding method of the audio data is not limited to these, and another method may be used. The data sequence of the audio data output from the audio signal converter 44 is supplied to the memory controller 17.
[0120]
Note that the above-described configuration is an example, and the present invention is not limited to this. For example, when main line AV data, camera data, and the like are independently input to the signal input / output unit 31, the demultiplexer 41 can be omitted. When the main line audio data is linear PCM audio data, the processing in the audio signal conversion unit 44 can be omitted.
[0121]
Then, the video data and the audio data supplied to the memory controller 17 are supplied to the optical disk 1 and recorded as described above.
[0122]
Recording is performed while an annual ring is formed on the optical disc 1 as described above. The data amount detection unit 42 of the data conversion unit 19 notifies the memory controller 17 when audio data necessary for reproducing the time corresponding to one annual ring data is detected in the audio data, for example. In response to this notification, the memory controller 17 determines whether or not audio data necessary for reproducing one-year-ring data has been stored in the memory 18, and notifies the control unit 20 of the determination result. The control unit 20 controls the memory controller 17 so as to read out from the memory 18 audio data corresponding to the reproduction time for one year's ring data based on the determination result. Audio data is read from the memory 18 based on this control by the memory controller 17, supplied to the signal control unit 16, and recorded on the optical disc 1.
[0123]
After the audio data corresponding to the playback time for one annual ring data is recorded, the same processing is performed next on, for example, video data, and the video annual ring data for one annual ring data is recorded after the audio annual ring data. You. Similarly, data corresponding to the reproduction time for one year ring data is sequentially recorded in the auxiliary AV data.
[0124]
For the time-series metadata, for example, camera data is supplied from the demultiplexer 41 to the control unit 20, and some data such as UMID among the time-series metadata is generated by the control unit 20. The camera data and the data generated by the control unit 20 are combined into time-series metadata, and stored in the memory 18 via the memory controller 17. The memory controller 17 reads out the time-series metadata corresponding to the reproduction time for one-year ring data from the memory 18 and supplies the same to the signal processing unit 16 in the same manner as described above.
[0125]
Note that the control unit 20 also generates non-time-series metadata. The non-time-series metadata is recorded in a clip directory of a clip to which the data belongs.
[0126]
The data recorded on the optical disk 1 as described above is stored in a file and managed by a directory structure, as already described with reference to FIGS. 8, 9 and 10. For example, when data is recorded on the optical disc 1, the control unit 20 records management information such as address information of each file, pointer information in a directory structure, file name and directory name information in a predetermined management area of the optical disc 1. Is done. Further, the recorded file information and the like are reflected in the index file “INDEX.XML”.
[0127]
On the other hand, when data is reproduced from the optical disk 1, video data, audio data, auxiliary AV data, and time-series metadata are read from the optical disk 1 as described above. At this time, at the reproduction speed of main line video data at a high bit rate, low bit rate data such as main line audio data, auxiliary AV data, and time-sequential metadata are also reproduced. Is not changed by the data to be read. The video data and auxiliary AV data read from the optical disk 1 are supplied from the memory controller 17 to the image data conversion units 45B and 45A, respectively. The audio data is supplied from the memory controller 17 to the audio data converter 46.
[0128]
The image data converters 45 </ b> A and 45 </ b> B decode the data sequence of the auxiliary AV data and the main line video data supplied from the memory controller 17, and supply the resulting video signal to the multiplexer 47. The audio data converter 46 decodes the data sequence of the audio data supplied from the memory controller 17 and supplies the resulting audio signal to the multiplexer 47.
[0129]
In the image data converters 45A and 45B and the audio data converter 46, the supplied reproduction data can be supplied to the multiplexer 47 as it is without decoding, and multiplexed and output. Further, it is possible to omit the multiplexer 47 and to output each data independently.
[0130]
In the disk recording / reproducing device 10 configured as described above, when the user operates the operation unit 21 to instruct data recording, the data supplied from the signal input / output unit 31 is converted to the data conversion unit 19 and the memory controller. 17, the signal is supplied to the optical disk 1 via the signal processing unit 16 and the pickup unit 13 and recorded.
[0131]
At the time of recording, the user can change the bit rate of the main line video data by operating the operation unit 21. For example, initially, recording is performed with the bit rate set to 50 Mbps, and when the recordable area of the optical disc 1 is reduced, the bit rate is changed to a low bit rate such as 30 Mbps to prevent missing recording. Can be used.
[0132]
At this time, the clip is divided according to the bit rate change timing, and the changed data is recorded on the optical disc 1 as a new clip. The detection of the change in the bit rate may be performed by detecting an operation performed on the operation unit 21, or may be performed based on the result of monitoring the bit rate of the video data by the control unit 20. For example, the memory controller 17 extracts data at a predetermined bit position where bit rate information is described in the header of main line video data supplied from the data conversion unit 19, and confirms that the bit rate has been changed. It is possible to detect.
[0133]
When the change of the bit rate is detected, for example, the memory controller 17 is controlled by the control unit 20, and the data before the bit rate is changed is swept out of the memory 18 and recorded on the optical disc 1, and the data after the change changes to a new Annual rings are formed.
[0134]
When the change of the main line video data is detected, the other data, that is, the main line audio data, the auxiliary AV data, and the time-series metadata are similarly controlled by the memory controller 17, and the clip is divided. Is At this time, as described above, main-line AV data can be divided according to the GOP boundary of the auxiliary AV data.
[0135]
Further, when the bit rate of main line video data is changed, it is preferable to gradually change the actual bit rate of the video data because an unnatural change does not appear in the reproduced image.
[0136]
First, the case of changing from a high bit rate to a low bit rate will be described with reference to FIG. It is assumed that the bit rate mode is initially set to 50 Mbps. By operating the operation unit 21 during recording, the time t 0 Is instructed to change the bit rate mode to 30 Mbps. Upon receiving the instruction, the control unit 20 instructs the image signal conversion unit 43B of the data conversion unit 19 to change the bit rate. At this time, time t 0 Time t after a predetermined time from 1 , A time constant process is performed on the rate of change of the bit rate so that the bit rate gradually decreases. And time t 1 Is a change in the actual bit rate, at which point clip division is performed.
[0137]
In this case, the time t 0 Even if the change of the bit rate is instructed by the 1 Until the video data reaches the bit rate mode video data before the change. For example, the difference between the data amount at the bit rate specified in the bit rate mode and the actual generated code amount is filled with predetermined padding data.
[0138]
When changing from a low bit rate to a high bit rate, the above process is reversed. That is, for example, when the bit rate initially set to 30 Mbps is changed to 50 Mbps, the bit rate mode is first changed from 30 Mbps to 50 Mbps at the timing of the change instruction. Then, the control unit 20 performs time constant processing on the bit rate change speed so that the image signal conversion unit 43B of the data conversion unit 19 gradually increases the bit rate over a predetermined time. . Also, for example, a difference between the data amount at the bit rate specified in the bit rate mode and the code amount generated by actual compression encoding is filled with predetermined padding data. The clip division is performed, for example, at a change point of the bit rate mode.
[0139]
By instructing the image signal conversion unit 43B to gradually decrease the bit rate at predetermined time intervals from the control unit 20, the bit rate can be gradually changed as described above. The image signal conversion unit 43B estimates the total code amount of the encoded frame according to the bit rate value instructed little by little, and performs the encoding process according to the estimated value.
[0140]
On the other hand, regarding audio data, for example, it is possible to cope with a change in the bit resolution of main line audio data input as linear PCM audio data. When a change is detected, the clip is split at the change point, as in the case of the video data described above. Also in this case, it is possible to perform clip division in accordance with the GOP boundary of the auxiliary AV data.
[0141]
In the case of audio data, the bit resolution before the change is maintained after the bit resolution is changed, and clip division due to the change in the bit resolution can be prevented. For example, when recording audio data externally input to the disk recording / reproducing apparatus 10 according to the embodiment of the present invention on the optical disk 1, the bit resolution of the input audio data may initially be 24 bits. If the bit resolution is changed to 16 bits at a certain point in time, the bit resolution can remain at 24 bits even after the bit resolution is changed.
[0142]
Hereinafter, regarding the audio data, “24-bit bit resolution” and “16-bit bit resolution” are appropriately abbreviated as “24 bits” and “16 bits”, respectively.
[0143]
This will be described with reference to FIG. The audio data that was initially input in 24 bits is changed to 16 bits at the bit resolution change point (FIG. 16A). At this time, data indicating silence in the audio data (for example, a value “0”) is added to the lower 8 bits (LSB side) of the audio data changed to 16 bits, as shown in an example in FIG. 16B. The total is 24 bits. At this time, the 8-bit data to be added is not limited to silence, and dither may be added.
[0144]
Also, for example, when the audio data is changed from 16 bits at the beginning to 24 bits, the bit resolution can be kept at 16 bits even after the bit resolution is changed.
[0145]
This will be described with reference to FIG. The audio data that was initially input in 16 bits has its bit resolution changed to 24 bits at the bit resolution change point (FIG. 17A). At this time, as shown in an example in FIG. 17B, the lower 8 bits (LSB side) of the audio data input with 24 bits are discarded, and the total becomes 16 bits.
[0146]
Further, when audio data input as linear PCM audio data is changed to audio data encoded by an encoding method other than linear PCM (hereinafter referred to as non-audio audio data), non-audio Can be muted, and recording can be continued without dividing the clip. Muting is performed, for example, by recording audio data representing silence, and non-audio audio data is recorded as silence audio data. That is, non-audio data is replaced with audio data representing silence.
[0147]
When the non-audio data is changed to linear PCM audio data, the linear PCM audio data can be recorded with the divided clips.
[0148]
The above-described conversion processing of the bit resolution of the audio data and the silence processing at the time of inputting the non-audio audio data can be performed by the audio signal conversion unit 45 based on an instruction of the control unit 20, for example. However, the present invention is not limited to this, and can be performed by a process when audio data is read from the memory 18 under the control of the memory controller 17 based on an instruction from the control unit 20. For example, data representing non-audio audio data for one sample is stored in the memory 18 and the data is repeatedly read.
[0149]
Note that the resolution of the audio data is determined by the header of the audio data when the audio data is transmitted in a format based on AES / EBU (Audio Engineering Society / European Broadcasting Union), which is generally used in a broadcasting station, for example. Since bit resolution information is stored at a predetermined position, determination can be made by extracting this data. In addition, identification of linear PCM audio data and non-audio audio data can be similarly determined from header information and the like.
[0150]
In the above description, the change of the bit rate during recording of main line video data has been described. However, the present invention is not limited to this example. It is also possible to respond to changes in frame rate, image size, and aspect ratio. In this case, at the time of reproduction, interpolation / decimation processing in the time axis direction is performed when the frame rate is changed, and interpolation / decimation processing within the frame is performed when the image size or aspect ratio is changed. Video data can be output at a fixed frame rate, image size, and image aspect ratio. Such an interpolation / thinning-out process is performed, for example, on the video data stored in the memory 18 by the memory controller 17. This may be performed in the image signal conversion unit 43B.
[0151]
In the above description, the encoding method of main line video data is described as MPEG2, but this is not limited to this example, and video data encoded by another method can be mixedly recorded. In addition, the video data bit rate and other parameters can be similarly applied to other parameters than those described above.
[0152]
Similarly, when audio data is encoded to be non-audio, still another encoding method can be used. The bit resolution of audio data is not limited to 16 bits and 24 bits, and audio data of other bit resolutions such as 32 bits, 8 bits, and 12 bits can be mixedly recorded. The sampling frequency of the audio data is typically 48 kHz, but this is not limited to this example, and audio data of another sampling frequency such as 96 kHz or 192 kHz can be mixedly recorded.
[0153]
Further, the auxiliary AV data is not limited to the MPEG4 system, and video data encoded by another system can be mixedly recorded.
[0154]
Furthermore, it is preferable that a list of clips recorded on the optical disc 1 can be displayed on a monitor device (not shown). For example, the index file “INDEX.XML” is read in response to a user operation on the operation unit 21, and information on all clips recorded on the optical disc 1 is obtained. Then, by referring to each clip directory, a thumbnail image is automatically created based on the auxiliary AV data. The thumbnail image is created each time, for example, by reading a frame at a predetermined position of the auxiliary AV data and reducing it to a predetermined image size.
[0155]
The thumbnail image data of each clip is supplied to the memory controller 17 and stored in the memory 18. Then, the thumbnail image data stored in the memory 18 is read out by the memory controller 17 and supplied to a monitor device (not shown) via the data conversion unit 19 and the signal input / output unit 31, and the thumbnail images are displayed in a list on the monitor device. You. The display control of the thumbnail image on the monitor device can be performed by an operation from the operation unit 21. In addition, by performing a predetermined operation on the operation unit 21, a desired image can be selected from the thumbnail images, and a clip corresponding to the selected thumbnail image can be reproduced.
[0156]
When displaying the thumbnail image on the monitor device, various information of the clip corresponding to the displayed thumbnail image, for example, the bit rate and the encoding method of the main line video data are displayed together with the thumbnail image. Can be. This can be achieved by reading time-series metadata and non-time-series metadata from each clip directory.
[0157]
【The invention's effect】
As described above, in the present invention, at the time of recording video data, the bit rate is gradually changed over a predetermined time after the change of the bit rate is instructed. There is an effect that an image can be obtained in which a sudden change in image quality does not occur and visual discomfort caused by a change in bit rate is suppressed.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a data structure of a UMID.
FIG. 2 is a schematic diagram illustrating an example of a reserved word used to define an essence mark.
FIG. 3 is a schematic diagram illustrating a data structure of an example of an essence mark.
FIG. 4 is a schematic diagram illustrating an example in which annual ring data is formed on an optical disc.
FIG. 5 is a schematic diagram showing an example of how data is read from and written to an optical disk on which annual rings are formed.
FIG. 6 is a diagram for explaining that data recording is performed so that continuity of annual rings is guaranteed.
FIG. 7 is a diagram for explaining an allocation unit.
FIG. 8 is a diagram for describing a data management structure according to an embodiment of the present invention.
FIG. 9 is a diagram for describing a data management structure according to the embodiment of the present invention.
FIG. 10 is a diagram for explaining a data management structure according to the embodiment of the present invention;
FIG. 11 is a diagram for explaining that a boundary of clip division is made to coincide with a boundary of a GOP of auxiliary AV data.
FIG. 12 is a diagram for explaining that an original clip and a clip newly generated by division have an overlapping portion when the clip is divided.
FIG. 13 is a block diagram showing a configuration of an example of a disc recording / reproducing apparatus applicable to an embodiment of the present invention.
FIG. 14 is a block diagram illustrating a configuration of an example of a data conversion unit.
FIG. 15 is a diagram for explaining that the actual bit rate of video data is gradually changed when the bit rate is changed.
FIG. 16 is a diagram for describing processing when the bit resolution of audio data is changed.
FIG. 17 is a diagram for describing processing when the bit resolution of audio data is changed.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Optical disk, 10 ... Disk recording / reproducing apparatus, 16 ... Signal processing part, 17 ... Memory controller, 18 ... Memory, 19 ... Data conversion part, 20 ... Control part , 21 operating unit, 31 signal input / output unit, 42 data amount detecting unit, 43A, 43B image signal converting unit, 44 audio signal converting unit, 45A, 45B ..Image data converter, 46... Audio data converter

Claims (12)

指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化手段を有し、
上記符号化手段は、第1の最大ビットレートで上記ビデオデータの上記圧縮符号化中に第2の最大ビットレートが指定されたら、上記発生符号量が徐々に変化するように上記圧縮符号化の制御を行うようにしたことを特徴とする信号処理装置。
Having encoding means for performing compression encoding of video data while controlling the generated code amount so as to be within the specified maximum bit rate,
When the second maximum bit rate is specified during the compression encoding of the video data at the first maximum bit rate, the encoding means performs the compression encoding so that the generated code amount gradually changes. A signal processing device for performing control.
請求項1に記載の信号処理装置において、
上記最大ビットレートと上記発生符号量との差分を所定のパディングデータで埋めるようにしたことを特徴とする信号処理装置。
The signal processing device according to claim 1,
A signal processing device wherein a difference between the maximum bit rate and the generated code amount is filled with predetermined padding data.
請求項2に記載の信号処理装置において、
上記第1の最大ビットレートが上記第2の最大ビットレートより大な場合、上記第2の最大ビットレートの指定後に上記発生符号量が徐々に変化された結果、該発生符号量が上記第2の最大ビットレート内に収まるまでは上記第1のビットレートと該発生符号量との差分を上記パディングデータで埋め、該発生符号量が上記第2の最大ビットレート内に収まった後は、上記第2の最大ビットレートと該発生符号量との差分を上記パディングデータで埋めるようにしたことを特徴とする信号処理装置。
The signal processing device according to claim 2,
When the first maximum bit rate is higher than the second maximum bit rate, the generated code amount is gradually changed after the designation of the second maximum bit rate. The difference between the first bit rate and the generated code amount is filled with the padding data until the generated code amount falls within the second maximum bit rate. A signal processing device wherein a difference between a second maximum bit rate and the generated code amount is filled with the padding data.
請求項2に記載の信号処理装置において、
上記第1の最大ビットレートが上記第2の最大ビットレートより小な場合、上記第2の最大ビットレートの指定前は上記第1の最大ビットレートと上記発生符号量との差分を上記パディングデータで埋め、上記第2の最大ビットレートの指定後は上記第2の最大ビットレートと上記発生符号量との差分を上記パディングデータで埋めるようにしたことを特徴とする信号処理装置。
The signal processing device according to claim 2,
If the first maximum bit rate is smaller than the second maximum bit rate, the difference between the first maximum bit rate and the generated code amount is specified before the second maximum bit rate is specified. A signal processing device, wherein after the second maximum bit rate is designated, a difference between the second maximum bit rate and the generated code amount is filled with the padding data.
指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化のステップを有し、
上記符号化のステップは、第1の最大ビットレートで上記ビデオデータの上記圧縮符号化中に第2の最大ビットレートが指定されたら、上記発生符号量が徐々に変化するように上記圧縮符号化の制御を行うようにしたことを特徴とする信号処理方法。
Having an encoding step of performing compression encoding of video data while controlling the generated code amount so as to be within the specified maximum bit rate,
The encoding step includes the step of: if a second maximum bit rate is specified during the compression encoding of the video data at the first maximum bit rate, the compression encoding so that the generated code amount gradually changes. A signal processing method characterized by performing the following control.
ビデオデータを圧縮符号化してディスク状記録媒体に記録する記録装置において、
指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化手段と、
上記符号化手段で圧縮符号化された上記ビデオデータをディスク状記録媒体に記録する記録手段と
を有し、
上記符号化手段は、第1の最大ビットレートで上記ビデオデータの上記圧縮符号化中に第2の最大ビットレートが指定されたら、上記発生符号量が徐々に変化するように上記圧縮符号化の制御を行うようにしたことを特徴とする記録装置。
In a recording device that compresses and encodes video data and records it on a disk-shaped recording medium,
Encoding means for performing compression encoding of video data while controlling the generated code amount so as to be within the specified maximum bit rate;
Recording means for recording the video data compressed and encoded by the encoding means on a disk-shaped recording medium,
When the second maximum bit rate is specified during the compression encoding of the video data at the first maximum bit rate, the encoding means performs the compression encoding so that the generated code amount gradually changes. A recording device characterized by performing control.
請求項6に記載の記録装置において、
上記最大ビットレートと上記発生符号量との差分を所定のパディングデータで埋めるようにしたことを特徴とする記録装置。
The recording device according to claim 6,
A recording apparatus wherein a difference between the maximum bit rate and the generated code amount is filled with predetermined padding data.
請求項7に記載の記録装置において、
上記第1の最大ビットレートが上記第2の最大ビットレートより大な場合、上記第2の最大ビットレートの指定後に上記発生符号量が徐々に変化された結果、該発生符号量が上記第2の最大ビットレート内に収まるまでは上記第1のビットレートと該発生符号量との差分を上記パディングデータで埋め、該発生符号量が上記第2の最大ビットレート内に収まった後は、上記第2の最大ビットレートと該発生符号量との差分を上記パディングデータで埋めるようにしたことを特徴とする記録装置。
The recording device according to claim 7,
When the first maximum bit rate is higher than the second maximum bit rate, the generated code amount is gradually changed after the designation of the second maximum bit rate. The difference between the first bit rate and the generated code amount is filled with the padding data until the generated code amount falls within the second maximum bit rate. A recording apparatus characterized in that a difference between a second maximum bit rate and the generated code amount is filled with the padding data.
請求項8に記載の記録装置において、
上記発生符号量が上記第2のビットレート内に収まったら、上記符号化手段で圧縮符号化された上記ビデオデータを分割して記録するようにしたことを特徴とする記録装置。
The recording device according to claim 8,
A recording apparatus, wherein when the generated code amount falls within the second bit rate, the video data compressed and encoded by the encoding means is divided and recorded.
請求項7に記載の記録装置において、
上記第1の最大ビットレートが上記第2の最大ビットレートより小な場合、上記第2の最大ビットレートの指定前は上記第1の最大ビットレートと上記発生符号量との差分を上記パディングデータで埋め、上記第2の最大ビットレートの指定後は上記第2の最大ビットレートと上記発生符号量との差分を上記パディングデータで埋めるようにしたことを特徴とする記録装置。
The recording device according to claim 7,
If the first maximum bit rate is smaller than the second maximum bit rate, the difference between the first maximum bit rate and the generated code amount is specified before the second maximum bit rate is specified. And recording the difference between the second maximum bit rate and the generated code amount with the padding data after designating the second maximum bit rate.
請求項10に記載の記録装置において、
上記第2の最大ビットレートの指定時に、上記符号化手段で圧縮符号化された上記ビデオデータを分割して記録するようにしたことを特徴とする記録装置。
The recording device according to claim 10,
A recording apparatus, wherein when the second maximum bit rate is designated, the video data compressed and encoded by the encoding means is divided and recorded.
ビデオデータを圧縮符号化してディスク状記録媒体に記録する記録方法において、
指定された最大ビットレート内に収まるように発生符号量を制御しながらビデオデータの圧縮符号化を行う符号化のステップと、
上記符号化のステップで圧縮符号化された上記ビデオデータをディスク状記録媒体に記録する記録のステップと
を有し、
上記符号化のステップは、第1の最大ビットレートで上記ビデオデータの上記圧縮符号化中に第2の最大ビットレートが指定されたら、上記発生符号量が徐々に変化するように上記圧縮符号化の制御を行うようにしたことを特徴とする信号処理方法。
In a recording method of compressing and encoding video data and recording it on a disk-shaped recording medium,
An encoding step of performing compression encoding of video data while controlling the amount of generated code so as to be within a specified maximum bit rate;
Having a recording step of recording the video data compressed and encoded in the encoding step on a disc-shaped recording medium,
The encoding step includes the step of: if a second maximum bit rate is specified during the compression encoding of the video data at the first maximum bit rate, the compression encoding so that the generated code amount gradually changes. A signal processing method characterized by performing the following control.
JP2003100359A 2003-04-03 2003-04-03 Signal processing apparatus and method, and recording apparatus and method Pending JP2004312158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003100359A JP2004312158A (en) 2003-04-03 2003-04-03 Signal processing apparatus and method, and recording apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003100359A JP2004312158A (en) 2003-04-03 2003-04-03 Signal processing apparatus and method, and recording apparatus and method

Publications (1)

Publication Number Publication Date
JP2004312158A true JP2004312158A (en) 2004-11-04

Family

ID=33464521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003100359A Pending JP2004312158A (en) 2003-04-03 2003-04-03 Signal processing apparatus and method, and recording apparatus and method

Country Status (1)

Country Link
JP (1) JP2004312158A (en)

Similar Documents

Publication Publication Date Title
JP4865884B2 (en) Information recording medium
JP4314531B2 (en) Playback apparatus and method, and program
JP4144533B2 (en) Playback apparatus and method
US7515814B2 (en) Reproducing apparatus and reproducing method for video and audio data paired as growth rings
JP3921593B2 (en) Information processing apparatus and method, program storage medium, program, and information recording medium
JP4079100B2 (en) Playback apparatus and method
JP3610975B2 (en) Recording apparatus and method
JP3873921B2 (en) Recording apparatus and method
JP3982465B2 (en) Disk device, disk device control method, and disk device control program
CN100562938C (en) Messaging device and method
KR20060043135A (en) Reproducing apparatus, reproducing method, driving apparatus and driving method
JP3972911B2 (en) Data processing apparatus and method, and reproducing apparatus and method
JP4179030B2 (en) Recording apparatus and method, and reproducing apparatus and method
JP2004310833A (en) Recorder and recording method
JP4645910B2 (en) Editing apparatus, editing method, and program
JP2004312158A (en) Signal processing apparatus and method, and recording apparatus and method
JP2004310832A (en) Recording device and method
US8224154B2 (en) Recording control device and method, program, and recording medium
JP2000215648A (en) Recording device
JP4280975B2 (en) Data recording control device and method, data reproducing device and method, and program
JP4564021B2 (en) Information recording medium
JP2005004878A (en) Recording device and method, and recording program
JP2005311923A (en) Editing apparatus, editing method, program for editing method, and recording medium with program for editing method recorded thereon