JP4284574B2 - Recording apparatus and method, and recording medium - Google Patents
Recording apparatus and method, and recording medium Download PDFInfo
- Publication number
- JP4284574B2 JP4284574B2 JP2000125227A JP2000125227A JP4284574B2 JP 4284574 B2 JP4284574 B2 JP 4284574B2 JP 2000125227 A JP2000125227 A JP 2000125227A JP 2000125227 A JP2000125227 A JP 2000125227A JP 4284574 B2 JP4284574 B2 JP 4284574B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- audio
- elementary stream
- recording
- packetized elementary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、記録装置および方法、並びに記録媒体に関し、例えば、AV信号を圧縮符号化して情報記録媒体に記録する場合に用いて好適な記録装置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】
民生用ディジタルVCR(Video Cassette Recorder)に採用されているDVフォーマットのように、ビデオ信号についてはフレーム内圧縮で符号化し、対応するオーディオ信号については非圧縮または瞬時圧伸可能なように符号化して磁気テープに記録するシステムがある。
【0003】
DVフォーマットによって符号化され、記録媒体に記録されたビデオ信号およびオーディオ信号は、ビデオおよびオーディオを任意の位置でつなぎ合わせるような編集に適している。
【0004】
しかしながら、DVフォーマットの信号圧縮率が低いことに起因して、転送レートの高い記録システムを必要とすること、大きな記憶容量の媒体を必要とすること、情報記録媒体の容量が制限される場合には記録時間が短くなること等の問題があった。
【0005】
そのような問題を解決するために、ビデオ信号およびオーディオ信号をMPEG(Moving Picture Experts Group)方式を用いて圧縮符号化し、トランスポートストリーム(Transport Stream、以下、TSとも記述する)の状態で記録媒体に記録するシステムが既に存在している。
【0006】
MPEG方式が用いられたシステムによれば、ビデオ信号は、複数のフレームの画像から構成されるLong GOP(Group Of Picture)でフレーム間圧縮されており、オーディオ信号は、複数サンプルでフレーム圧縮されているので、高い圧縮率を実現することができる。したがって、高い転送レートの記録システムを必要としないこと、記録媒体の容量を節約できること、記録媒体の容量が制限される場合にはDVフォーマットのシステムに比較して記録時間が延長されること等の利点がある。
【0007】
【発明が解決しようとする課題】
しかしながら、MPEG方式で圧縮符号化されたビデオ信号およびオーディオ信号をTSの状態で記録するシステムには、次の課題が存在する。
【0008】
すなわち、ビデオ信号は、上述したようにLong GOP単位でMPEG圧縮されるが、画像のタイプ(I(Intra)ピクチャ、P(Predictive)ピクチャ、またはB(Bidirectionally predictive)ピクチャ)、画像の絵柄等によって1フレームの画像のデータ長さが一定ではない(固定レートで圧縮されない)。一方、オーディオ信号は、固定レートで圧縮される。従って、対応するビデオ信号とオーディオ信号が同時にエンコードされたとしても、対応するビデオ信号とオーディオ信号のパケットがTS上の離れた位置に配置されてしまう可能性がある。
【0009】
対応するビデオ信号とオーディオ信号のパケットがTS上の離れた位置に配置された場合、TSを途中でつなぎ合わせるような編集を実行すると、ビデオ信号のつながりのタイミングとオーディオ信号のつながりのタイミングがずれてしまったり、一方のデータが不足してしまう課題があった。
【0010】
また、TSには、TSヘッダ、デコーダへの到着時刻を示すタイムスタンプ、復号時の時刻基準となるPCR(Program Clock Reference:プログラム時刻基準参照値)が格納されたPCRパケット等を付加する必要があるので、それらオーバヘッドの分だけ、記録レートが下がってしまう課題があった。
【0011】
さらに、TSの状態で記録したビデオ信号およびオーディオ信号は、再生の一時停止(PAUSE)、スロー再生、逆転再生等のいわゆるジョグ再生が困難であるので、ジョグ再生を可能とするためには、TSをエレメンタリストリームに変換しなければならない課題があった。
【0012】
本発明はこのような状況に鑑みてなされたものであり、MPEG方式を用いて圧縮符号化したビデオ信号およびオーディオ信号を、パケッタイズドエレメンタリストリームとして情報記録媒体に記録することにより、編集したときに不都合が生じないようにするものである。
【0013】
【課題を解決するための手段】
本発明の第1の記録装置は、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを1ビデオフレーム毎に分割してヘッダを付加し、ビデオパケッタイズドエレメンタリストリームパケットを生成するビデオパケッタイズドエレメンタリストリームパケット生成手段と、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを1オーディオフレーム毎に分割してヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するオーディオパケッタイズドエレメンタリストリームパケット生成手段と、ビデオパケッタイズドエレメンタリストリームパケットを所定の数毎に結合して、ビデオパケッタイズドエレメンタリストリームパケット結合を生成するビデオパケッタイズドエレメンタリストリームパケット結合生成手段と、ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含むオーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するオーディオパケッタイズドエレメンタリストリームパケット結合生成手段と、ビデオパケッタイズドエレメンタリストリームパケット結合とオーディオパケッタイズドエレメンタリストリームパケット結合を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成手段と、シンクブロックを情報記録媒体に記録する記録手段とを含む。
【0015】
前記オーディオパケッタイズドエレメンタリストリームパケット生成手段は、オーディオエレメンタリストリームを1オーディオフレーム数毎に分割して、少なくともプレゼンテーションタイムスタンプを含むヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するようにすることができる。
【0016】
前記オーディオパケッタイズドエレメンタリストリームパケット結合生成手段は、ビデオパケッタイズドエレメンタリストリームパケット結合を構成する各ビデオパケッタイズドエレメンタリストリームパケットのヘッダに含まれるプレゼンテーションタイムスタンプが示す時刻のうち、最も早い時刻以降であって、且つ、次のビデオパケッタイズドエレメンタリストリームパケット結合を構成する各ビデオパケッタイズドエレメンタリストリームパケットのヘッダに含まれるプレゼンテーションタイムスタンプが示す時刻のうち、最も早い時刻より前の時刻を示すプレゼンテーションタイムスタンプが、ヘッダに記録されているオーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するようにすることができる。
【0017】
本発明の第1の記録装置は、圧縮符号化されたビデオ信号および圧縮符号化されたオーディオ信号が多重化されているトランスポートストリームを、ビデオエレメンタリストリームとオーディオエレメンタリストリームに分離する分離手段をさらに含むことができる。
【0018】
前記シンクブロック生成手段は、トランスポートストリームに含まれるプログラムスペシフィックインフォメーションのトランスポートストリームパケットをそのまま用いて、データタイプがAUXであるシンクブロックを生成するようにすることができる。
【0019】
前記シンクブロック生成手段は、シンクブロックのデータタイプを識別する識別情報をシンクブロックのヘッダに記録してシンクブロックを生成するようにすることができる。
【0020】
前記シンクブロック生成手段は、シンクブロックのデータ領域の全てが有効なデータで占められているか否かを示すフラグをシンクブロックのヘッダに記録し、シンクブロックのデータ領域の全てが有効なデータで占められていない場合、データ領域の先頭に有効なデータのデータ長を記録するようにすることができる。
【0021】
本は詰めの第1の記録方法は、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを1ビデオフレーム毎に分割してヘッダを付加し、ビデオパケッタイズドエレメンタリストリームパケットを生成するビデオパケッタイズドエレメンタリストリームパケット生成ステップと、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを1オーディオフレーム毎に分割してヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するオーディオパケッタイズドエレメンタリストリームパケット生成ステップと、ビデオパケッタイズドエレメンタリストリームパケットを所定の数毎に結合して、ビデオパケッタイズドエレメンタリストリームパケット結合を生成するビデオパケッタイズドエレメンタリストリームパケット結合生成ステップと、ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含むオーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するオーディオパケッタイズドエレメンタリストリームパケット結合生成ステップと、ビデオパケッタイズドエレメンタリストリームパケット結合とオーディオパケッタイズドエレメンタリストリームパケット結合を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、シンクブロックを情報記録媒体に記録する記録ステップとを含む。
【0022】
本発明の第1の記録媒体は、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを1ビデオフレーム毎に分割してヘッダを付加し、ビデオパケッタイズドエレメンタリストリームパケットを生成するビデオパケッタイズドエレメンタリストリームパケット生成ステップと、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを1オーディオフレーム毎に分割してヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するオーディオパケッタイズドエレメンタリストリームパケット生成ステップと、ビデオパケッタイズドエレメンタリストリームパケットを所定の数毎に結合して、ビデオパケッタイズドエレメンタリストリームパケット結合を生成するビデオパケッタイズドエレメンタリストリームパケット結合生成ステップと、ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含むオーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するオーディオパケッタイズドエレメンタリストリームパケット結合生成ステップと、ビデオパケッタイズドエレメンタリストリームパケット結合とオーディオパケッタイズドエレメンタリストリームパケット結合を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、シンクブロックを情報記録媒体に記録する記録ステップとを含む処理を記録装置のコンピュータに実行させるプログラムが記録されている。
【0023】
本発明の第2の記録装置は、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを所定のビデオフレーム数毎に分割してビデオ編集単位を生成するビデオ編集単位生成手段と、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを、ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割してオーディオ編集単位を生成するオーディオ編集単位生成手段と、ビデオ編集単位およびオーディオ編集単位に再生タイミングを示すタイムスタンプを付加するタイムスタンプ付加手段と、タイムスタンプが付加されたビデオ編集単位およびオーディオ編集単位を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成手段と、シンクブロックを情報記録媒体に記録する記録手段とを含む。
【0024】
本発明の第2の記録方法は、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを所定のビデオフレーム数毎に分割してビデオ編集単位を生成するビデオ編集単位生成ステップと、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを、ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割してオーディオ編集単位を生成するオーディオ編集単位生成ステップと、ビデオ編集単位およびオーディオ編集単位に再生タイミングを示すタイムスタンプを付加するタイムスタンプ付加ステップと、タイムスタンプが付加されたビデオ編集単位およびオーディオ編集単位を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、シンクブロックを情報記録媒体に記録する記録ステップとを含む。
【0025】
本発明の第2の記録媒体は、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを所定のビデオフレーム数毎に分割してビデオ編集単位を生成するビデオ編集単位生成ステップと、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを、ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割してオーディオ編集単位を生成するオーディオ編集単位生成ステップと、ビデオ編集単位およびオーディオ編集単位に再生タイミングを示すタイムスタンプを付加するタイムスタンプ付加ステップと、タイムスタンプが付加されたビデオ編集単位およびオーディオ編集単位を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、シンクブロックを情報記録媒体に記録する記録ステップとを含む処理を記録装置のコンピュータに実行させるプログラムが記録されている。
【0026】
本発明の第1の記録装置および方法、並びに記録媒体のプログラムにおいては、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームが1ビデオフレーム毎に分割されてヘッダが付加されてビデオパケッタイズドエレメンタリストリームパケットが生成され、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームが1オーディオフレーム毎に分割されてヘッダが付加されてオーディオパケッタイズドエレメンタリストリームパケットが生成され、ビデオパケッタイズドエレメンタリストリームパケットが所定の数毎に結合されてビデオパケッタイズドエレメンタリストリームパケット結合が生成され、ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含むオーディオパケッタイズドエレメンタリストリームパケットが結合されてオーディオパケッタイズドエレメンタリストリームパケット結合が生成される。さらに、ビデオパケッタイズドエレメンタリストリームパケット結合とオーディオパケッタイズドエレメンタリストリームパケット結合が交互に配置された後、所定の記録フォーマットに変換されてシンクブロックが生成され、シンクブロックが情報記録媒体に記録される。
【0027】
本発明の第2の記録装置および方法、並びに記録媒体のプログラムにおいては、ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームが所定のビデオフレーム数毎に分割されてビデオ編集単位が生成され、オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームが、ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割されてオーディオ編集単位が生成される。また、ビデオ編集単位およびオーディオ編集単位に再生タイミングを示すタイムスタンプが付加され、タイムスタンプが付加されたビデオ編集単位およびオーディオ編集単位が交互に配置された後、所定の記録フォーマットに変換されてシンクブロックが生成され、シンクブロックが情報記録媒体に記録される。
【0028】
【発明の実施の形態】
本発明を適用したAV記録再生装置について説明する。このAV記録再生装置は、入力されるビデオおよびオーディオのベースバンド信号をパケッタイズドエレメンタリストリーム(Packetized Elementary Stream、以下、PESとも記述する)化して磁気テープに記録し、入力されるTSをPES化して磁気テープに記録し、また、入力されるTSをTSの状態で磁気テープに記録する。AV記録再生装置はまた、磁気テープに記録されているPESを再生したり、磁気テープに記録されているPESをTSに変換して出力する。
【0029】
図1は、AV記録再生装置の構成例を示している。ビデオエンコード部1は、入力されるビデオベースバンド信号をMPEG方式でエンコードしてビデオエレメンタリストリーム(Elementary Stream、以下、ESと記述する)を生成し、ビデオPES化部2に出力する。ビデオPES化部2は、ビデオエンコード部1から入力されるビデオESをPES化してA/V混合部5に出力する。ビデオPES化部2また、ビデオエンコード部1から入力されるビデオESをそのままA/V混合部5に出力することもできる。ビデオPES化部2はさらに、デマルチプレクサ7から入力されるビデオTSパケットをPES化してA/V混合部5に出力する。
【0030】
オーディオエンコード部3は、入力されるオーディオベースバンド信号をMPEG方式でエンコードしてオーディオESを生成し、オーディオPES化部4に出力する。オーディオPES化部4は、オーディオエンコード部3から入力されるオーディオESをPES化してA/V混合部5に出力する。オーディオPES化部4はまた、オーディオエンコード部3から入力されるオーディオESをそのままA/V混合部5に出力することもできる。オーディオPES化部4はさらに、デマルチプレクサ7から入力されるオーディオTSパケットをPES化してA/V混合部5に出力する。
【0031】
A/V混合部5は、ビデオPES化部2から入力されるビデオのPESパケットと、オーディオPES化部4から入力されるオーディオのPESパケットを、所定の記録フォーマット(後述)に変換し、得られるシンクブロックを記録部6に出力する。A/V混合部5はまた、デマルチプレクサ7から入力されるTSパケットにタイムスタンプを付加した後、所定の記録フォーマットに変換し、得られるシンクブロックを記録部6に出力する。A/V混合部5はさらに、ビデオPES化部2を素通りしたビデオESの編集単位(後述)、およびオーディオPES化部4を素通りしたオーディオESの編集単位にタイムスタンプを付加した後、所定の記録フォーマットに変換し、得られるシンクブロックを記録部6に出力する。
【0032】
記録部6は、A/V混合部5から入力されるシンクブロックを、既存の民生用ディジタルVCRに用いられているDVフォーマットと同様に、M系列でランドマイズした後、24/25変換によってランレングス制限とトラッキング用周波数の重畳を行い、磁気テープ9に記録する。
【0033】
デマルチプレクサ7は、入力されるTSに含まれるビデオTSパケットをビデオPES化部2に出力し、オーディオTSパケットをオーディオPES化部4に出力し、PSI(Program System Information)のTSパケットをA/V混合部5に出力する。デマルチプレクサ7はまた、入力されるNon-Native(後述)のTSを各TSパケットに分離してA/V混合部5に出力する。なおこのとき、デマルチプレクサ7は、PCRパケットを廃棄する場合もある。
【0034】
再生部10は、磁気テープ9に記録されているシンクブロックを読み出してPESを再生し、A/V分離部11またはTS化部14に出力する。再生部10はまた、磁気テープ9に記録されているシンクブロックを読み出してTSを再生し、A/V分離部11またはTS化部14に出力する。
【0035】
A/V分離部11は、再生部10から入力されるPESまたはTSを、ビデオのデータストリームとオーディオのデータストリームに分離して、対応するビデオデコード部12またはオーディオデコード部13に出力する。
【0036】
ビデオデコード部12は、A/V分離部11から入力されるビデオのデータストリームをデコードして、得られるビデオ信号を出力する。オーディオデコード部13は、A/V分離部11から入力されるオーディオのデータストリームをデコードして、得られるオーディオ信号を出力する。
【0037】
TS化部14は、再生部10から入力されるPESをTSに変換して出力する。TS化部14はまた、再生部10から入力されるTSのシンクバイト(後述)が除去されているTSパケットの先頭にシンクバイトを付加して出力する。
【0038】
制御部16は、ドライブ17を制御して、磁気ディスク18、光ディスク19、光磁気ディスク20、または半導体メモリ21に記憶されている制御用プログラムを読み出し、読み出した制御用プログラムに基づいて、AV記録再生装置の各部を制御する。
【0039】
次に、AV記録再生装置の記録の方法について説明する。図2は、磁気テープ9にESを記録する例を示している。同図に示すように、ビデオについては、Iピクチャ、Bピクチャ、およびBピクチャの3フレーム毎、またはPピクチャ、Bピクチャ、およびBピクチャの3フレーム毎に結合して編集単位とし、各編集単位(3フレーム)の間に、対応するオーディオの編集単位を配置する。
【0040】
同図には、3フレームから成るビデオの編集単位に、4フレーム(AAU:Audio Access Unitと同意)から成るオーディオの編集単位、または、5フレームから成るオーディオの編集単位を対応させて配置した例が示されている。
【0041】
ただし実際には、3フレームのビデオに対応するオーディオのフレーム数は、通常、整数ではない。そこで、ビデオおよびオーディオの各編集単位には、再生時刻を表す専用のタイムスタンプ(T.S.)を付加するようにする。これにより、ビデオとオーディオを同期して再生することが可能となる。
【0042】
以下、図2に示したように記録する方法をES記録方式と記述する。
【0043】
ES記録方式によれば、専用のタイムスタンプが付加されたビデオの編集単位と、対応する専用のタイムスタンプが付加されたオーディオの編集単位を隣り合わせて配置して記録するので、編集の際につなぎ合わせたタイミングがビデオとオーディオでずれてしまうような不都合の発生を抑止することができる。
【0044】
図3は、磁気テープ9にPESを記録する例を示している。具体的には、上述した3フレームから成るビデオの編集単位および対応するオーディオの編集単位に、図2に示した専用のタイムスタンプを付加せず、PESパケットのシンタックスを適用して、再生出力の時刻管理情報PTS(Presentation Time Stamp)および復号の時刻管理情報DTS(Decoding Time Stamp)を付加してPESパケット化する。
【0045】
以下、図3に示したように記録する方法をPES記録方式と記述する。
【0046】
PES記録方式のES記録方式に対する利点は、磁気テープ9から読み出して装置外部にTSとして出力する場合、PTSおよびDTSが付加されていることに起因してTSへの変換が容易であることである。
【0047】
ところで、PESパケットの構造は、一意的ではなく、ビデオについては、例えば、1つのPESパケットが1ビデオフレームで構成される場合、または、1つのPESパケットが複数のビデオフレームから成るGOPで構成される場合がある。オーディオについては、例えば、1つのPESパケットが1オーディオフレーム(AAU)で構成される場合、または、1つのPESパケットが複数のオーディオフレームで構成される場合がある。
【0048】
そこで。編集をより容易に実行できるように、PES記録方式におけるPES構造をビデオおよびオーディオともに、1フレームで1つのPESパケットを構成するように統一する。
【0049】
次に、PESを磁気テープ9に記録する場合に適した記録フォーマットについて説明するが、その前に、TSパケットおよびPESパケットのデータ構造について説明する。なお、当該記録フォーマットは、ESを磁気テープ9に記録する場合にも適用することができる。また、当該記録フォーマットは、マルチプログラム等のTSに対応することもできる。
【0050】
図4は、TSパケットのデータ構造を示している。TSパケットは、8ビットのシンクバイト(sync_byte)、1ビットのトランスポートエラーインジケータ(transport_error_indicator)、1ビットのペイロードユニットスタートインジケータ(payload_unit_start_indicator)、1ビットのトランスポートプライオリティ(transport_priority)、13ビットのパケット識別情報(Packet_ID)、2ビットのスクランブル制御(transport_scrambling_control)、2ビットのアダプテーションフィールド制御(adaptation_field_control)、4ビットのコンティニティカウンタ(continuity_counter)、および、以降184バイトのアダプテーションフィールド等から構成される固定長(188バイト)のパケットである。
【0051】
シンクバイトは、TSパケットの先頭を表している。トランスポートエラーインジケータは、当該TSパケット中のビットエラーの有無を表している。ペイロードユニットスタートインジケータは、当該TSパケットのペイロードにPESパケットの先頭が記録されていることを表している。パケットプライオリティは、当該TSパケットの重要度を表している。パケット識別情報は、当該TSパケットの個別ストリームの属性を表している。スクランブル制御は、当該TSパケットのペイロードのスクランブルの有無および種類を表している。アダプテーションフィールド制御は、アダプテーションフィールドの有無、および、ペイロードの有無を表している。コンティニティカウンタは、同一のパケット識別情報を有する複数のTSパケットの順序を表している。
【0052】
アダプテーションフィールドには、プログラム時刻基準参照値PCRの他、個別ストリームに関する付加情報が記録される。アダプテーションフィールドにはまた、記録する付加情報等が184バイトに満たない場合、スタッフィングバイトが記録される。ペイロードには、分割されたPESパケット、プログラム仕様情報PSI(Program Specific Information)等が記録される。
【0053】
図5は、PESパケットのデータ構造を示している。PESパケットは、32ビットのパケットスタートコード(Packet Start Code)、16ビットのPESパケットレングス(PES packet length)、2ビットの”10”、14ビットのフラグと制御、8ビットのPESヘッダデータレングス(PES header data length)、40ビットのPTS、40ビットのDTS、152ビットのその他の情報、および、8Nビットのスタッフィングバイトから成るPESヘッダ、並びに、データ長不定のPESペイロードから構成される可変長のパケットである。
【0054】
パケットスタートコードは、24ビットの先頭開始コードと8ビットのストリームIDから成りPESパケットの先頭を表している。PESパケットレングスには、当該PESパケットのデータ長が記録される。PESパケットレングスに続く”10”は、当該パケットがPESパケットであることを表している。フラグと制御には、当該PESパケットのスクランブルの有無および種類、優先度、著作権情報等が記録される。PESヘッダデータレングスには、PESヘッダのデータ長が記録される。
【0055】
次に、磁気テープ9に対する記録フォーマットについて、図6を参照して説明する。磁気テープ9の1トラックには、141個のシンクブロック(以下、SBと記述する)を記録する。各トラックの両端の9個のSBには、誤り訂正用のC2パリティが記録される。C2パリティに挟まれる123個のSBには、メインデータ(PESパケット等)が記録される。
【0056】
SBは、111バイトの固定長であり、2バイトのシンク、3バイトのID、1バイトのSBヘッダ、95バイトのデータ領域、および、10バイトの誤り訂正用のC1パリティから構成される。
【0057】
3バイトのIDには、トラックナンバ、SBナンバ、および、オーバーライトプロテクトコードが記録される。オーバーライトプロテクトコードは、同じSBに情報が上書きされる度に更新される値であり、上書き時に以前のデータが消し残されてしまうことを防ぐために用いられる情報である。
【0058】
図7は、1バイト(8ビット)のSBヘッダに記録される情報を示している。SBヘッダのMSB(Most Significant Bit)側の3ビット(図7のbit−7乃至bit−5)は、SBヘッダに続く95バイトのデータ領域に記録されるデータのデータタイプを表している。LSB(Least Significant Bit)側の5ビット(図7のbit−4乃至bit−0)には、データタイプ毎に異なる情報が記録される。
【0059】
SBヘッダのMSB側の3ビットが000である場合、データタイプはPES-VIDEOである。SBヘッダのMSB側の3ビットが001である場合、データタイプはPES-AUDIOである。データタイプがPES-VIDEOまたはPES-AUDIOである場合、SBヘッダのMSB側から4ビット目(図7のbit−4)にはFull/Partialフラグが記録され、それに続くLSB側の4ビット(図7のbit−3乃至bit−0)には、同一のデータタイプのSBの連続性を示すコンティニティカウント値が記録される。
【0060】
図8は、データタイプがPES-VIDEOまたはPES-AUDIOであるSBのデータ構造を示している。SBヘッダに続く95バイトのデータ領域の全てをPESパケットが占める場合、SBヘッダのFull/Partialフラグには0が記録される。データ領域の全てをPESパケットが占めない場合、Full/Partialフラグには1が記録され、データ領域のMSB側の1バイトには、以降に前詰めされて記録されるPESパケットのデータ長が記録される。
【0061】
図7に戻り、SBヘッダのMSB側の3ビットが010である場合、データタイプはSEARCH-DATAである。データタイプがSEARCH-DATAである場合、SBヘッダのMSB側から4ビット目にはVideo/Audioフラグが記録され、次の3ビットにはサーチスピードが記録される。残り1ビットはリザーブである。データ領域には、固定サイズのサーチ用データが記録される。なお、データタイプがSEARCH-DATAであるSBのトラックにおける位置は予め定められており、他のデータタイプのSBは、SEARCH-DATAのSBの位置を避けて配置される。
【0062】
SBヘッダのMSB側の3ビットが011である場合、データタイプはAUXである。データタイプがAUXである場合、SBヘッダのMSB側から4ビット目乃至6ビット目には、AUXモードが記録される。残りの2ビットはリザーブである。データ領域には、固定サイズのAUXデータ(補助情報)が記録される。
【0063】
3ビットのAUXモードは、AUXデータの種類を表している。当該3ビットが000である場合、AUXモードはAUX_Vであり、データ領域には、ビデオデータに付随するAUXデータが記録される。当該3ビットが001である場合、AUXモードはAUX_Aであり、データ領域には、オーディオデータに付随するAUXデータが記録される。当該3ビットが010である場合、AUXモードはPSI-1であり、データ領域には、PSIのTSパケットの前半部分が記録される。当該3ビットが011である場合、AUXモードはPSI-2であり、データ領域には、PSIのTSパケットの後半部分が記録される。当該3ビットが100である場合、AUXモードはSYSTEMであり、データ領域には、システム的なAUXデータが記録される。
【0064】
図9は、データタイプがAUXであり、AUXモードがPSI-1またはPSI-2であるSBのデータ構造を示している。AUXモードがPSI-1であるSBのデータ領域の先頭の3バイトはリザーブであり、続く92バイトには、PSIのTSパケット(188バイト)の前半部分から先頭の1バイトのシンクバイト(Sync_byte)を除いた92バイトが記録される。AUXモードがPSI-2であるSBのデータ領域には、AUXモードがPSI-1のSBのデータ領域に前半部分が記録されたPSIのTSパケットの後半部分の95バイトが記録される。すなわち、1つのPSIのTSパケットは、AUXモードがPSI-1のSBとPSI-2のSBに2分割されて記録される。
【0065】
図7に戻り、SBヘッダのMSB側の3ビットが100である場合、データタイプはTS−1である。データタイプがTS−1である場合、SBヘッダのMSB側から4ビット目および5ビット目はリザーブである。残りの3ビットと、以降に続くデータ領域の先頭の3バイト(24ビット)には、27ビットのタイムスタンプが記録される。
【0066】
SBヘッダのMSB側の3ビットが101である場合、データタイプはTS−2である。データタイプがTS−2である場合、SBヘッダのLSB側の5ビットには、コンティニティカウント値が記録される。
【0067】
図10は、データタイプがTS-1またはTS-2であるSBのデータ構造を示している。データタイプがTS-1であるSBのデータ領域の先頭の3バイトは、上述したように、SBヘッダのLSB側の3ビットと合わされて27ビットのタイムスタンプの記録に用いられる。続くデータ領域の92バイトには、TSパケット(188バイト)の前半部分から先頭の1バイトのシンクバイト(Sync_byte)を除いた92バイトが記録される。データタイプがTS-2であるSBのデータ領域には、データタイプがTS-1のSBのデータ領域に前半部分が記録されたTSパケットの後半部分の95バイトが記録される。
【0068】
すなわち、1つのTSパケットは、データタイプがTS-1であるSBとTS-2であるSBに2分割されて記録される。データタイプがTS-2であるSBヘッダに記録されるコンティニティカウント値は、TS-1のSBとTS-2のSBに記録されたTSパケットの連続性を表す。
【0069】
図7に戻り、SBヘッダのMSB側の3ビットが110である場合、データタイプはNULLである。データタイプがNULLである場合、データ領域には、記録レートを満たすためだけの無効データが記録される。なお、データタイプがNULLであるSBヘッダ以降に記録されているデータバイトは無視される。
【0070】
SBヘッダのMSB側の3ビットが111である場合のデータタイプは、未定義(リザーブ)である。
【0071】
次に、本発明を適用したAV記録再生装置が可能な4種類の記録処理について、図11乃至図14を参照して説明する。図11乃至図14は、各記録処理の概念を示している。なお、以下においては、AV記録再生装置のビデオエンコード部1、ビデオPES化部2、オーディオエンコード部3、またはオーディオPES化部4によってES化されたES、PES化されたPES、および当該PESから成るTSをNativeと称し、その他のES、PES、およびTSをNon-Nativeと称する。
【0072】
第1の記録処理は、図11に示すように、NativeのESをPES化して、NativeのPESとして記録する方法である。第2の記録処理は、図12に示すように、NativeのTSを再度PES化して、NativeのPESとして記録する方法である。
【0073】
第3の記録処理は、図13に示すように、Non-NativeのTSをES化し、さらにPES化して、Non-NativeのPESとして記録する方法である。ただし、第3の記録処理を適用できる条件は、当該TSがマルチプログラムではなく、シングルプログラムであり、且つ、ビデオのESにvbv_delayが付加されていることである。これは、vbv_delayが付与されていない場合(vbv_delayに0xFFFFが記録されている場合)、TSをPES化するときに到着時刻情報が失われて再生時にTSを復元することができなくなるからである。
【0074】
第4の記録処理は、図14に示すように、Non-NativeのTSにタイムスタンプを付加し、Non-NativeのTSとして記録する方法である。第4の記録処理は、上述した第3の記録処理を適用できる条件を満たしていないTSに対して適用される。
【0075】
以下、第1乃至第4の記録処理について具体的に説明する。
【0076】
第1の記録処理について、図15のフローチャートを参照して説明する。ステップS1において、ビデオエンコード部1は、入力されたビデオベースバンド信号をMPEG方式でエンコードしてビデオESを生成し、ビデオPES化部2に出力する。このとき、ビデオESのビットレートは、シーケンスヘッダに含まれるビットレートに記録する最大レートに等しいビットレートで正確にエンコードするようにする。また、ピクチャヘッダのvbv_delayには、正確な値を記録する。
【0077】
オーディオエンコード部3は、入力されたオーディオベースバンド信号をMPEG方式でエンコードしてオーディオESを生成し、オーディオPES化部4に出力する。
【0078】
ステップS2において、ビデオPES化部2は、ビデオエンコード部1から入力されたビデオESの1ビデオフレーム毎に、PTSおよびDTSを含むPESヘッダを付加してPESパケットを生成し、A/V混合部5に出力する。
【0079】
オーディオPES化部4は、オーディオエンコード部3から入力されたオーディオESの1オーディオフレーム(AAU)毎に、PTSおよびDTSを含むPESヘッダを付加してPESパケットを生成し、A/V混合部5に出力する。
【0080】
ステップS3において、A/V混合部5は、ビデオPES化部2からのビデオPESパケットについて、Iピクチャ、Bピクチャ、およびBピクチャの3つのPESパケット、または、Pピクチャ、Bピクチャ、およびBピクチャの3つのPESパケットを結合して編集単位とする。A/V混合部5はまた、結合した当該3フレームの画像のPTS時刻のうち、最も早い値をPTS1とし、次の3フレームの画像の最も早い値をPTS2とした場合、PTS1以降であって、且つ、PTS2より前のPTSを有するオーディオのPESパケットを結合して編集単位とし、オーディオの編集単位、ビデオの編集単位の順序で交互に配置して混合PESを生成する。
【0081】
ステップS4において、A/V混合部5は、データタイプがAUXであってAUXモードがAUX_VまたはAUX_AであるSBを生成し、それらのデータ領域に著作権情報等の補助情報を記録して、当該AUXのSBを混合PESの境界に挿入する。
【0082】
ステップS5において、A/V混合部5は、データタイプがPES_VIDEOまたはPES_AUDIOのSBのデータ領域とするために、混合して配置したビデオのPESパケットとオーディオのPESパケットを、各PESパケットを95バイト毎に分割する。さらに、A/V混合部5は、図8を参照して上述したように、PESパケットを分割したものが95バイトであり、SBの全データ領域を占める場合には、Full/Partialフラグに0を記録したSBヘッダを生成する。PESパケットを分割したものが95バイトに満たず、SBのデータ領域(95バイト)を満たさない場合には、95バイトに満たないPESパケットを分割したものの先頭の1バイトにデータ長を記録し、また、Full/Partialフラグに1を記録したSBヘッダを生成する。
【0083】
ステップS6において、A/V混合部5は、データタイプがPES_VIDEOおよびPES_AUDIOのSB毎にそれぞれ、SBヘッダにコンティニティカウンタ値を記録してSBヘッダを完成し、ステップS5でPESパケットを95バイト毎に分割したものに付加してSBを生成する。生成されたSBは、A/V混合部5に内蔵されるインタリーブ単位のメモリに保持される。
【0084】
A/V混合部5はさらに、サーチ用データを記録したデータタイプがSEARCH_DATAであるSB、システム用の補助情報を記録したデータタイプがAUXであり、AUXモードがSYSTEMであるSB等を生成する。生成されたSBは、A/V混合部5に内蔵されるメモリの予め決められている位置に保持される。
【0085】
A/V混合部5はさらに、磁気テープ9に対する記録レートに対して、生成したSBが不足する場合、データタイプがNULLであるSBを生成する。生成されたSBは、A/V混合部5に内蔵されるメモリに保持される。
【0086】
ステップS7において、A/V混合部5は、1トラック分のSBに対するC2パリティを生成した後、各SBの最後尾にC1パリティを付加し、磁気テープ9に記録する順序で記録部6に出力を開始する。
【0087】
ステップS8において、記録部6は、A/V混合部5から順次入力されるSBを、既存の民生用ディジタルVCRに用いられているDVフォーマットと同様に、M系列でランドマイズした後、24/25変換によってランレングス制限とトラッキング用周波数の重畳を行い、磁気テープ9に記録する。
【0088】
第2の記録処理について、図16のフローチャートを参照して説明する。第2の記録処理は、デマルチプレクサ7にTSとともに入力されるPMT(Program Map Table)のdescriptor等に記録されている情報に基づいて、当該TSがNativeであると判定されたとき開始される。
【0089】
ステップS11において、デマルチプレクサ7は、入力されたTSをビデオTSパケットとオーディオTSパケットに分離して、それぞれをビデオPES化部2またはオーディオPES化部4に出力する。このとき、デマルチプレクサ7は、TSパケットのヘッダのトランスポートエラーインジケータおよびコンティニティカウンタに基づき、エラーが発生しているTSパケットや不連続のTSパケットを検出して廃棄し、エラーや不連続の発生を制御部16を介して、A/V混合部5に通知する。デマルチプレクサ7はさらに、TSに含まれるPCRを廃棄する。
【0090】
ビデオPES化部2は、デマルチプレクサ7から入力されたビデオTSパケットからビデオPESパケットを復元してA/V混合部5に出力する。ビデオPES化部2はまた、ビデオTSパケットから著作権情報等の補助情報を抽出してA/V混合部5に出力する。なお、復元されたビデオPESパケットはNativeであるので、各PESパケットは1ビデオフレームで構成されている。
【0091】
オーディオPES化部4は、デマルチプレクサ7から入力されたオーディオTSパケットからオーディオPESパケットを復元してA/V混合部5に出力する。オーディオPES化部4はまた、オーディオTSパケットから著作権情報等の補助情報を抽出してA/V混合部5に出力する。なお、復元されたオーディオPESパケットはNativeであるので、各PESパケットは1オーディオフレーム(AAU)で構成されている。
【0092】
A/V混合部5は、ビデオPES化部2からのビデオPESパケットについて、Iピクチャ、Bピクチャ、およびBピクチャの3つのPESパケット、または、Pピクチャ、Bピクチャ、およびBピクチャの3つのPESパケットを結合して編集単位とする。A/V混合部5はまた、図17に示すように、結合した当該3フレームの画像のPTS時刻のうち、最も早い値をPTS1とし、次の3フレームの画像の最も早い値をPTS2とした場合、PTS1以降であって、且つ、PTS2より前のPTSを有するオーディオのPESパケットを結合して編集単位とし、オーディオの編集単位、ビデオの編集単位の順序で交互に配置して混合PESを生成する。なお、図17は、入力されたTSが第2の記録処理によってPESとして記録されるまでの遅延量を示している。
【0093】
ステップS12において、A/V混合部5は、データタイプがAUXであってAUXモードがAUX_VであるSBを生成し、そのデータ領域にビデオPES化部2から入力された著作権情報等の補助情報を記録して、当該SBをビデオPESパケットに結合する。A/V混合部5はまた、データタイプがAUXであってAUXモードがAUX_AであるSBを生成し、そのデータ領域にオーディオPES化部4から入力された著作権情報等の補助情報を記録して、当該SBをオーディオPESパケットに結合する。
【0094】
ステップS13において、A/V混合部5は、データタイプがPES_VIDEOまたはPES_AUDIOのSBのデータ領域とするために、混合して配置したビデオのPESパケットとオーディオのPESパケットを、各PESパケットを95バイト毎に分割する。さらに、A/V混合部5は、図8を参照して上述したように、PESパケットを分割したものが95バイトであり、SBの全データ領域を占める場合には、Full/Partialフラグに0を記録したSBヘッダを生成する。PESパケットを分割したものが95バイトに満たず、SBのデータ領域(95バイト)を満たさない場合には、95バイトに満たないPESパケットを分割したものの先頭の1バイトにデータ長を記録し、また、Full/Partialフラグに1を記録したSBヘッダを生成する。
【0095】
ステップS14において、A/V混合部5は、データタイプがPES_VIDEOおよびPES_AUDIOのSB毎にそれぞれ、SBヘッダにコンティニティカウンタ値を記録してSBヘッダを完成し、ステップS13でPESパケットを95バイト毎に分割したものに付加してSBを生成する。生成されたSBは、A/V混合部5に内蔵されるインタリーブ単位のメモリに保持される。
【0096】
A/V混合部5はさらに、サーチ用データを記録したデータタイプがSEARCH_DATAであるSB、システム用の補助情報を記録したデータタイプがAUXであり、AUXモードがSYSTEMであるSB等を生成する。生成されたSBは、A/V混合部5に内蔵されるメモリの予め決められている位置に保持される。
【0097】
A/V混合部5はさらに、磁気テープ9に対する記録レートに対して、生成したSBが不足する場合、データタイプがNULLであるSBを生成する。生成されたSBは、A/V混合部5に内蔵されるメモリに保持される。
【0098】
なお、制御部16を介してデマルチプレクサ7からTSパケットのエラーや不連続を通知されている場合、ステップS13,S14において、A/V混合部5は、エラー直前までの半端なデータが残っているならば、PartialでSBに記録し、かつ、エラー以降のデータから新しいSBに記録する。さらに、当該新しいSBのヘッダのコンティニティカウンタには、再生時にエラーの位置を識別できるように、意図的に不連続な値を記録するようにする。
【0099】
ステップS15において、A/V混合部5は、1トラック分のSBに対するC2パリティを生成した後、各SBの最後尾にC1パリティを付加し、磁気テープ9に記録する順序で記録部6に出力を開始する。
【0100】
ステップS16において、記録部6は、A/V混合部5から順次入力されるSBを、既存の民生用ディジタルVCRに用いられているDVフォーマットと同様に、M系列でランドマイズした後、24/25変換によってランレングス制限とトラッキング用周波数の重畳を行い、磁気テープ9に記録する。
【0101】
第3の記録処理について、図18のフローチャートを参照して説明する。第3の記録処理は、デマルチプレクサ7にTSとともに入力されるPMTのdescriptor等に記録されている情報に基づいて、当該TSがNon-Nativeであり、且つ、第3の記録処理を適用できる条件を満たす(シングルプログラムであり、且つ、ビデオのESにvbv_delayが付加されている)と判定されたとき開始される。
【0102】
ステップS21において、デマルチプレクサ7は、入力されたTSをビデオTSパケットとオーディオTSパケットに分離して、それぞれをビデオPES化部2またはオーディオPES化部4に出力する。このとき、デマルチプレクサ7は、TSパケットのヘッダのトランスポートエラーインジケータおよびコンティニティカウンタに基づき、エラーが発生しているTSパケットや不連続のTSパケットを検出して廃棄し、エラーや不連続の発生を制御部16を介して、A/V混合部5に通知する。デマルチプレクサ7はさらに、TSからPSIのTSパケットを検出してA/V混合部5に供給する。デマルチプレクサ7はさらに、TSに含まれるPCRを廃棄する。
【0103】
ビデオPES化部2は、デマルチプレクサ7から入力されたビデオTSパケットからビデオPESパケットを復元して、当該ビデオPESパケットが1ビデオフレームで構成されているか否かを判定し、1ビデオフレームで構成されていないと判定した場合、ES化した後、PTSおよびDTSを補間して、1フレームで構成されるNativeと同様のPESパケットに変換し、A/V混合部5に出力する。ビデオPES化部2はまた、ビデオTSパケットから著作権情報等の補助情報を抽出してA/V混合部5に出力する。
【0104】
オーディオPES化部4は、デマルチプレクサ7から入力されたオーディオTSパケットからオーディオPESパケットを復元して、当該オーディオPESパケットが1オーディオフレーム(AAU)で構成されているか否かを判定し、1オーディオフレームで構成されていないと判定した場合、ES化した後、PTSを補間して、1フレームで構成されるNativeと同様のPESパケットに変換し、A/V混合部5に出力する。オーディオPES化部4はまた、オーディオTSパケットから著作権情報等の補助情報を抽出してA/V混合部5に出力する。
【0105】
ステップS22において、A/V混合部5は、ビデオPES化部2からのビデオPESパケットについて、Iピクチャ、Bピクチャ、およびBピクチャの3つのPESパケット、または、Pピクチャ、Bピクチャ、およびBピクチャの3つのPESパケットを結合して編集単位とする。A/V混合部5はまた、結合した当該3フレームの画像のPTS時刻のうち、最も早い値をPTS1とし、次の3フレームの画像の最も早い値をPTS2とした場合、PTS1以降であって、且つ、PTS2より前のPTSを有するオーディオのPESパケットを結合して編集単位とし、オーディオの編集単位、ビデオの編集単位の順序で交互に配置して混合PESを生成する。
【0106】
ステップS23において、A/V混合部5は、データタイプがAUXであってAUXモードがAUX_VであるSBを生成し、そのデータ領域にビデオPES化部2から入力された著作権情報等の補助情報を記録して、当該SBをビデオPESパケットに結合する。A/V混合部5はまた、データタイプがAUXであってAUXモードがAUX_AであるSBを生成し、そのデータ領域にオーディオPES化部4から入力された著作権情報等の補助情報を記録して、当該SBをオーディオPESパケットに結合する。A/V混合部5はさらに、データタイプがAUXであって、AUXモードがPSI-1であるSBとAUXモードがPSI-2であるSBを生成し、PSI-1のSBのデータ領域にデマルチプレクサ7からのPSIのTSパケットの前半部分を記録し、PSI-2のSBのデータ領域にPSIのTSパケットの後半部分を記録する。
【0107】
ステップS24において、A/V混合部5は、データタイプがPES_VIDEOまたはPES_AUDIOのSBのデータ領域とするために、混合して配置したビデオのPESパケットとオーディオのPESパケットを、各PESパケットを95バイト毎に分割する。さらに、A/V混合部5は、図8を参照して上述したように、PESパケットを分割したものが95バイトであり、SBの全データ領域を占める場合には、Full/Partialフラグに0を記録したSBヘッダを生成する。PESパケットを分割したものが95バイトに満たず、SBのデータ領域(95バイト)を満たさない場合には、95バイトに満たないPESパケットを分割したものの先頭の1バイトにデータ長を記録し、また、Full/Partialフラグに1を記録したSBヘッダを生成する。
【0108】
ステップS25において、A/V混合部5は、データタイプがPES_VIDEOであるSBおよびデータタイプがPES_AUDIOであるSBのSBヘッダにコンティニティカウンタ値を記録してSBヘッダを完成し、ステップS5でPESパケットを95バイト毎に分割したものに付加してSBを生成する。生成されたSBは、A/V混合部5に内蔵されるインタリーブ単位のメモリに保持される。
【0109】
A/V混合部5はさらに、サーチ用データを記録したデータタイプがSEARCH_DATAであるSB、システム用の補助情報を記録したデータタイプがAUXであり、AUXモードがSYSTEMであるSB等を生成する。生成されたSBは、A/V混合部5に内蔵されるメモリの予め決められている位置に保持される。
【0110】
A/V混合部5はさらに、磁気テープ9に対する記録レートに対して、生成したSBが不足する場合、データタイプがNULLであるSBを生成する。生成されたSBは、A/V混合部5に内蔵されるメモリに保持される。
【0111】
なお、制御部16を介してデマルチプレクサ7からTSパケットのエラーや不連続を通知されている場合、ステップS24,S25において、A/V混合部5は、エラー直前までの半端なデータが残っているならば、Partialフラグを立ててSBに記録し、かつ、エラー以降のデータから新しいSBに記録する。さらに、当該新しいSBのヘッダのコンティニティカウンタには、再生時にエラーの位置を識別できるように、意図的に不連続な値を記録するようにする。
【0112】
ステップS26において、A/V混合部5は、1トラック分のSBに対するC2パリティを生成した後、各SBの最後尾にC1パリティを付加し、磁気テープ9に記録する順序で記録部6に出力を開始する。
【0113】
ステップS27において、記録部6は、A/V混合部5から順次入力されるSBを、既存の民生用ディジタルVCRに用いられているDVフォーマットと同様に、M系列でランドマイズした後、24/25変換によってランレングス制限とトラッキング用周波数の重畳を行い、磁気テープ9に記録する。
【0114】
第4の記録処理について、図19のフローチャートを参照して説明する。第4の記録処理は、デマルチプレクサ7にTSとともに入力されるPMTのdescriptor等に記録されている情報に基づいて、当該TSがNon-Nativeであり、且つ、第3の記録処理を適用できる条件を満たさない(シングルプログラムではない、または、ビデオのESにvbv_delayが付加されていない)と判定されたとき開始される。
【0115】
ステップS31において、デマルチプレクサ7は、入力されたNon-NativeのTSを各TSパケットに分離して、A/V混合部5に出力する。A/V混合部5は、入力されたTSパケットから先頭のシンクバイトを除去した後、前半部分の92バイトと後半部分の95バイトに2分割し、前半部分の92バイトをデータ領域に記録したデータタイプがTS-1であるSBと、後半部分の95バイトをデータ領域に記録したデータタイプがTS-2であるSBを生成する。
【0116】
ステップS32において、A/V混合部5は、ステップS31で生成したデータタイプがTS-1であるSBのヘッダのLSB側の3ビットとデータ領域の先頭の3バイトからなる27ビットに、到着時刻を示すタイムスタンプを付加する。
【0117】
ステップS33において、A/V混合部5は、ステップS31で生成したデータタイプがTS-2であるSBのヘッダのLSB側の5ビットにTSパケットの連続性を示すコンティニティカウント値を記録する。生成されたSBは、A/V混合部5に内蔵されるメモリに保持される。なお、対応するTS-1のSBとTS-2のSBは、できる限り連続して配置する。またTSパケットにエラーや不連続が発生していても、そのままSBに記録する。
【0118】
A/V混合部5はさらに、サーチ用データを記録したデータタイプがSEARCH_DATAであるSB、システム用の補助情報を記録したデータタイプがAUXであり、AUXモードがSYSTEMであるSB等を生成する。生成されたSBは、A/V混合部5に内蔵されるメモリの予め決められている位置に保持される。
【0119】
A/V混合部5はさらに、磁気テープ9に対する記録レートに対して、生成したSBが不足する場合、データタイプがNULLであるSBを生成する。生成されたSBは、A/V混合部5に内蔵されるメモリに保持される。
【0120】
ステップS34において、A/V混合部5は、磁気テープ9に記録する順序でSBを、内蔵するメモリから記録部6に出力する。記録部6は、A/V混合部5から順次入力されるSBを、既存の民生用ディジタルVCRに用いられているDVフォーマットと同様に、M系列でランドマイズした後、24/25変換によってランレングス制限とトラッキング用周波数の重畳を行い、磁気テープ9に記録する。
【0121】
次に、本発明を適用したAV記録再生装置の再生処理について説明する。このAV記録再生装置は、上述した4種類の記録処理によって磁気テープ9に記録したPESまたはTSを読み出してデコードし、得られるビデオ信号およびオーディオ信号を出力する通常の再生処理の他、磁気テープ9に記録したPESを読み出し、TS化して出力するTS出力処理が可能である。
【0122】
AV記録再生装置のTS出力処理について、図20のフローチャートおよび図22を参照して説明する。このTS出力処理は、磁気テープ9から再生部10によって順次読み出されたSBがPESパケットに再生されて(パリティデータに基づくエラー訂正等を含む)TS化部14に供給され始め、且つ、IピクチャのPESパケットが検出されたとき開始される。なお、読み出されたPESがTSとして出力されるまでの遅延量を図21に示す。
【0123】
ステップS41(図22の▲1▼に相当する)において、TS出力部14は、IピクチャのPESヘッダからDTSを読み出し、ピクチャヘッダからvbv_delayを読み出してDTS-(vbv_delay)を演算し、さらにDTS-(vbv_delay)から所定の時間を減算した時刻を初期値をしてSTC(System Time Clock)を初期化し、STCカウンタの自走を開始させる。
【0124】
ステップS42(図22の▲2▼に相当する)において、TS出力部14は、PATおよびPMTのPSIパケットを生成して所定の間隔で出力する。これにより、当該TSの受信側においては、ビデオおよびオーディオのTSパケットを受信する以前にPATおよびPMTを受信して認識することができるので、先頭GOPの再生が欠けてしまうような不具合の発生を抑止することできる。
【0125】
ステップS43(図22の▲3▼に相当する)において、TS出力部14は、STCの値を記録したPCRパケットを任意の間隔で出力する。
【0126】
ステップS44(図22の▲4▼に相当する)において、TS出力部14は、ビデオについて、先頭のIピクチャのDTSからvbv_delayを減算した時刻(DTS-(vbv_delay))とSTCが一致したタイミングで、ビデオのPESパケットをTS化して出力を開始する。以降のピクチャについてもDTSからvbv_delayを減算した時刻がDTSと一致したタイミングで、PESパケットをTS化して出力する。なお、BピクチャにはDTSが記録されていないので、代わりにPTSを用いて同様に処理する。
【0127】
TS出力部14はまた(図22の▲5▼に相当する処理として)、オーディオについて、先頭のフレーム(AAU)のPTSからStart Up Delayを減算した時刻(PTS-(Start Up Delay))とSTCが一致したタイミングで、オーディオのPESパケットをTS化して出力を開始する。なお、オーディオの出力レートは、ヘッダのビットレートインデックス(Bitrate_index)に記録する値に正確に一致させるようにする。
【0128】
なお、AV記録再生装置はさらに、磁気テープ9に記録したTSをTSの状態で出力することが可能である。
【0129】
次に、TS化部14のTS出力処理における留意事項として、ビデオのTSパケットの出力間隔、AUXデータ(補助情報)の扱い、磁気テープ9に記録されているNon-NativeのTSを出力する処理、PES記録のエラー処理、および、TS記録のエラー処理について列記する。
【0130】
始めに、ビデオのTSパケットの出力間隔について説明する。磁気テープ9から読み出して再生したPESのピクチャヘッダに0xFFFF以外のvbv_delayが記録されており、且つ、シーケンスヘッダのビットレート(bit_rate)の値と出力レートが正確に一致する場合、すなわち、当該PESがNativeである場合、当該ビットレートよりも少し高めのレートでTS化し、各ピクチャのデータがなくなったら、次のピクチャのデータが入力されるまで待機すればよい。
【0131】
また、磁気テープ9から読み出して再生したPESのピクチャヘッダにvbv_delayが記録されていない(0xFFFFが記録されている)、または、シーケンスヘッダのビットレート(bit_rate)の値と出力レートが正確に一致しない場合、すなわち、当該PESがNon-Nativeである場合、ピクチャ毎に次のピクチャの(DTS-(vbv_delay))までの時間を、当該ピクチャのビット数で除算し、除算値の間隔で出力すればよい。
【0132】
次に、AUXデータ(補助情報)の扱いについて説明する。磁気テープ9から読み出して再生したPESがNativeである場合、AUXデータは、上述した第1または第2の記録処理によって、データタイプがAUX_VまたはAUX_AのSBに記録されているので、TS出力処理においては、AUX_VおよびAUX_Aに記録されているAUXデータをそのままTSパケットに載せて出力する。なお、AUX_VはビデオのPESと結合され、AUX_AはオーディオのPESと結合されているので、ビデオまたはオーディオのPESとタイミングを合わせてAUXデータをTS化して出力する。
【0133】
PMTはNative専用のものを生成する。PMTには、ビデオ、オーディオ、AUX、およびPCRの各PIDを記録する。PMTにはまた、AUXデータのうちの著作権情報等を記録し、汎用の機器においても著作権情報等を解釈できるようにする。PMTにはさらに、Nativeであることを表すdescriptorを記録する。
【0134】
磁気テープ9から読み出して再生したPESがNon-Nativeである場合、AUXデータであるPAT、PMT、およびSIT等は、データタイプがAUXであってAUXモードがPSI-1またはPSI-2であるSBに記録されているので、そのままTSパケットに戻して出力すればよい。なおTSパケットに戻すとき、ビデオ、オーディオ、およびPCRのPIDとして、PMTに記録されている値をそのまま使用するようにすれば、PMTおよびCRC(Cyclic Redundancy Check)を書き換える処理を省略できる。
【0135】
次に、磁気テープ9に記録されているNon-NativeのTSを出力する処理について説明する。上述した第4の記録処理によって磁気テープ9に記録されているTSには、タイムスタンプが記録されているので、再生時のSTCを基準として、当該タイムスタンプが一致したとき出力する。なお、磁気テープ9から再生されたTSヘッダには、第4の記録処理によりシンクバイトが存在しないので、これを付加して出力する。
【0136】
次に、PESで記録されたデータに対するSBヘッダのコンティニティカウンタに基づくエラー処理について、図23を参照して説明する。上述した第1乃至第3の記録処理により、SBのデータタイプはSBヘッダに記録される。したがって、SBにエラーが発生して訂正不能である場合、当該SBのデータタイプが不明となる。
【0137】
そこで、エラーが発生していないSBのSBヘッダに記録されているコンティニティカウンタ値の連続性に基づいて、エラーが発生して訂正不能であるSBのデータタイプを判別する。
【0138】
具体的には、データタイプがPES-VIDEOのSBのコンティニティカウンタ値を監視して、訂正不能なエラーが発生したSBの前後のSBのコンティニティカウンタ値の不連続を検知した場合、訂正不能なエラーが発生したSBのデータタイプはPES-VIDEOであると判別する。同様に、データタイプがPES-AUDIOのSBのコンティニティカウンタ値を監視して、訂正不能なエラーが発生したSBの前後のSBのコンティニティカウンタ値の不連続を検知した場合、訂正不能なエラーが発生したSBのデータタイプはPES-AUDIOであると判別する。
【0139】
このような判別により、PESが記録されているSBにエラーが発生したのか否かを識別することができるので、再生するビデオおよびオーディオに対してエラーの発生が与える影響を少なくすることができる。
【0140】
また、PES-VIDEOのSBとPES-AUDIOのSBとの境界でエラーが発生してた場合であっても、前の結合単位の最後のコンティニティカウンタ値との連続性を調べることにより、エラーを検出することができる。
【0141】
なお、コンティニティカウンタ値が連続しているときにはTSを連続して出力し、コンティニティカウンタ値が不連続であり、訂正不能なエラーと判別したときにはエラーコードを挿入する。エラーコードを挿入する方法は、ESレイヤではシーケンスエラーコード(Sequence Error Code)の0x000001B4を挿入すればよい。また、TSレイヤではトランスポートエラーインジケータ(transport_error_indicator)に1にセットしたパケットを出力すればよい。
【0142】
ところで、コンティニティカウンタ値は0乃至15を巡回する4ビットの値であるので、データタイプが同一であるSBが16の倍数個連続して欠落した場合、それを検知することができない。そこで、訂正不能なエラーが発生したSBが16個以上連続した場合、それらのSBのデータタイプに拘わらず、エラーコードを挿入するようにする。
【0143】
また、SBに訂正不能なエラーが発生していないときにも、このエラー処理を実行するようにすれば、記録時に意図的に記録した不連続なコンティニティカウンタ値を、再生時にエラーとして扱うことができる。
【0144】
次に、TSで記録されたデータに対するSBヘッダのコンティニティカウンタに基づくエラー処理について、図24を参照して説明する。上述した第4の記録処理により、SBのデータタイプはSBヘッダに記録される。したがって、SBにエラーが発生して訂正不能である場合、当該SBのデータタイプが不明となる。
【0145】
そこで、エラーが発生していないSBのSBヘッダに記録されているコンティニティカウンタ値の連続性に基づいて、エラーが発生して訂正不能であるSBのデータタイプを判別する。
【0146】
具体的には、訂正不能なSBを挟む正常なSBのデータタイプを監視し、データタイプがTS-1からTS-2に続いた場合、当該TS-2のSBヘッダに記録されてるコンティニティカウンタ値の、1つ前のTS-2のSBヘッダに記録されてるコンティニティカウンタ値との連続性を判定する。連続していると判定した場合、当該TS-1のSBと当該TS-2のSBはペアであるので、1つのTSパケットに復元して出力する。反対に、連続していないと判定した場合、当該TS-1のSBと当該TS-2のSBはペアではなく、両者ともペアが欠落したSBであるので両者を捨てる。
【0147】
ここでTSが捨てられたことは、前後する出力されたTSのTSヘッダに記録されるコンティニティカウンタ値に基づいて、受信側で検出されるので、再生するビデオおよびオーディオに対してエラーの発生が与える影響を少なくすることができる。
【0148】
データタイプがTS-2からTS-1に続いた場合、エラー処理を実行せずにそのまま出力する。すなわち、訂正不能なSBのデータタイプがTS-1またはTS-2であったとしても、そのことは、再生側においてTSヘッダのコンティニティカウンタ値の不連続に基づいて識別される。
【0149】
データタイプがTS-1からTS-1に続いた場合、先に読み出されたTS-1のSBを捨てる。先に読み出されたTS-1のSBを捨てたことは、再生側において、TSヘッダのコンティニティカウンタ値の不連続に基づいて識別される。
【0150】
データタイプがTS-2からTS-2に続いた場合、後に読み出されたTS-2のSBを捨てる。後に読み出されたTS-2のSBを捨てたことは、再生側において、TSヘッダのコンティニティカウンタ値の不連続に基づいて識別される。
【0151】
以上のことが留意されてTS出力処理は実行される。
次に、本発明を適用したAV記録再生装置に期待できる効果を列記する。
【0152】
記録時においては、ESで記録した場合、記録レートのオーバヘッドを最も少なくすることができる。PESで記録した場合、TSに容易に変換できるように記録できる。ESまたはPESで記録した場合、ジョグ再生時の処理が少ない。ESまたはPESで記録した場合、TSヘッダやTS到着時刻を示すタイムスタンプを記録しないので、オーバヘッドが少なくて済む。したがって、記録容量を節約できる。または、記録時間を長くすることができる。PCRを記録しないようにしたので、オーバヘッドが少なくて済む。従って、記録容量を節約できる。または、記録時間を長くすることができる。
【0153】
また、1ビデオフレームで1つのPESパケットを構成するようにしたので、全てのフレームにPTSが付与される。これにより、TS化するときのタイミングが復元し易くなる。また、ジョグ再生が実現し易くなる。1ビデオフレームで1つのPESパケットを構成するようにしたので、全てのフレームにPTSが付与される。これにより、TS化するときのタイミングが復元し易くなる。また、編集時においてオーディオが分割し易くなる。Native以外であっても編集対象とすることができる。従来、PIDによって識別していたデータ種類(データタイプ)を、PIDよりも少ないビット数の識別コードで表すようにしたので、オーバヘッドが少なくて済む。
【0154】
さらに、SBのデータ領域の全体が有効なデータで占められる場合、データ長を示すLengthのバイトを記録しないので、オーバヘッドが少なくて済む。PSI情報のセクションが複数のTSパケットに分割されるとき、TSパケットヘッダのペイロードユニットスタートインジケータによって先頭が識別されるので、PSIはTSヘッダ毎にデータタイプがAUXである2つのSBに記録することでこれが保存される。
【0155】
TS出力時においては、TSの出力を(DTS-(vbv_delay))から開始するようにしたので、到着時刻が記録されていなくてもタイミングを復元できる。記録されているbit_rateよりも少し高めの出力レートでTSを出力するので、フレーム境界でぶつかることがない。等間隔でTSを出力することにより、bit_rateが実際のレートよりも相当高く記録されていても、平均的なレートで出力することができる。PCRを先行させるようにしたので、再生側において、STCにPCRをロードした後、最初のフレームを受けることができる、したがって、再生データの先頭が欠けることなく表示させることができる。PATおよびPMTを先行させるようにしたので、再生側においては、PCRパケットを取りこぼすことなく受け取ることができる。エラーの箇所を識別できるようにしたので、エラーが画質や音質に与える影響を減少させることができる。記録時に検出されたエラーをビットを増やすことなく、再生側に伝達することができる。
【0156】
なお、本発明は、磁気テープ以外の情報記録媒体に、AV信号を記録する場合にも適用することが可能である。
【0157】
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0158】
この記録媒体は、図1に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク18(フロッピディスクを含む)、光ディスク19(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク20(MD(Mini Disc)を含む)、もしくは半導体メモリ21などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMやハードディスクなどで構成される。
【0159】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0160】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0161】
【発明の効果】
以上のように、本発明の第1の記録装置および方法、並びに記録媒体のプログラムによれば、編集したときに不都合が生じないようにAV信号を記録することが可能となる。
【0162】
また、本発明の第2の記録装置および方法、並びに記録媒体のプログラムによれば、編集したときに不都合が生じないようにAV信号を記録することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したAV記録再生装置の構成例を示すブロック図である。
【図2】ES記録方式を示す図である。
【図3】 PES記録方式を示す図である。
【図4】TSパケットのデータ構造を示す図である。
【図5】 PESパケットのデータ構造を示す図である。
【図6】1トラック内のSBを示す図である。
【図7】SBヘッダを示す図である。
【図8】データタイプがPES-VIDEOまたはPES-AUDIOであるSBのデータ構造を示す図である。
【図9】データタイプがAUXであるSBのデータ構造を示す図である。
【図10】データタイプがTS-1またはTS-2であるSBのデータ構造を示す図である。
【図11】第1の記録処理の概念を示す図である。
【図12】第2の記録処理の概念を示す図である。
【図13】第3の記録処理の概念を示す図である。
【図14】第4の記録処理の概念を示す図である。
【図15】第1の記録処理を説明するフローチャートである。
【図16】第2の記録処理を説明するフローチャートである。
【図17】第2の記録処理における遅延量を示す図である。
【図18】第3の記録処理を説明するフローチャートである。
【図19】第4の記録処理を説明するフローチャートである。
【図20】TS出力処理を説明するフローチャートである。
【図21】TS出力処理における遅延量を示す図である。
【図22】TS出力処理を説明するための図である。
【図23】 PES記録時におけるエラー処理を説明するための図である。
【図24】TS記録時におけるエラー処理を説明するための図である。
【符号の説明】
1 ビデオエンコード部, 2 ビデオPES化部, 3 オーディオエンコード部, 4 オーディオPES化部, 5 A/V混合部, 6 記録部, 7 デマルチプレクサ, 9 磁気テープ, 10 再生部, 11 A/V分離部, 12 ビデオデコード部, 13 オーディオデコード部, 14 TS化部, 16 制御部, 17 ドライブ, 18 磁気ディスク, 19 光ディスク, 20 光磁気ディスク, 21 半導体メモリ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a recording apparatus and method, and a recording medium, and more particularly, to a recording apparatus and method suitable for use when, for example, an AV signal is compressed and encoded and recorded on an information recording medium, and a recording medium.
[0002]
[Prior art]
Like the DV format used in consumer digital VCR (Video Cassette Recorder), video signals are encoded with intra-frame compression, and the corresponding audio signals are encoded so that they can be uncompressed or instantaneously expanded. There is a system for recording on magnetic tape.
[0003]
The video signal and the audio signal encoded by the DV format and recorded on the recording medium are suitable for editing such that video and audio are connected at arbitrary positions.
[0004]
However, when the DV format signal compression rate is low, a recording system with a high transfer rate is required, a medium with a large storage capacity is required, or the capacity of the information recording medium is limited. Has problems such as a short recording time.
[0005]
In order to solve such a problem, a video signal and an audio signal are compression-coded using an MPEG (Moving Picture Experts Group) method, and recorded in a transport stream (hereinafter also referred to as TS) recording medium. There is already a recording system.
[0006]
According to a system using the MPEG system, a video signal is inter-frame compressed with a Long GOP (Group Of Picture) composed of images of a plurality of frames, and an audio signal is frame-compressed with a plurality of samples. Therefore, a high compression rate can be realized. Therefore, a recording system with a high transfer rate is not required, the capacity of the recording medium can be saved, and when the capacity of the recording medium is limited, the recording time is extended as compared with a DV format system. There are advantages.
[0007]
[Problems to be solved by the invention]
However, a system that records video signals and audio signals compressed and encoded in the MPEG format in the TS state has the following problems.
[0008]
That is, the video signal is MPEG-compressed in units of Long GOP as described above. The data length of one frame image is not constant (it is not compressed at a fixed rate). On the other hand, the audio signal is compressed at a fixed rate. Therefore, even if the corresponding video signal and audio signal are encoded at the same time, there is a possibility that the corresponding video signal and audio signal packets will be arranged at positions separated on the TS.
[0009]
If the corresponding video signal and audio signal packets are placed at a distance from each other on the TS, the video signal connection timing and the audio signal connection timing will be different if editing is performed to connect the TSs halfway. There was a problem that one of the data was missing.
[0010]
Also, it is necessary to add a TS packet, a time stamp indicating the arrival time to the decoder, a PCR packet storing a PCR (Program Clock Reference) as a time reference at the time of decoding, and the like to the TS. Therefore, there is a problem that the recording rate is lowered by the overhead.
[0011]
Furthermore, since video signals and audio signals recorded in the TS state are difficult to perform so-called jog playback such as pause playback (PAUSE), slow playback, and reverse playback, in order to enable jog playback, There was a problem that had to be converted into an elementary stream.
[0012]
The present invention has been made in view of such a situation, and is edited by recording a video signal and an audio signal compressed and encoded using the MPEG system on an information recording medium as a packetized elementary stream. Sometimes it does not cause inconvenience.
[0013]
[Means for Solving the Problems]
The first recording apparatus of the present invention is a video elementary stream in which a video signal is compressed and encoded by a predetermined method.Every video frameA video packetized elementary stream packet generating means for generating a video packetized elementary stream packet, and an audio elementary stream in which the audio signal is compressed and encoded by a predetermined method.Every audio frameAudio packetized elementary stream packet generation means for generating audio packetized elementary stream packets, and video packetized elementary stream packets are combined every predetermined number, Video packetized elementary stream packet combination generating means for generating video packetized elementary stream packet combination, and video packetized elementary stream packet combinationAudio frames that are played at the same time as video frames includedAudio packetized elementary stream packet combination generating means for combining audio packetized elementary stream packets to generate audio packetized elementary stream packet combination, video packetized elementary stream packet combining and audio packetizing After alternately arranging elementary stream packet combinations, sync block generating means for generating a sync block by converting to a predetermined recording format, and recording means for recording the sync block on an information recording medium are included.Mu.
[0015]
The audio packetized elementary stream packet generation means divides the audio elementary stream into each audio frame, adds a header including at least a presentation time stamp, and generates an audio packetized elementary stream packet. Can be.
[0016]
The audio packetized elementary stream packet combination generation means is the most of the time indicated by the presentation time stamp included in the header of each video packetized elementary stream packet constituting the video packetized elementary stream packet combination. From the earliest time among the times indicated by the presentation time stamps included in the header of each video packetized elementary stream packet that constitutes the next video packetized elementary stream packet combination after the earlier time An audio packetized elementary stream is created by combining the audio packetized elementary stream packet recorded in the header with the presentation time stamp indicating the previous time. It is possible to generate a stream-packet bond.
[0017]
The first recording apparatus of the present invention separates a transport stream in which a compression-encoded video signal and a compression-encoded audio signal are multiplexed into a video elementary stream and an audio elementary stream. Can further be included.
[0018]
The sync block generation means can generate a sync block whose data type is AUX using the transport stream packet of the program specific information included in the transport stream as it is.
[0019]
The sync block generating means may record identification information for identifying the data type of the sync block in the header of the sync block to generate the sync block.
[0020]
The sync block generation means records a flag indicating whether or not all of the data area of the sync block is occupied by valid data in the header of the sync block, and all of the data area of the sync block is occupied by valid data. If not, the data length of valid data can be recorded at the head of the data area.
[0021]
In the first recording method, which is packed, a video elementary stream in which a video signal is compressed and encoded by a predetermined systemEvery video frameA video packetized elementary stream packet generation step for generating a video packetized elementary stream packet, and an audio elementary stream in which the audio signal is compressed and encoded by a predetermined method.Every audio frameAn audio packetized elementary stream packet generation step for generating an audio packetized elementary stream packet, and a video packetized elementary stream packet are combined every predetermined number, Video packetized elementary stream packet combination generating step for generating video packetized elementary stream packet combination, and video packetized elementary stream packet combinationAudio frames that are played at the same time as video frames includedAn audio packetized elementary stream packet combination generating step for combining audio packetized elementary stream packets to generate an audio packetized elementary stream packet combination; and video packetized elementary stream packet combining and audio packetizing. After alternately arranging the elementary stream packet combination, a sync block generating step for generating a sync block by converting to a predetermined recording format and a recording step for recording the sync block on the information recording medium are included.Mu.
[0022]
First recording medium of the present inventionbodyIs a video elementary stream in which the video signal is compressed and encoded by a predetermined method.Every video frameA video packetized elementary stream packet generation step for generating a video packetized elementary stream packet, and an audio elementary stream in which the audio signal is compressed and encoded by a predetermined method.Every audio frameAn audio packetized elementary stream packet generation step for generating an audio packetized elementary stream packet, and a video packetized elementary stream packet are combined every predetermined number, Video packetized elementary stream packet combination generating step for generating video packetized elementary stream packet combination, and video packetized elementary stream packet combinationAudio frames that are played at the same time as video frames includedAn audio packetized elementary stream packet combination generating step for combining audio packetized elementary stream packets to generate an audio packetized elementary stream packet combination; and video packetized elementary stream packet combining and audio packetizing. After alternately arranging the elementary stream packet combination, a sync block generating step for generating a sync block by converting to a predetermined recording format and a recording step for recording the sync block on the information recording medium are included.A program for causing the computer of the recording apparatus to execute the process is recorded.
[0023]
According to a second recording apparatus of the present invention, there is provided a video editing unit generating means for generating a video editing unit by dividing a video elementary stream in which a video signal is compression-encoded by a predetermined method every predetermined number of video frames. An audio elementary stream in which the audio signal is compressed and encoded by a predetermined method, Played at the same time as the video editing unitAudio editing unit generation means for generating an audio editing unit by dividing the number of audio frames, time stamp adding means for adding a time stamp indicating playback timing to the video editing unit and the audio editing unit, and a time stamp added A video recording unit and an audio editing unit which are alternately arranged and then converted into a predetermined recording format to generate a sync block; and a sync block generating unit which records the sync block on an information recording medium.Mu.
[0024]
A second recording method of the present invention includes a video editing unit generation step of generating a video editing unit by dividing a video elementary stream in which a video signal is compression-encoded by a predetermined method for each predetermined number of video frames. An audio elementary stream in which the audio signal is compressed and encoded by a predetermined method, Played at the same time as the video editing unitAn audio editing unit generation step for generating an audio editing unit by dividing the number of audio frames, a time stamp adding step for adding a time stamp indicating playback timing to the video editing unit and the audio editing unit, and a time stamp are added. After alternately arranging video editing units and audio editing units, a sync block generating step for generating a sync block by converting to a predetermined recording format and a recording step for recording the sync block on an information recording medium are included.Mu.
[0025]
Second recording medium of the present inventionbodyIncludes a video editing unit generation step for generating a video editing unit by dividing a video elementary stream in which a video signal is compression-encoded by a predetermined method for each predetermined number of video frames, and an audio signal by a predetermined method. Compressed and encoded audio elementary streams, Played at the same time as the video editing unitAn audio editing unit generation step for generating an audio editing unit by dividing the number of audio frames, a time stamp adding step for adding a time stamp indicating playback timing to the video editing unit and the audio editing unit, and a time stamp are added. After alternately arranging video editing units and audio editing units, a sync block generating step for generating a sync block by converting to a predetermined recording format and a recording step for recording the sync block on an information recording medium are included.A program for causing the computer of the recording apparatus to execute the process is recorded.
[0026]
In the first recording apparatus and method and the recording medium program of the present invention, a video elementary stream in which a video signal is compression-encoded by a predetermined method is recorded.Every video frameInto which a header is added and a video packetized elementary stream packet is generated, and an audio elementary stream in which an audio signal is compressed and encoded by a predetermined method is generated.Every audio frameAudio packetized elementary stream packets are generated by adding the headers and video packetized elementary stream packets are combined every predetermined number to generate video packetized elementary stream packet combinations. , Video packetized elementary stream packet combinationAudio frames that are played at the same time as video frames includedAudio packetized elementary stream packet combinations are combined to generate an audio packetized elementary stream packet combination. Furthermore, after the video packetized elementary stream packet combination and the audio packetized elementary stream packet combination are alternately arranged, the video packetized elementary stream packet combination is converted into a predetermined recording format to generate a sync block, and the sync block is converted into an information recording medium. To be recorded.
[0027]
In the second recording apparatus and method and the recording medium program of the present invention, a video elementary stream in which a video signal is compression-encoded by a predetermined method is divided for each predetermined number of video frames to be a video editing unit. Audio elementary stream in which the audio signal is compressed and encoded by a predetermined method is generated., Played at the same time as the video editing unitAn audio editing unit is generated by being divided for each number of audio frames. In addition, a time stamp indicating the playback timing is added to the video editing unit and the audio editing unit, and the video editing unit and the audio editing unit to which the time stamp is added are alternately arranged, and then converted into a predetermined recording format and synchronized. A block is generated and a sync block is recorded on the information recording medium.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
An AV recording / reproducing apparatus to which the present invention is applied will be described. This AV recording / playback device converts input video and audio baseband signals into a packetized elementary stream (hereinafter also referred to as PES) and records it on a magnetic tape. The recorded TS is recorded on the magnetic tape, and the input TS is recorded on the magnetic tape in the TS state. The AV recording / reproducing apparatus also reproduces the PES recorded on the magnetic tape or converts the PES recorded on the magnetic tape into a TS for output.
[0029]
FIG. 1 shows a configuration example of an AV recording / reproducing apparatus. The
[0030]
The
[0031]
The A /
[0032]
The
[0033]
The
[0034]
The reproducing
[0035]
The A /
[0036]
The
[0037]
The
[0038]
The
[0039]
Next, a recording method of the AV recording / reproducing apparatus will be described. FIG. 2 shows an example in which ES is recorded on the
[0040]
The figure shows an example in which an audio editing unit consisting of 4 frames (same as AAU: Audio Access Unit) or an audio editing unit consisting of 5 frames is arranged corresponding to a video editing unit consisting of 3 frames. It is shown.
[0041]
However, in practice, the number of audio frames corresponding to three frames of video is usually not an integer. Therefore, a dedicated time stamp (T.S.) indicating the playback time is added to each video and audio editing unit. Thereby, it becomes possible to reproduce | regenerate video and audio synchronizing.
[0042]
Hereinafter, the recording method as shown in FIG. 2 is described as an ES recording method.
[0043]
According to the ES recording method, a video editing unit with a dedicated time stamp and an audio editing unit with a corresponding dedicated time stamp are arranged adjacent to each other for recording. It is possible to suppress the occurrence of inconvenience that the combined timing is shifted between video and audio.
[0044]
FIG. 3 shows an example in which PES is recorded on the
[0045]
Hereinafter, the method of recording as shown in FIG. 3 is described as a PES recording method.
[0046]
The advantage of the PES recording method over the ES recording method is that when reading from the
[0047]
By the way, the structure of the PES packet is not unique. For video, for example, when one PES packet is composed of one video frame, or one PES packet is composed of GOPs composed of a plurality of video frames. There is a case. For audio, for example, one PES packet may be composed of one audio frame (AAU), or one PES packet may be composed of a plurality of audio frames.
[0048]
Therefore. In order to make editing easier, the PES structure in the PES recording system is unified so that one frame is composed of one PES packet for both video and audio.
[0049]
Next, a recording format suitable for recording PES on the
[0050]
FIG. 4 shows the data structure of the TS packet. TS packet is 8 bit sync byte (sync_byte), 1 bit transport error indicator (transport_error_indicator), 1 bit payload unit start indicator (payload_unit_start_indicator), 1 bit transport priority (transport_priority), 13 bit packet identification Information (Packet_ID), 2 bits of scramble control (transport_scrambling_control), 2 bits of adaptation field control (adaptation_field_control), 4 bits of continuity counter (continuity_counter), and a fixed length (hereinafter, 184 bytes of adaptation field) 188 bytes).
[0051]
The sync byte represents the head of the TS packet. The transport error indicator represents the presence / absence of a bit error in the TS packet. The payload unit start indicator indicates that the head of the PES packet is recorded in the payload of the TS packet. The packet priority represents the importance of the TS packet. The packet identification information represents the attribute of the individual stream of the TS packet. The scramble control represents the presence / absence and type of the payload of the TS packet. The adaptation field control represents the presence / absence of an adaptation field and the presence / absence of a payload. The continuity counter represents the order of a plurality of TS packets having the same packet identification information.
[0052]
In the adaptation field, in addition to the program time base reference value PCR, additional information related to the individual stream is recorded. In the adaptation field, if additional information to be recorded is less than 184 bytes, a stuffing byte is recorded. In the payload, a divided PES packet, program specification information PSI (Program Specific Information), and the like are recorded.
[0053]
FIG. 5 shows the data structure of the PES packet. The PES packet includes a 32-bit packet start code, a 16-bit PES packet length, a 2-bit “10”, a 14-bit flag and control, and an 8-bit PES header data length ( PES header data length), 40-bit PTS, 40-bit DTS, 152-bit other information, PES header consisting of 8N-bit stuffing bytes, and variable-length PES payload consisting of undefined data length Packet.
[0054]
The packet start code is composed of a 24-bit start start code and an 8-bit stream ID and represents the start of the PES packet. In the PES packet length, the data length of the PES packet is recorded. “10” following the PES packet length indicates that the packet is a PES packet. In the flag and control, scrambled presence / absence and type of the PES packet, priority, copyright information, and the like are recorded. In the PES header data length, the data length of the PES header is recorded.
[0055]
Next, a recording format for the
[0056]
The SB has a fixed length of 111 bytes and includes a 2-byte sync, a 3-byte ID, a 1-byte SB header, a 95-byte data area, and a 10-byte C1 parity for error correction.
[0057]
In the 3-byte ID, a track number, an SB number, and an overwrite protect code are recorded. The overwrite protect code is a value that is updated every time information is overwritten on the same SB, and is information used to prevent previous data from being erased at the time of overwriting.
[0058]
FIG. 7 shows information recorded in a 1-byte (8-bit) SB header. Three bits (bit-7 to bit-5 in FIG. 7) on the MSB (Most Significant Bit) side of the SB header represent the data type of data recorded in the 95-byte data area following the SB header. Different information for each data type is recorded in 5 bits (bit-4 to bit-0 in FIG. 7) on the LSB (Least Significant Bit) side.
[0059]
When the 3 bits on the MSB side of the SB header is 000, the data type is PES-VIDEO. When the 3 bits on the MSB side of the SB header is 001, the data type is PES-AUDIO. When the data type is PES-VIDEO or PES-AUDIO, the Full / Partial flag is recorded in the 4th bit (bit-4 in FIG. 7) from the MSB side of the SB header, followed by 4 bits on the LSB side (see FIG. 7). 7 (bit-3 to bit-0) records a continuity count value indicating the continuity of SBs of the same data type.
[0060]
FIG. 8 shows the data structure of an SB whose data type is PES-VIDEO or PES-AUDIO. When the PES packet occupies the entire 95-byte data area following the SB header, 0 is recorded in the Full / Partial flag of the SB header. If the PES packet does not occupy the entire data area, 1 is recorded in the Full / Partial flag, and the data length of the PES packet that is recorded after being pre-packed is recorded in 1 byte on the MSB side of the data area. Is done.
[0061]
Returning to FIG. 7, when the 3 bits on the MSB side of the SB header is 010, the data type is SEARCH-DATA. When the data type is SEARCH-DATA, the Video / Audio flag is recorded in the fourth bit from the MSB side of the SB header, and the search speed is recorded in the next three bits. The remaining 1 bit is reserved. Search data of a fixed size is recorded in the data area. Note that the positions of SBs having a data type of SEARCH-DATA in the track are determined in advance, and SBs of other data types are arranged avoiding the position of the SB of SEARCH-DATA.
[0062]
When the 3 bits on the MSB side of the SB header are 011, the data type is AUX. When the data type is AUX, the AUX mode is recorded in the 4th to 6th bits from the MSB side of the SB header. The remaining 2 bits are reserved. Fixed-size AUX data (auxiliary information) is recorded in the data area.
[0063]
The 3-bit AUX mode represents the type of AUX data. When the 3 bits are 000, the AUX mode is AUX_V, and AUX data accompanying the video data is recorded in the data area. When the 3 bits are 001, the AUX mode is AUX_A, and AUX data accompanying audio data is recorded in the data area. When the 3 bits are 010, the AUX mode is PSI-1, and the first half of the PSI TS packet is recorded in the data area. When the 3 bits are 011, the AUX mode is PSI-2, and the latter half of the PSI TS packet is recorded in the data area. When the 3 bits are 100, the AUX mode is SYSTEM, and system AUX data is recorded in the data area.
[0064]
FIG. 9 shows the data structure of an SB whose data type is AUX and whose AUX mode is PSI-1 or PSI-2. The first 3 bytes of the SB data area where the AUX mode is PSI-1 is reserved, and the next 92 bytes are the first one sync byte (Sync_byte) from the first half of the PSI TS packet (188 bytes) 92 bytes excluding are recorded. In the SB data area where the AUX mode is PSI-2, 95 bytes of the second half of the PSI TS packet in which the first half is recorded in the SB data area where the AUX mode is PSI-1 are recorded. That is, one PSI TS packet is recorded with the AUX mode divided into two parts, PSI-1 SB and PSI-2 SB.
[0065]
Returning to FIG. 7, when the 3 bits on the MSB side of the SB header is 100, the data type is TS-1. When the data type is TS-1, the 4th and 5th bits from the MSB side of the SB header are reserved. A 27-bit time stamp is recorded in the remaining 3 bits and the first 3 bytes (24 bits) of the subsequent data area.
[0066]
When the 3 bits on the MSB side of the SB header is 101, the data type is TS-2. When the data type is TS-2, a continuity count value is recorded in 5 bits on the LSB side of the SB header.
[0067]
FIG. 10 shows the data structure of an SB whose data type is TS-1 or TS-2. As described above, the first 3 bytes of the data area of SB whose data type is TS-1 are combined with 3 bits on the LSB side of the SB header and used for recording a 27-bit time stamp. In the subsequent 92 bytes of the data area, 92 bytes are recorded by excluding the first one byte sync byte (Sync_byte) from the first half of the TS packet (188 bytes). In the data area of the SB whose data type is TS-2, 95 bytes of the latter half of the TS packet in which the first half is recorded in the data area of the SB whose data type is TS-1 are recorded.
[0068]
That is, one TS packet is recorded by being divided into two SBs having a data type TS-1 and SBs TS-2. The continuity count value recorded in the SB header whose data type is TS-2 represents the continuity of TS packets recorded in the SB of TS-1 and the SB of TS-2.
[0069]
Returning to FIG. 7, when the 3 bits on the MSB side of the SB header is 110, the data type is NULL. When the data type is NULL, invalid data is recorded in the data area only to satisfy the recording rate. Note that data bytes recorded after the SB header whose data type is NULL are ignored.
[0070]
The data type when the 3 bits on the MSB side of the SB header is 111 is undefined (reserved).
[0071]
Next, four types of recording processing that can be performed by the AV recording / reproducing apparatus to which the present invention is applied will be described with reference to FIGS. 11 to 14 show the concept of each recording process. In the following, the ES encoded by the
[0072]
As shown in FIG. 11, the first recording process is a method of converting a native ES into a PES and recording it as a native PES. As shown in FIG. 12, the second recording process is a method in which a Native TS is converted to PES again and recorded as a Native PES.
[0073]
As shown in FIG. 13, the third recording process is a method of converting a non-native TS into an ES, further converting it into a PES, and recording it as a non-native PES. However, the condition for applying the third recording process is that the TS is not a multi-program but a single program, and vbv_delay is added to the video ES. This is because when vbv_delay is not assigned (when 0xFFFF is recorded in vbv_delay), arrival time information is lost when TS is converted to PES, and TS cannot be restored during playback.
[0074]
As shown in FIG. 14, the fourth recording process is a method of adding a time stamp to a non-native TS and recording it as a non-native TS. The fourth recording process is applied to a TS that does not satisfy the conditions for applying the third recording process described above.
[0075]
Hereinafter, the first to fourth recording processes will be specifically described.
[0076]
The first recording process will be described with reference to the flowchart of FIG. In step S <b> 1, the
[0077]
The
[0078]
In step S2, the video
[0079]
The audio
[0080]
In step S3, the A /
[0081]
In step S4, the A /
[0082]
In step S5, the A /
[0083]
In step S6, the A /
[0084]
The A /
[0085]
In addition, when the generated SB is insufficient for the recording rate for the
[0086]
In step S7, the A /
[0087]
In step S8, the
[0088]
The second recording process will be described with reference to the flowchart of FIG. The second recording process is started when it is determined that the TS is Native based on information recorded in a descriptor of a PMT (Program Map Table) input together with the TS to the
[0089]
In step S11, the
[0090]
The video
[0091]
The
[0092]
For the video PES packet from the video
[0093]
In step S12, the A /
[0094]
In step S13, the A /
[0095]
In step S14, the A /
[0096]
The A /
[0097]
In addition, when the generated SB is insufficient for the recording rate for the
[0098]
If a TS packet error or discontinuity is notified from the
[0099]
In step S15, the A /
[0100]
In step S16, the
[0101]
The third recording process will be described with reference to the flowchart of FIG. The third recording process is a condition in which the TS is non-native and the third recording process can be applied based on the information recorded in the descriptor of the PMT input to the
[0102]
In step S21, the
[0103]
The video
[0104]
The audio
[0105]
In step S22, the A /
[0106]
In step S23, the A /
[0107]
In step S24, the A /
[0108]
In step S25, the A /
[0109]
The A /
[0110]
In addition, when the generated SB is insufficient for the recording rate for the
[0111]
If a TS packet error or discontinuity is notified from the
[0112]
In step S26, the A /
[0113]
In step S27, the
[0114]
The fourth recording process will be described with reference to the flowchart of FIG. The fourth recording process is a condition in which the TS is Non-Native and the third recording process can be applied based on information recorded in a descriptor of the PMT input to the
[0115]
In step S <b> 31, the
[0116]
In step S32, the A /
[0117]
In step S33, the A /
[0118]
The A /
[0119]
In addition, when the generated SB is insufficient for the recording rate for the
[0120]
In step S <b> 34, the A /
[0121]
Next, playback processing of the AV recording / playback apparatus to which the present invention is applied will be described. This AV recording / reproducing apparatus reads out and decodes PES or TS recorded on the
[0122]
The TS output process of the AV recording / reproducing apparatus will be described with reference to the flowchart of FIG. 20 and FIG. In this TS output process, SBs sequentially read from the
[0123]
In step S41 (corresponding to (1) in FIG. 22), the
[0124]
In step S42 (corresponding to (2) in FIG. 22), the
[0125]
In step S43 (corresponding to (3) in FIG. 22), the
[0126]
In step S44 (corresponding to (4) in FIG. 22), the
[0127]
The TS output unit 14 (as processing corresponding to (5) in FIG. 22) also subtracts Start Up Delay from the PTS of the first frame (AAU) for audio (PTS- (Start Up Delay)) and STC. The audio PES packet is converted to a TS and output is started at the timing when the two match. Note that the audio output rate is made to exactly match the value recorded in the bit rate index (Bitrate_index) of the header.
[0128]
The AV recording / reproducing apparatus can further output the TS recorded on the
[0129]
Next, as points to be noted in the TS output process of the
[0130]
First, the output interval of video TS packets will be described. When vbv_delay other than 0xFFFF is recorded in the picture header of the PES read and reproduced from the
[0131]
Also, vbv_delay is not recorded (0xFFFF is recorded) in the PES picture header read and played back from the
[0132]
Next, the handling of AUX data (auxiliary information) will be described. When the PES read from and reproduced from the
[0133]
PMT generates a native one. The PMT records video, audio, AUX, and PCR PIDs. The PMT also records copyright information etc. in the AUX data so that it can be interpreted by general-purpose devices. In addition, a descriptor indicating that it is Native is recorded in the PMT.
[0134]
When the PES read from the
[0135]
Next, a process of outputting a non-native TS recorded on the
[0136]
Next, error processing based on the SB header continuity counter for data recorded by PES will be described with reference to FIG. Through the first to third recording processes described above, the SB data type is recorded in the SB header. Therefore, when an error occurs in an SB and cannot be corrected, the data type of the SB is unknown.
[0137]
Therefore, based on the continuity of the continuity counter value recorded in the SB header of the SB in which no error has occurred, the SB data type in which an error has occurred and cannot be corrected is determined.
[0138]
Specifically, when the continuity counter value of the SB whose data type is PES-VIDEO is monitored and a discontinuity in the SB continuity counter value before and after the SB where an uncorrectable error has occurred is detected, the correction is not possible. It is determined that the data type of the SB in which an error has occurred is PES-VIDEO. Similarly, if the SB continuity counter value with the data type PES-AUDIO is monitored and a discontinuity in the SB continuity counter value before or after the SB where an uncorrectable error has occurred is detected, an uncorrectable error will occur. It is determined that the data type of the SB in which the error occurs is PES-AUDIO.
[0139]
Such determination makes it possible to identify whether or not an error has occurred in the SB in which the PES is recorded, so that the influence of the occurrence of the error on the video and audio to be reproduced can be reduced.
[0140]
Even if an error occurs at the boundary between the SB of PES-VIDEO and the SB of PES-AUDIO, the error is determined by checking the continuity with the last continuity counter value of the previous unit. Can be detected.
[0141]
When the continuity counter value is continuous, TS is continuously output, and when it is determined that the continuity counter value is discontinuous and cannot be corrected, an error code is inserted. As an error code insertion method, a sequence error code 0x000001B4 may be inserted in the ES layer. In the TS layer, a packet in which the transport error indicator (transport_error_indicator) is set to 1 may be output.
[0142]
By the way, since the continuity counter value is a 4-bit value that circulates from 0 to 15, when SBs having the same data type are successively lost in multiples of 16, it cannot be detected. Therefore, when 16 or more SBs having uncorrectable errors are consecutive, an error code is inserted regardless of the data type of those SBs.
[0143]
In addition, even if no uncorrectable error has occurred in the SB, if this error processing is executed, the discontinuous continuity counter value intentionally recorded at the time of recording is handled as an error at the time of reproduction. Can do.
[0144]
Next, error processing based on the SB header continuity counter for data recorded in the TS will be described with reference to FIG. By the fourth recording process described above, the SB data type is recorded in the SB header. Therefore, when an error occurs in an SB and cannot be corrected, the data type of the SB is unknown.
[0145]
Therefore, based on the continuity of the continuity counter value recorded in the SB header of the SB in which no error has occurred, the SB data type in which an error has occurred and cannot be corrected is determined.
[0146]
Specifically, a normal SB data type sandwiching an uncorrectable SB is monitored, and if the data type continues from TS-1 to TS-2, the continuity counter recorded in the SB header of the TS-2 The continuity of the value with the continuity counter value recorded in the SB header of the previous TS-2 is determined. If it is determined that they are continuous, the SB of the TS-1 and the SB of the TS-2 are a pair, so that they are restored to one TS packet and output. On the other hand, if it is determined that they are not continuous, the SB of the TS-1 and the SB of the TS-2 are not pairs, but both are discarded because they are SBs lacking a pair.
[0147]
The fact that the TS is discarded here is detected on the receiving side based on the continuity counter value recorded in the TS header of the output TS that precedes and follows, so that an error occurs in the video and audio to be played back. Can reduce the influence of.
[0148]
If the data type continues from TS-2 to TS-1, the data is output as is without executing error processing. That is, even if the uncorrectable SB data type is TS-1 or TS-2, this is identified on the reproduction side based on the discontinuity of the continuity counter value of the TS header.
[0149]
When the data type continues from TS-1 to TS-1, the previously read SB of TS-1 is discarded. The discarding of the previously read TS-1 SB is identified on the playback side based on the discontinuity of the continuity counter value of the TS header.
[0150]
If the data type continues from TS-2 to TS-2, the SB of TS-2 read later is discarded. Discarding the TS-2 SB read later is identified on the playback side based on the discontinuity of the continuity counter value of the TS header.
[0151]
With this in mind, the TS output process is executed.
Next, effects expected from the AV recording / reproducing apparatus to which the present invention is applied will be listed.
[0152]
At the time of recording, when recording with ES, the overhead of the recording rate can be minimized. When recording with PES, it can be recorded so that it can be easily converted to TS. When recording with ES or PES, there is less processing during jog playback. When recording by ES or PES, the TS header and the time stamp indicating the TS arrival time are not recorded, so that overhead can be reduced. Therefore, the recording capacity can be saved. Alternatively, the recording time can be extended. Since the PCR is not recorded, there is little overhead. Therefore, the recording capacity can be saved. Alternatively, the recording time can be extended.
[0153]
Also, since one video frame constitutes one PES packet, PTS is assigned to all frames. This makes it easier to restore the timing when converting to TS. In addition, jog reproduction can be easily realized. Since one video frame constitutes one PES packet, PTS is added to all frames. This makes it easier to restore the timing when converting to TS. In addition, audio can be easily divided during editing. It can be edited even if it is not Native. Conventionally, since the data type (data type) identified by PID is represented by an identification code having a smaller number of bits than PID, overhead can be reduced.
[0154]
Further, when the entire data area of the SB is occupied by valid data, the length byte indicating the data length is not recorded, so that the overhead can be reduced. When the section of PSI information is divided into a plurality of TS packets, the head is identified by the payload unit start indicator in the TS packet header, so the PSI should be recorded in two SBs whose data type is AUX for each TS header. This is saved.
[0155]
At the time of TS output, since the TS output is started from (DTS- (vbv_delay)), the timing can be restored even if the arrival time is not recorded. Since TS is output at a slightly higher output rate than the recorded bit_rate, there is no collision at the frame boundary. By outputting TS at equal intervals, even if bit_rate is recorded much higher than the actual rate, it can be output at an average rate. Since the PCR is preceded, the playback side can receive the first frame after loading the PCR into the STC. Therefore, the playback data can be displayed without the beginning missing. Since PAT and PMT are preceded, the playback side can receive the PCR packet without missing it. Since the location of the error can be identified, the influence of the error on the image quality and sound quality can be reduced. An error detected during recording can be transmitted to the reproducing side without increasing the number of bits.
[0156]
The present invention can also be applied to the case where AV signals are recorded on an information recording medium other than a magnetic tape.
[0157]
By the way, the series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0158]
As shown in FIG. 1, this recording medium is distributed to provide a program to a user separately from a computer, and includes a magnetic disk 18 (including a floppy disk) on which a program is recorded, an optical disk 19 (CD- It is not only configured by a package medium including a ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), a magneto-optical disc 20 (including an MD (Mini Disc)), or a
[0159]
In the present specification, the step of describing the program recorded in the recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
[0160]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0161]
【The invention's effect】
As described above, according to the first recording apparatus and method and the recording medium program of the present invention,,It is possible to record an AV signal so that no inconvenience occurs when editing.
[0162]
Further, according to the second recording apparatus and method and the recording medium program of the present invention,,It is possible to record an AV signal so that no inconvenience occurs when editing.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of an AV recording / reproducing apparatus to which the present invention is applied.
FIG. 2 is a diagram showing an ES recording method.
FIG. 3 is a diagram showing a PES recording method.
FIG. 4 is a diagram illustrating a data structure of a TS packet.
FIG. 5 is a diagram illustrating a data structure of a PES packet.
FIG. 6 is a diagram showing SB in one track.
FIG. 7 is a diagram illustrating an SB header.
FIG. 8 is a diagram illustrating a data structure of an SB whose data type is PES-VIDEO or PES-AUDIO.
FIG. 9 is a diagram illustrating a data structure of an SB whose data type is AUX.
FIG. 10 is a diagram illustrating a data structure of an SB whose data type is TS-1 or TS-2.
FIG. 11 is a diagram showing a concept of first recording processing.
FIG. 12 is a diagram showing a concept of second recording processing.
FIG. 13 is a diagram showing a concept of a third recording process.
FIG. 14 is a diagram showing a concept of fourth recording processing.
FIG. 15 is a flowchart illustrating a first recording process.
FIG. 16 is a flowchart illustrating a second recording process.
FIG. 17 is a diagram illustrating a delay amount in the second recording process.
FIG. 18 is a flowchart illustrating a third recording process.
FIG. 19 is a flowchart illustrating a fourth recording process.
FIG. 20 is a flowchart illustrating TS output processing.
FIG. 21 is a diagram illustrating a delay amount in TS output processing;
FIG. 22 is a diagram for explaining TS output processing;
FIG. 23 is a diagram for explaining error processing during PES recording.
FIG. 24 is a diagram for explaining error processing during TS recording;
[Explanation of symbols]
DESCRIPTION OF
Claims (15)
ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを1ビデオフレーム毎に分割してヘッダを付加し、ビデオパケッタイズドエレメンタリストリームパケットを生成するビデオパケッタイズドエレメンタリストリームパケット生成手段と、
オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを1オーディオフレーム毎に分割してヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するオーディオパケッタイズドエレメンタリストリームパケット生成手段と、
前記ビデオパケッタイズドエレメンタリストリームパケットを所定の数毎に結合して、ビデオパケッタイズドエレメンタリストリームパケット結合を生成するビデオパケッタイズドエレメンタリストリームパケット結合生成手段と、
前記ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含む前記オーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するオーディオパケッタイズドエレメンタリストリームパケット結合生成手段と、
前記ビデオパケッタイズドエレメンタリストリームパケット結合と前記オーディオパケッタイズドエレメンタリストリームパケット結合を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成手段と、
前記シンクブロックを前記情報記録媒体に記録する記録手段と
を含む記録装置。In a recording apparatus for recording an AV signal on an information recording medium,
A video packetized elementary stream packet for generating a video packetized elementary stream packet by dividing a video elementary stream in which a video signal is compression-encoded by a predetermined method into video frames and adding a header. Generating means;
An audio packetized elementary stream packet that generates an audio packetized elementary stream packet by dividing an audio elementary stream in which an audio signal is compressed and encoded by a predetermined method and adding a header to each audio frame. Generating means;
Video packetized elementary stream packet combination generating means for generating video packetized elementary stream packet combination by combining the video packetized elementary stream packets every predetermined number;
An audio packetized elementary stream packet combination is generated by combining the audio packetized elementary stream packet including an audio frame that is played back simultaneously with a video frame included in the video packetized elementary stream packet combination. An audio packetized elementary stream packet combination generating means,
Sync block generating means for generating a sync block by alternately arranging the video packetized elementary stream packet combination and the audio packetized elementary stream packet combination and then converting the packet into a predetermined recording format;
Recording means and the including recording apparatus for recording the sync block on the information recording medium.
請求項1に記載の記録装置。The predetermined method for compressing and encoding the video signal and the predetermined method for compressing and encoding the audio signal are MPEG methods.
The recording apparatus according to 請 Motomeko 1.
請求項1に記載の記録装置。The video packetized elementary stream packet generation means divides the video elementary stream into video frames , adds the header including at least one of a presentation time stamp and a decoding time stamp, Generate video packetized elementary stream packets
The recording apparatus according to 請 Motomeko 1.
請求項1に記載の記録装置。The audio packetized elementary stream packet generation means divides the audio elementary stream into one audio frame , adds the header including at least a presentation time stamp, and adds the audio packetized elementary stream packet to the audio packetized elementary stream packet. Generate
The recording apparatus according to 請 Motomeko 1.
請求項1に記載の記録装置。The audio packetized elementary stream packet combination generation means includes a time indicated by a presentation time stamp included in the header of each video packetized elementary stream packet constituting the video packetized elementary stream packet combination. Among the times indicated by the presentation time stamp included in the header of each video packetized elementary stream packet that is after the earliest time and that constitutes the next video packetized elementary stream packet combination, A presentation time stamp indicating a time prior to the earliest time is combined with the audio packetized elementary stream packet recorded in the header to generate the audio. Generating a packetized elementary stream packet bond
The recording apparatus according to 請 Motomeko 1.
さらに含む請求項1に記載の記録装置。A transport stream which has been compressed and encoded the video signal and compression encoded the audio signal is multiplexed, further including claims the separating means for separating the audio elementary stream and the video elementary stream The recording apparatus according to 1.
請求項6に記載の記録装置。The sync block generation means generates the sync block whose data type is AUX using the transport stream packet of the program specific information included in the transport stream as it is.
A recording apparatus according to 請 Motomeko 6.
請求項1に記載の記録装置。The sync block generating means records identification information for identifying a data type of the sync block in a header of the sync block and generates the sync block
The recording apparatus according to 請 Motomeko 1.
請求項8に記載の記録装置。The identification information can at least identify whether the data type of the sync block is a video packetized elementary stream packet, an audio packetized elementary stream packet, or a transport stream packet.
The recording apparatus according to 請 Motomeko 8.
請求項1に記載の記録装置。The sync block generation means records a flag indicating whether or not all of the data area of the sync block is occupied by valid data in the header of the sync block, and all of the data area of the sync block When not occupied by valid data, the data length of the valid data is recorded at the head of the data area.
The recording apparatus according to 請 Motomeko 1.
ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを1ビデオフレーム毎に分割してヘッダを付加し、ビデオパケッタイズドエレメンタリストリームパケットを生成するビデオパケッタイズドエレメンタリストリームパケット生成ステップと、
オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを1オーディオフレーム毎に分割してヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するオーディオパケッタイズドエレメンタリストリームパケット生成ステップと、
前記ビデオパケッタイズドエレメンタリストリームパケットを所定の数毎に結合して、ビデオパケッタイズドエレメンタリストリームパケット結合を生成するビデオパケッタイズドエレメンタリストリームパケット結合生成ステップと、
前記ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含む前記オーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するオーディオパケッタイズドエレメンタリストリームパケット結合生成ステップと、
前記ビデオパケッタイズドエレメンタリストリームパケット結合と前記オーディオパケッタイズドエレメンタリストリームパケット結合を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、
前記シンクブロックを前記情報記録媒体に記録する記録ステップと
を含む記録方法。In a recording method of a recording apparatus for recording an AV signal on an information recording medium,
By dividing the video elementary stream video signal is compression-encoded in a predetermined manner for each video frame by adding a header, a video packetized elementary stream packets to generate video packetized elementary stream packet Generation step;
An audio packetized elementary stream packet that generates an audio packetized elementary stream packet by dividing an audio elementary stream in which an audio signal is compressed and encoded by a predetermined method and adding a header to each audio frame. Generation step;
A video packetized elementary stream packet combination generating step for generating a video packetized elementary stream packet combination by combining the video packetized elementary stream packets every predetermined number;
An audio packetized elementary stream packet combination is generated by combining the audio packetized elementary stream packet including an audio frame that is played back simultaneously with a video frame included in the video packetized elementary stream packet combination. An audio packetized elementary stream packet combining generation step;
A sync block generating step for alternately generating the video packetized elementary stream packet combination and the audio packetized elementary stream packet combination, and then converting the video packetized elementary stream packet combination into a predetermined recording format to generate a sync block;
Including recording method and a recording step of recording the sync blocks on said information recording medium.
ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを1ビデオフレーム毎に分割してヘッダを付加し、ビデオパケッタイズドエレメンタリストリームパケットを生成するビデオパケッタイズドエレメンタリストリームパケット生成ステップと、
オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを1オーディオフレーム毎に分割してヘッダを付加し、オーディオパケッタイズドエレメンタリストリームパケットを生成するオーディオパケッタイズドエレメンタリストリームパケット生成ステップと、
前記ビデオパケッタイズドエレメンタリストリームパケットを所定の数毎に結合して、ビデオパケッタイズドエレメンタリストリームパケット結合を生成するビデオパケッタイズドエレメンタリストリームパケット結合生成ステップと、
前記ビデオパケッタイズドエレメンタリストリームパケット結合に含まれるビデオフレームと同時期に再生されるオーディオフレームを含む前記オーディオパケッタイズドエレメンタリストリームパケットを結合してオーディオパケッタイズドエレメンタリストリームパケット結合を生成するオーディオパケッタイズドエレメンタリストリームパケット結合生成ステップと、
前記ビデオパケッタイズドエレメンタリストリームパケット結合と前記オーディオパケッタイズドエレメンタリストリームパケット結合を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、
前記シンクブロックを前記情報記録媒体に記録する記録ステップと
を含む処理を記録装置のコンピュータに実行させるプログラムが記録されている記録媒体。A program for controlling a recording apparatus for recording an AV signal on an information recording medium,
By dividing the video elementary stream video signal is compression-encoded in a predetermined manner for each video frame by adding a header, a video packetized elementary stream packets to generate video packetized elementary stream packet Generation step;
An audio packetized elementary stream packet that generates an audio packetized elementary stream packet by dividing an audio elementary stream in which an audio signal is compressed and encoded by a predetermined method and adding a header to each audio frame. Generation step;
A video packetized elementary stream packet combination generating step for generating a video packetized elementary stream packet combination by combining the video packetized elementary stream packets every predetermined number;
An audio packetized elementary stream packet combination is generated by combining the audio packetized elementary stream packet including an audio frame that is played back simultaneously with a video frame included in the video packetized elementary stream packet combination. An audio packetized elementary stream packet combining generation step;
A sync block generating step for alternately generating the video packetized elementary stream packet combination and the audio packetized elementary stream packet combination, and then converting the video packetized elementary stream packet combination into a predetermined recording format to generate a sync block;
A recording medium on which a program for causing a computer of a recording apparatus to execute a process including a recording step of recording the sync block on the information recording medium is recorded.
ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを所定のビデオフレーム数毎に分割してビデオ編集単位を生成するビデオ編集単位生成手段と、
オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを、前記ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割してオーディオ編集単位を生成するオーディオ編集単位生成手段と、
前記ビデオ編集単位および前記オーディオ編集単位に再生タイミングを示すタイムスタンプを付加するタイムスタンプ付加手段と、
前記タイムスタンプが付加された前記ビデオ編集単位および前記オーディオ編集単位を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成手段と、
前記シンクブロックを前記情報記録媒体に記録する記録手段と
を含む記録装置。In a recording apparatus for recording an AV signal on an information recording medium,
A video editing unit generating means for generating a video editing unit by dividing a video elementary stream in which a video signal is compression-encoded in a predetermined method for each predetermined number of video frames;
Audio editing unit generating means for generating an audio editing unit by dividing an audio elementary stream in which an audio signal is compressed and encoded by a predetermined method for each number of audio frames reproduced at the same time as the video editing unit ; ,
Time stamp adding means for adding a time stamp indicating playback timing to the video editing unit and the audio editing unit;
A sync block generating means for alternately generating the video editing unit and the audio editing unit to which the time stamp has been added and then converting the video editing unit into a predetermined recording format to generate a sync block;
Recording means and the including recording apparatus for recording the sync block on the information recording medium.
ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを所定のビデオフレーム数毎に分割してビデオ編集単位を生成するビデオ編集単位生成ステップと、
オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを、前記ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割してオーディオ編集単位を生成するオーディオ編集単位生成ステップと、
前記ビデオ編集単位および前記オーディオ編集単位に再生タイミングを示すタイムスタンプを付加するタイムスタンプ付加ステップと、
前記タイムスタンプが付加された前記ビデオ編集単位および前記オーディオ編集単位を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、
前記シンクブロックを前記情報記録媒体に記録する記録ステップと
を含む記録方法。In a recording method of a recording apparatus for recording an AV signal on an information recording medium,
A video editing unit generation step of generating a video editing unit by dividing a video elementary stream in which a video signal is compression-encoded by a predetermined method for each predetermined number of video frames;
An audio editing unit generation step of generating an audio editing unit by dividing an audio elementary stream in which an audio signal is compression-encoded by a predetermined method for each number of audio frames reproduced at the same time as the video editing unit ; ,
A time stamp adding step of adding a time stamp indicating a reproduction timing to the video editing unit and the audio editing unit;
A sync block generating step of alternately arranging the video editing unit and the audio editing unit to which the time stamp is added and then converting the video editing unit to a predetermined recording format to generate a sync block;
Including recording method and a recording step of recording the sync blocks on said information recording medium.
ビデオ信号が所定の方式で圧縮符号化されているビデオエレメンタリストリームを所定のビデオフレーム数毎に分割してビデオ編集単位を生成するビデオ編集単位生成ステップと、
オーディオ信号が所定の方式で圧縮符号化されているオーディオエレメンタリストリームを、前記ビデオ編集単位と同時期に再生されるオーディオフレーム数毎に分割してオーディオ編集単位を生成するオーディオ編集単位生成ステップと、
前記ビデオ編集単位および前記オーディオ編集単位に再生タイミングを示すタイムスタンプを付加するタイムスタンプ付加ステップと、
前記タイムスタンプが付加された前記ビデオ編集単位および前記オーディオ編集単位を交互に配置した後、所定の記録フォーマットに変換してシンクブロックを生成するシンクブロック生成ステップと、
前記シンクブロックを前記情報記録媒体に記録する記録ステップと
を含む処理を記録装置のコンピュータに実行させるプログラムが記録されている記録媒体。A program for controlling a recording apparatus for recording an AV signal on an information recording medium,
A video editing unit generation step of generating a video editing unit by dividing a video elementary stream in which a video signal is compression-encoded by a predetermined method for each predetermined number of video frames;
An audio editing unit generation step of generating an audio editing unit by dividing an audio elementary stream in which an audio signal is compression-encoded by a predetermined method for each number of audio frames reproduced at the same time as the video editing unit ; ,
A time stamp adding step of adding a time stamp indicating a reproduction timing to the video editing unit and the audio editing unit;
A sync block generating step of alternately arranging the video editing unit and the audio editing unit to which the time stamp is added and then converting the video editing unit to a predetermined recording format to generate a sync block;
A recording medium on which a program for causing a computer of a recording apparatus to execute a process including a recording step of recording the sync block on the information recording medium is recorded.
Priority Applications (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000125227A JP4284574B2 (en) | 2000-04-26 | 2000-04-26 | Recording apparatus and method, and recording medium |
US09/841,420 US7088911B2 (en) | 2000-04-26 | 2001-04-24 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
CNB011170956A CN1251493C (en) | 2000-04-26 | 2001-04-25 | Recording apparatus and method, reproducing apparatus and method, and its recording carrier |
EP08000203A EP1903806A2 (en) | 2000-04-26 | 2001-04-25 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
EP08000204A EP1903807A2 (en) | 2000-04-26 | 2001-04-25 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
EP01303753A EP1150504A3 (en) | 2000-04-26 | 2001-04-25 | Apparatus, method and medium for recording and playback of audio and video signals |
EP08000205A EP1903808A2 (en) | 2000-04-26 | 2001-04-25 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
KR1020010022263A KR100811962B1 (en) | 2000-04-26 | 2001-04-25 | Recording apparatus and method, reproducing apparatus and method, and recording media thereof |
CN 200510081922 CN1735178A (en) | 2000-04-26 | 2002-04-25 | Apparatus and method for recording and playback of audio and video signals |
US10/848,475 US7379659B2 (en) | 2000-04-26 | 2004-05-18 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
US10/848,449 US7231137B2 (en) | 2000-04-26 | 2004-05-18 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
US10/848,326 US7239801B2 (en) | 2000-04-26 | 2004-05-18 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
US11/083,193 US7221856B2 (en) | 2000-04-26 | 2005-03-17 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
US11/083,009 US7076156B2 (en) | 2000-04-26 | 2005-03-17 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
US12/126,093 US20080226261A1 (en) | 2000-04-26 | 2008-05-23 | Recording apparatus and method, playback apparatus and method, and recording medium therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000125227A JP4284574B2 (en) | 2000-04-26 | 2000-04-26 | Recording apparatus and method, and recording medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2001309305A JP2001309305A (en) | 2001-11-02 |
JP2001309305A5 JP2001309305A5 (en) | 2006-12-14 |
JP4284574B2 true JP4284574B2 (en) | 2009-06-24 |
Family
ID=18635212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000125227A Expired - Fee Related JP4284574B2 (en) | 2000-04-26 | 2000-04-26 | Recording apparatus and method, and recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4284574B2 (en) |
CN (1) | CN1735178A (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015109616A (en) * | 2013-12-05 | 2015-06-11 | 株式会社デジオン | Digital broadcast recording system, network access storage device, broadcast receiver, digital broadcast recording method and program |
CN115280271A (en) * | 2020-03-13 | 2022-11-01 | 富士胶片株式会社 | Information processing apparatus, information processing method, and information processing program |
CN112104829B (en) * | 2020-09-07 | 2022-06-24 | 斯威弗特信息技术(杭州)有限公司 | External hanging time code generator based on multi-camera shooting |
-
2000
- 2000-04-26 JP JP2000125227A patent/JP4284574B2/en not_active Expired - Fee Related
-
2002
- 2002-04-25 CN CN 200510081922 patent/CN1735178A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2001309305A (en) | 2001-11-02 |
CN1735178A (en) | 2006-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100811962B1 (en) | Recording apparatus and method, reproducing apparatus and method, and recording media thereof | |
JP3197766B2 (en) | MPEG audio decoder, MPEG video decoder and MPEG system decoder | |
US8233776B2 (en) | After-recording apparatus | |
US8218583B2 (en) | Method and apparatus for generating information signal to be recorded | |
JP3094999B2 (en) | Audio / video synchronous playback device | |
JP3133630B2 (en) | MPEG system decoder | |
JP4288549B2 (en) | Recording apparatus and method, and reproducing apparatus and method | |
JP4254007B2 (en) | Playback apparatus and method, and recording medium | |
JP4284574B2 (en) | Recording apparatus and method, and recording medium | |
WO2003105473A1 (en) | Video tape recorder and recording method | |
JP3380517B2 (en) | Special reproduction data creation device and medium | |
JP2004015384A5 (en) | ||
WO2003105472A1 (en) | Video tape recorder and recording method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080814 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090226 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090311 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140403 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |