JP3381630B2 - Data generation method - Google Patents

Data generation method

Info

Publication number
JP3381630B2
JP3381630B2 JP18480398A JP18480398A JP3381630B2 JP 3381630 B2 JP3381630 B2 JP 3381630B2 JP 18480398 A JP18480398 A JP 18480398A JP 18480398 A JP18480398 A JP 18480398A JP 3381630 B2 JP3381630 B2 JP 3381630B2
Authority
JP
Japan
Prior art keywords
data
unit
information
picture
encoded data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18480398A
Other languages
Japanese (ja)
Other versions
JP2000023096A (en
Inventor
隆幸 菅原
順三 鈴木
俊夫 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP18480398A priority Critical patent/JP3381630B2/en
Publication of JP2000023096A publication Critical patent/JP2000023096A/en
Application granted granted Critical
Publication of JP3381630B2 publication Critical patent/JP3381630B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明はデータ生成方法に係
り、特に、記録すべき符号化データの特殊再生のための
特殊再生用情報データを生成し記録すると共に、記録す
べき符号化データをリアルタイムで記録することを実現
させるためのデータ生成方法に関する。 【0002】 【従来の技術】動画像のビデオ信号やこれに関連するオ
ーディオ信号を圧縮符号化する方式の国際標準規格とし
てMPEG(Moving Picture Experts Group)によるも
のがある。このMPEGは1988年、ISO/IEC
JTC1/SC2(国際標準化機構/国際電気標準化
会合同技術委員会1/専門部会2、現在のSC29)に
設立された動画像符号化標準を検討する組織の名称の略
称である。 【0003】MPEG1(MPEGフェーズ1)は、
1.5Mbps程度の蓄積メディアを対象とした標準
で、静止画符号化を目的としたJPEGと、ISDN
(サービス統合ディジタル網)のテレビ会議やテレビ電
話の低転送レート用の動画像圧縮を目的としたH.26
1(CCITT SGXV、現在のITU−T SG1
5で標準化)の基本的な技術を受け継ぎ、蓄積メディア
用に新しい技術を導入したものである。これらは199
3年8月、ISO/IEC 11172として成立して
いる。MPEG2(MPEGフェーズ2)は、通信や放
送などの多様なアプリケーションに対応できるように汎
用標準を目的として、1994年11月ISO/IEC
13818、H.262として成立している。 【0004】かかるMPEGによる従来の符号化装置の
一例のブロック図を図4に、また復号化装置の一例のブ
ロック図を図5に示す。まず、図4の符号化装置につい
て説明するに、輝度信号と色差信号で構成されたビデオ
信号はディジタル化された後、ピクチャタイプに合わせ
て並べ替えが行われ、入力画像データとして入力端子1
0に入力される。この入力画像データは、減算器11で
動き補償予測器12からの動き補償予測化した画像デー
タと減算され、時間冗長分が削減された差分画像データ
とされる。 【0005】上記の予測の方向は、過去と未来とそれら
の両方の3モード存在する。また、これらは縦方向16
画素、横方向16画素である16×16のマクロブロッ
ク(MB)単位で切り換えて使用できる。予測方向は入
力画像データに与えられたピクチャタイプによって決定
される。過去からの予測と、予測をしないでそのMBを
独立で符号化する2モード存在するのがPピクチャであ
る。また、未来からの予測、過去からの予測、両方から
の予測、独立で符号化する4モード存在するのがBピク
チャである。そして、すべてのMBを独立で符号化する
のがIピクチャである。 【0006】上記の動き補償は、動き領域をMB毎にパ
ターンマッチングを行って、ハーフペル精度で動きベク
トルを検出し、動き分だけシフトしてから予測する。動
きベクトルは水平方向と垂直方向が存在し、何処からの
予測かを示すMC(Motion Compensation)モードと共
にMBの付加情報として伝送される。Iピクチャから次
のIピクチャの前のピクチャまでをグループオブピクチ
ャ(GOP)といい、蓄積メディアなどで使用される場
合には、一般に約15ピクチャ(フレーム)程度が使用
される。 【0007】上記の減算器11からはIピクチャの場合
は入力画像データがそのまま取り出され、Pピクチャや
Bピクチャの場合には動き補償された差分画像データが
取り出されてDCT器13に供給され、ここで離散コサ
イン変換(DCT:DiscreteCosine Transform)され
る。このDCTは、余弦関数を積分核とした積分変換を
有限空間へ離散変換する直交変換である。MPEGでは
MBを4分割し、縦方向8画素、横方向8画素である8
×8のDCTブロックに対して、2次元DCTを行う。
一般にビデオ信号は低域成分が多く、高域成分が少ない
ため、DCTを行うと、得られる係数が低域に集中す
る。 【0008】DCTされた画像データ(DCT係数)
は、量子化器14に供給され、ここで量子化される。こ
の量子化は、量子化マトリクスという8×8の2次元周
波数を視覚特性で重み付けした値と、その全体をスカラ
ー倍する量子化スケールという値で乗算した値を量子化
幅として、DCT係数をその量子化幅で除算することで
行われる。 【0009】量子化されたDCT係数は、動き補償予測
器12からの動きベクトルやどこからの予測かを示す予
測モードとともに可変長符号化器(VLC器)19に供
給されて可変長符号化される。この可変長符号化に際し
て、DCT係数の直流(DC)成分は予測符号化の一つ
であるDPCM(Differencial Pulse Code Modulatio
n)を使用し、DCT係数の交流(AC)成分は低域か
ら高域にかけてジグザグスキャンを行い、ゼロの連続出
現回数及び有効係数値を1つの事象とし、出現確率の高
いものから符号長の短い符号を割り当てていくハフマン
符号化が行われる。 【0010】可変長符号化されたデータは、一時バッフ
ァメモリ20に蓄えられた後、所定の転送レートで符号
化データとして出力される。また、その出力される符号
化データのマクロブロック毎の発生符号量は、符号量制
御器21に供給され、目標符号量に対する発生符号量と
の誤差符号量を量子化器14にフィードバックして量子
化スケールを調整することで符号量制御される。 【0011】一方、Pピクチャ(フレーム間順方向予測
符号化画像)とBピクチャ(双方向予測符号化画像)
は、後で動き補償予測の参照画面として用いる必要があ
るため、量子化器14により量子化された情報は逆量子
化器15に供給され、量子化値と乗算することにより逆
量子化され、更に逆DCT器16により逆DCTされる
ことにより局部復号化が行われ、加算器17で動き補償
予測器12からの予測画像データと加算されて復号器と
同じ画像が復元されて画像メモリ18に蓄積される。こ
の画像メモリ18から取り出されたデータは動き補償予
測器12に供給されて次の動き補償予測の参照画像とさ
れる。 【0012】次に、従来の復号化器について図5のブロ
ック図と共に説明する。同図中、入力端子23を介して
入力された符号化データは、VLD器24により可変長
復号化されてから逆量子化器25に供給され、ここで量
子化幅と乗算されることにより元のDCT係数に近似し
た値とされた後、逆DCT器26に供給されて逆DCT
されることにより局部復号化が行われる。 【0013】また、逆量子化器25より取り出された動
きベクトルと予測モードは、動き補償予測器27に画像
メモリ29よりの復号化データと共に供給され、これよ
り動き補償予測化した画像データを出力させる。加算器
28は逆DCT器26からのデータと動き補償予測器2
7よりの動き補償予測化した画像データとを加算するこ
とにより、符号化器に入力された画像データと等価なデ
ータを復号し、復号化データとして画像メモリ27に供
給する一方、外部へ出力する。 【0014】ところで、上述のようなMPEGによるデ
ータ符号化、復号化方式を使用して、ビデオ信号及びオ
ーディオ信号の符号化データを記録した光ディスクなど
から、記録符号化データの早送りや巻き戻し再生等の特
殊再生を可能ならしめるように、特殊再生用データをナ
ビゲートするナビゲーションデータを記録し、これを再
生する装置が提案されている(特開平8−273304
号公報)。 【0015】すなわち、この公報記載の従来の符号化方
法、復号化方法及び装置では、ビデオ信号やオーディオ
信号などの再生データをMPEG方式により圧縮してパ
ケット化した複数のデータパックを生成し、一定時間範
囲内で再生されるべきデータパック列を単位としてデー
タユニットを構成し、そのデータユニット内の先頭にそ
のデータパックの再生情報及び他のデータユニットとの
関係を記述したナビゲーション情報が格納されているナ
ビゲーションパックを設けたデータユニットを複数用意
し、それらデータユニットを時系列的に再生可能に記録
媒体に記録し、また、再生時は記録媒体の再生データの
ナビゲーション情報を参照し、データユニットを再生信
号に変換して再生信号を得るものである。 【0016】 【発明が解決しようとする課題】しかるに、上記の従来
の符号化方法、復号化方法及び装置では、データパック
の再生情報及び他のデータユニットとの関係を記述した
ナビゲーション情報の生成は、MPEGの符号化が終了
した後に、その符号化データを観測して符号量などの所
望の特殊再生情報を算出してから行う必要がある。すな
わち、上記の従来の符号化方法、復号化方法及び装置で
は、基本的にはMPEGによる符号化データは可変長符
号であるため、全部の符号化データが揃ってから、その
データを観測してデータユニットのアドレスを算出して
おり、全部の符号化データが揃ってからでないとデータ
ユニットのアドレスを算出することができず、リアルタ
イムで符号化データを記録することができないという問
題がある。 【0017】本発明は以上の点に鑑みなされたもので、
記録すべき符号化データの特殊再生のための特殊再生用
情報データを生成し記録すると共に、記録すべき符号化
データをリアルタイムで記録することを実現させるため
のデータ生成方法を提供することを目的とする。 【0018】 【課題を解決するための手段】上記の目的を達成するた
め、本発明は、ピクチャ単位で構成された画像データを
MPEG方式により符号化して得るビデオ符号化データ
と、音声データを符号化して得るオーディオ符号化デー
タとを、MPEG方式に基づきパック化して多重化した
符号化データを生成しつつ、その多重化した符号化デー
タを、前記ビデオ符号化データにおける1つまたは複数
のGOPを単位としてその単位毎に順次ユニット化し、
1ユニット内には、1ユニット分の所定枚数の前記ピク
チャの再生時間に相当する一定時間分の前記オーディオ
符号化データが含まれる構成とし、 前記ユニットが生成
される毎に、その生成されたユニットのユニットサイ
ズ、ユニット再生時間、及びユニットの先頭から第N
(Nは前記所定枚数以下の自然数)番目のピクチャの最
後までのデータサイズ情報の3つの情報を、それぞれ該
ユニットに相当する前記多重化した符号化データから算
出して、各ユニット毎の前記3つの情報を備えた特殊再
生用情報データを生成することを特徴とするデータ生成
方法、を提供するものである。 【0019】 【発明の実施の形態】次に、本発明の実施の形態につい
て図面と共に説明する。図1は本発明になるデータ生成
方法の一実施例を適用した符号化装置の一実施の形態の
ブロック図、図2はその符号化装置で生成され記録され
たデータを記録媒体から再生するための復号化装置の
形態のブロック図を示す。図1中、図4と同一構成部分
には同一符号を付し、その説明を省略する。 【0020】まず、データ符号化方法及び符号化装置に
ついて説明するに、図1において、画像データは入力端
子10に入力され、図4と共に説明したように、Iピク
チャの場合は入力画像データが、PピクチャやBピクチ
ャの場合には動き補償された差分画像データが、それぞ
れDCT、量子化及び可変長符号化され、ビデオ符号化
データとしてバッファメモリ20に一時蓄積され、ビデ
オ符号化データのマクロブロック毎の発生符号量は、符
号量制御器21に供給される。 【0021】この符号量制御器21での処理について更
に詳細に説明する。マクロブロック毎の発生符号量は、
バッファメモリ20から符号量制御器21内の比較器に
供給され、ここで目標符号量と比較されてそれらの誤差
符号量が符号量制御器21内のフィードバック量子化決
定器に入力される。フィードバック量子化決定器は、入
力誤差符号量を例えば所定の間蓄積し、発生符号量の方
が大きい場合、誤差量に比例して量子化値を大きく設定
し、目標符号量の方が大きい場合、誤差量に比例して量
子化値を小さく設定して量子化器14を制御する。これ
により、各ピクチャは発生符号量が決定された目標符号
量になるように制御される。 【0022】一方、オーディオ信号をディジタル化して
得られたオーディオデータ(音声データ)は、入力端子
30を介してオーディオ符号化器31に供給されてMP
EGやAC−3、若しくは圧縮を行わずリニアパルス符
号変調(PCM)により固定長符号化される。バッファ
メモリ20に一時蓄積されたビデオ符号化データと、オ
ーディオ符号化器31より取り出されたオーディオ符号
化データは、それぞれ多重化器32に供給されてMPE
G2で公知の規格(ISO/IEC 13818-1)に基づきパック
化され、データ識別のためのIDや表示時間を示すタイ
ムスタンプなどの情報が更に付加された後、時系列的に
合成された多重符号化データとされる。 【0023】多重化器32から取り出された多重化され
た符号化データは、図示しない公知の記録機構により光
ディスクなどの記録媒体38にリアルタイムで記録され
る。また、多重化器32から取り出された多重化された
符号化データは、論理ユニット化器33にも供給されて
論理ユニット化される。例えば、MPEGで符号化され
たビデオデータを15ピクチャで1GOPを構成し、1
GOP単位でユニット化するものとすると、論理ユニッ
ト化器33では多重符号化データ中のビデオ符号化デー
タの1GOPを構成するピクチャの数をカウントしてG
OP境界を検出し、その検出時点でリセット信号をユニ
ット再生時間算出器34及びデータサイズ算出器35に
それぞれ供給する。なお、ユニットは1GOPに限定さ
れず、一定再生時間単位(一定ピクチャ数)であればよ
いが、その先頭はIピクチャに設定される。 【0024】ユニット再生時間算出器34は、多重化さ
れた符号化データから論理ユニットが再生される時間を
算出する。このユニット再生時間は、ビデオ符号化デー
タのディスプレイピクチャの枚数を入力符号化データを
観測することでカウントし、論理ユニット化器33から
リセット信号が入力されるまでのピクチャの枚数を1/
29.97秒で乗算することで算出できる。このユニッ
ト再生時間算出器34で算出されたユニット再生時間
は、情報メモリ36に記憶される。なお、予めユニット
の再生時間を固定としておくことも考えられる。その場
合には再生時間は算出する必要はなく、所定の固定再生
時間情報を情報メモリ36に記憶する。 【0025】また、データサイズ算出器35は、論理ユ
ニット化器33からのリセット信号の時間間隔からデー
タサイズを算出すると共に、多重化された符号化データ
から論理ユニット毎にその論理ユニットを構成するIピ
クチャ及びPピクチャの終了アドレス(EA)を算出す
る。例えば、図3に示すように、データサイズ算出器3
5は、リセット信号入力時点からIピクチャの終了アド
レス(1EA)と、次に入力されるPピクチャの終了ア
ドレス(2EA)と、以下、同様にして論理ユニット内
のすべてのあるいは、予め定めた数のPピクチャが入力
される毎に、その終了アドレス3EA,...,TEA
がそれぞれ算出される。このようにしてデータサイズ算
出器35により算出されたデータサイズ及び終了アドレ
スも情報メモリ36に供給されて一時記憶される。 【0026】情報メモリ36に記憶されたユニット再生
時間と終了アドレスとユニットサイズは、表1に示すよ
うなフォーマットに変換されて特殊再生用情報データと
して図示しない公知の記録機構により記録媒体38に、
上記の多重化された符号化データの記録領域とは別の領
域に記録される。 【0027】 【表1】 表1に示すように、特殊再生用情報データは、各ユニッ
ト毎にユニットサイズ、ユニット再生時間、第1REF
(リファレンス)画像EA、第2REF画像EA及び第
3REF画像EAを一組とする情報データからなり、こ
れらがすべてのユニット分だけ順次時系列的に合成され
たデータである。ここで、図3に示すように、第1RE
F画像EAは、Iピクチャの終了アドレス(1EA)で
あり、第2REF画像EAはIピクチャの次のPピクチ
ャの終了アドレス(2EA)であり、第3REF画像E
Aは更に次のPピクチャの終了アドレス(3EA)であ
る。表1では第3REF画像EAまでの情報しかない
が、これ以上あるいはこれ以下であっても差し支えない
ことは勿論である。ユニットアドレスを加算すれば、次
のユニットの先頭アドレスを算出できることとなる。 【0028】次に、データ復号化方法及び復号化装置の
一形態について図2と共に説明する。図2において、図
1の符号化装置により符号化データと特殊再生用情報デ
ータとがそれぞれの領域に分けて記録された記録媒体3
8から、図示しない再生機構により特殊再生用情報デー
タをまず再生して情報メモリ41に蓄積しておく。 【0029】次に、図示しないインタフェースによって
特殊再生用指示信号が入力端子40を介してピックアッ
プアクセスアドレス算出器42に入力されると、ピック
アップアクセスアドレス算出器42は情報メモリ41を
アクセスして特殊再生用情報データを取り込み、特殊再
生用指示信号が指示した倍速比に応じて各ユニットの終
了アドレスを選択し、選択した終了アドレスやユニット
サイズに基づいて、読み出し開始アドレスと読み出し終
了アドレスを算出し、それらのアドレスをオプティカル
ディスクコントローラ43に供給する。 【0030】オプティカルディスクコントローラ43
は、入力された読み出し開始アドレスと読み出し終了ア
ドレスに基づいて、ピックアップ44の読み取り制御を
行う。この読み取り制御はユニット毎に行われる。ピッ
クアップ44は記録媒体38の多重化された符号化デー
タの記録領域から多重化された符号化データとアドレス
を公知の方法で再生し、再生アドレスがオプティカルデ
ィスクコントローラ43から入力された読み出し開始ア
ドレスと読み出し終了アドレスとなるように再生トラッ
ク位置を選択して再生を行う。 【0031】ピックアップ44により再生された多重化
された符号化データは、分離化器45に供給されてビデ
オ符号化データとオーディオ符号化データとに分離さ
れ、ビデオ符号化データは図5に示した構成のビデオ復
号器47に供給されて従来と同様にして復号され、また
オーディオ符号化データはオーディオ復号器46に供給
されて復号される。 【0032】これにより、例えば特殊再生用指示信号が
15倍速の早送り再生を指示している場合は、ピックア
ップアクセスアドレス算出器42は表1の特殊再生用情
報データのユニットサイズを見て次のユニットの先頭ア
ドレス(読み出し開始アドレス)を算出すると同時に、
ここでは1GOPが15枚のピクチャで構成されている
ので、そのユニットの第1REF画像EAを検出してそ
の終了アドレスを読み出し終了アドレスとして算出して
オプティカルディスクコントローラ43に出力すること
を各ユニット毎に行う。これにより、ピックアップ44
により各ユニットの、ここでは各GOPの先頭のIピク
チャのみが順番に記録媒体38から再生されるため、1
5倍速再生ができる。 【0033】なお、本発明は以上の実施の形態に限定さ
れるものではなく、例えば、情報メモリ36は特殊再生
用情報データフォーマット器37により逐次生成した各
ユニットの特殊再生用情報データを記憶するようにして
もよく、さらには記録媒体38に記録できるデータレー
トが、記録する符号化データのデータレートよりも高い
場合は、情報メモリ36自体を設けずに、符号化データ
を記録しない空いている時間に特殊再生用情報データを
タイムシェアリングで記録することも可能である。 【0034】 【発明の効果】以上説明したように、本発明によれば、
ピクチャ単位で構成された画像データをMPEG方式に
より符号化して得るビデオ符号化データと、音声データ
を符号化して得るオーディオ符号化データとを、MPE
G方式に基づきパック化して多重化した符号化データ
を、前記ビデオ符号化データにおける1つまたは複数の
GOPを単位としてその単位毎に順次ユニット化し、
殊再生用情報データをユニット毎に、それぞれ該当ユニ
ットに相当する前記多重化した符号化データから生成す
るようにしたので、本発明を用いれば、記録すべき多重
化した符号化データをリアルタイムで記録媒体に記録し
ながら、特殊再生用情報データも同じ記録媒体に記録す
ることが可能となる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data generation method.
Especially for special reproduction of encoded data to be recorded.
Generate and record trick play information data, and record
Real-time recording of power coded data
A data generation method for causing the 2. Description of the Related Art An MPEG (Moving Picture Experts Group) is an international standard for compressing and encoding a video signal of a moving image and an audio signal related thereto. This MPEG was adopted in 1988 by the ISO / IEC
This is an abbreviation of the name of the organization that considers the moving picture coding standard established in JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Commission Meeting Technical Committee 1 / Special Committee 2, current SC29). [0003] MPEG1 (MPEG phase 1)
A standard for storage media of about 1.5 Mbps, JPEG for the purpose of still image coding, and ISDN
H.264 for video compression for low transfer rates of video conferencing and video telephony of (Service Integrated Digital Network). 26
1 (CCITT SGXV, current ITU-T SG1
5 standardized) and introduced a new technology for storage media. These are 199
It was enacted as ISO / IEC 11172 in August 3rd. MPEG2 (MPEG Phase 2) is an ISO / IEC standard in November 1994 for the purpose of a general-purpose standard that can support various applications such as communication and broadcasting.
13818; 262. FIG. 4 is a block diagram of an example of a conventional encoding device using such MPEG, and FIG. 5 is a block diagram of an example of a decoding device. First, the encoding apparatus shown in FIG. 4 will be described. A video signal composed of a luminance signal and a chrominance signal is digitized and then rearranged according to a picture type.
Input to 0. This input image data is subtracted from the motion-compensated and predicted image data from the motion-compensated predictor 12 by the subtracter 11 to obtain differential image data with reduced temporal redundancy. [0005] There are three modes of the above prediction, the past, the future, and both. In addition, these are 16
Pixels can be switched and used in units of 16 × 16 macroblocks (MB), which are 16 pixels in the horizontal direction. The prediction direction is determined by the picture type given to the input image data. P-pictures have two modes of prediction from the past and independent encoding of the MB without prediction. B-pictures have four modes for prediction from the future, prediction from the past, prediction from both, and independent encoding. Then, it is the I picture that independently encodes all MBs. In the above-described motion compensation, the motion area is subjected to pattern matching for each MB, a motion vector is detected with half-pel accuracy, and the motion vector is predicted by shifting by the motion. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating where to predict the motion vector. A group of pictures (GOP) from an I-picture to a picture before the next I-picture is used, and when used in a storage medium or the like, about 15 pictures (frames) are generally used. In the case of an I picture, input image data is taken out as it is from the subtracter 11, and in the case of a P picture or a B picture, motion compensated difference image data is taken out and supplied to a DCT unit 13. Here, discrete cosine transform (DCT: Discrete Cosine Transform) is performed. This DCT is an orthogonal transform that discretely transforms an integral transform using a cosine function as an integral kernel into a finite space. In the MPEG, the MB is divided into four parts, eight pixels in the vertical direction and eight pixels in the horizontal direction.
Two-dimensional DCT is performed on the × 8 DCT block.
Generally, a video signal has many low-frequency components and few high-frequency components. Therefore, when DCT is performed, obtained coefficients are concentrated in low frequencies. [0008] DCT-processed image data (DCT coefficients)
Is supplied to a quantizer 14, where it is quantized. In this quantization, a value obtained by multiplying an 8 × 8 two-dimensional frequency called a quantization matrix by a visual characteristic and a value obtained by multiplying the whole by a value called a quantization scale for multiplying the whole by a scalar is used as a quantization width. This is performed by dividing by the quantization width. The quantized DCT coefficients are supplied to a variable length coder (VLC unit) 19 together with a motion vector from the motion compensation predictor 12 and a prediction mode indicating where to start prediction, and are subjected to variable length coding. . In the variable length coding, a DC (DC) component of the DCT coefficient is a DPCM (Differential Pulse Code Modulatio) which is one of predictive codings.
n), the alternating current (AC) component of the DCT coefficient is subjected to a zigzag scan from the low band to the high band, and the number of consecutive occurrences of zero and the effective coefficient value are regarded as one event. Huffman coding in which short codes are assigned is performed. The variable length coded data is temporarily stored in a buffer memory 20 and then output as coded data at a predetermined transfer rate. The generated code amount of the output coded data for each macro block is supplied to a code amount controller 21, and the error code amount between the target code amount and the generated code amount is fed back to the quantizer 14 to perform quantization. The code amount is controlled by adjusting the quantization scale. On the other hand, a P picture (inter-frame forward prediction coded image) and a B picture (bidirectional prediction coded image)
Needs to be used later as a reference screen for motion compensated prediction, the information quantized by the quantizer 14 is supplied to an inverse quantizer 15 and inversely quantized by multiplying by a quantized value. Furthermore, local decoding is performed by the inverse DCT performed by the inverse DCT unit 16, the added image is added to the predicted image data from the motion compensation predictor 12 by the adder 17, and the same image as the decoder is restored. Stored. The data extracted from the image memory 18 is supplied to the motion compensation predictor 12 and used as a reference image for the next motion compensation prediction. Next, a conventional decoder will be described with reference to the block diagram of FIG. In the figure, coded data input via an input terminal 23 is subjected to variable length decoding by a VLD unit 24 and then supplied to an inverse quantizer 25, where it is multiplied by a quantization width to obtain the original data. And then supplied to the inverse DCT unit 26 to obtain the inverse DCT coefficient.
Thus, local decoding is performed. The motion vector and the prediction mode extracted from the inverse quantizer 25 are supplied to the motion compensation predictor 27 together with the decoded data from the image memory 29, and the motion compensated image data is output. Let it. The adder 28 receives the data from the inverse DCT unit 26 and the motion compensation predictor 2
7, the data equivalent to the image data input to the encoder is decoded by adding the motion-compensated image data from No. 7 and supplied to the image memory 27 as decoded data while being output to the outside. . By using the above-described MPEG data encoding and decoding methods, fast forward and rewind reproduction of recorded encoded data from an optical disk or the like on which encoded data of video and audio signals are recorded. An apparatus has been proposed which records navigation data for navigating special reproduction data and reproduces the data so that the special reproduction can be performed (Japanese Patent Laid-Open No. 8-273304).
No.). That is, according to the conventional encoding method, decoding method and apparatus described in this publication, a plurality of packetized data packs are generated by compressing reproduced data such as video signals and audio signals by the MPEG method and packetizing them. A data unit is configured in units of a data pack sequence to be reproduced within a time range, and at the beginning of the data unit, reproduction information of the data pack and navigation information describing a relationship with other data units are stored. A plurality of data units provided with navigation packs are prepared, and these data units are recorded on a recording medium in a time-sequentially reproducible manner. This is to obtain a reproduced signal by converting it into a reproduced signal. However, in the above-described conventional encoding method, decoding method and apparatus, the generation of navigation information describing the reproduction information of a data pack and the relationship with other data units is not performed. After the completion of the MPEG encoding, it is necessary to observe the encoded data and calculate the desired special reproduction information such as the code amount and so on. That is, in the above-described conventional encoding method, decoding method and apparatus, since the encoded data by MPEG is basically a variable length code, the data is observed after all the encoded data have been prepared. Since the address of the data unit is calculated, the address of the data unit cannot be calculated until all the encoded data are collected, and there is a problem that the encoded data cannot be recorded in real time. The present invention has been made in view of the above points,
For special playback for special playback of encoded data to be recorded
Generate and record information data, and encode to be recorded
To enable real-time recording of data
It is an object of the present invention to provide a data generation method. According to the present invention, there is provided an image processing apparatus comprising:
Video encoded data obtained by encoding according to the MPEG system and audio encoded data obtained by encoding audio data are packed and multiplexed based on the MPEG system to generate encoded data. Multiplexing the encoded data with one or more of the video encoded data
GOP is unitized, and the unit is sequentially united for each unit.
In one unit, a predetermined number of pictographs for one unit
The audio for a certain time equivalent to the playing time of the tea
A structure that contains coded data, each time the unit is generated, the unit size of the generated units, unit playback time, and the N from the head of the unit
(N is a natural number less than or equal to the predetermined number) The three pieces of information of the data size information up to the end of the picture are calculated from the multiplexed coded data corresponding to the unit. And a data generation method for generating special reproduction information data having two pieces of information. Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows data generation according to the present invention.
Block diagram of one embodiment of the applied encoding apparatus of an embodiment of a method, FIG. 2 is recorded is generated by the encoding device
And one decoding apparatus for reproducing data from a recording medium
FIG. 2 shows a block diagram of an embodiment . 1, the same components as those in FIG. 4 are denoted by the same reference numerals, and the description thereof will be omitted. First, a description will be given of a data encoding method and an encoding apparatus. In FIG. 1, image data is input to an input terminal 10, and as described with reference to FIG. In the case of a P picture or B picture, motion-compensated difference image data is subjected to DCT, quantization and variable length coding, respectively, and temporarily stored in the buffer memory 20 as video coded data. The generated code amount for each is supplied to the code amount controller 21. The processing in the code amount controller 21 will be described in further detail. The generated code amount for each macroblock is
The data is supplied from the buffer memory 20 to a comparator in the code amount controller 21, where it is compared with the target code amount, and the error code amounts thereof are input to a feedback quantization determiner in the code amount controller 21. The feedback quantization determiner accumulates the input error code amount for a predetermined period, for example, and when the generated code amount is larger, sets the quantization value to be larger in proportion to the error amount, and when the target code amount is larger. The quantizer 14 is controlled by setting the quantization value small in proportion to the error amount. Thus, each picture is controlled so that the generated code amount becomes the determined target code amount. On the other hand, audio data (speech data) obtained by digitizing the audio signal is supplied to an audio encoder 31 via an input terminal 30 and is supplied to an MP3.
It is fixed-length coded by EG, AC-3, or linear pulse code modulation (PCM) without compression. The video encoded data temporarily stored in the buffer memory 20 and the audio encoded data extracted from the audio encoder 31 are supplied to a multiplexer 32,
G2 is packed based on a known standard (ISO / IEC 13818-1), further added with information such as an ID for data identification and a time stamp indicating a display time, and then multiplexed in time series. It is coded data. The multiplexed encoded data extracted from the multiplexer 32 is recorded in real time on a recording medium 38 such as an optical disk by a known recording mechanism (not shown). The multiplexed encoded data extracted from the multiplexer 32 is also supplied to a logical unit generator 33 to be converted into a logical unit. For example, video data encoded by MPEG constitutes one GOP with 15 pictures,
Assuming that the data is unitized in GOP units, the logical unitizer 33 counts the number of pictures constituting one GOP of the video coded data in the multiplexed coded data, and
The OP boundary is detected, and a reset signal is supplied to the unit reproduction time calculator 34 and the data size calculator 35 at the time of the detection. It should be noted that the unit is not limited to one GOP, and may be a fixed playback time unit (a fixed number of pictures), but the head is set to an I picture. The unit reproduction time calculator 34 calculates the time during which the logical unit is reproduced from the multiplexed coded data. The unit playback time is obtained by counting the number of display pictures of video encoded data by observing the input encoded data, and reducing the number of pictures until the reset signal is input from the logical unitizer 33 by 1 /.
It can be calculated by multiplying by 29.97 seconds. The unit playback time calculated by the unit playback time calculator 34 is stored in the information memory 36. It is also conceivable that the playback time of the unit is fixed in advance. In this case, the reproduction time does not need to be calculated, and predetermined fixed reproduction time information is stored in the information memory 36. The data size calculator 35 calculates the data size from the time interval of the reset signal from the logical unit generator 33, and configures the logical unit for each logical unit from the multiplexed encoded data. The end addresses (EA) of the I picture and the P picture are calculated. For example, as shown in FIG.
5 is the end address (1EA) of the I picture from the point of input of the reset signal, the end address (2EA) of the P picture to be input next, and all or predetermined numbers in the logical unit in the same manner. , Each time a P-picture is input, the end addresses 3EA,. . . , TEA
Are calculated respectively. The data size and end address calculated by the data size calculator 35 in this way are also supplied to the information memory 36 and temporarily stored. The unit reproduction time, end address, and unit size stored in the information memory 36 are converted into a format shown in Table 1 and are recorded as special reproduction information data on a recording medium 38 by a known recording mechanism (not shown).
It is recorded in an area different from the recording area of the multiplexed coded data. [Table 1] As shown in Table 1, the information data for special reproduction includes a unit size, a unit reproduction time, a first REF for each unit.
The (reference) image data includes a set of information EA, the second REF image EA, and the third REF image EA. These data are sequentially synthesized in time series for all units. Here, as shown in FIG.
The F picture EA is the end address (1EA) of the I picture, the second REF picture EA is the end address (2EA) of the P picture next to the I picture, and the third REF picture E
A is the end address (3EA) of the next P picture. In Table 1, there is only the information up to the third REF image EA, but it goes without saying that the information may be more or less than this. By adding the unit addresses, the start address of the next unit can be calculated. [0028] Next, the data decoding method and decoding apparatus
One embodiment will be described with reference to FIG. In FIG. 2, a recording medium 3 on which encoded data and special reproduction information data are recorded in respective areas by the encoding apparatus of FIG.
8, the special reproduction information data is reproduced first by a reproducing mechanism (not shown) and stored in the information memory 41. Next, when an instruction signal for trick play is input to the pickup access address calculator 42 through an input terminal 40 by an interface (not shown), the pick-up access address calculator 42 accesses the information memory 41 to perform trick play. Fetching information data, selecting the end address of each unit according to the speed ratio indicated by the special reproduction instruction signal, calculating the read start address and the read end address based on the selected end address and unit size, These addresses are supplied to the optical disk controller 43. Optical disk controller 43
Performs read control of the pickup 44 based on the input read start address and read end address. This reading control is performed for each unit. The pickup 44 reproduces the multiplexed coded data and the address from the recording area of the multiplexed coded data of the recording medium 38 by a known method, and sets the reproduction address to the read start address input from the optical disk controller 43. Reproduction is performed by selecting a reproduction track position so as to be a read end address. The multiplexed coded data reproduced by the pickup 44 is supplied to a demultiplexer 45 and separated into video coded data and audio coded data. The video coded data is shown in FIG. The video data is supplied to the video decoder 47 having the configuration and decoded in the same manner as in the related art, and the encoded audio data is supplied to the audio decoder 46 and decoded. Thus, for example, when the special reproduction instruction signal instructs fast forward reproduction at 15 × speed, the pickup access address calculator 42 looks at the unit size of the special reproduction information data in Table 1 and checks the next unit. At the same time as calculating the start address (read start address) of
Here, since one GOP is composed of 15 pictures, it is necessary to detect the first REF image EA of the unit, calculate the end address as the read end address, and output it to the optical disk controller 43 for each unit. Do. Thereby, the pickup 44
Since only the first I picture of each unit in this case, in this case, of each GOP is reproduced from the recording medium 38 in order,
5x speed playback is possible. The present invention is not limited to the above embodiment. For example, the information memory 36 stores the special reproduction information data of each unit sequentially generated by the special reproduction information data formatter 37. If the data rate that can be recorded on the recording medium 38 is higher than the data rate of the encoded data to be recorded, the information memory 36 is not provided and the encoded data is not recorded. It is also possible to record information data for special reproduction at a time by time sharing. As described above, according to the present invention,
Convert image data composed of pictures into MPEG format
Video encoded data and audio data obtained by more encoding
And audio encoded data obtained by encoding
Encoded data packed and multiplexed based on the G method
With one or more of the video encoded data
GOPs are used as units, and the special reproduction information data is generated for each unit from the multiplexed coded data corresponding to each unit. Should multiplex
While the encoded data thus encoded is recorded on the recording medium in real time, the information data for special reproduction can be recorded on the same recording medium.

【図面の簡単な説明】 【図1】本発明になるデータ生成方法の一実施例を適用
した符号化装置の一実施の形態のブロック図である。 【図2】図1に示す符号化装置で生成され記録されたデ
ータを記録媒体から再生するための復号化装置の一形態
のブロック図である。 【図3】特殊再生用情報データ中のリファレンス画像終
了アドレスの説明図である。 【図4】従来の符号化装置の一例のブロック図である。 【図5】従来の復号化装置の一例のブロック図である。 【符号の説明】 10 画像データ入力端子 14 量子化器(符号化手段) 19 可変長符号化(VLC)器(符号化手段) 20 バッファメモリ(符号化手段) 21 符号量制御器(符号化手段) 30 音声データ入力端子 31 オーディオ符号化器(符号化手段) 32 多重化器 33 論理ユニット化器(特殊再生用情報データ生成手
段) 34 ユニット再生時間算出器(特殊再生用情報データ
生成手段) 35 データサイズ算出器(特殊再生用情報データ生成
手段) 36 情報メモリ(特殊再生用情報データ生成手段) 37 特殊再生用情報データフォーマット器(特殊再生
用情報データ生成手段) 38 記録媒体 40 特殊再生用指示信号入力端子 41 情報メモリ 42 ピックアップアクセスアドレス算出器(アクセス
アドレス生成手段) 43 オプティカルディスクコントローラ(ピックアッ
プ制御手段) 44 ピックアップ 45 分離化器(復号手段) 46 オーディオ復号器 47 ビデオ復号器(復号手段)
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 shows an embodiment of a data generation method according to the present invention.
1 is a block diagram of an embodiment of an encoding device according to the present invention. FIG. 2 shows data generated and recorded by the encoding apparatus shown in FIG .
FIG. 21 is a block diagram of an embodiment of a decoding device for reproducing data from a recording medium . FIG. 3 is an explanatory diagram of a reference image end address in the special reproduction information data. FIG. 4 is a block diagram illustrating an example of a conventional encoding device. FIG. 5 is a block diagram illustrating an example of a conventional decoding device. [Description of Code] 10 Image data input terminal 14 Quantizer (encoding means) 19 Variable length encoding (VLC) device (encoding means) 20 Buffer memory (encoding means) 21 Code amount controller (encoding means) 30) audio data input terminal 31 audio encoder (encoding means) 32 multiplexer 33 logical unitizer (special reproduction information data generating means) 34 unit reproduction time calculator (special reproduction information data generating means) 35 Data size calculator (special reproduction information data generation means) 36 Information memory (special reproduction information data generation means) 37 special reproduction information data formatter (special reproduction information data generation means) 38 recording medium 40 special reproduction instruction Signal input terminal 41 Information memory 42 Pickup access address calculator (access address generation means) 43 Option Critical A disk controller (pickup control means) 44 pickup 45 demultiplexing unit (decoding means) 46 Audio decoder 47 video decoder (decoding means)

フロントページの続き (56)参考文献 特開 平7−170488(JP,A) 特開 平6−325553(JP,A) 特開 平11−261962(JP,A) 特開 平6−268969(JP,A) 特開 平8−273304(JP,A) 特開 平10−74380(JP,A) 特開2002−109860(JP,A) 国際公開97/13361(WO,A1) (58)調査した分野(Int.Cl.7,DB名) H04N 5/85 - 5/956 H04N 7/24 G11B 20/10 Continuation of the front page (56) References JP-A-7-170488 (JP, A) JP-A-6-325553 (JP, A) JP-A-11-261962 (JP, A) JP-A-6-268969 (JP) , A) JP-A-8-273304 (JP, A) JP-A-10-74380 (JP, A) JP-A-2002-109860 (JP, A) WO 97/13361 (WO, A1) (58) Field (Int.Cl. 7 , DB name) H04N 5/85-5/956 H04N 7/24 G11B 20/10

Claims (1)

(57)【特許請求の範囲】 【請求項1】ピクチャ単位で構成された画像データを
PEG方式により符号化して得るビデオ符号化データ
と、音声データを符号化して得るオーディオ符号化デー
タとを、MPEG方式に基づきパック化して多重化した
符号化データを生成しつつ、その多重化した符号化デー
タを、前記ビデオ符号化データにおける1つまたは複数
のGOPを単位としてその単位毎に順次ユニット化し、
1ユニット内には、1ユニット分の所定枚数の前記ピク
チャの再生時間に相当する一定時間分の前記オーディオ
符号化データが含まれる構成とし、 前記 ユニットが生成される毎に、その生成されたユニッ
トのユニットサイズ、ユニット再生時間、及びユニット
の先頭から第N(Nは前記所定枚数以下の自然数)番目
のピクチャの最後までのデータサイズ情報の3つの情報
を、それぞれ該ユニットに相当する前記多重化した符号
化データから算出して、各ユニット毎の前記3つの情報
を備えた特殊再生用情報データを生成することを特徴と
するデータ生成方法。
(57) [Claims 1] An image data composed of picture units is represented by M
Video encoded data obtained by encoding according to the PEG system and audio encoded data obtained by encoding audio data are packed and multiplexed based on the MPEG system to generate encoded data. Multiplexing the encoded data with one or more of the video encoded data
GOP is unitized, and the unit is sequentially united for each unit.
In one unit, a predetermined number of pictographs for one unit
The audio for a certain time equivalent to the playing time of the tea
A structure that contains coded data, each time the unit is generated, the unit size of the unit to which the generated, the unit reproduction time, and the unit leading from the N (N is the predetermined number or less natural number) th of The three pieces of information of the data size information up to the end of the picture are calculated from the multiplexed coded data corresponding to the unit, and the special reproduction information data including the three pieces of information for each unit is generated. A data generation method.
JP18480398A 1998-06-30 1998-06-30 Data generation method Expired - Lifetime JP3381630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18480398A JP3381630B2 (en) 1998-06-30 1998-06-30 Data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18480398A JP3381630B2 (en) 1998-06-30 1998-06-30 Data generation method

Related Child Applications (6)

Application Number Title Priority Date Filing Date
JP2002021623A Division JP3381724B2 (en) 2002-01-30 2002-01-30 Data recording method
JP2002021625A Division JP3381726B2 (en) 2002-01-30 2002-01-30 Data playback method
JP2002021624A Division JP3381725B2 (en) 2002-01-30 2002-01-30 Data recording device
JP2002021622A Division JP3381723B2 (en) 2002-01-30 2002-01-30 Data generator
JP2002021627A Division JP3381728B2 (en) 2002-01-30 2002-01-30 recoding media
JP2002021626A Division JP3381727B2 (en) 2002-01-30 2002-01-30 Data playback device

Publications (2)

Publication Number Publication Date
JP2000023096A JP2000023096A (en) 2000-01-21
JP3381630B2 true JP3381630B2 (en) 2003-03-04

Family

ID=16159574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18480398A Expired - Lifetime JP3381630B2 (en) 1998-06-30 1998-06-30 Data generation method

Country Status (1)

Country Link
JP (1) JP3381630B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6567554B1 (en) 1999-03-12 2003-05-20 Victor Company Of Japan, Limited Data coding method and apparatus therefor
CN100340113C (en) * 2003-11-28 2007-09-26 联发科技股份有限公司 Image bit stream decoding system and method of video signal translating device
JP2005285301A (en) * 2004-03-05 2005-10-13 Ricoh Co Ltd Recorder, reproducer, recording method, reproducing method and program

Also Published As

Publication number Publication date
JP2000023096A (en) 2000-01-21

Similar Documents

Publication Publication Date Title
US8260122B2 (en) MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method
JP2000278692A (en) Compressed data processing method, processor and recording and reproducing system
JP3147792B2 (en) Video data decoding method and apparatus for high-speed playback
JP3381630B2 (en) Data generation method
JP3748234B2 (en) MPEG data recording method
US6754272B2 (en) Picture signal processing method and apparatus, picture signal recording method and apparatus and recording medium
JP3381724B2 (en) Data recording method
JP3381723B2 (en) Data generator
JP3381725B2 (en) Data recording device
JP3381727B2 (en) Data playback device
JP3381728B2 (en) recoding media
US6760292B1 (en) Disc recorder for recording coded data to be reproduced in real time and method of doing the same
JP3721972B2 (en) MPEG image data recording method
JP3381726B2 (en) Data playback method
JP3748243B2 (en) MPEG data recording device
JP2001195840A (en) Method for recording data, edition method, edition device and recording medium
JP3721971B2 (en) MPEG image data recording apparatus and recording medium
JP3748245B2 (en) MPEG data recording device
JP3748244B2 (en) MPEG data recording device
JP3748242B2 (en) MPEG data recording method
JP3748241B2 (en) MPEG data recording method
JP3748240B2 (en) MPEG data recording method
JP2007325304A (en) Mpeg data recording and reproducing method
JP2008005520A (en) Mpeg data recording and reproducing method
JP2000134575A (en) Conversion method and conversion device for special reproduction image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081220

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20181220

Year of fee payment: 16

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20181220

Year of fee payment: 16

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20181220

Year of fee payment: 16

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term