JP2004289871A - Method for reproducing mpeg data - Google Patents

Method for reproducing mpeg data Download PDF

Info

Publication number
JP2004289871A
JP2004289871A JP2004158900A JP2004158900A JP2004289871A JP 2004289871 A JP2004289871 A JP 2004289871A JP 2004158900 A JP2004158900 A JP 2004158900A JP 2004158900 A JP2004158900 A JP 2004158900A JP 2004289871 A JP2004289871 A JP 2004289871A
Authority
JP
Japan
Prior art keywords
image data
mpeg
data
section
mpeg image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004158900A
Other languages
Japanese (ja)
Inventor
Takayuki Sugawara
隆幸 菅原
Toshio Kuroiwa
俊夫 黒岩
Wataru Iba
渉 猪羽
Kenjiro Ueda
健二朗 上田
Seiji Higure
誠司 日暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004158900A priority Critical patent/JP2004289871A/en
Publication of JP2004289871A publication Critical patent/JP2004289871A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a reproduction method for realizing seamless reproduction with high quality without causing contradiction of overflow and underflow at the connection of the VBV buffer in the case of joining the first MPEG image data to the second MPEG image data and reproducing the resulting image data. <P>SOLUTION: Data of a joining interval A of the first MPEG image data and data of a joining interval B of the second MPEG image data are decoded and then re-encoded. The re-encoding is executed while being controlled so that transition of a VBV buffer occupied value is started from a VBV buffer occupied value at a position m and finished up to a VBV buffer occupied value at a position q. Then the first MPEG image data are reproduced until the position m of the first MPEG image data, and then re-encoded MPEG image data at the joining interval A+B are reproduced, and thereafter connection is made to the VBV buffer at its address position q of the second MPEG image data and the second MPEG image data after the position q are reproduced. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、MPEG符号化方式で符号化された画像データである第1及び第2の2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に、シームレスな再生を実現させるためのMPEGデータ再生方法に関するものである。   According to the present invention, the first and second MPEG image data, which are the image data encoded by the MPEG encoding method, are converted into the first MPEG image at a specified joint designated position in the respective MPEG image data. The present invention relates to an MPEG data reproducing method for achieving seamless reproduction when data is connected to the second MPEG image data and reproduced.

本特許において使用する従来技術であるMPEGについて簡単に説明する。
MPEGについてはISO-IEC11172-2、ITU-T H.262 / ISO-IEC13818-2に詳細な説明がなされているので、ここでは概略のみ説明する。MPEGは1988年、ISO/IEC JTC1/SC2(国際標準化機構/国際電気標準化会合同技術委員会1/専門部会2、現在のSC29)に設立された動画像符号化標準を検討する組織の名称(Moving Pictures Expert Group)の略称である。MPEG1(MPEGフェーズ1)は1.5Mbps程度の蓄積メディアを対象とした標準で、静止画符号化を目的としたJPEGと、ISDNのテレビ会議やテレビ電話の低転送レート用の動画像圧縮を目的としたH.261(CCITT SGXV、現在のITU-T SG15で標準化)の基本的な技術を受け継ぎ、蓄積メディア用に新しい技術を導入したものである。これらは1993年8月、ISO/IEC 11172 として成立している。
MPEG, which is a conventional technique used in this patent, will be briefly described.
MPEG is described in detail in ISO-IEC11172-2 and ITU-T H.262 / ISO-IEC13818-2, so only an outline will be given here. MPEG was established in 1988 in ISO / IEC JTC1 / SC2 (International Organization for Standardization / International Electrotechnical Commission / Technical Committee 1 / Specialized Subcommittee 2, current SC29). Moving Pictures Expert Group). MPEG1 (MPEG Phase 1) is a standard for storage media of about 1.5 Mbps, and is intended for JPEG for still image coding and for moving image compression for low transfer rates of ISDN video conferences and videophones. It inherits the basic technology of H.261 (CCITT SGXV, standardized by the current ITU-T SG15) and introduces new technology for storage media. These were established in August 1993 as ISO / IEC 11172.

MPEG1は幾つかの技術を組み合わせて作成されている。図5にMPEG符号化方式による符号化を行う従来のMPEG符号化器を示し、以下に簡単に説明する。入力画像は動き補償予測器1で復号化した画像と、入力画像の差分とを差分器2で取ることで時間冗長部分を削減する。   MPEG1 is created by combining several technologies. FIG. 5 shows a conventional MPEG encoder that performs encoding according to the MPEG encoding method, and will be briefly described below. The difference between the input image and the image decoded by the motion compensation predictor 1 and the input image is calculated by a differentiator 2 to reduce a time redundant part.

予測の方向は、過去、未来、両方からの3モード存在する。またこれらは16画素×16画素のMB(Macroblock)ごとに切り替えて使用できる。予測方向は入力画像に与えられたPicture Typeによって決定される。過去からの予測により符号化するモードと、予測をしないでそのMBを独立で符号化するモードとの2モード存在するのが片方向画像間予測符号化画像(P-picture)である。また未来からの予測により符号化するモード、過去からの予測により符号化するモード、両方からの予測により符号化するモード、独立で符号化するモードの4モード存在するのが双方向画像間予測符号化画像(B-picture)である。そして全てのMBが独立で符号化するのが画像内独立符号化画像(I-picture)である。   The prediction direction has three modes from the past, the future, and both. These can be switched and used for each 16 pixel × 16 pixel MB (Macroblock). The prediction direction is determined by the Picture Type given to the input image. A unidirectional inter-picture predictive coded image (P-picture) has two modes, a mode in which coding is performed by prediction from the past and a mode in which the MB is independently coded without performing prediction. In addition, there are four modes: bi-directional inter-picture prediction code, a mode of encoding by prediction from the future, a mode of encoding by prediction from the past, a mode of encoding by prediction from both, and a mode of independently encoding. This is a coded image (B-picture). It is an intra-picture independently coded picture (I-picture) that all MBs are independently coded.

動き補償は、動き領域をMBごとにパターンマッチングを行ってハーフペル精度で動きベクトルを検出し、動き分だけシフトしてから予測する。動きベクトルは水平方向と垂直方向が存在し、何処からの予測かを示すMC(Motion Compensation)モードとともにMBの付加情報として伝送される。   In motion compensation, a motion vector is detected by half-pel accuracy by performing pattern matching for each MB for each motion area, and is predicted after shifting by the amount of motion. The motion vector has a horizontal direction and a vertical direction, and is transmitted as additional information of the MB together with an MC (Motion Compensation) mode indicating where to predict the motion vector.

一般的には、Iピクチャから次のIピクチャの前のピクチャまでをGOP(Group Of Picture)といい、蓄積メディアなどで使用される場合には、一般に約15ピクチャ程度が一つのGOP区間として使用される。(但し、1GOP区間内に2つ以上のIピクチャを含んでもよい。要するに1GOP区間内に1つ以上のIピクチャを含めばよい。)
差分画像はDCT器3において直交変換が行われる。DCT(Discrete Cosine Transform)とは、余弦関数を積分核とした積分変換を有限空間への離散変換する直交変換である。MPEGではMBを4分割し8×8のDCTブロックに対して、2次元DCTを行う。一般にビデオ信号は低域成分が多く高域成分が少ないため、DCTを行うと係数が低域に集中する。
In general, a GOP (Group Of Picture) is called a GOP from an I picture to a picture before the next I picture, and when used in storage media, about 15 pictures are generally used as one GOP section. Is done. (However, one or more I pictures may be included in one GOP section. In short, one or more I pictures may be included in one GOP section.)
The difference image is subjected to orthogonal transformation in the DCT unit 3. DCT (Discrete Cosine Transform) is an orthogonal transform that discretely transforms an integral transform using a cosine function as an integral kernel into a finite space. In MPEG, MB is divided into four and two-dimensional DCT is performed on an 8 × 8 DCT block. In general, since a video signal has many low-frequency components and few high-frequency components, when DCT is performed, coefficients concentrate on low frequencies.

DCTされた画像データ(DCT係数)は量子化器4で量子化が行われる。量子化は量子化マトリックスという8×8の2次元周波数を視覚特性で重み付けした値と、その全体をスカラー倍する量子化スケールという値で乗算した値を量子化値として、DCT係数をその量子化値で叙算する。MPEG復号化器(デコーダー)で逆量子化するときは量子化値で乗算することにより、元のDCT係数に近似している値を得ることになる。   The quantized image data (DCT coefficients) are quantized by the quantizer 4. The quantization is performed by quantizing the DCT coefficients by using the value obtained by multiplying the 8x8 two-dimensional frequency, called the quantization matrix, by the visual characteristics and the value obtained by multiplying the whole by a scalar multiplication scale as the quantization value. Calculate by value. When inverse quantization is performed by the MPEG decoder (decoder), a value close to the original DCT coefficient is obtained by multiplying by the quantization value.

量子化されたデータはVLC器5で可変長符号化される。量子化された値のうち直流(DC)成分は予測符号化のひとつであるDPCM(differential pulse code modulation )を使用する。また交流(AC)成分は 低域から高域にzigzag scanを行い、ゼロのラン長および有効係数値を1つの事象とし、出現確率の高いものから符号長の短い符号を割り当てていくハフマン符号化が行われる。   The quantized data is variable-length coded by the VLC unit 5. The direct current (DC) component of the quantized value uses DPCM (differential pulse code modulation) which is one of predictive coding. In addition, Huffman coding that performs a zigzag scan of the alternating current (AC) component from the low band to the high band, assigns a zero run length and an effective coefficient value to one event, and assigns a code with a short code length from the one with a high probability of occurrence. Is performed.

可変長符号化されたデータは一時バッファ6に蓄えられ、所定の転送レートで符号化データとして出力される。また、その出力されるデータのマクロブロック毎の発生符号量は、符号量制御器21に送信され、目標符号量に対する発生符号量との誤差符号量を量子化器4にフィードバックして量子化スケールを調整することで符号量制御される。   The variable-length coded data is stored in a temporary buffer 6 and output as coded data at a predetermined transfer rate. The generated code amount of the output data for each macro block is transmitted to the code amount controller 21, and the error code amount between the generated code amount and the target code amount is fed back to the quantizer 4 to quantize the data. The code amount is controlled by adjusting.

量子化された画像データは逆量子化器7にて逆量子化、逆DCT器8にて逆DCTされ、加算器9を介して一時、画像メモリー10に蓄えられたのち、動き補償予測器1において、差分画像を計算するためのリファレンスの復号化画像として使用される。   The quantized image data is inversely quantized by an inverse quantizer 7, inverse DCT by an inverse DCT unit 8, temporarily stored in an image memory 10 via an adder 9, and then stored in a motion compensation predictor 1. Is used as a reference decoded image for calculating a difference image.

このようにしてMPEG符号化された符号化データを復号化するMPEG復号化器(デコーダー)を図6に示す。
入来する符号化データ(ストリーム)はバッファ11でバッファリングされ、バッファ11からのデータはVLD器12に入力される。VLD器12では可変長復号化を行い、直流(DC)成分および交流(AC)成分を得る。交流(AC)成分データは低域から高域にzigzag scanの順で8x8のマトリックスに配置される。このデータは逆量子化器13に入力され、量子化マトリックスにて逆量子化される。逆量子化されたデータは逆DCT器14に入力されて逆DCTされ、画像データ(復号化データ)として出力される。また、復号化データは一時、画像メモリー16に蓄えられたのち、動き補償予測器17において、差分画像を計算するためのリファレンスの復号化画像として使用される。
FIG. 6 shows an MPEG decoder (decoder) that decodes the encoded data that has been MPEG-encoded as described above.
Incoming encoded data (stream) is buffered in a buffer 11, and data from the buffer 11 is input to a VLD unit 12. The VLD unit 12 performs variable length decoding to obtain a direct current (DC) component and an alternating current (AC) component. The alternating current (AC) component data is arranged in an 8 × 8 matrix in the order of zigzag scan from the low band to the high band. This data is input to the inverse quantizer 13 and is inversely quantized by the quantization matrix. The inversely quantized data is input to the inverse DCT unit 14, subjected to inverse DCT, and output as image data (decoded data). The decoded data is temporarily stored in the image memory 16 and then used by the motion compensation predictor 17 as a reference decoded image for calculating a difference image.

また、符号化ビットストリームはビデオの場合1ピクチャーごとに可変長の符号量をもっている。これはMPEGがDCT、量子化、ハフマン符号化という情報変換を用いている理由と同時に、画質向上のためにピクチャーごとに配分する符号量は適応的に変更する必要性があり、動き補償予測を行っているので、あるときは入力画像そのままを符号化し、あるときは予測画像の差分である差分画像を符号化するなど符号化画像自体のエントロピーも大きく変化するためである。   In the case of video, the encoded bit stream has a variable length code amount for each picture. This is because MPEG uses information transforms such as DCT, quantization and Huffman coding.At the same time, it is necessary to adaptively change the amount of code allocated to each picture in order to improve image quality. This is because the entropy of the encoded image itself greatly changes, for example, in some cases, the input image is encoded as it is, and in some cases, the difference image, which is the difference between the predicted images, is encoded.

この場合、多くはその画像のエントロピー比率に配分しつつ、バッファの制限を守りながら符号量制御される。バッファ管理器は発生した符号量と符号化レートの関係を監視し、所定のバッファ内に収まるように目標符号量を設定する。この値は可変長符号化器にフィードバックされ、符号量制御器に入り、そこで量子化器にセットする量子化値を大きくして発生符号量を抑えたり、量子化値を小さくして発生符号量を小さくしたりする。   In this case, in many cases, the code amount is controlled while allocating to the entropy ratio of the image and keeping the buffer limit. The buffer manager monitors the relationship between the generated code amount and the coding rate, and sets a target code amount so as to be within a predetermined buffer. This value is fed back to the variable-length encoder and enters the code amount controller, where the quantized value set in the quantizer is increased to suppress the generated code amount, or the quantized value is reduced to reduce the generated code amount. Or make it smaller.

このような可変長データを固定の転送レート(符号化レート)で符号化する場合、復号器の最大バッファ量を上限値とすると、一定速度でデータが入力されて、所定の値だけ溜まったとことから、所定の時刻(NTSCのビデオ信号なら1/29.97 sec単位)で復号化を一瞬で行うモデルを使用し、そのバッファがオーバーフローもアンダーフローも発生しないように符号化することがMPEGで規定されている。この規定(VBVバッファ規定)を守っていればVBVバッファ内でのレートは局部的に変化しているものの、観測時間を長く取れば固定の転送レートとなり、MPEGではこのことを固定レートであると定義している。   When such variable-length data is encoded at a fixed transfer rate (encoding rate), if the maximum buffer amount of the decoder is set as an upper limit, data is input at a constant speed and only a predetermined value is accumulated. From MPEG, it is prescribed by MPEG to use a model that performs instantaneous decoding at a predetermined time (NTSC video signal in units of 1 / 29.97 sec), and that the buffer does not overflow or underflow. ing. If this rule (VBV buffer rule) is adhered to, the rate in the VBV buffer changes locally, but if the observation time is long, the transfer rate will be fixed. In MPEG, this is a fixed rate. Has defined.

固定転送レートの場合、発生符号量の少ない場合にはバッファ占有量は、上限値に張り付いた状態になる。この場合、無効ビットを追加してオーバーフローしないように符号量を増やさなければならない。   In the case of the fixed transfer rate, if the generated code amount is small, the buffer occupancy is stuck at the upper limit. In this case, the code amount must be increased by adding an invalid bit so as not to overflow.

可変転送レートの場合にはこの固定転送レートの定義を拡張して、バッファー占有率が上限値になった場合、復号器の読み出しを中止することにより、原理的にオーバーフローが起きないように定義されている。こうしたバッファ推移を図7に示す。仮に非常に発生符号量が少なくても、復号器の読み出しが中止されるので、固定転送レートの時のように無効ビットをいれる必要はない。従って、アンダーフローだけが発生しないように符号化する。   In the case of the variable transfer rate, the definition of the fixed transfer rate is extended so that when the buffer occupancy reaches the upper limit, the reading of the decoder is stopped so that the overflow does not occur in principle. ing. FIG. 7 shows such a buffer transition. Even if the generated code amount is very small, the reading of the decoder is stopped, so there is no need to insert an invalid bit as in the case of the fixed transfer rate. Therefore, encoding is performed so that only underflow does not occur.

MPEGシステムはMPEGビデオ及びオーディオなどで符号化されビットストリームを、1個のビットストリームに多重化し、同期を確保しながら再生する方式を規定したものである。システムで規定されている内容は大きく分けて次の5点である。
1)複数の符号化されたビットストリームの同期再生
2)複数の符号化されたビットストリームの単一ビットストリームへの多重化
3)再生開始時のバッファの初期化
4)連続的なバッファの管理
5)復号や再生などの時刻の確定
MPEGシステムで多重化を行うには情報をパケット化する必要がある。パケットによる多重化とは、例えばビデオ、オーディオを多重化する場合、各々をパケットと呼ばれる適当な長さのストリームに分割し、ヘッダなどの付加情報を付けて、適宜、ビデオ、オーディオのパケットを切り替えて時分割伝送する方式である。ヘッダにはビデオ、オーディオなどを識別する情報や、同期の為の時間情報が存在する。パケット長は伝送媒体やアプリケーションに依存し、ATMのように53バイトから、光ディスクのように4Kバイトと長いものまで存在している。MPEGでは、パケット長は可変で任意に指定できるようになっている。
The MPEG system stipulates a method of multiplexing a bit stream encoded by MPEG video and audio into one bit stream and reproducing the bit stream while maintaining synchronization. The contents specified by the system are roughly divided into the following five points.
1) Synchronous playback of multiple encoded bit streams 2) Multiplexing of multiple encoded bit streams into a single bit stream 3) Initialization of buffer at the start of playback 4) Continuous buffer management 5) Determining the time for decryption and playback
In order to perform multiplexing in the MPEG system, it is necessary to packetize information. Multiplexing by packets means, for example, when multiplexing video and audio, each is divided into streams of appropriate length called packets, and additional information such as a header is added, and video and audio packets are switched as appropriate. And time-division transmission. The header includes information for identifying video, audio, and the like, and time information for synchronization. The packet length depends on the transmission medium and application, and ranges from 53 bytes as in ATM to as long as 4 Kbytes as in optical disks. In MPEG, the packet length is variable and can be arbitrarily specified.

データはパック、パケット化され、1パックは数パケットで構成されている。各Pパックの先頭部分にはpack start codeやSCR(System Clock Referance) 、パケットの先頭部分にはstream idやタイムスタンプが記述されている。タイムスタンプにはオーディオ、ビデオなどの同期をとる時間情報が記述されており、DTS(Decoding Time Stamp)、PTS(Presentation Time Stamp) の2種類が存在する。PCR(Program Clock Reference)は27MHzの時間精度で記述されており、decoderの基準時計をロックする情報である。DTSはそのパケットデータ内の最初のアクセスユニット(ビデオなら1ピクチャ、オーディオなら例えば1152サンプル)のデコード開始時刻を、PTSは表示(再生)開始時刻を示している。図11に示すように、オーディオ、ビデオ、その他のデコーダーは、PCRでロックした共通の基準時計を常に監視し、DTSやPTSの時間と一致したときに、デコードや表示を行うしくみになっている。多重化されたデータが各デコーダでバッファリングされ、同期した表示を行うための仮想的なデコーダをSTD(System Target Decoder)とよび、このSTDがオーバーフローやアンダーフローを起こさないようにな多重化されていなければならない。   Data is packed and packetized, and one pack is composed of several packets. A pack start code and an SCR (System Clock Referance) are described at the head of each P pack, and a stream id and a time stamp are described at the head of the packet. The time stamp describes time information for synchronizing audio, video and the like, and there are two types of DTS (Decoding Time Stamp) and PTS (Presentation Time Stamp). PCR (Program Clock Reference) is described with a time accuracy of 27 MHz, and is information for locking the reference clock of the decoder. DTS indicates the decoding start time of the first access unit (1 picture for video, 1152 samples for audio, for example) in the packet data, and PTS indicates the display (reproduction) start time. As shown in FIG. 11, audio, video, and other decoders always monitor a common reference clock locked by PCR, and perform decoding and display when the time coincides with the DTS or PTS time. . The multiplexed data is buffered in each decoder, and a virtual decoder for performing synchronized display is called an STD (System Target Decoder), which is multiplexed so that this STD does not cause overflow or underflow. Must be.

また、MPEGシステムには、大きく分けてTS ( Transport Stream)とPS ( Program Stream )が存在する。これらはPES(Packetized Elementary Stream)、およびその他の必要な情報を含むパケットから構成されている。PESは両ストリーム間の変換を可能とするための中間ストリームとして規定されていて、MPEGで符号化されたビデオ、オーディオデータの他、プライベートストリームなどをパケット化したものである。   The MPEG system is roughly divided into TS (Transport Stream) and PS (Program Stream). These are composed of packets containing PES (Packetized Elementary Stream) and other necessary information. The PES is defined as an intermediate stream for enabling conversion between the two streams, and is a packetized video stream and audio data encoded by MPEG, as well as a private stream.

PSは共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能である。パケットレイヤはPESとよばれ、この構造は図12に示すように、後述するTSと共用して用いられ、これらの相互互換性を可能とする。PSのSTDモデルでは、ストリームはPES パケット内の stream id によってスイッチされる。   The PS can multiplex video and audio of programs having a common reference time. The packet layer is called a PES, and as shown in FIG. 12, this structure is used in common with a TS described later, and enables mutual compatibility between them. In the PS STD model, the stream is switched by the stream id in the PES packet.

TSもPSと同じように共通の基準時間を有するプログラムのビデオ、オーディオの多重化をすることが可能であるが、TSはさらに異なる基準時間を有する通信や放送などのマルチプログラムの多重化を可能としている。 TSはATMセル長や誤り訂正符号化する場合を考慮し、188バイトの固定長パケットで構成されており、エラーが存在する系でも使用できるように考慮されている。TS パケット自体の構造はそれほど複雑ではないがマルチプログラムのストリームであるため、その運用は複雑である。PSと比べて特徴的なのはTS パケットが上位構造であるにも関わらず、PES パケット より(通常は)短く、PES パケット を分割してTS パケット に乗せて伝送する点である。TSのSTDモデルでは、ストリームはTS パケット内のPID(パケット ID)によってスイッチされる。   TS can multiplex video and audio of programs with a common reference time like PS, but TS can also multiplex multi-programs such as communication and broadcasting with different reference times. And The TS is composed of a fixed-length packet of 188 bytes in consideration of the ATM cell length and the case of error correction coding, and is considered so that it can be used even in a system having an error. Although the structure of the TS packet itself is not so complex, its operation is complicated because it is a multi-program stream. The characteristic feature is that TS packets are (usually) shorter than PES packets, although they have a higher-level structure, and PES packets are divided and transmitted on TS packets. In the STD model of TS, the stream is switched by the PID (packet ID) in the TS packet.

MPEGシステムのTSにはその多重化されている番組の情報に関するパケットがどのPIDであるのかを指示する仕組みがある。それを図13で説明する。まずTSパケット群の中からPID=0のものを探す。それはPAT (Program Association Table)と呼ばれる情報パケットで、そのパケットの中にはPROGRAMナンバーPRに対応する情報PIDがリンクされた形で記述されている。次に目的のPRに対応するPIDのパケットを読みに行くとPMT(Program Map Table)と呼ばれる情報パケットがあり、そのパケットの中にはそのPRに対応する番組のビデオパケットのPIDと、オーディオパケットのPIDの情報が記述されている。   The TS of the MPEG system has a mechanism for instructing which PID is a packet relating to information of the multiplexed program. This will be described with reference to FIG. First, a TS packet group having a PID = 0 is searched. It is an information packet called a PAT (Program Association Table), in which an information PID corresponding to a PROGRAM number PR is described in a linked form. Next, when you read the packet of the PID corresponding to the target PR, there is an information packet called PMT (Program Map Table), which contains the PID of the video packet of the program corresponding to the PR and the audio packet. PID information is described.

PATとPMTのことをPSI(Program Specific Information)と呼び、目的の番組のチャンネルにアクセス(エントリー)することが可能な情報体系になっている。
また、従来、特開平11−74799の発明によれば、記録媒体に記録されたMPEGデータなどの圧縮データを編集する場合、MPEGデータの連続性を保つため、その編集点ではVBVバッファをつねに固定になるよう発生符号量を制御したり、GOPをクローズドGOPとして符号化するなど、連続性を考慮した符号化をおこなう方法が記載されている。
The PAT and PMT are called PSI (Program Specific Information), and have an information system that allows access (entry) to a channel of a target program.
Also, according to the invention of JP-A-11-74799, when editing compressed data such as MPEG data recorded on a recording medium, the VBV buffer is always fixed at the editing point in order to maintain the continuity of the MPEG data. It describes a method of performing encoding in consideration of continuity, such as controlling the amount of generated codes so as to achieve the above or encoding a GOP as a closed GOP.

また、特開平11−187354の発明のよれば、符号化データにはなんの制約も施さずに、そのデータの部分区間のうち、編集素材として抜粋されたデータを指示する情報とその再生順番に関する情報を記述し、記録されたデータは変更せずに、単一記録媒体に映像編集を実現できる方法が記載されている。   Further, according to the invention of Japanese Patent Application Laid-Open No. 11-187354, the encoded data is not restricted at all, and information indicating the data extracted as the editing material among the partial sections of the data and the reproduction order thereof are given. A method is described in which information can be described and video editing can be realized on a single recording medium without changing recorded data.

しかしながら上記の従来の方式では、MPEG画像データは単純につなぐとVBVバッファの接続に矛盾が生じ、オーバーフローやアンダーフローがおきてしまった。
特開平11−74799の発明においては、どこで編集されても良いように、各GOPに対してVBVバッファが常に固定になるよう発生符号量を制御したり、GOPをクローズドGOPとして符号化するなど、連続性を考慮した符号化制約を施すことになり、符号化効率の面では不利な要因になっていた。
However, in the above-described conventional method, if MPEG image data is simply connected, inconsistency occurs in the connection of the VBV buffer, and overflow or underflow occurs.
In the invention of Japanese Patent Laid-Open No. 11-74799, the amount of generated code is controlled so that the VBV buffer is always fixed for each GOP so that the GOP can be edited anywhere, and the GOP is encoded as a closed GOP. Coding restrictions in consideration of continuity are imposed, which is a disadvantageous factor in terms of coding efficiency.

また、特開平11−187354の発明においては、あたかも編集したように再生表示はされるが、その編集点での連続性は不完全で、MPEGデータのデコーダーバッファの初期化などの一時的な静止現象がおこる可能性があった。   In the invention of JP-A-11-187354, reproduction and display are performed as if edited, but the continuity at the editing point is incomplete, and temporary stoppage such as initialization of the MPEG data decoder buffer is performed. A phenomenon could occur.

本発明は、第1及び第2の2つのMPEG画像データを(または、第1のMPEG画像データを要素符号化データとして含むパケット多重化された第1のMPEG多重化データと、第2のMPEG画像データを要素符号化データとして含むパケット多重化された第2のMPEG多重化データとを)、それぞれの指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に(前記第1のMPEG多重化データから前記第2のMPEG多重化データへ繋げて再生させる際に)、VBVバッファの接続にオーバーフローやアンダーフローの矛盾が生じることなく、シームレスで高品位な再生を実現させることができるMPEGデータ再生方法を提供することを目的としている。   The present invention relates to a packet-multiplexed first MPEG multiplexed data including first and second two MPEG image data (or a first MPEG multiplexed data including the first MPEG image data as elementary encoded data), and a second MPEG Packet-multiplexed second MPEG multiplexed data including image data as elementary encoded data) at each of the specified connection designated positions from the first MPEG image data to the second MPEG image data. When connecting and playing back (when connecting and playing back from the first MPEG multiplexed data to the second MPEG multiplexed data) the connection of the VBV buffer without overflow or underflow contradiction, An object of the present invention is to provide an MPEG data reproducing method capable of realizing seamless and high-quality reproduction.

そこで、上記課題を解決するために本発明は、以下の再生方法を提供するものである。
(1) MPEG符号化方式で符号化された画像データである第1及び第2の2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生を行う繋ぎ再生ステップを設けたMPEGデータ再生方法であって、
前記繋ぎ再生ステップは、
前記第1のMPEG画像データを要素符号化データとして含んでMPEG方式によりパケット多重化して生成された第1のMPEG多重化データから前記第1のMPEG画像データを得、前記第2のMPEG画像データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成された第2のMPEG多重化データから前記第2のMPEG画像データを得ると共に、繋ぎ再生させるためのデータである繋ぎ区間再符号化データを要素符号化データとして含んで前記MPEG方式でパケット多重化して生成された繋ぎ区間MPEG多重化データから前記繋ぎ区間再符号化データを得て、
前記第1のMPEG画像データにおいて設定された第1の繋ぎ区間の開始位置まで前記第1のMPEG画像データを再生した後、前記繋ぎ区間再符号化データを前記第1の繋ぎ区間の開始位置から前記第2のMPEG画像データにおいて設定された第2の繋ぎ区間の終了位置まで再生し、その後、前記第2のMPEG画像データにおける前記第2の繋ぎ区間の終了位置から前記第2のMPEG画像データを再生する繋ぎ再生ステップであり、
前記繋ぎ区間再符号化データは、前記第1のMPEG画像データにおける前記繋ぎ指定位置から第1の所定時間分前の位置を開始位置とし、前記第1のMPEG画像データにおける前記繋ぎ指定位置を終了位置とする区間を前記第1の繋ぎ区間とすると共に、前記第2のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第2のMPEG画像データにおける前記繋ぎ指定位置から第2の所定時間分後の位置を終了位置とする区間を前記第2の繋ぎ区間とし、前記第1の繋ぎ区間と前記第2の繋ぎ区間とを合わせた区間を第3の繋ぎ区間として、前記第1の繋ぎ区間の前記第1のMPEG画像データを復号して得た画像データである第1の繋ぎ区間復号画像データと、前記第2の繋ぎ区間の前記第2のMPEG画像データを復号して得た画像データである第2の繋ぎ区間復号画像データとよりなる第3の繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して得た再符号化データであって、
前記繋ぎ区間再符号化データは、前記再符号化時におけるVBVバッファ占有値に関する情報値の推移が、前記第1の繋ぎ区間の開始位置に対応する位置における前記第1のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記第2の繋ぎ区間の終了位置に対応する位置における前記第2のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御が行われて再符号化されたものである、
ことを特徴とするMPEGデータ再生方法。
Therefore, in order to solve the above problems, the present invention provides the following reproducing method.
(1) The first and second two MPEG image data, which are image data encoded by the MPEG encoding method, are converted into the first MPEG image data at the designated joint designated positions in the respective MPEG image data. An MPEG data reproducing method comprising a splicing reproducing step of performing splicing and reproducing from the second MPEG image data.
The connection reproduction step includes:
Obtaining the first MPEG image data from the first MPEG multiplexed data generated by performing packet multiplexing according to the MPEG method by including the first MPEG image data as elementary encoded data, and obtaining the second MPEG image data Is obtained as the second MPEG image data from the second MPEG multiplexed data generated by performing packet multiplexing according to the MPEG method by including as a component coded data, and a connection section recoding which is data for connection and reproduction. To obtain the connection section re-encoded data from the connection section MPEG multiplexed data generated by packet multiplexing in the MPEG method, including encoded data as elemental encoded data,
After reproducing the first MPEG image data up to the start position of the first connection section set in the first MPEG image data, the connection section re-encoded data is converted from the start position of the first connection section. The second MPEG image data is reproduced up to the end position of the second connection section set in the second MPEG image data, and then the second MPEG image data is reproduced from the end position of the second connection section in the second MPEG image data. Is a splicing playback step of playing back
The connection section re-encoded data has a start position that is a first predetermined time before the connection specification position in the first MPEG image data, and ends the connection specification position in the first MPEG image data. A section to be a position is set as the first connection section, the connection specified position in the second MPEG image data is set as a start position, and a second predetermined time from the connection specified position in the second MPEG image data is set. The section in which the position after the minute is the end position is the second connection section, and the section combining the first connection section and the second connection section is the third connection section, and the first connection First connected section decoded image data which is image data obtained by decoding the first MPEG image data of the section, and image obtained by decoding the second MPEG image data of the second connected section The second is the data A third connecting section decoded image data to be more and formic section decoded image data, a re-encoded data obtained by re-encoding by the MPEG encoding method,
The connection section re-encoded data is obtained by encoding the first MPEG image data at a position corresponding to a start position of the first connection section, wherein a transition of an information value relating to a VBV buffer occupancy value at the time of the re-encoding is performed. Starting from the information value regarding the VBV buffer occupancy value at the time and ending with the information value regarding the VBV buffer occupancy value at the time of encoding the second MPEG image data at a position corresponding to the end position of the second connection section. Code amount control is performed so that
A method for reproducing MPEG data, comprising:

以上の通り、本発明を用いれば、第1及び第2の2つのMPEG画像データを(または、第1のMPEG画像データを要素符号化データとして含むパケット多重化された第1のMPEG多重化データと、第2のMPEG画像データを要素符号化データとして含むパケット多重化された第2のMPEG多重化データとを)、それぞれの指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生させる際に(前記第1のMPEG多重化データから前記第2のMPEG多重化データへ繋げて再生させる際に)、VBVバッファの接続にオーバーフローやアンダーフローの矛盾が生じることなく、シームレスで高品位な再生を実現させることができる。   As described above, according to the present invention, packet-multiplexed first MPEG multiplexed data including the first and second two MPEG image data (or the first MPEG image data as elementary encoded data) And packet-multiplexed second MPEG multiplexed data including the second MPEG image data as elementary encoded data) at each of the specified joint specified positions from the first MPEG image data. When connecting and reproducing the second MPEG image data (when connecting and reproducing the first MPEG multiplexed data to the second MPEG multiplexed data), the connection of the VBV buffer may cause overflow or underflow. Seamless and high-quality reproduction can be realized without inconsistency.

まず、本発明で実現可能とする繋ぎ再生の概念を説明する。図8のように第MPEG符号化方式で符号化された画像データである1のMPEG画像データと同じく第2のMPEG画像データが存在する場合の、第1のMPEG画像データの途中(指定された繋ぎ指定位置)から第2のMPEG画像データを繋げて再生することを考える。接続点(第1のMPEG画像データにおける繋ぎ指定位置)がbの位置と仮定すると、第1のMPEG画像データのbの位置まで再生を行い、そのあと第2のMPEG画像データへ接続してデータを再生することになるが、MPEG画像データは単純につなぐとVBVバッファの接続に矛盾が生じ、オーバーフローやアンダーフローがおきてしまうという問題が生じる。   First, the concept of the connection reproduction that can be realized by the present invention will be described. As shown in FIG. 8, when there is the second MPEG image data like the one MPEG image data which is the image data encoded by the MPEG encoding method, the first MPEG image data is in the middle (specified). It is assumed that the second MPEG image data is connected to and reproduced from the connection specified position). Assuming that the connection point (the joint designation position in the first MPEG image data) is the position b, the reproduction is performed up to the position b of the first MPEG image data, and then the data is connected to the second MPEG image data. However, if MPEG image data is simply connected, inconsistency will occur in the connection of the VBV buffer, causing a problem of overflow or underflow.

そこで、まず、第1のMPEG画像データと第2のMPEG画像データとのMPEG符号化方式での符号化時における、VBVバッファの情報を所定区間単位(第1のMPEG画像データでは第1の所定区間単位、第2のMPEG画像データでは第2の所定区間単位)でサイド情報として生成して記録媒体に記述しておくようにする。   Therefore, first, when the first MPEG image data and the second MPEG image data are encoded by the MPEG encoding method, the information of the VBV buffer is divided into a predetermined section unit (the first predetermined MPEG image data has the first predetermined value). The side information is generated in units of sections (second predetermined section units in the second MPEG image data) and described in the recording medium.

なお、このサイド情報にVBVバッファの情報を記述しないで繋ぎ再生を実現することも可能である。この場合には2つの方法が考えられるが、それについては後述する。
第1のMPEG画像データに関するVBVバッファの情報は、第1のMPEG画像データの第1の所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示す第1のVBVバッファ占有値関連情報と、VBVバッファ占有値に関する情報値が第1のMPEG画像データのどの位置におけるVBVバッファ占有値に関する情報値であるかを示す第1のアドレス情報とである。
Note that it is also possible to realize the connection reproduction without describing the information of the VBV buffer in the side information. In this case, two methods are conceivable, which will be described later.
The information of the VBV buffer relating to the first MPEG image data is related to the VBV buffer occupation value at the time of starting or ending the MPEG encoding of the last picture of the first MPEG image data for each first predetermined section. First VBV buffer occupancy value-related information indicating an information value, and first address information indicating at which position in the first MPEG image data the VBV buffer occupancy value is an information value relating to the VBV buffer occupancy value And

第2のMPEG画像データに関するVBVバッファの情報は、第2のMPEG画像データの第2の所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示す第2のVBVバッファ占有値関連情報と、VBVバッファ占有値に関する情報値が前記第2のMPEG画像データのどの位置におけるVBVバッファ占有値に関する情報値であるかを示す第2のアドレス情報とである。   The information of the VBV buffer relating to the second MPEG image data is related to the VBV buffer occupancy value at the start or end point of the MPEG encoding of the last picture of the second MPEG image data for each second predetermined section. Second VBV buffer occupancy value-related information indicating an information value and a second address indicating at which position of the second MPEG image data the VBV buffer occupancy value is an information value relating to the VBV buffer occupancy value With information.

VBVバッファ占有値に関する情報値とは、例えばMPEGで規定されているVBVバッファ占有値またはVBV delay値である。
前記第1及び第2の所定区間の1単位は後述するように例えば3フレーム程度のものでも、1GOP程度でもよい。仮にその所定区間単位を、第1のMPEG画像データにおいては図8のa-b間、第2のMPEG画像データにおいては図8のc-d間とする。
The information value relating to the VBV buffer occupancy value is, for example, a VBV buffer occupancy value or a VBV delay value specified by MPEG.
One unit of the first and second predetermined sections may be, for example, about three frames or about one GOP as described later. It is assumed that the predetermined section unit is between a and b in FIG. 8 in the first MPEG image data and between cd in FIG. 8 in the second MPEG image data.

前記VBVバッファの情報リストには、aの位置(前記第1のMPEG画像データにおける前記繋ぎ指定位置から第1の所定時間分前の前記第1の所定区間の境界:即ち後述する区間Aの開始位置)でのVBVバッファの情報と、bの位置(第1のMPEG画像データにおける前記繋ぎ指定位置:即ち後述する区間Aの終了位置)でのVBVバッファの情報が記述されている。また、第2のMPEG画像データのcの位置(第2のMPEG画像データにおける前記繋ぎ指定位置から第2の所定時間分前の前記第2の所定区間の境界位置)でのVBVバッファの情報と、接続点dの位置(第2のMPEG画像データにおける前記繋ぎ指定位置:この例の場合は第2の所定区間の境界位置)でのVBVバッファの情報も存在する。   The information list of the VBV buffer includes a position a (a boundary of the first predetermined section before a first predetermined time from the connection designation position in the first MPEG image data; that is, a start of a section A described later). The information of the VBV buffer at the position (position) and the information of the VBV buffer at the position b (the connection designation position in the first MPEG image data: that is, the end position of the section A described later) are described. In addition, the information of the VBV buffer at the position of c of the second MPEG image data (the boundary position of the second predetermined section before the second specified time from the specified connection position in the second MPEG image data) and There is also information on the VBV buffer at the position of the connection point d (the specified connection position in the second MPEG image data: the boundary position of the second predetermined section in this example).

そこで、第1のMPEG画像データのa-b区間(第1の繋ぎ区間:ここでは区間Aとする)のデータを、一旦、復号化して復号画像データを得、その復号画像データ(第1の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、aの位置での前記検出した第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて、dの位置での前記検出した第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。   Therefore, data in the ab section (first connection section: here, section A) of the first MPEG image data is once decoded to obtain decoded image data, and the decoded image data (first connection section) is obtained. (Decoded image data) is re-encoded by the MPEG encoding method. The re-encoded data created thereby is referred to as re-encoded MPEG image data in section A (first re-encoded data in the connection section). In this re-encoding, the transition of the information value related to the VBV buffer occupancy value starts from the information value related to the VBV buffer occupancy value obtained based on the detected first VBV buffer occupancy value related information at the position a. , D, re-encoding by the MPEG encoding method by performing a rate control so that the processing ends with the information value on the VBV buffer occupancy value obtained based on the detected second VBV buffer occupancy value-related information. Do.

従来の繋ぎ再生動作である、第1のMPEG画像データのbの位置まで再生を行い、そのあと第2のMPEG画像データのdの位置へ接続してデータを再生する、という動作を、区間Aの再符号化MPEG画像データを用いて次のような動作とする。即ち、第1のMPEG画像データのaの位置(区間Aの開始位置)までは第1のMPEG画像データの再生を行い、そのあと前記区間Aの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生し、その後、第2のMPEG画像データのdの位置(繋ぎ指定位置)へ接続してd以降の第2のMPEG画像データのデータを再生する、という動作にする。再生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。   The operation of performing the conventional connection reproduction operation, that is, reproduction to the position b of the first MPEG image data, and then connecting to the position d of the second MPEG image data to reproduce the data, is performed in a section A. The following operation is performed using the re-encoded MPEG image data. That is, the first MPEG image data is reproduced up to the position a (start position of the section A) of the first MPEG image data, and then the re-encoded MPEG image data of the section A is replaced with the start position of the section. To the end position, and then connect to the position d (joining designated position) of the second MPEG image data to reproduce the data of the second MPEG image data after d. This is realized by providing a link playback unit for performing this operation on the playback device side.

この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データ同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現することが可能となる。   By performing the connection reproduction operation, it is possible to realize seamless connection reproduction that has the same content contents as the original first and second MPEG image data and does not cause a breakdown of the VBV buffer.

なお、図8に示した、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、接続点dの位置(第2のMPEG画像データにおける繋ぎ指定位置)のVBVバッファの情報が必要となる。前述したようにVBVバッファの情報は、MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点での情報であるので、所定区間の境界の位置での情報となる。従って、接続点の位置(繋ぎ指定位置)は、少なくとも第2のMPEG画像データにおいては第2の所定区間の境界として指定される必要がある。(即ち、第2のMPEG画像データにおける接続点dの位置は第2の所定区間の境界として指定される必要がある。)
また、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、前述したように図8に示したaの位置(繋ぎ区間Aの開始位置)のVBVバッファの情報も必要となる。しかし、aの位置は、第1のMPEG画像データにおける接続点(繋ぎ指定位置)bから第1の所定時間分前の第1の所定区間の境界として指定されるので、接続点bの位置に関わらずaの位置ではVBVバッファの情報がえられる。よって、第1のMPEG画像データにおける接続点bの位置は、必ずしも第1の所定区間の境界として指定される必要はない。
In the case where re-encoded MPEG image data of a connection section is obtained based on only the first MPEG image data shown in FIG. 8, the position of the connection point d (the connection designation position in the second MPEG image data) ) Of the VBV buffer. As described above, since the information of the VBV buffer is information at the start or end of MPEG encoding of the last picture of a predetermined section of the MPEG image data, the information at the boundary position of the predetermined section It becomes. Therefore, the position of the connection point (connection specification position) needs to be specified as a boundary of the second predetermined section at least in the second MPEG image data. (That is, the position of the connection point d in the second MPEG image data needs to be specified as the boundary of the second predetermined section.)
Further, when re-encoding MPEG image data of a connection section is obtained based on only the first MPEG image data side, as described above, the VBV at the position a (the start position of the connection section A) shown in FIG. Buffer information is also needed. However, the position a is specified as the boundary of the first predetermined section before the first predetermined time from the connection point (connection specified position) b in the first MPEG image data. Regardless, at the position a, the information of the VBV buffer is obtained. Therefore, the position of the connection point b in the first MPEG image data does not necessarily need to be specified as the boundary of the first predetermined section.

次に、その応用例を図9(2),(3)に示す。同図(1)は図8に示した例と同様のものである。図8に示した例では、第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現したが、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現することも可能である。その例が図9(2)に示したものであり、第2のMPEG画像データにおける繋ぎ区間Bの再符号化MPEG画像データを用いるものである。   Next, application examples are shown in FIGS. 9 (2) and 9 (3). FIG. 1A is similar to the example shown in FIG. In the example shown in FIG. 8, the connection reproduction is realized by obtaining the re-encoded MPEG image data of the connection section based on only the first MPEG image data side. However, the connection is performed based on only the second MPEG image data side. It is also possible to obtain the re-encoded MPEG image data of the section and realize the link reproduction. An example thereof is shown in FIG. 9 (2), in which re-encoded MPEG image data of the connection section B in the second MPEG image data is used.

図9(2)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をiの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をkの位置とする。前述したVBVバッファの情報を有する単位である第1及び第2の所定区間の1単位を、第1のMPEG画像データにおいてはi-j間、第2のMPEG画像データにおいてはk-l間とする。lの位置は第2のMPEG画像データにおける接続点(繋ぎ指定位置)kから第2の所定時間分後の第2の所定区間の境界位置となる。接続点kを開始位置としlの位置を終了位置とする区間を繋ぎ区間B(第2の繋ぎ区間)とする。   In FIG. 9B, the connection point (connection specified position) in the first MPEG image data is set to the position i, and the connection point (connection specified position) in the second MPEG image data is set to the position k. One unit of the first and second predetermined sections, which are units having the information of the VBV buffer described above, is between i and j in the first MPEG image data and between k and l in the second MPEG image data. The position 1 is the boundary position of the second predetermined section after the second predetermined time from the connection point (connection specified position) k in the second MPEG image data. A section in which the connection point k is the start position and the position 1 is the end position is a connection section B (second connection section).

第2のMPEG画像データのを繋ぎ区間B(k-l区間)のデータを、一旦、復号化して、復号画像データを得、その復号画像データ(第2の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、iの位置での第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて、lの位置での第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。   The data of the section B (k-1 section) connecting the second MPEG image data is once decoded to obtain decoded image data, and the decoded image data (the second connected section decoded image data) is MPEG-coded. Re-encoding is performed by the encoding method. The re-encoded data created thereby is referred to as re-encoded MPEG image data of the connection section B (second re-encoded data of the connection section). In this re-encoding, the transition of the information value relating to the VBV buffer occupancy value is started from the information value relating to the VBV buffer occupancy value obtained based on the first VBV buffer occupancy value-related information at the position i. The rate control is performed so that the processing ends with the information value on the VBV buffer occupancy value obtained based on the second VBV buffer occupancy value related information at the position, and re-encoding is performed by the MPEG encoding method.

そして、繋ぎ区間Bの再符号化MPEG画像データを用いて、第1のMPEG画像データから第2のMPEG画像データへの繋ぎ再生を行う。すなわち、第1のMPEG画像データの接続点i(繋ぎ指定位置)までは第1のMPEG画像データの再生を行い、そのあと前記区間Bの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生し、その後、第2のMPEG画像データのlの位置(繋ぎ区間Bの終了位置)へ接続してlの位置以降の第2のMPEG画像データのデータを再生する、という動作にする。再生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。   Then, using the re-encoded MPEG image data in the connection section B, the connection reproduction from the first MPEG image data to the second MPEG image data is performed. That is, the first MPEG image data is reproduced up to the connection point i (connection designated position) of the first MPEG image data, and then the re-encoded MPEG image data of the section B is changed from the start position of the section to the end. To the position, and then connect to the position 1 (end position of the connection section B) of the second MPEG image data to reproduce the data of the second MPEG image data after the position l. . This is realized by providing a link playback unit for performing this operation on the playback device side.

この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データ同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現することが可能となる。   By performing the connection reproduction operation, it is possible to realize seamless connection reproduction that has the same content contents as the original first and second MPEG image data and does not cause a breakdown of the VBV buffer.

なお、図9(2)に示した、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、接続点iの位置(第1のMPEG画像データにおける繋ぎ指定位置)のVBVバッファの情報が必要となる。前述したようにVBVバッファの情報は、MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点での情報であるので、所定区間の境界の位置での情報となる。従って、接続点の位置(繋ぎ指定位置)は、少なくとも第1のMPEG画像データにおいては第1の所定区間の境界として指定される必要がある。(即ち、第1のMPEG画像データにおける接続点iの位置は第1の所定区間の境界として指定される必要がある。)
また、第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、前述のように図9(2)に示した、lの位置(繋ぎ区間Bの終了位置)のVBVバッファの情報も必要となる。しかし、lの位置は、第2のMPEG画像データにおける接続点(繋ぎ指定位置)kから第2の所定時間分後の第2の所定区間の境界として指定されるので、接続点kの位置に関わらずlの位置ではVBVバッファの情報が得られる。よって、第2のMPEG画像データにおける接続点kの位置は、必ずしも第2の所定区間の境界として指定される必要はない。
In the case where re-encoded MPEG image data of a connected section is obtained based on only the second MPEG image data shown in FIG. 9B, the position of the connection point i (the first MPEG image data The information of the VBV buffer at the connection designation position) is required. As described above, since the information of the VBV buffer is information at the start or end of MPEG encoding of the last picture of a predetermined section of the MPEG image data, the information at the boundary position of the predetermined section It becomes. Therefore, the position of the connection point (connection specification position) needs to be specified as a boundary of the first predetermined section at least in the first MPEG image data. (That is, the position of the connection point i in the first MPEG image data needs to be specified as the boundary of the first predetermined section.)
In addition, when re-encoding MPEG image data of a connection section is obtained based on only the second MPEG image data side, as described above, the position 1 (the end of the connection section B) shown in FIG. The position) VBV buffer information is also required. However, since the position of 1 is specified as the boundary of the second predetermined section after the second predetermined time from the connection point (connection specified position) k in the second MPEG image data, the position of 1 is set at the position of the connection point k. Regardless, at the position 1, information of the VBV buffer is obtained. Therefore, the position of the connection point k in the second MPEG image data does not necessarily need to be specified as the boundary of the second predetermined section.

次に、図9(3)に示す応用例について説明する。この例では、接続点前後の第1及び第2のMPEG画像データを元に繋ぎ区間の再符号化MPEG画像データを得て繋ぎ再生を実現すさせるものである。(この図9(3)に示すタイプが本発明の実施例である。)
図9(3)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をnの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をpの位置とする。前述したVBVバッファの情報を有する単位である第1及び第2の所定区間の1単位を、第1のMPEG画像データにおいてはm-n間、第2のMPEG画像データにおいてはp-q間とする。
Next, an application example shown in FIG. 9C will be described. In this example, the connection reproduction is realized by obtaining the re-encoded MPEG image data of the connection section based on the first and second MPEG image data before and after the connection point. (The type shown in FIG. 9 (3) is an embodiment of the present invention.)
In FIG. 9C, the connection point (connection specified position) in the first MPEG image data is set to the position n, and the connection point (connection specified position) in the second MPEG image data is set to the position p. One unit of the first and second predetermined sections, which is a unit having the information of the VBV buffer described above, is defined as m-n in the first MPEG image data and p-q in the second MPEG image data. I do.

mの位置は第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の第1の所定区間の境界位置となる。mの位置を開始位置とし接続点nの位置を終了位置とする区間を繋ぎ区間A(第1の繋ぎ区間)とする。qの位置は第2のMPEG画像データにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の第2の所定区間の境界位置となる。接続点pを開始位置としqの位置を終了位置とする区間を繋ぎ区間B(第2の繋ぎ区間)とする。   The position of m is the boundary position of the first predetermined section before the first predetermined time from the connection point (connection specified position) n in the first MPEG image data. A section in which the position of m is the start position and the position of the connection point n is the end position is referred to as a connection section A (first connection section). The position of q is the boundary position of the second predetermined section after the second predetermined time from the connection point (connection specified position) p in the second MPEG image data. A section in which the connection point p is the start position and the position of q is the end position is defined as a connection section B (second connection section).

第1のMPEG画像データの繋ぎ区間A(m-n区間)のデータを、一旦、復号化して復号画像データ(繋ぎ区間A復号画像データ:第1の繋ぎ区間復号画像データ)をえる。また、第2のMPEG画像データのを繋ぎ区間B(p-q区間)のデータを、一旦、復号化して、復号画像データ(繋ぎ区間B復号画像データ:第2の繋ぎ区間復号画像データ)を得る。   The data of the connection section A (mn section) of the first MPEG image data is once decoded to obtain decoded image data (connection section A decoded image data: first connection section decoded image data). Further, the data of the connection section B (pq section) connecting the second MPEG image data is once decoded, and the decoded image data (connection section B decoded image data: second connection section decoded image data) is obtained. obtain.

繋ぎ区間A復号画像データと繋ぎ区間B復号画像データとを合わせた繋ぎ区間A+B復号画像データ(第3の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)と呼ぶこととする。この再符号化は、VBVバッファ占有値に関する情報値の推移が、mの位置での第1のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値から開始されて、qの位置での第2のVBVバッファ占有値関連情報に基づき得られたVBVバッファ占有値に関する情報値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。   The joint section A + B decoded image data (third joint section decoded image data) obtained by combining the joint section A decoded image data and the joint section B decoded image data is re-encoded by the MPEG encoding method. The re-encoded data created thereby is referred to as re-encoded MPEG image data of the connection section A + B (third connection-section re-encoded data). In this re-encoding, the transition of the information value relating to the VBV buffer occupancy value is started from the information value relating to the VBV buffer occupancy value obtained based on the first VBV buffer occupancy value-related information at the position of m. The rate control is performed so that the processing ends with the information value on the VBV buffer occupancy value obtained based on the second VBV buffer occupancy value related information at the position, and re-encoding is performed by the MPEG encoding method.

そして、繋ぎ区間A+Bの再符号化MPEG画像データを用いて、第1のMPEG画像データから第2のMPEG画像データへの繋ぎ再生を行う。すなわち、第1のMPEG画像データの繋ぎ区間Aの開始位置mまでは第1のMPEG画像データの再生を行い、そのあと前記繋ぎ区間A+Bの再符号化MPEG画像データをその区間の開始位置から終了位置まで再生し、その後、第2のMPEG画像データの繋ぎ区間Bの終了位置qへ接続してqの位置以降の第2のMPEG画像データのデータを再生する、という動作にする。再生装置側にこの動作を行う繋ぎ再生手段を設けて実現させる。   Then, by using the re-encoded MPEG image data in the connection section A + B, the connection reproduction from the first MPEG image data to the second MPEG image data is performed. That is, the first MPEG image data is reproduced up to the start position m of the connection section A of the first MPEG image data, and then the re-encoded MPEG image data of the connection section A + B is ended from the start position of the section. Playback is performed up to the position, and thereafter, an operation is performed to connect to the end position q of the connection section B of the second MPEG image data and play back the data of the second MPEG image data after the position q. This is realized by providing a link playback unit for performing this operation on the playback device side.

この繋ぎ再生動作とすることで、元の第1及び第2のMPEG画像データ同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生を実現することが可能となる。   By performing the connection reproduction operation, it is possible to realize seamless connection reproduction that has the same content contents as the original first and second MPEG image data and does not cause a breakdown of the VBV buffer.

なお、図9(3)に示した例では、前述したようにmの位置(繋ぎ区間Aの開始位置)のVBVバッファの情報が必要となる。mの位置は、第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の第1の所定区間の境界として指定されるので、接続点nの位置に関わらずmの位置ではVBVバッファの情報が得られる。よって、第1のMPEG画像データにおける接続点nの位置は、必ずしも第1の所定区間の境界として指定される必要はない。   In the example shown in FIG. 9C, information on the VBV buffer at the position m (the start position of the connection section A) is required as described above. Since the position of m is specified as a boundary of the first predetermined section before the first predetermined time from the connection point (connection specified position) n in the first MPEG image data, regardless of the position of the connection point n At the position of m, information of the VBV buffer is obtained. Therefore, the position of the connection point n in the first MPEG image data does not necessarily need to be specified as the boundary of the first predetermined section.

また、前述のように図9(3)に示した、qの位置(繋ぎ区間Bの終了位置)のVBVバッファの情報も必要となる。qの位置は、第2のMPEG画像データにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の第2の所定区間の境界として指定されるので、接続点pの位置に関わらずqの位置ではVBVバッファの情報が得られる。よって、第2のMPEG画像データにおける接続点pの位置も、必ずしも第2の所定区間の境界として指定される必要はない。   Further, as described above, the information of the VBV buffer at the position of q (the end position of the connection section B) shown in FIG. 9C is also required. Since the position of q is specified as the boundary of the second predetermined section after the second predetermined time from the connection point (connection specified position) p in the second MPEG image data, regardless of the position of the connection point p At the position of q, information of the VBV buffer is obtained. Therefore, the position of the connection point p in the second MPEG image data does not necessarily need to be specified as the boundary of the second predetermined section.

このように、図9(1)〜(3)に示した方法は、いずれもシームレスで高品位な繋ぎ再生を実現させることができる
これらの発展系としては、図10に示すように、第1のMPEG画像データと、第2のMPEG画像データや、第3、第4のMPEG画像データを、図のように途中分岐するような繋ぎ再生を実現させることも可能となる。このように、本発明を用いれば、元のMPEG画像データそのものを加工することなく、繋ぎ区間の再符号化MPEG画像データを生成し利用するだけで、他のMPEGデータに自由につなげることができるので、さまざまな分岐ストーリーを構成するプログラムを符号化する際にも、分岐ストーリー毎にそのストーリーの全体にわたる冗長なMPEG画像データを記録することなく、メディアを効率よく使用することが可能となる。(本発明を用いれば、第1〜第4のMPEG画像データそれぞれ一組と、分岐ストーリー毎の繋ぎ区間の再符号化MPEG画像データとを用意しておけばよい。)
また、図9(3)に示す方法を用いれば、前述したように、第1のMPEG画像データにおける接続点の位置は、必ずしも第1の所定区間の境界として指定される必要がなく、第2のMPEG画像データにおける接続点の位置も、必ずしも第2の所定区間の境界として指定される必要がないので、VBVバッファの情報を所定区間単位でサイド情報として記述しておく所定区間単位よりも細かい精度、例えば1フレーム単位で編集する場合に適用できる。この例を図15と共に説明する。所定単位は3フレーム程度のものでも、1GOP程度でもよいが、ここでは1GOPとする。
As described above, any of the methods shown in FIGS. 9 (1) to 9 (3) can realize seamless and high-quality connected playback. As these advanced systems, as shown in FIG. It is also possible to realize a connection reproduction in which the MPEG image data, the second MPEG image data, and the third and fourth MPEG image data are branched in the middle as shown in the figure. As described above, according to the present invention, it is possible to freely connect to other MPEG data simply by generating and using the re-encoded MPEG image data of the connection section without processing the original MPEG image data itself. Therefore, even when encoding programs that compose various branch stories, the media can be used efficiently without recording redundant MPEG image data over the entire story for each branch story. (If the present invention is used, one set of each of the first to fourth MPEG image data and re-encoded MPEG image data of the connection section for each branch story may be prepared.)
Further, if the method shown in FIG. 9 (3) is used, as described above, the position of the connection point in the first MPEG image data does not necessarily need to be specified as the boundary of the first predetermined section. Since the position of the connection point in the MPEG image data need not always be specified as the boundary of the second predetermined section, the information of the VBV buffer is finer than the predetermined section unit described as side information in the predetermined section unit. It can be applied to the case of editing in accuracy, for example, in units of one frame. This example will be described with reference to FIG. The predetermined unit may be about three frames or about one GOP, but here is one GOP.

図15のように繋げる対象の2つのMPEGストリームが存在するとする。第1のMPEGストリームに矢印で示してあるgとhの地点では、前記VBVバッファの情報リストにgの位置でのVBVバッファの情報と、hの位置でのVBVバッファの情報が記述されている。また、第2のMPEG画像データにもiの位置のVBVバッファの情報とjの位置のVBVバッファの情報も存在する。   It is assumed that there are two MPEG streams to be connected as shown in FIG. At the points of g and h indicated by arrows in the first MPEG stream, information of the VBV buffer at the position of g and information of the VBV buffer at the position of h are described in the VBV buffer information list. . The second MPEG image data also has information on the VBV buffer at the position i and information on the VBV buffer at the position j.

第1のMEPGストリーム1のpの位置から、第2のMPEGストリームの先頭へ繋ぐ場合、第1のMPEGストリームのgからpまでの区間Aのデータを復号し、さらに、第2のMPEGストリームのiからjの区間Bのデータを復号し、両方の画像をバッファ推移がgの位置のバッファ占有値から始まってjの位置のバッファ占有値になるように再符号化を行う。   When connecting from the position of p of the first MEPG stream 1 to the beginning of the second MPEG stream, the data of the section A from g to p of the first MPEG stream is decoded. The data in the section B from i to j is decoded, and both images are re-encoded so that the buffer transition starts from the buffer occupancy value at the position g and becomes the buffer occupancy value at the position j.

それによって作成されたデータを区間A+Bの再符号化MPEG画像データを呼ぶとすると、従来の再生動作である、第1のMPEG画像データのpの位置まで再生を行い、そのあと第2のMPEG画像データへ接続してデータを再生する、という動作は、第1のMPEG画像データのgの位置まで再生を行い、そのあと前記区間A+Bの再符号化MPEG画像データを再生し、その後、第2のMPEG画像データのjへ接続してデータを再生する、という動作にすることで、同じコンテンツ内容で且つ、VBVバッファの破綻を起こさないシームレスな接続再生をすることができる。   Assuming that the data generated thereby is referred to as re-encoded MPEG image data in the section A + B, reproduction is performed up to the position p of the first MPEG image data, which is a conventional reproduction operation, and then the second MPEG image is reproduced. The operation of connecting to the data and reproducing the data is performed by reproducing the first MPEG image data to the position of g, then reproducing the re-encoded MPEG image data of the section A + B, and then reproducing the second MPEG image data. By performing the operation of connecting to the MPEG image data j and reproducing the data, it is possible to perform seamless connection reproduction with the same content contents and without causing a breakdown of the VBV buffer.

次に、サイド情報としてVBVバッファの情報を記述しないで上述した各例と同様な繋ぎ再生を実現する2つの方法について説明する。(繋ぎ区間再符号化データを生成する際に必要となる、VBVバッファ占有値に関する情報値の算出方法について説明する。)
まず、第1の方法について説明する。MPEG規格において、基本的にCBR(constant bit rate)、即ち、固定転送レートの場合には、MPEGビデオのピクチャーレイヤにVBVバッファのバッファ占有率を示す、VBV delay値が規定されている。この場合にはVBV delay値がピクチャー単位に記述されているので、MPEG画像ビットストリームをピクチャーヘッダーのみだけでも観測することで、MPEG画像データの所定位置に対応するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値を検出することができる。この場合、例えば後述する図4におけるVBVバッファ情報検出器33の機能は、ビットストリームのピクチャーヘッダー(MPEGでは0x00000100という4バイトのコード)をサーチして、そのあとの、10ビットのtemparal reference10ビット、picture coding type3ビットのあとに続く、VBV delay16ビットを検出することで実現できる。VBV delay値とは
VBV delay = 90000 x B / R
B:バッファ占有値 R:ビットレート
で定義されたものであるから、固定レートの場合には、このビットレートを用いてVBV delay値からVBVバッファ占有値も計算で求めることができる。(例えば図4に示すVBVバッファ情報検出器33で計算する。)
MPEGではこのVBV delay値は、図16(2)のように、グラフの頂点の位置でのものに注意しなければならない。
Next, two methods for realizing the joint reproduction similar to the above-described respective examples without describing the information of the VBV buffer as the side information will be described. (A method of calculating an information value related to the VBV buffer occupation value, which is necessary when generating the re-encoded data of the connection section, will be described.)
First, the first method will be described. In the MPEG standard, basically, in the case of a constant bit rate (CBR), that is, in the case of a fixed transfer rate, a VBV delay value indicating a buffer occupancy of a VBV buffer is defined in a picture layer of MPEG video. In this case, since the VBV delay value is described in picture units, the MPEG image bit stream is observed only with the picture header alone, so that the MPEG encoding start time of the picture corresponding to the predetermined position of the MPEG image data (or VBV buffer occupancy value at the end point) can be detected. In this case, for example, the function of the VBV buffer information detector 33 in FIG. 4 described below is to search for a picture header (a 4-byte code of 0x00000100 in MPEG) of a bit stream, and then search for a 10-bit temporal reference 10-bit This can be realized by detecting 16 bits of VBV delay following 3 bits of picture coding type. What is VBV delay value
VBV delay = 90000 x B / R
B: Buffer occupancy value R: Since it is defined by the bit rate, in the case of a fixed rate, the VBV buffer occupancy value can be calculated from the VBV delay value using this bit rate. (For example, the calculation is performed by the VBV buffer information detector 33 shown in FIG. 4.)
In MPEG, it is necessary to pay attention to the VBV delay value at the vertex position of the graph as shown in FIG.

次に、第2の方法について説明する。これは、固定転送レートではなく可変転送レートの場合である。MPEG規格では、基本的にVBR(variable bit rate:可変転送レート)の場合、MPEGビデオのピクチャーレイヤにおけるVBVバッファのバッファ占有率を示すVBV delay値はすべて1、(16ビットすべてが1なので0xffff)となる。従って、前記第1の方法は使えない。   Next, the second method will be described. This is the case with a variable transfer rate instead of a fixed transfer rate. According to the MPEG standard, in the case of VBR (variable bit rate), the VBV delay values indicating the buffer occupancy of the VBV buffer in the picture layer of the MPEG video are all 1 (0xffff because all 16 bits are 1). It becomes. Therefore, the first method cannot be used.

そこで、MPEG画像ビットストリームを観測することで得られた情報から次のような計算を行う。まず、ビットストリームの一番初めから、VBVバッファをMPEG規定の最大値(たとえばメインプロファイルメインレベルでは1.75Mbit)まで占有したと仮定する。次に、始めのピクチャーの符号量を減算する。次に、可変転送レート符号化におけるピークレートの伝送レート情報を用いて、表示ピクチャー間の時間だけ経過した場合の伝送量を加算し、次のピクチャーの符号量を減算する。このような一連の加算、減算という処理を所定の求めたいビットストリームの位置まで繰り返し行うことで、図3に示すようなグラフをシミュレーションして求めるがごとく、MPEG画像データの所定位置に対応するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値を求めることができる。可変転送レート時のピークレートは、MPEGではシーケンスヘッダーのbit rateというシンタックスの部分に記述することに規定されているので、それを参照すれば得られる。   Therefore, the following calculation is performed from information obtained by observing the MPEG image bit stream. First, it is assumed that the VBV buffer is occupied from the beginning of the bit stream up to the maximum value defined by MPEG (for example, 1.75 Mbit in the main profile main level). Next, the code amount of the first picture is subtracted. Next, using the transmission rate information of the peak rate in variable transfer rate coding, the transmission amount when the time between display pictures has elapsed is added, and the code amount of the next picture is subtracted. By repeating such a series of processes of addition and subtraction up to the position of the bit stream desired to be obtained, the picture corresponding to the predetermined position of the MPEG image data can be obtained by simulating the graph shown in FIG. The VBV buffer occupancy value at the start (or end) of the MPEG encoding can be determined. The peak rate at the time of the variable transfer rate is defined in the syntax part called bit rate of the sequence header in MPEG, and can be obtained by referring to it.

例えば、後述する図4に示すVBVバッファ情報検出器33に上述のMPEG画像ビットストリームを観測機能と計算機能を持たせるようにして実現する。(この第2の方法の場合、そのMPEG画像ビットストリームの先頭から、各ピクチャーの発生符号量を観測して計算しなければならないが、第1の方法と同様に予めサイド情報としてVBVバッファの情報を用意しておく必要がない。)
次に、上記第1及び第2の方法を用いた場合における、繋ぎ区間再符号化データの生成について簡単に説明する。なお、この繋ぎ区間再符号化データを用いた繋ぎ再生動作は、予めサイド情報として記録されているVBVバッファの情報により生成した繋ぎ区間再符号化データを用いた場合と同様であるので、ここでは説明を省略する。
For example, this is realized by giving the above-described MPEG image bit stream to the VBV buffer information detector 33 shown in FIG. (In the case of the second method, it is necessary to observe and calculate the amount of generated codes of each picture from the beginning of the MPEG image bit stream. However, as in the first method, the information of the VBV buffer is stored in advance as side information. There is no need to prepare.)
Next, a brief description will be given of generation of the re-encoded data of the connection section when the first and second methods are used. Note that the splicing reproduction operation using the spliced section re-encoded data is the same as the case of using spliced section re-encoded data generated based on information of a VBV buffer recorded in advance as side information. Description is omitted.

図9(1)に示す第1のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合には、第1のMPEG画像データにおける接続点(繋ぎ指定位置)bから第1の所定時間分前の位置aを開始位置として、第1のMPEG画像データにおける繋ぎ指定位置bを終了位置とする区間を第1の繋ぎ区間(繋ぎ区間A)とする。繋ぎ区間Aの開始位置aの指定に、サイド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。同様に、第2のMPEG画像データにおける接続点(繋ぎ指定位置)dの指定に、サイド情報を用いる場合のような第2の所定区間の境界といった制限は不要となる。   In the case where re-encoded MPEG image data of a connection section is obtained based on only the first MPEG image data side shown in FIG. 9A, the connection point (connection specification position) b in the first MPEG image data is used. A section having a position a that is a predetermined time earlier by 1 as a start position and a designated connection position b in the first MPEG image data as an end position is defined as a first connection section (connection section A). There is no need to limit the boundary of the first predetermined section as in the case where side information is used to specify the start position a of the connection section A. Similarly, the specification of the connection point (connection specification position) d in the second MPEG image data does not require the restriction such as the boundary of the second predetermined section as when side information is used.

第1のMPEG画像データのa-b区間(繋ぎ区間A)のデータを、一旦、復号化して復号画像データを得、その復号画像データ(第1の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化して、繋ぎ区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)を得る。この再符号化は、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、aの位置に相当するピクチャのMPEG符号化(第1のMPEG画像データ生成時のMPEG符号化)開始時点(または終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、dの位置に相当するピクチャのMPEG符号化(第2のMPEG画像データ生成時のMPEG符号化)開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコントロールを行ってMPEG符号化方式で再符号化される。得られた繋ぎ区間Aの再符号化MPEG画像データ(第1の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
次に、図9(2)に示す第2のMPEG画像データ側のみを元に繋ぎ区間の再符号化MPEG画像データを得る場合について説明する。図9(2)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をiの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をkの位置とする。接続点kを開始位置とし、接続点(繋ぎ指定位置)kから第2の所定時間分後の位置となるlの位置を終了位置とする、第2のMPEG画像データの区間を繋ぎ区間B(第2の繋ぎ区間)とする。繋ぎ区間Bの終了位置lの指定に、サイド情報を用いる場合のような、第2の所定区間の境界といった制限は不要となる。同様に、第1のMPEG画像データにおける接続点(繋ぎ指定位置)iの指定に、サイド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。
The data in the ab section (connection section A) of the first MPEG image data is once decoded to obtain decoded image data, and the decoded image data (the first connection section decoded image data) is reproduced by the MPEG encoding method. Encoding is performed to obtain re-encoded MPEG image data of the connection section A (first connection section re-encoded data). In this re-encoding, the transition of the VBV buffer occupancy value is calculated by the first or second method, and the MPEG encoding of the picture corresponding to the position a (the MPEG code at the time of generating the first MPEG image data) is performed. ) Starts from the VBV buffer occupation value at the start time (or end time). Then, the transition of the VBV buffer occupancy value is calculated by the above-described first or second method, and starts at the time of MPEG encoding of the picture corresponding to the position of d (MPEG encoding at the time of generating the second MPEG image data). Rate control is performed so as to end the processing up to the VBV buffer occupation value at the (or end time), and re-encoding is performed by the MPEG encoding method. The obtained re-encoded MPEG image data of the connection section A (first connection section re-encoded data) is recorded on a recording medium. (For example, recording is performed by a data writing unit 37 shown in FIG. 4 described later.)
Next, a case where re-encoded MPEG image data of a connected section is obtained based on only the second MPEG image data shown in FIG. 9B will be described. In FIG. 9B, the connection point (connection specified position) in the first MPEG image data is set to the position i, and the connection point (connection specified position) in the second MPEG image data is set to the position k. A section of the second MPEG image data, in which a connection point k is set as a start position, and a position 1 which is a position after a second predetermined time from the connection point (connection specified position) k is set as an end position, a connection section B ( (Second connecting section). There is no need to limit the boundary of the second predetermined section, such as when side information is used to specify the end position 1 of the connection section B. Similarly, the specification of the connection point (connection specified position) i in the first MPEG image data does not require the restriction such as the boundary of the first predetermined section as when side information is used.

第2のMPEG画像データの繋ぎ区間B(k-l区間)のデータを、一旦、復号化して、復号画像データを得、その復号画像データ(第2の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化して、繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)を得る。この再符号化は、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、iの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、lの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコントロールを行ってMPEG符号化方式で再符号化が行われる。得られた繋ぎ区間Bの再符号化MPEG画像データ(第2の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
次に、図9(3)に示す、接続点前後の第1及び第2のMPEG画像データを元に繋ぎ区間の再符号化MPEG画像データを得る場合について説明する。
The data in the connection section B (k-1 section) of the second MPEG image data is once decoded to obtain decoded image data, and the decoded image data (second connection section decoded image data) is MPEG-encoded. In this way, re-encoding is performed by the method, and re-encoded MPEG image data of the connection section B (second re-encoding data of the connection section) is obtained. In this re-encoding, the transition of the VBV buffer occupancy value is calculated based on the VBV buffer occupancy at the MPEG encoding start (or end) time of the picture corresponding to the position i calculated by the first or second method. Start with value. Then, the transition of the VBV buffer occupancy value ends with the VBV buffer occupancy value at the MPEG encoding start (or end) time of the picture corresponding to the position 1 calculated by the first or second method. In such a way, re-encoding is performed by the MPEG encoding method by performing the rate control. The obtained re-encoded MPEG image data of the connection section B (second re-encoding data of the connection section) is recorded on a recording medium. (For example, recording is performed by a data writing unit 37 shown in FIG. 4 described later.)
Next, a case will be described in which the re-encoded MPEG image data of the connected section is obtained based on the first and second MPEG image data before and after the connection point shown in FIG. 9 (3).

図9(3)において、第1のMPEG画像データにおける接続点(繋ぎ指定位置)をnの位置とし、第2のMPEG画像データにおける接続点(繋ぎ指定位置)をpの位置とする。
第1のMPEG画像データにおける接続点(繋ぎ指定位置)nから第1の所定時間分前の位置をmとする。mの位置を開始位置とし、接続点nの位置を終了位置とする第1のMPEG画像データの区間を、繋ぎ区間A(第1の繋ぎ区間)とする。第2のMPEG画像データにおける接続点(繋ぎ指定位置)pから第2の所定時間分後の位置をqする。接続点pを開始位置とし、qの位置を終了位置とする第2のMPEG画像データの区間を、繋ぎ区間B(第2の繋ぎ区間)とする。
In FIG. 9C, the connection point (connection specified position) in the first MPEG image data is set to the position n, and the connection point (connection specified position) in the second MPEG image data is set to the position p.
The position of the first MPEG image data before the connection point (connection specified position) n by the first predetermined time is defined as m. A section of the first MPEG image data having the position of m as the start position and the position of the connection point n as the end position is referred to as a connection section A (first connection section). The position after a second predetermined time from the connection point (connection specified position) p in the second MPEG image data is q. A section of the second MPEG image data having the connection point p as a start position and the position of q as an end position is referred to as a connection section B (second connection section).

繋ぎ区間Aの開始位置mの指定に、サイド情報を用いる場合のような第1の所定区間の境界といった制限は不要となる。同様に、繋ぎ区間Bの終了位置qの指定に、サイド情報を用いる場合のような第2の所定区間の境界といった制限は不要となる。   There is no need to limit the boundary of the first predetermined section as in the case where side information is used to specify the start position m of the connection section A. Similarly, there is no need to limit the boundary of the second predetermined section such as when side information is used to specify the end position q of the connection section B.

第1のMPEG画像データの繋ぎ区間A(m-n区間)のデータを、一旦、復号化して復号画像データ(繋ぎ区間A復号画像データ:第1の繋ぎ区間復号画像データ)を得る。また、第2のMPEG画像データの繋ぎ区間B(p-q区間)のデータを、一旦、復号化して、復号画像データ(繋ぎ区間B復号画像データ:第2の繋ぎ区間復号画像データ)を得る。   The data of the connection section A (mn section) of the first MPEG image data is once decoded to obtain decoded image data (connection section A decoded image data: first connection section decoded image data). Further, the data of the connection section B (pq section) of the second MPEG image data is once decoded to obtain decoded image data (connection section B decoded image data: second connection section decoded image data). .

そして、繋ぎ区間A復号画像データと繋ぎ区間B復号画像データとを合わせた繋ぎ区間A+B復号画像データ(第3の繋ぎ区間復号画像データ)をMPEG符号化方式で再符号化を行う。それによって作成された再符号化データを繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)とする。この再符号化は、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、mの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値から開始される。そして、VBVバッファ占有値の推移が、上記第1または第2の方法で算出された、qの位置に相当するピクチャのMPEG符号化開始時点(または終了時点)でのVBVバッファ占有値までで終了するように、レートコントロールを行ってMPEG符号化方式で再符号化される。得られた繋ぎ区間A+Bの再符号化MPEG画像データ(第3の繋ぎ区間再符号化データ)を記録媒体に記録する。(例えば、後述する図4に示すデータ書き込み部37により記録する。)
図10に示す例においても、もちろん、上述の計算方法により必要な位置でのVBVバッファ占有値を求めることが可能であり、所望の繋ぎ区間再符号化データ)を得ることができる。
Then, re-encoding is performed on the connected section A + B decoded image data (third connected section decoded image data) obtained by combining the connected section A decoded image data and the connected section B decoded image data by the MPEG encoding method. The re-encoded data thus created is defined as re-encoded MPEG image data of the connection section A + B (third connection-section re-encoded data). In this re-encoding, the transition of the VBV buffer occupancy value is calculated by the first or second method, and the VBV buffer occupancy at the MPEG encoding start time (or end time) of the picture corresponding to the position m is calculated. Start with value. Then, the transition of the VBV buffer occupancy value ends with the VBV buffer occupancy value at the MPEG encoding start time (or end time) of the picture corresponding to the position q calculated by the first or second method. In such a manner, the data is re-encoded by the MPEG encoding method by performing the rate control. The obtained re-encoded MPEG image data of the connection section A + B (third connection section re-encoded data) is recorded on a recording medium. (For example, recording is performed by a data writing unit 37 shown in FIG. 4 described later.)
In the example shown in FIG. 10, it is of course possible to obtain the VBV buffer occupancy value at a required position by the above-described calculation method, and to obtain desired joint section re-encoded data).

次に、本発明を適用した記録再生装置の一実施例によって記録媒体に記録するVBVバッファ情報(MPEG画像データの所定区間毎における、その区間の最後のピクチャーのMPEG符号化開始時点または終了時点でのVBVバッファ占有値に関する情報値を示すVBVバッファ占有値関連情報と、前記VBVバッファ占有値に関する情報値が前記MPEG画像データのどの位置におけるVBVバッファ占有値に関する情報値であるかを示すアドレス情報)、ならびに、MPEG画像データに関する記録構造について詳しく説明する。記録媒体には、MPEG符号化方式で圧縮された画像データであるMPEG画像データが記録される。このMPEG画像データは、一回の記録単位で符号化生成された連続再生可能なデータが複数連続して連なったビットストリームとして記録される。   Next, according to an embodiment of the recording / reproducing apparatus to which the present invention is applied, the VBV buffer information to be recorded on the recording medium (at the time of starting or ending the MPEG encoding of the last picture of the section in each predetermined section of the MPEG image data). Buffer occupancy value-related information indicating an information value regarding the VBV buffer occupancy value, and address information indicating at which position in the MPEG image data the information value regarding the VBV buffer occupancy value is an information value regarding the VBV buffer occupancy value. , And the recording structure for MPEG image data will be described in detail. The recording medium records MPEG image data, which is image data compressed by the MPEG encoding method. The MPEG image data is recorded as a bit stream in which a plurality of continuously reproducible data encoded and generated in one recording unit are continuously connected.

これらの符号化されたMPEG画像データのビットストリームとは別に、MPEG画像データのビットストリームにおけるIピクチャーの1フレーム前のピクチャー符号化終了時点でのVBVバッファ値(占有値)と、Pピクチャーの1フレーム前のピクチャー符号化終了時点でのVBVバッファ値(占有値)と、前記各VBVバッファ値がMPEG画像データのどの位置におけるVBVバッファ占有値であるかを示すアドレス情報(この例では、MPEG画像データのファイルのはじめからの相対アドレス)が記録される。これらのデータを含むVBVバッファ情報のデータ構造を図1に示す。   Apart from these encoded MPEG image data bit streams, the VBV buffer value (occupation value) at the end of picture encoding one frame before the I picture in the MPEG image data bit stream and the P picture 1 The VBV buffer value (occupation value) at the end of the picture encoding before the frame and address information indicating at which position in the MPEG image data each VBV buffer value is the VBV buffer occupation value (in this example, the MPEG image The relative address from the beginning of the data file) is recorded. FIG. 1 shows the data structure of VBV buffer information including these data.

VBVバッファ情報は階層構造をもっている。始めにエントリーポイント情報構造体があり、その後にVBV情報構造体がある。エントリーポイント情報構造体は、始めにエントリーポイント(EP)のアドレスの個数を32ビット、その後にEPn(nは1以上の自然数)アドレスを32ビットで順に記述する。EPnアドレスはVBV情報構造体のEPn情報(nは1以上の自然数)の記述されている位置を示し、このVBVバッファ情報の先頭からの相対アドレスを記述する。一方VBV情報構造体は、EP1情報から順に記述されており、EP1情報の中身は相対アドレス、PTM値、VBV値を順に記述する。   VBV buffer information has a hierarchical structure. First there is an entry point information structure, followed by a VBV information structure. In the entry point information structure, the number of entry point (EP) addresses is first described in 32 bits, and the EPn (n is a natural number of 1 or more) address is described in 32 bits in order. The EPn address indicates a position where EPn information (n is a natural number of 1 or more) of the VBV information structure is described, and describes a relative address from the head of the VBV buffer information. On the other hand, the VBV information structure is described in order from the EP1 information, and the content of the EP1 information describes a relative address, a PTM value, and a VBV value in order.

VBV情報構造体のEPn情報における相対アドレスとは、図2のように、MPEG画像データのビットストリームにおけるIピクチャーの1フレーム前のピクチャー符号化終了時点、Pピクチャーの1フレーム前のピクチャー符号化終了時点、及び記録終了時点での、そのMPEG画像データの先頭からの相対アドレスであり、例えば単位はバイトが用いられる。ディスクメディアに記録されている場合には、相対アドレスとしてセクターなどが用いられる。   The relative address in the EPn information of the VBV information structure is, as shown in FIG. 2, the end point of the picture encoding one frame before the I picture and the end point of the picture encoding one frame before the P picture in the bit stream of the MPEG image data. The relative address from the beginning of the MPEG image data at the time and at the end of recording, for example, the unit is a byte. When recorded on a disk medium, a sector or the like is used as a relative address.

VBV情報構造体のEPn情報におけるPTM値とは、MPEGのシステム規格(多重化規格)において、90kHzもしくは27MHzのクロックで記録されているタイムスタンプである。MPEG規格ではPTS(Presentation Time Stamp)やDTS(Decoding Time Stamp)と呼ばれている。ここでは、MPEG画像データのビットストリームのIピクチャーの1フレーム前のピクチャー符号化終了時点、Pピクチャーの1フレーム前のピクチャー符号化終了時点、及び記録終了時点での、時間情報としてDTSを記録する。DTSは1ピクチャーに1つ記録されており、NTSCのビデオ信号であれば90KHzクロックで1ピクチャにつき3003クロックの間隔で、記録されている。従って、本発明のように3ピクチャーごとにIピクチャかPピクチャが存在している場合で一番初めが0からスタートする場合には、9009、18018....という間隔でPTM情報がEPn情報に記述されることになる。   The PTM value in the EPn information of the VBV information structure is a time stamp recorded with a clock of 90 kHz or 27 MHz in the MPEG system standard (multiplexing standard). In the MPEG standard, it is called PTS (Presentation Time Stamp) or DTS (Decoding Time Stamp). Here, the DTS is recorded as time information at the end of picture encoding one frame before the I picture in the bit stream of the MPEG image data, at the end of picture encoding one frame before the P picture, and at the end of recording. . One DTS is recorded in one picture, and in the case of an NTSC video signal, it is recorded at 90 KHz clocks at an interval of 3003 clocks per picture. Therefore, when an I picture or a P picture is present for every three pictures as in the present invention and the beginning starts from 0, the PTM information is provided at intervals of 9009, 18018. Will be described.

VBV情報構造体のEPn情報におけるVBV値は、MPEGで規定されているデコーダーの仮想バッファ占有値である。MPEG画像データの1ピクチャごとの発生符号量と、転送レートの値から計算で導けるもので、図3のように、圧縮されているビットストリーム情報のIピクチャーとPピクチャーの1フレーム前のピクチャー符号化終了時点での、図の○の位置でのVBV占有値を記述する。もしくはMPEGで規定されているVBV delay値を記述する。この値はVBV占有値まで、そのときの転送レートでどれだけの時間がかかるかという時間に換算した値である。本発明ではVBVバッファ占有値に関する情報であれば何であっても良い。VBVバッファ占有値とVBV delay値の関係を図17に示す。VBVバッファの占有値OCCは、符号化レートをRとすると、VBV delay = 90000 * OCC / Rという関係にあり、90000は90kHzのカウント数で示すための値である。   The VBV value in the EPn information of the VBV information structure is a virtual buffer occupancy value of a decoder specified by MPEG. It can be derived by calculation from the generated code amount for each picture of MPEG image data and the value of the transfer rate. As shown in FIG. 3, the picture code of the I-picture and the P-picture one frame before the P-picture of the compressed bit stream information Describe the VBV occupation value at the position of circle in the figure at the end of the conversion. Alternatively, a VBV delay value specified in MPEG is described. This value is a value converted into a time that indicates how long it takes at the transfer rate at that time up to the VBV occupation value. In the present invention, any information may be used as long as the information is related to the VBV buffer occupancy value. FIG. 17 shows the relationship between the VBV buffer occupancy value and the VBV delay value. The occupancy value OCC of the VBV buffer has a relationship of VBV delay = 90000 * OCC / R, where R is the coding rate, and 90000 is a value indicated by a count number of 90 kHz.

MPEG圧縮では基本的にIBB、PBB、というように3フレーム単位でIかPのピクチャータイプを用いて符号化する。MPEG圧縮はBピクチャーは両方向から予測されている可能性があるので、符号化ビットストリーム順番において、ビットストリームのIピクチャー、Pピクチャーの1フレーム前のピクチャー符号化終了時点でしか、データのつなぎ追加は簡単にはできない。そのため本発明では、VBVの情報をビットストリームのIピクチャー、Pピクチャーの1フレーム前のピクチャー符号化終了時点で記述する形態をもつという仮定で説明している。   In MPEG compression, encoding is basically performed using an I or P picture type in units of three frames, such as IBB and PBB. In MPEG compression, a B picture may be predicted from both directions, so in the order of the coded bit stream, data is added only at the end of picture coding one frame before the I picture and P picture of the bit stream. Is not easy. Therefore, the present invention has been described on the assumption that VBV information is described at the end of picture coding one frame before the I picture and P picture of the bit stream.

しかしながら、本質的にはVBV占有値に関する情報値は、毎ピクチャー持っても良い。また、ピクチャー符号化終了時点でなく、符号化開始点でも良い。図16(1)では符号化終了点の値をリストに持つ場合の概念図であるが、この場合には一番初めのVBV占有値に関する情報値が無いため、第1フレームの前に仮想的にフレームがあったとして、その仮想フレームの符号化終了時点のVBV占有値に関する情報値を初期値として計算する。計算は第1のピクチャ符号量を、一番目のVBV占有値に関する情報値に加算して、加算した値から、符号化レートによる傾きから、(1/ピクチャーレート)だけの時間によってどれだけの符号伝送量かを計算した値を減算すると、図16(1)の黒丸部分の初期値が求められる。また、図16(2)では符号化開始点の値をリストに持つ場合の概念図であるが、この場合には一番最後のVBV占有値に関する情報値が無いため、最終フレームの後ろに仮想的にフレームがあったとして、その仮想フレームの符号化開始時点のVBV占有値に関する情報値を最終値として計算する。計算は最終のピクチャ符号量を、最後のVBV占有値に関する情報値から減算して、減算した値から、符号化レートによる傾きから、(1/ピクチャーレート)だけの時間によってどれだけの符号伝送量かを計算した値を加算すると、図16(2)の黒丸部分の最終値が求められる。   However, the information value regarding the VBV occupation value may essentially have each picture. Also, instead of the picture coding end point, the picture coding start point may be used. FIG. 16A is a conceptual diagram in the case where the value of the encoding end point is included in the list. In this case, since there is no information value relating to the first VBV occupation value, the virtual value is assumed before the first frame. , The information value regarding the VBV occupation value at the end of the encoding of the virtual frame is calculated as an initial value. The calculation is performed by adding the first picture code amount to the information value relating to the first VBV occupation value, and from the added value, from the slope according to the coding rate, how much code is required in (1 / picture rate) time. When the value calculated for the transmission amount is subtracted, the initial value of the black circle in FIG. 16A is obtained. FIG. 16 (2) is a conceptual diagram in the case where the value of the encoding start point is included in the list. In this case, since there is no information value regarding the last VBV occupation value, the virtual value is placed behind the last frame. Assuming that there is a specific frame, the information value relating to the VBV occupation value at the start of encoding of the virtual frame is calculated as the final value. The calculation is performed by subtracting the last picture code amount from the information value related to the last VBV occupation value, and from the subtracted value, from the slope according to the coding rate, how much code transmission amount in (1 / picture rate) time. When the calculated values are added, the final value of the black circle in FIG. 16B is obtained.

次に、本発明を適用した記録再生装置の一実施例の構成を図4に示し、MPEG符号化方式で画像データを符号化しながらVBVバッファ情報を作成する動作を説明をする。
記録媒体31に符号化データがまったく無い状態、すなわち、初めて符号化する場合には、記録媒体31からのデータ読み取り部32では、データが存在していないので、データがないという情報をVBVバッファ情報検出器33に送信する。VBVバッファ情報検出器33でもデータが存在していないので、パラメータ設定器34にはあらかじめ設定した初期値、すなわちVBV値は、たとえばMPEGで規定されるVBVの最大値の80%の値とし、PTMタイムスタンプ情報は0とする。これらの初期設定値を画像符号化器35に送信する。
Next, the configuration of an embodiment of a recording / reproducing apparatus to which the present invention is applied is shown in FIG. 4, and an operation for creating VBV buffer information while encoding image data by the MPEG encoding method will be described.
When there is no encoded data on the recording medium 31, that is, when encoding is performed for the first time, the data reading unit 32 from the recording medium 31 does not have any data. Transmit to the detector 33. Since no data exists in the VBV buffer information detector 33, the initial value set in advance in the parameter setting unit 34, that is, the VBV value is, for example, a value of 80% of the maximum value of VBV specified by MPEG, and the PTM Time stamp information is set to 0. These initial setting values are transmitted to the image encoder 35.

画像符号化器35では、符号化を初期設定値から開始する。画像符号化器35では符号化を行いながら、ビットストリームのIピクチャーの1フレーム前、及びPピクチャーの1フレーム前のピクチャー符号化終了時点での発生符号量とPTM値、VBV値を、毎回、VBVバッファ情報作成器36へ送信する。それとともに符号化データをデータ書き込み部37へ送信する。さらに、画像符号化器35は、ユーザーが画像圧縮記録を一時停止、もしくは終了した時点での発生符号量とPTM値、VBV値を、VBVバッファ情報作成器36へ送信する。   In the image encoder 35, encoding is started from an initial set value. In the image encoder 35, while performing the encoding, the generated code amount, the PTM value, and the VBV value at the end of the picture encoding one frame before the I picture of the bit stream and one frame before the P picture are calculated every time. This is transmitted to the VBV buffer information generator 36. At the same time, the encoded data is transmitted to the data writing unit 37. Further, the image encoder 35 transmits the generated code amount, the PTM value, and the VBV value when the user temporarily stops or ends the image compression recording to the VBV buffer information generator 36.

VBVバッファ情報作成器36では、入力された発生符号量値とPTM値とVBV値から図1に示す構造のVBVバッファ情報のデータを作成する。もしくはそのデータ構造を作成するのに必要なデータをメモリーして所定のフォーマットで記録保持する。VBVバッファ情報作成器36で作成された情報は、データ書き込み部37により符号化データ(MPEG画像データ)が記録媒体31に書き込まれているときに、同時にバースト的に書き込みを行っても良い。また、VBVバッファ情報作成器36で作成された情報は、符号化データ(MPEG画像データ)が書き込み終わったとき、すなわち、ユーザーが画像圧縮記録を一時停止、もしくは終了した後に所定のフォーマットで記録保持されていたデータから、図1の構造に変換してデータ書き込み部37により書き込みを行っても良い。   The VBV buffer information generator 36 generates VBV buffer information data having the structure shown in FIG. 1 from the input generated code amount value, PTM value, and VBV value. Alternatively, data necessary for creating the data structure is stored in a memory and stored in a predetermined format. The information created by the VBV buffer information creating unit 36 may be written in a burst at the same time that the encoded data (MPEG image data) is written to the recording medium 31 by the data writing unit 37. The information created by the VBV buffer information creating unit 36 is recorded and held in a predetermined format when the encoded data (MPEG image data) has been written, that is, after the user has temporarily stopped or ended the image compression recording. The written data may be converted into the structure of FIG. 1 and written by the data writing unit 37.

次に、記録媒体31に記録されている第1及び第2の2つのMPEG画像データに対して、所定の位置からの繋ぎ再生を可能とするための区間Aの部分の再符号化を行う場合の説明を図8を用いて行う。   Next, when re-encoding the first and second two pieces of MPEG image data recorded on the recording medium 31 in the section A to enable the joint reproduction from a predetermined position Will be described with reference to FIG.

まず、図示せぬ、ユーザーインターフェースから、すでに記録されている第1及び第2の2つのMPEG画像データのどこのポイントから繋ぎ再生するかを指定してもらう。
記録媒体31には、すでに第1及び第2の2つのMPEG画像データ(圧縮符号化ストリーム)と、図4に示した記録再生装置により生成したVBVバッファ情報とが記録されている。従って、図4に示すデータ読み取り部32ではVBVバッファ情報を読み取り、接続点b(繋ぎ指定位置)から区間Aの分だけ前にある位置の図8におけるaの位置のVBV値、PTM値、相対アドレスを得る。
First, a user interface (not shown) is used to specify from which point of the first and second two pieces of MPEG image data that have already been recorded, the point from which to connect and reproduce.
The recording medium 31 has already recorded the first and second two MPEG image data (compression-encoded stream) and the VBV buffer information generated by the recording / reproducing apparatus shown in FIG. Therefore, the data reading unit 32 shown in FIG. 4 reads the VBV buffer information and obtains the VBV value, the PTM value, and the relative position of the position a in FIG. Get the address.

前記ユーザーインターフェースからの繋ぎ再生位置の指定が、例えば、その指定の仕方が、データの相対アドレスの位置情報の場合には、VBVバッファ情報の構造のEPn情報内の相対アドレス情報にもっとも近い値のデータにリンクされているVBV値、PTM値を用いる。また、もし、その指定の仕方が、データの開始時刻からの時間や、繋ぎ再生されるポイントのタイムスタンプ情報であれば、同様にVBVバッファ情報の構造のEPn情報内のPTM値を用いて、この値が90KHzのクロックで記録されている場合にはその値に 1/90000秒の値を乗じることで秒の時間を得ることができ、その繋ぎ再生する位置(相対アドレス)とVBV値、PTM値を得ることができる。   When the connection playback position is specified from the user interface, for example, when the specification method is the position information of the relative address of the data, the value of the value closest to the relative address information in the EPn information of the structure of the VBV buffer information is used. Use the VBV and PTM values linked to the data. Also, if the designation method is the time from the start time of the data or the time stamp information of the point to be connected and reproduced, similarly, using the PTM value in the EPn information of the structure of the VBV buffer information, When this value is recorded with a clock of 90 KHz, the time can be obtained by multiplying the value by 1 / 90,000 second, and the connection reproduction position (relative address), VBV value, PTM Value can be obtained.

これらの値はパラメータ設定器34に入力され、画像符号化器35においてその設定値から符号化が開始される。一方、符号化データサーチ器38では再符号化する区間Aの先頭位置を、すでに記録してあるビットストリームに対してサーチする。サーチはデータの相対アドレスを用いて、そのビットストリームファイルの頭からの位置にポインタを設定する。   These values are input to the parameter setting unit 34, and the image encoding unit 35 starts encoding from the set values. On the other hand, the coded data search unit 38 searches for the head position of the section A to be re-encoded with respect to the already recorded bit stream. The search uses a relative address of data to set a pointer to a position from the beginning of the bit stream file.

画像符号化器35では区間Aに対応する第1のMPEG画像データを復号化し、復号画像を用いて再度、VBVバッファ占有値の推移が、aの位置でのVBV値から開始されて、dの位置でのVBV値までで終了するようにレートコントロールを行ってMPEG符号化方式で再符号化を行う。再符号化は前記のように完全に復号した画像を用いても良いが、特開平11−234677に開示されているような、ビットストリーム上での符号量コントロールの技術を用いても良い。   In the image encoder 35, the first MPEG image data corresponding to the section A is decoded, and the transition of the VBV buffer occupancy value is started again from the VBV value at the position a using the decoded image, and The rate control is performed so that the processing ends up to the VBV value at the position, and re-encoding is performed by the MPEG encoding method. For the re-encoding, a completely decoded image may be used as described above, but a technique for controlling the amount of code on a bit stream as disclosed in Japanese Patent Application Laid-Open No. H11-234677 may be used.

ここでもし、再符号化する区間Aが、VBVバッファ情報の最小単位より長い場合には、再符号化しながら、ビットストリームのIピクチャー、Pピクチャーの1フレーム前のピクチャー符号化終了時点での発生符号量とPTM値、VBV値を、毎回、VBVバッファ情報作成器36へ送信する。それと共に、再符号化データをデータ書き込み部37へ送信する。   If the section A to be re-encoded is longer than the minimum unit of the VBV buffer information, the re-encoding is performed at the end of the picture encoding of the I-picture and the P-picture of the bit stream one frame before. The code amount, the PTM value, and the VBV value are transmitted to the VBV buffer information generator 36 every time. At the same time, the re-encoded data is transmitted to the data writing unit 37.

VBVバッファ情報作成器36では、入力された発生符号量値とPTM値とVBV値から図1に示す構造のデータを作成する。もしくはそのデータ構造を作成するのに必要なデータをメモリーして所定のフォーマットで記録保持する。VBVバッファ情報作成器36でのその情報は、符号化データが書き込まれているときに、同時にバースト的に書き込みを行っても良いし、符号化データが書き終わったとき、すなわち、ユーザーが画像圧縮記録を一時停止、もしくは終了したときに所定のフォーマットで記録保持されていたデータから、図1の構造に変換して書き込みを行っても良い。   The VBV buffer information creator 36 creates data having the structure shown in FIG. 1 from the input generated code amount value, PTM value, and VBV value. Alternatively, data necessary for creating the data structure is stored in a memory and stored in a predetermined format. The information in the VBV buffer information generator 36 may be written in a burst at the same time as the encoded data is written, or when the encoded data has been written, When the recording is temporarily stopped or completed, the data recorded and held in a predetermined format may be converted into the structure shown in FIG. 1 and written.

再符号化された区間Aの画像データ(繋ぎ区間A再符号化データ)は、第1、第2のMPEG画像データと分離された別のファイルとして記録する。もしくは、記録第2のMPEG画像データの先頭に連結して記録する。   The re-encoded image data of section A (joint section A re-encoded data) is recorded as a separate file separated from the first and second MPEG image data. Alternatively, it is connected to the head of the recording second MPEG image data and recorded.

第1のMPEG画像データと、第2のMPEG画像データと、VBVバッファ占有値に関する情報とそのデータアドレス情報と、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)は、同一記録メディアに記録されていても、任意の組み合わせで複数の記録メディアに記録くされていても、それぞれが異なる記録メディアに記録されていてもかまわない。複数の記録メディアに分けて記録されている場合には、それぞれの記録メディア同士がリンクされて(それぞれのデータ、情報同士がリンクされて)運用されるように、同一情報群であることを示す情報、例えばIDなどを各記録メディアに記録しておくと良い。第1のMPEG画像データと、第2のMPEG画像データと、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)とが同一の記録媒体に記録されている場合には、一つの記録媒体で、再生装置側の繋ぎ再生を制御できる。   The first MPEG image data, the second MPEG image data, the information on the VBV buffer occupancy value and its data address information, the re-encoded image data of the section A (or the re-encoded image data of the section B, Alternatively, the re-encoded image data of the section A + B) may be recorded on the same recording medium, may be recorded on a plurality of recording media in an arbitrary combination, or may be recorded on different recording media. I don't care. When the recording is performed by being divided into a plurality of recording media, the recording media indicate the same information group so that the recording media are linked to each other (each data and information are linked). Information, for example, an ID is preferably recorded on each recording medium. The first MPEG image data, the second MPEG image data, and the re-encoded image data of the section A (or the re-encoded image data of the section B or the re-encoded image data of the section A + B) When recorded on the same recording medium, a single recording medium can control the connected reproduction on the reproducing apparatus side.

なお、繋ぎ区間再符号化画像データを得るためのVBVバッファ占有値に関する情報を、媒体に記録されているサイド情報から読み出すのではなく、計算により求める場合には、VBVバッファ占有値に関する情報とそのデータアドレス情報とを記録しておく必要はない。   In addition, when the information on the VBV buffer occupancy value for obtaining the re-encoded image data is not read out from the side information recorded on the medium but is calculated, the information on the VBV buffer occupancy value and the It is not necessary to record the data address information.

上記実施例で、記録メディアは記録再生装置内の記録メディアとして説明したが、記録再生装置に着脱自在の記録メディア、ネットワークを介した記録メディア(データベース)であってもかまわない。   In the above embodiment, the recording medium has been described as a recording medium in the recording / reproducing apparatus. However, a recording medium detachable from the recording / reproducing apparatus or a recording medium (database) via a network may be used.

また、上記実施例では、単体のMPEG画像データに着目して画像データをつなぐ例を説明したが、音声データなどと共にMPEG方式でパケット多重化されたMPEG多重化データであるMPEGトランスポートストリーム内のMPEG画像データをつなぐ場合に適応しても良い。   Also, in the above embodiment, an example in which image data is connected by focusing on a single MPEG image data has been described.However, in an MPEG transport stream which is MPEG multiplexed data packet-multiplexed with the MPEG method together with audio data and the like. It may be applied when connecting MPEG image data.

トランスポートストリームには可変長符号化されているMPEG画像データ、固定長符号化されているMPEG1レイヤー2オーディオもしくはAC3などが多重化されている場合が多い。従って、その多重化されたデータ中の要素符号化データのひとつであるMPEG画像データをつなぐ場合、接続する点においてMPEGで規定されるSTDバッファ(ビデオではVBVバッファ)の整合性を考慮した接続方法として、前記説明した実施例の方法を適応すればよい。   In many cases, the transport stream is multiplexed with variable-length-encoded MPEG image data and fixed-length-encoded MPEG1 layer 2 audio or AC3. Therefore, when connecting MPEG image data, which is one of the element coded data in the multiplexed data, a connection method in consideration of the consistency of the STD buffer (VBV buffer for video) specified by MPEG at the connection point The method of the embodiment described above may be applied.

例えば第1及び第2のMPEGトランスポートストリーム内からそれぞれ接続対象の第1及び第2のMPEG画像データを取り出し、上記した実施例と同様にして接続する。繋ぎ再生に使用する繋ぎ区間再符号化データ(前記区間Aの再符号化画像データ、前記区間Bの再符号化画像データ、前記区間A+Bの再符号化画像データ)は、MPEG方式でパケット多重化されたMPEG多重化データとして生成、記録されてもよい。   For example, first and second MPEG image data to be connected are extracted from the first and second MPEG transport streams, respectively, and connected in the same manner as in the above-described embodiment. The connection section re-encoded data (the re-encoded image data of the section A, the re-encoded image data of the section B, and the re-encoded image data of the section A + B) used for the connection reproduction are packet-multiplexed by the MPEG method. May be generated and recorded as MPEG multiplexed data.

図14(1)の状態はMPEGトランスポートストリームのパケット多重化されたデータの状態を示している。Vと記載されているパケットはビデオパケット、Aと記載されているパケットはオーディオのパケット、Sと記載されているパケットはシステムで使用されるPATやPMTなどの情報パケットである。おのおのMPEG2システムのルールに準拠した形で記録されている。ビデオパケットは薄いグレーの色を施してある。これらの全体を示した状態が同図(2)である。このビデオパケットだけを集めた状態が同図(3)である。このビデオパケットの中身は、同図(4)に示すように始めがIピクチャーであり、次にBピクチャーが2枚、そのあとにPピクチャーが1枚、と続いてくのが典型的な例である。   FIG. 14A shows the state of packet-multiplexed data of the MPEG transport stream. Packets described as V are video packets, packets described as A are audio packets, and packets described as S are information packets such as PAT and PMT used in the system. Each is recorded in a form that complies with the rules of the MPEG2 system. The video packets have a light gray color. FIG. 2B shows the state of the whole of these. The state where only the video packets are collected is shown in FIG. A typical example of the contents of this video packet is that an I picture starts at the beginning, then two B pictures and one P picture follow, as shown in FIG. is there.

これらのピクチャーの1枚もしくは複数のピクチャーにおいて再符号化によって符号量を調整する。例えば符号量が削減された状態が同図(5)である。各ピクチャーの符号量はそれぞれ小さくなっている。その状態でパケット化したものが同図(6)である。減少した部分には黒色を施してある。このパケット分、ビデオの全体の量が減少する。そして、TSを再構築する。この状態を全体で表現したものが同図(7)である。同図(7)を拡大したものが同図(8)である。結果的にVパケットの一部が減少し、それ以外の要素データパケットはそのまま多重化する。   The code amount of one or more of these pictures is adjusted by re-encoding. For example, FIG. 5 (5) shows a state in which the code amount is reduced. The code amount of each picture is small. FIG. 6 (6) shows a packetized state in this state. The reduced area is black. This packet reduces the overall amount of video. Then rebuild the TS. FIG. 7 (7) shows this state as a whole. FIG. 8 is an enlarged view of FIG. 7. As a result, a part of the V packet is reduced, and the other element data packets are multiplexed as they are.

MPEGシステムの規定ではPCRクロック情報は100msecに一度は記録されていなければならない。また、データ長が変更されているので、それぞれの要素パケットに記載されているPCRクロック情報は必要に応じて変更する。また、ビデオパケットにはアクセスユニット(フレームやフィールドのピクチャー単位)の先頭のPESヘッダーが存在するパケットにPTSやDTSが記述されている。オーディオパケットには1つもしくは複数のオーディオフレームをPESでパッキングしたその先頭のPESヘッダーが存在するパケットにPTSが記載されている。これらのタイムスタンプ情報は画像においてはピクチャー数を増減していない場合には変更する必要は無いし、オーディオも再生時間長を増減しなければ変更の必要はないが、それ以外の場合には、適切なPTS,DTSを追加修正する。   According to the rules of the MPEG system, PCR clock information must be recorded once every 100 msec. Further, since the data length has been changed, the PCR clock information described in each element packet is changed as necessary. In a video packet, a PTS or DTS is described in a packet in which a PES header at the head of an access unit (frame or field picture unit) exists. In an audio packet, a PTS is described in a packet in which one or a plurality of audio frames are packed with a PES and a leading PES header is present. These time stamp information does not need to be changed if the number of pictures is not increased or decreased in the image, and the audio does not need to be changed unless the playback time length is increased or decreased. Add and correct appropriate PTS and DTS.

さらにまた、単純に再符号化する場合には、予測符号化のリセットタイミングであるIピクチャーからのGOP単位が扱いやすいが、GOPが独立していない場合、即ち、境界のBピクチャーが双方のGOPにまたがって予測されている場合(GOPのclosed gop=0の場合)には、一つ前のGOPの最後のリファレンスピクチャーを復号化して、図示せぬ画像再符号化用メモリーなどに保持しておくことが必要になる場合がある。   Furthermore, in the case of simple re-encoding, the GOP unit from the I picture which is the reset timing of the predictive encoding is easy to handle, but when the GOPs are not independent, that is, when the B picture at the boundary is In the case where prediction is performed over (closed gop = 0 of the GOP), the last reference picture of the immediately preceding GOP is decoded and stored in an image recoding memory (not shown) or the like. May need to be placed.

第1のMPEG多重化データ(第1のMPEGトランスポートストリーム)と、第2のMPEG画像データ(第2のMPEGトランスポートストリーム)と、VBVバッファ占有値に関する情報とそのデータアドレス情報と、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)を要素符号化データとして含んで、MPEG方式によりパケット多重化して生成した繋ぎ区間MPEG多重化データとは、同一記録メディアに記録されていても、任意の組み合わせで複数の記録メディアに記録くされていても、それぞれが異なる記録メディアに記録されていてもかまわない。複数の記録メディアに分けて記録されている場合には、それぞれの記録メディア同士がリンクされて(それぞれのデータ、情報同士がリンクされて)運用されるように、同一情報群であることを示す情報、例えばIDなどを各記録メディアに記録しておくと良い。第1のMPEG多重化画像データと、第2のMPEG多重化画像データと、前記区間Aの再符号化画像データ(または前記区間Bの再符号化画像データ、または前記区間A+Bの再符号化画像データ)の繋ぎ区間MPEG多重化データとが同一の記録媒体に記録されている場合には、一つの記録媒体で、再生装置側の繋ぎ再生を制御できる。   First MPEG multiplexed data (first MPEG transport stream), second MPEG image data (second MPEG transport stream), information on VBV buffer occupancy value, its data address information, A re-encoded image data of A (or the re-encoded image data of the section B, or the re-encoded image data of the section A + B) is included as elementary encoded data, and a connection section generated by packet multiplexing according to the MPEG method. The MPEG multiplexed data may be recorded on the same recording medium, may be recorded on a plurality of recording media in an arbitrary combination, or may be recorded on different recording media. When the recording is performed by being divided into a plurality of recording media, the recording media indicate the same information group so that the recording media are linked to each other (each data and information are linked). Information, for example, an ID is preferably recorded on each recording medium. The first MPEG multiplexed image data, the second MPEG multiplexed image data, the re-encoded image data of the section A (or the re-encoded image data of the section B, or the re-encoded image of the section A + B) In the case where the MPEG-multiplexed data and the connection section of the data are recorded on the same recording medium, a single recording medium can control the connection reproduction on the reproduction apparatus side.

本発明を適用した記録再生装置の一実施例に基づくVBVバッファ情報構造を示す図である。FIG. 3 is a diagram showing a VBV buffer information structure based on one embodiment of a recording / reproducing device to which the present invention is applied. 一実施例におけるMPEG画像データと相対アドレスとの関係を示す図である。FIG. 3 is a diagram illustrating a relationship between MPEG image data and relative addresses according to one embodiment. 一実施例におけるVBV値を説明する説明図である。FIG. 4 is an explanatory diagram illustrating a VBV value in one embodiment. 本発明を適用した記録再生装置の一実施例を示すブロック図である。FIG. 1 is a block diagram illustrating an embodiment of a recording / reproducing apparatus to which the present invention has been applied. 従来のMPEG符号化器の一例を示す図である。FIG. 11 is a diagram illustrating an example of a conventional MPEG encoder. 従来のMPEG復号化器の一例を示す図である。FIG. 15 is a diagram illustrating an example of a conventional MPEG decoder. MPEGにおけるVBVバッファ概念を説明するための図である。FIG. 3 is a diagram for explaining the concept of a VBV buffer in MPEG. 本発明で実現可能とする繋ぎ再生の概念を説明するための図である。FIG. 4 is a diagram for explaining a concept of connection reproduction that can be realized by the present invention. 本発明で実現可能とする繋ぎ再生の概念を説明するための図である。FIG. 4 is a diagram for explaining a concept of connection reproduction that can be realized by the present invention. 本発明で実現可能とする繋ぎ再生の概念を説明するための図である。FIG. 4 is a diagram for explaining a concept of connection reproduction that can be realized by the present invention. 従来のMPEG多重化システムを示す説明図である。FIG. 11 is an explanatory diagram showing a conventional MPEG multiplexing system. MPEGTSとPS及びPESの関連を示す説明図である。FIG. 4 is an explanatory diagram showing the relationship between MPEGTS and PS and PES. MPEGTSのPSIの使用例を示す説明図である。[Fig. 4] Fig. 4 is an explanatory diagram showing a usage example of MPEGTS PSI. MPEGTSパケット配置を示す説明図である。FIG. 4 is an explanatory diagram showing an MPEGTS packet arrangement. 本発明で実現可能とする繋ぎ再生の概念を説明するための図である。FIG. 4 is a diagram for explaining a concept of connection reproduction that can be realized by the present invention. 一実施例におけるVBVバッファ占有値に関する情報値を説明するための図である。FIG. 9 is a diagram for explaining information values relating to VBV buffer occupancy values in one embodiment. VBVバッファ占有値とVBV delay値の関係を示す図である。FIG. 4 is a diagram illustrating a relationship between a VBV buffer occupation value and a VBV delay value.

符号の説明Explanation of reference numerals

31 記録媒体
32 データ読み取り部
33 VBVバッファ情報検出器
34 パラメータ設定器
35 画像符号化器
36 VBVバッファ情報作成器
37 データ書き込み部
38 符号化データサーチ器

REFERENCE SIGNS LIST 31 recording medium 32 data reading unit 33 VBV buffer information detector 34 parameter setting unit 35 image encoder 36 VBV buffer information creator 37 data writing unit 38 encoded data search unit

Claims (1)

MPEG符号化方式で符号化された画像データである第1及び第2の2つのMPEG画像データを、それぞれのMPEG画像データにおける指定された繋ぎ指定位置で、前記第1のMPEG画像データから前記第2のMPEG画像データへ繋げて再生を行う繋ぎ再生ステップを設けたMPEGデータ再生方法であって、
前記繋ぎ再生ステップは、
前記第1のMPEG画像データを要素符号化データとして含んでMPEG方式によりパケット多重化して生成された第1のMPEG多重化データから前記第1のMPEG画像データを得、前記第2のMPEG画像データを要素符号化データとして含んで前記MPEG方式によりパケット多重化して生成された第2のMPEG多重化データから前記第2のMPEG画像データを得ると共に、繋ぎ再生させるためのデータである繋ぎ区間再符号化データを要素符号化データとして含んで前記MPEG方式でパケット多重化して生成された繋ぎ区間MPEG多重化データから前記繋ぎ区間再符号化データを得て、
前記第1のMPEG画像データにおいて設定された第1の繋ぎ区間の開始位置まで前記第1のMPEG画像データを再生した後、前記繋ぎ区間再符号化データを前記第1の繋ぎ区間の開始位置から前記第2のMPEG画像データにおいて設定された第2の繋ぎ区間の終了位置まで再生し、その後、前記第2のMPEG画像データにおける前記第2の繋ぎ区間の終了位置から前記第2のMPEG画像データを再生する繋ぎ再生ステップであり、
前記繋ぎ区間再符号化データは、前記第1のMPEG画像データにおける前記繋ぎ指定位置から第1の所定時間分前の位置を開始位置とし、前記第1のMPEG画像データにおける前記繋ぎ指定位置を終了位置とする区間を前記第1の繋ぎ区間とすると共に、前記第2のMPEG画像データにおける前記繋ぎ指定位置を開始位置とし、前記第2のMPEG画像データにおける前記繋ぎ指定位置から第2の所定時間分後の位置を終了位置とする区間を前記第2の繋ぎ区間とし、前記第1の繋ぎ区間と前記第2の繋ぎ区間とを合わせた区間を第3の繋ぎ区間として、前記第1の繋ぎ区間の前記第1のMPEG画像データを復号して得た画像データである第1の繋ぎ区間復号画像データと、前記第2の繋ぎ区間の前記第2のMPEG画像データを復号して得た画像データである第2の繋ぎ区間復号画像データとよりなる第3の繋ぎ区間復号画像データを、前記MPEG符号化方式で再符号化して得た再符号化データであって、
前記繋ぎ区間再符号化データは、前記再符号化時におけるVBVバッファ占有値に関する情報値の推移が、前記第1の繋ぎ区間の開始位置に対応する位置における前記第1のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値から開始されて、前記第2の繋ぎ区間の終了位置に対応する位置における前記第2のMPEG画像データの符号化時のVBVバッファ占有値に関する情報値までで終了するように符号量制御が行われて再符号化されたものである、
ことを特徴とするMPEGデータ再生方法。
The first and second two MPEG image data, which are image data encoded by the MPEG encoding method, are converted from the first MPEG image data to the second MPEG image data at the designated joint designated positions in the respective MPEG image data. An MPEG data reproducing method comprising a splicing reproduction step of connecting to and reproducing the MPEG image data of No. 2
The connection reproduction step includes:
Obtaining the first MPEG image data from the first MPEG multiplexed data generated by performing packet multiplexing according to the MPEG method by including the first MPEG image data as elementary encoded data, and obtaining the second MPEG image data Is obtained as the second MPEG image data from the second MPEG multiplexed data generated by performing packet multiplexing according to the MPEG method by including as a component coded data, and a connection section recoding which is data for connection and reproduction. To obtain the connection section re-encoded data from the connection section MPEG multiplexed data generated by packet multiplexing in the MPEG method, including encoded data as elemental encoded data,
After reproducing the first MPEG image data up to the start position of the first connection section set in the first MPEG image data, the connection section re-encoded data is converted from the start position of the first connection section. The second MPEG image data is reproduced up to the end position of the second connection section set in the second MPEG image data, and then the second MPEG image data is reproduced from the end position of the second connection section in the second MPEG image data. Is a splicing playback step of playing back
The connection section re-encoded data has a start position that is a first predetermined time before the connection specification position in the first MPEG image data, and ends the connection specification position in the first MPEG image data. A section to be a position is set as the first connection section, the connection specified position in the second MPEG image data is set as a start position, and a second predetermined time from the connection specified position in the second MPEG image data is set. A section in which the position after the minute is the end position is the second connection section, and a section obtained by combining the first connection section and the second connection section is a third connection section, and the first connection section is used. First connected section decoded image data which is image data obtained by decoding the first MPEG image data of the section, and image obtained by decoding the second MPEG image data of the second connected section The second is the data A third connecting section decoded image data to be more and formic section decoded image data, a re-encoded data obtained by re-encoding by the MPEG encoding method,
The connection section re-encoded data is obtained by encoding the first MPEG image data at a position corresponding to a start position of the first connection section, wherein a transition of an information value relating to a VBV buffer occupancy value at the time of the re-encoding is performed. Starting from the information value regarding the VBV buffer occupancy value at the time and ending with the information value regarding the VBV buffer occupancy value at the time of encoding the second MPEG image data at the position corresponding to the end position of the second connection section. Code amount control is performed so that
A method for reproducing MPEG data, comprising:
JP2004158900A 2001-05-30 2004-05-28 Method for reproducing mpeg data Pending JP2004289871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004158900A JP2004289871A (en) 2001-05-30 2004-05-28 Method for reproducing mpeg data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001162348 2001-05-30
JP2004158900A JP2004289871A (en) 2001-05-30 2004-05-28 Method for reproducing mpeg data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002156229A Division JP2003052021A (en) 2001-05-30 2002-05-29 Mpeg data reproduction method

Publications (1)

Publication Number Publication Date
JP2004289871A true JP2004289871A (en) 2004-10-14

Family

ID=33301443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004158900A Pending JP2004289871A (en) 2001-05-30 2004-05-28 Method for reproducing mpeg data

Country Status (1)

Country Link
JP (1) JP2004289871A (en)

Similar Documents

Publication Publication Date Title
US8131135B2 (en) MPEG picture data recording apparatus, MPEG picture data recording method, MPEG picture data recording medium, MPEG picture data generating apparatus, MPEG picture data reproducing apparatus, and MPEG picture data reproducing method
JP3748234B2 (en) MPEG data recording method
JP2003052040A (en) Mpeg data reproduction equipment
JP3748243B2 (en) MPEG data recording device
JP2004297829A (en) Mpeg data reproduction equipment
JP3748245B2 (en) MPEG data recording device
JP3748244B2 (en) MPEG data recording device
JP3748242B2 (en) MPEG data recording method
JP3748240B2 (en) MPEG data recording method
JP3748241B2 (en) MPEG data recording method
JP2005198350A (en) After-recording signal reproducing method
JP4148200B2 (en) MPEG image data recording apparatus and MPEG image data recording method
JP2004289871A (en) Method for reproducing mpeg data
JP2008005520A (en) Mpeg data recording and reproducing method
JP2004289872A (en) Mpeg data reproducing apparatus
JP4192861B2 (en) MPEG image data recording apparatus and MPEG image data recording method
JP2004254347A (en) Mpeg data playback method
JP2007325304A (en) Mpeg data recording and reproducing method
JP4380068B2 (en) Data reproduction device and editing device
JP2007336574A (en) Mpeg data recording and reproducing apparatus
JP2008005519A (en) Mpeg data recording and reproducing apparatus
JP2003052021A (en) Mpeg data reproduction method
JP2008005521A (en) Mpeg data recording and reproducing method
JP2008005522A (en) Mpeg data recording and reproducing method
JP2006054530A (en) Mpeg image data recorder and recording method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002