JP2002374537A - Decoder and its method - Google Patents

Decoder and its method

Info

Publication number
JP2002374537A
JP2002374537A JP2001182338A JP2001182338A JP2002374537A JP 2002374537 A JP2002374537 A JP 2002374537A JP 2001182338 A JP2001182338 A JP 2001182338A JP 2001182338 A JP2001182338 A JP 2001182338A JP 2002374537 A JP2002374537 A JP 2002374537A
Authority
JP
Japan
Prior art keywords
information
slice
bit stream
header
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001182338A
Other languages
Japanese (ja)
Inventor
Tetsuo Kaneko
哲夫 金子
Osamu Matsumura
修 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001182338A priority Critical patent/JP2002374537A/en
Publication of JP2002374537A publication Critical patent/JP2002374537A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To immediately start decoding of a MPEG 2 video bit stream and to enhance the performance for error restoration and a trick play. SOLUTION: A buffer stores an input bit stream and also stores header information and slice information of each layer being a processing layer or more. The slice information includes a start position of each slice on a screen and an address of the data in the buffer. Picture information in the header information includes link information to the slice information of the slices configuring the picture. Prior to decoding the MPEG 2 video bit stream, the header information is analyzed. On the occurrence of an error at variable length demodulation, the range of interpolation is obtained on the basis of the slice information to conduct interpolation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、特に、MPEG
2(Moving Picture Coding Experts Group )ビデオの
ビットストリームをデコードするのに用いて好適なデコ
ード装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention
2 (Moving Picture Coding Experts Group) The present invention relates to a decoding apparatus and method suitable for decoding a bit stream of a video.

【0002】[0002]

【従来の技術】ディジタルBS(Broadcast Satellite
)放送やディジタルCS(Communication Satellite
)放送では、ビデオデータがMPEG2方式で圧縮さ
れ、パケット化され、MPEG2−TS(Transport St
ream)のストリームに組み込まれて、所定の搬送波に載
せられて、放送されている。
2. Description of the Related Art Digital BS (Broadcast Satellite)
) Broadcasting and digital CS (Communication Satellite)
In the broadcast, video data is compressed by the MPEG2 system, packetized, and stored in an MPEG2-TS (Transport Std.).
ream), and is broadcast on a predetermined carrier.

【0003】MPEG2では、動き補償予測符号化とD
CT(Discrete Cosine Transform)により、ビデオデ
ータが圧縮符号化されている。
In MPEG2, motion-compensated predictive coding and D
Video data is compression-encoded by CT (Discrete Cosine Transform).

【0004】すなわち、画像データを例えばDCTによ
り周波数領域のデータに変換すると、そのデータは低周
波側に偏る。そして、DCT変換されたデータを量子化
する際に、高周波側のデータにより少ないビット数を割
り当てることにより、データ量が削減できる。
That is, when image data is converted into frequency domain data by, for example, DCT, the data is biased toward a lower frequency side. Then, when quantizing the DCT-transformed data, the data amount can be reduced by allocating a smaller number of bits to the data on the high frequency side.

【0005】また、動画像は複数のフレーム又はフィー
ルドにより構成されている。隣接するフレームやフィー
ルドでは相関がある。このため、隣接するフレームやフ
ィールドの相関が強いときには、隣接するフレームやフ
ィールドの画像と、現フレームやフィールドの画像との
差分を符号化すれば、データ量が削減できる。また、画
面内で動きベクトルを検出し、その動きベクトルにより
動き補正すれば、予測の精度が向上し、更にデータ量が
削減できる。
[0005] A moving image is composed of a plurality of frames or fields. There is correlation between adjacent frames and fields. For this reason, when the correlation between adjacent frames or fields is strong, the data amount can be reduced by encoding the difference between the image of the adjacent frame or field and the image of the current frame or field. If a motion vector is detected in the screen and motion is corrected using the motion vector, the accuracy of prediction is improved and the data amount can be further reduced.

【0006】MPEG2では、このように、画像データ
をDCT変換し、周波数領域のデータに変換することで
データが圧縮符号化されると共に、動き補償された隣接
フレーム又はフィールドとの差分を符号化することによ
りデータが圧縮符号化される。
[0006] In MPEG2, image data is subjected to DCT conversion and converted to frequency domain data, so that the data is compression-coded and the difference between the motion-compensated adjacent frame or field is encoded. Thus, the data is compression-encoded.

【0007】MPEG2では、フレーム又はフィールド
からなる符号化単位はピクチャと呼ばれ、ピクチャに
は、Iピクチャと、Pピクチャと、Bピクチャの3種類
のものがある。Iピクチャは、同一のフレーム又はフィ
ールド内で符号化されたものである。Pピクチャは、過
去のフレーム又はフィールドから一方向のフレーム間予
測を行い、差分を符号化したものである。Bピクチャ
は、過去と未来の2つのフレームから二方向のフレーム
間予測を行い、差分を符号化したものである。そして、
MPEG2は、放送、通信、蓄積メディアなどの領域の
幅広いアプリケーションに適用されることを前提として
いるため、インタレース画像に有利なフィールド単位の
符号化を行える。
In MPEG2, a coding unit consisting of a frame or a field is called a picture, and there are three types of pictures: an I picture, a P picture, and a B picture. I-pictures are coded in the same frame or field. The P picture is obtained by performing one-way inter-frame prediction from a past frame or field and encoding the difference. The B picture is obtained by performing bidirectional inter-frame prediction from two past and future frames and encoding the difference. And
MPEG2 is premised on being applied to a wide range of applications in areas such as broadcasting, communication, and storage media. Therefore, MPEG2 can perform field-unit encoding that is advantageous for interlaced images.

【0008】MPEG2のビデオストリームは、図8及
び図9に示すように、シーケンス層、GOP(Group Of
Picture)層、ピクチャ層、スライス層、マクロブロッ
ク層、ブロック層からなる階層構造となっている。
As shown in FIGS. 8 and 9, an MPEG2 video stream has a sequence layer, a GOP (Group Of
Picture) layer, picture layer, slice layer, macroblock layer, and block layer.

【0009】シーケンス層は最上位に位置する階層で、
映像ソース全体に相当する。このシーケンス層は、シー
ケンスヘッダで始まり、シーケンスエンドで終了する。
シーケンスヘッダには、シーケンス層の開始コード、画
像の水平方向及び垂直方向の画素数、アスペクト比等の
情報が含められる。
[0009] The sequence layer is a hierarchy located at the highest level.
Equivalent to the entire video source. The sequence layer starts with a sequence header and ends with a sequence end.
The sequence header includes information such as the start code of the sequence layer, the number of pixels in the horizontal and vertical directions of the image, and the aspect ratio.

【0010】GOP層は、Iピクチャを先頭に含むピク
チャのグループである。このGOPは、変速再生やラン
ダムアクセス時に利用される。GOP層は、GOPヘッ
ダから始まり、通常は、10から15個のピクチャから
なる。GOPヘッダには、GOP開始コード、シーケン
スの先頭からの時間等の情報が含められる。
[0010] The GOP layer is a group of pictures including an I picture at the head. This GOP is used at the time of variable speed reproduction or random access. The GOP layer starts with a GOP header and usually consists of 10 to 15 pictures. The GOP header includes information such as a GOP start code and time from the beginning of the sequence.

【0011】ピクチャ層は、1つの画面に相当し、4:
2:0符号化方式、或いは、4:2:2符号化方式の輝
度信号と色差信号とからなる。ピクチャには、上述のよ
うに、Iピクチャと、Pピクチャと、Bピクチャとがあ
る。ピクチャ層は、ピクチャヘッダから始まる。ピクチ
ャヘッダには、ピクチャ層の開始コード、ピクチャタイ
プ、量子化マトリクス等の情報が含まれている。
The picture layer corresponds to one screen, and
It consists of a luminance signal and a chrominance signal of the 2: 0 coding method or the 4: 2: 2 coding method. As described above, pictures include an I picture, a P picture, and a B picture. The picture layer starts with a picture header. The picture header includes information such as a picture layer start code, a picture type, and a quantization matrix.

【0012】スライス層は、画面の帯状に分割した領域
を示す。スライス層は、1個以上のマクロブロックから
なり、ラスタ走査順に、左から右、上から下に並べた形
式になっている。スライス層は、スライスヘッダから始
まる。スライスヘッダには、スライス層の開始コード、
スライスの位置を示す情報が含まれている。
The slice layer indicates a region divided into a band on the screen. The slice layer includes one or more macroblocks, and is arranged in a raster scanning order from left to right and from top to bottom. The slice layer starts with a slice header. The slice header includes a slice layer start code,
Information indicating the position of the slice is included.

【0013】マクロブロック層は動き補償の単位とされ
るブロックである。マクロブロックは、4:2:0符号
化方式の場合と、4:2:2符号化方式の場合とで異な
る。4:2:0符号化方式の場合には、4つの輝度信号
Yのブロックと、これに対応する位置の2つの色差信号
Cb、Crのブロックとからなる。4:2:2符号化方
式の場合には、4つの輝度信号Yのブロックと、これに
対応する位置の色差信号Cbのブロックが2個と、Cr
のブロックが2個とからなる。マクロブロック層は、マ
クロブロックヘッダから始まる。マクロブロックヘッダ
には、マクロブロックアドレスのエスケープコード、水
平及び垂直成分の動きベクトルの値等が含まれている。
水平及び垂直成分の動きベクトルの値は、可変長符号化
されている。
The macroblock layer is a block used as a unit for motion compensation. Macroblocks differ between the 4: 2: 0 coding scheme and the 4: 2: 2 coding scheme. In the case of the 4: 2: 0 coding method, the block includes four blocks of the luminance signal Y and two blocks of the color difference signals Cb and Cr at the corresponding positions. In the case of the 4: 2: 2 coding method, four blocks of the luminance signal Y, two blocks of the color difference signal Cb at the corresponding positions, and Cr
Consists of two blocks. The macroblock layer starts with a macroblock header. The macro block header includes an escape code of the macro block address, the value of the motion vector of the horizontal and vertical components, and the like.
The values of the motion vectors of the horizontal and vertical components are variable-length coded.

【0014】ブロック層は、(8画素×8ライン)の輝
度信号或いは色差信号のデータからなる。このブロック
層は、DCTの符号化単位となる。ブロック層のデータ
は、各DCT係数とからなり、このブロック層のデータ
は、ランレングスが可変長符号化されている。
The block layer is composed of (8 pixels × 8 lines) data of a luminance signal or a color difference signal. This block layer is a coding unit of DCT. The data of the block layer is composed of each DCT coefficient, and the data of the block layer is variable-length coded in run length.

【0015】上述のように、MPEG2ビデオのビット
ストリームは、階層構造となっており、各階層の先頭に
は、ヘッダが設けられている。MPEG2ビデオのビッ
トストリームをデコードする場合には、これら各階層の
ヘッダの情報が必要になる。
As described above, the MPEG2 video bit stream has a hierarchical structure, and a header is provided at the head of each layer. When decoding the bit stream of the MPEG2 video, the information of the header of each of these layers is required.

【0016】このため、従来では、MPEG2のビデオ
ストリームをデコードする際に、これらのヘッダが来る
のを待ち、ヘッダの情報が来たら、このヘッダの情報に
基づいてデコーダの設定を行い、それから、ビデオデー
タをデコードするようにしている。
For this reason, conventionally, when decoding an MPEG2 video stream, it waits for the arrival of these headers, and when the information of the header comes, the decoder is set based on the information of the header. Decodes video data.

【0017】[0017]

【発明が解決しようとする課題】このように、従来で
は、MPEG2ビデオのビットストリームをデコードす
る場合に、ビットストリームのヘッダが来るのを待って
からデコードしなければならないため、即座にデコード
が開始できないという問題がある。
As described above, conventionally, when decoding a bit stream of an MPEG2 video, it is necessary to wait for the header of the bit stream to be decoded before decoding starts immediately. There is a problem that can not be.

【0018】また、このように、ビットストリームを直
ちにデコードできないため、エラー復帰処理や、トリッ
クプレイのときにパフォーマンスが低下するという問題
がある。さらに、ブロックデータや動きベクトルは可変
長符号化されているため、エラーが検出された場合に、
符号の先頭が不明になり、暴走する危険性がある。
Further, since the bit stream cannot be decoded immediately, there is a problem that the performance is reduced during error recovery processing and trick play. Furthermore, since block data and motion vectors are variable-length coded, if an error is detected,
There is a danger that the beginning of the code will be unknown and a runaway will occur.

【0019】したがって、この発明の目的は、MPEG
2ビデオのビットストリームのデコードを即座に開始で
きるデコード装置及び方法を提供することにある。
Therefore, an object of the present invention is to provide an MPEG
An object of the present invention is to provide a decoding apparatus and a decoding method capable of immediately starting decoding of a two-video bit stream.

【0020】この発明の他の目的は、エラー復帰処理
や、トリックプレイのときのパフォーマンスの改善が図
れるデコード装置及び方法を提供することにある。
It is another object of the present invention to provide a decoding apparatus and method capable of improving performance during error recovery processing and trick play.

【0021】[0021]

【課題を解決するための手段】この発明は、入力された
ビットストリームを蓄積する手段と、入力されたビット
ストリームからピクチャ層以上の階層のヘッダに含まれ
ている情報を抽出してヘッダ情報を生成し、生成された
ヘッダ情報を蓄積する手段と、入力されたビットストリ
ームからスライス層のヘッダに含まれている情報を抽出
し、スライスが開始するビットストリームが記憶されて
いる位置と、スライスが開始する画面上の位置を含むス
ライス情報を生成し、スライス情報を蓄積する手段と、
更に、ヘッダ情報のピクチャ情報に、ピクチャを構成す
るスライス情報の位置を示すリンク情報を付加する手段
と、蓄積されたヘッダ情報をデコードを開始する前に読
み出し、ヘッダ情報を予め解析する手段と、蓄積された
ビットストリームを読み出し、読み出されたビットスト
リームを予め解析されたヘッダ情報を使ってデコードす
る手段とを備えるようにしたデコード装置である。
SUMMARY OF THE INVENTION The present invention provides a means for storing an input bit stream, and extracting information contained in a header of a layer higher than a picture layer from the input bit stream to extract header information. Means for generating and accumulating the generated header information, extracting information included in the header of the slice layer from the input bit stream, and determining the position where the bit stream at which the slice starts is stored; Means for generating slice information including a position on the screen to start, and accumulating slice information;
Further, a means for adding link information indicating the position of slice information constituting a picture to the picture information of the header information, a means for reading out the stored header information before starting decoding and analyzing the header information in advance, Means for reading the stored bit stream and decoding the read bit stream using pre-analyzed header information.

【0022】この発明は、入力されたビットストリーム
を蓄積すると共に、入力されたビットストリームからピ
クチャ層以上の階層のヘッダに含まれている情報を抽出
してヘッダ情報を生成し、生成されたヘッダ情報を蓄積
し、更に、入力されたビットストリームからスライス層
のヘッダに含まれている情報を抽出し、スライスが開始
するビットストリームが記憶されている位置と、スライ
スが開始する画面上の位置を含むスライス情報を生成
し、スライス情報を蓄積し、更に、ヘッダ情報のピクチ
ャ情報に、ピクチャを構成するスライス情報の位置を示
すリンク情報を付加しておき、蓄積性されたヘッダ情報
をデコードを開始する前に読み出して、ヘッダ情報を予
め解析し、蓄積されたビットストリームを読み出し、読
み出されたビットストリームを予め解析されたヘッダ情
報を使ってデコードするようにしたデコード方法であ
る。
The present invention accumulates an input bit stream, extracts information contained in a header of a layer higher than a picture layer from the input bit stream, generates header information, and generates the header information. The information is accumulated, and the information included in the header of the slice layer is extracted from the input bit stream. The position where the bit stream at which the slice starts is stored and the position on the screen at which the slice starts are determined. Generate slice information including the slice information, accumulate the slice information, add link information indicating the position of the slice information constituting the picture to the picture information of the header information, and start decoding the accumulated header information. Before reading, the header information is analyzed in advance, the stored bit stream is read, and the read bit stream is read. A decoding method so as to decode with the previously analyzed header information stream.

【0023】この発明は、入力されたビットストリーム
を蓄積する手段と、入力されたビットストリームからピ
クチャ層以上の階層のヘッダに含まれている情報を抽出
してヘッダ情報を生成し、ヘッダ情報を蓄積する手段
と、入力されたビットストリームからスライス層のヘッ
ダに含まれている情報を抽出し、スライスが開始するビ
ットストリームが記憶されている位置と、スライスが開
始する画面上の位置を含むスライス情報を生成し、スラ
イス情報を蓄積する手段と、更に、ヘッダ情報のピクチ
ャ情報に、ピクチャを構成するスライス情報の位置を示
すリンク情報を付加する手段と、蓄積されたヘッダ情報
を、デコードを開始する前に読み出し、ヘッダ情報を予
め解析する手段と、蓄積されたビットストリームを読み
出し、読み出されたビットストリームを可変長復号化す
る手段と、可変長復号時にエラーが発生していたら、ス
ライス情報に基づいて補間の範囲を求めて補間を行う手
段とを備えるようにしたデコード装置である。
According to the present invention, there is provided means for accumulating an input bit stream, extracting information included in a header of a layer higher than a picture layer from the input bit stream, generating header information, and converting the header information. Means for accumulating, and extracting information included in the header of the slice layer from the input bit stream, and a slice including a position where the bit stream at which the slice starts is stored and a position on the screen at which the slice starts. Means for generating information and accumulating slice information; means for adding link information indicating the position of slice information constituting a picture to picture information of header information; and starting decoding of the accumulated header information Means for pre-analyzing the header information and reading out the stored bit stream, and Means for variable length decoding the Tsu bets stream, if errors have occurred during the variable length decoding, a decoding apparatus that comprises means for performing interpolation seeking range of interpolation based on the slice information.

【0024】この発明は、入力されたビットストリーム
を蓄積し、入力されたビットストリームからピクチャ層
以上の階層のヘッダに含まれている情報を抽出してヘッ
ダ情報を生成し、ヘッダ情報を蓄積すると共に、入力さ
れたビットストリームからスライス層のヘッダに含まれ
ている情報を抽出し、スライスが開始するビットストリ
ームが記憶されている位置と、スライスが開始する画面
上の位置を含むスライス情報を生成し、スライス情報を
蓄積し、更に、ヘッダ情報のピクチャ情報に、ピクチャ
を構成するスライス情報の位置を示すリンク情報を付加
し、蓄積されたビットストリームを、デコードを開始す
る前に読み出し、ヘッダ情報を予め解析し、蓄積された
ビットストリームを読み出し、読み出されたビットスト
リームを可変長復号化し、可変長復号時にエラーが発生
していたら、スライス情報に基づいて補間の範囲を求め
て補間を行うようにしたデコード方法である。
According to the present invention, an input bit stream is stored, information contained in a header of a picture layer or higher is extracted from the input bit stream, header information is generated, and the header information is stored. At the same time, it extracts the information contained in the header of the slice layer from the input bit stream and generates slice information including the position where the bit stream where the slice starts and the position on the screen where the slice starts Then, the slice information is accumulated, link information indicating the position of the slice information constituting the picture is added to the picture information of the header information, and the accumulated bit stream is read out before decoding starts, and the header information is read. Is analyzed in advance, the stored bit stream is read, and the read bit stream is However, when I error occurs during the variable-length decoding is a decoding method to perform interpolation seeking range of interpolation based on the slice information.

【0025】入力されたビットストリームがバッファに
格納されると共に、ピクチャ層以上の各階層のヘッダ情
報と、スライス情報とがバッファに格納される。スライ
ス情報には、各スライスの開始位置の画面上での位置
と、データのバッファ上でのアドレスが含められてお
り、ヘッダ情報中のピクチャの情報には、そのピクチャ
を構成するスライスのスライス情報へのリンク情報が含
められている。このため、MPEG2ビデオのビットス
トリームをデコードするのに先だって、ヘッダ情報を解
析することが可能である。このため、素早いエラー処理
や、早送りや逆再生等のトリックプレイを効率的に行う
ことができる。
The input bit stream is stored in the buffer, and header information and slice information of each layer above the picture layer are stored in the buffer. The slice information includes the position of the start position of each slice on the screen and the address of the data on the buffer, and the information of the picture in the header information includes the slice information of the slice constituting the picture. Link information to is included. Therefore, it is possible to analyze the header information before decoding the bit stream of the MPEG2 video. Therefore, quick error processing and trick play such as fast forward and reverse reproduction can be efficiently performed.

【0026】[0026]

【発明の実施の形態】以下、この発明の実施の形態につ
いて図面を参照して説明する。図1は、この発明の実施
の形態を示すものである。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of the present invention.

【0027】図1において、入力端子1に、MPEG2
ビデオのビットストリームが供給される。この例では、
入力されるビットストリームは、日本のディジタルBS
放送システムの規格のためのARIB(電波産業界)の
仕様に規定されている高精度データ(1920×108
0)としてる。
In FIG. 1, an input terminal 1 is provided with an MPEG2
A video bit stream is provided. In this example,
The input bit stream is a Japanese digital BS
High-precision data (1920 × 108) specified in the ARIB (radio wave industry) specification for broadcasting system standards
0).

【0028】入力端子1からのビットストリームは、ビ
ットストリーム書込み制御及びヘッダ情報生成部2に供
給される。
The bit stream from the input terminal 1 is supplied to a bit stream write control and header information generator 2.

【0029】ビットストリーム書込み制御及びヘッダ情
報生成部2は、CPU(Central Processing Unit)4
からの指令に基づいて、入力されたビットストリームを
バッファ3に書き込む制御を行っている。これと共に、
ビットストリーム書込み制御及びヘッダ情報生成部2
は、入力されたビットストリームからピクチャ層以上の
階層のヘッダに含まれている情報を抽出してヘッダ情報
を生成し、バッファ3に書き込んでいる。さらに、スラ
イスのヘッダ情報を抽出し、スライスの画面上の位置及
びそのスライスの先頭のデータが格納されたバッファ3
上の位置を含むスライス情報を生成し、このスライス情
報をバッファ3に書き込んでいる。また、ヘッダ情報の
各ピクチャの情報と、そのピクチャに含まれるスライス
の情報が書き込まれているスライス情報とのリンク情報
が付加されている。
The bit stream write control and header information generation unit 2 includes a CPU (Central Processing Unit) 4
Is controlled to write the input bit stream to the buffer 3 on the basis of the instruction from. With this,
Bit stream write control and header information generation unit 2
Extracts header information of a header of a picture layer or higher from an input bit stream, generates header information, and writes the header information in the buffer 3. Furthermore, the header information of the slice is extracted, and the buffer 3 storing the position of the slice on the screen and the leading data of the slice is stored.
The slice information including the upper position is generated, and the slice information is written in the buffer 3. Also, link information of information of each picture of the header information and slice information in which information of a slice included in the picture is written is added.

【0030】バッファ3に格納されていたヘッダの情報
は、デコードを開始するのに先だって読み出され、ビッ
トストリーム読出し制御部5を介して、CPU4に供給
される。CPU4は、バッファ3から読み出されたヘッ
ダ情報を解析し、このヘッダ情報に基づいて、可変長復
号化部6、逆量子化部7、逆DCT変換部8、動き補償
部9等のデコードに必要な設定を行っている。
The header information stored in the buffer 3 is read out before starting decoding, and is supplied to the CPU 4 via the bit stream read control unit 5. The CPU 4 analyzes the header information read from the buffer 3, and decodes the header information based on the header information into the variable-length decoding unit 6, the inverse quantization unit 7, the inverse DCT transform unit 8, the motion compensation unit 9, and the like. You have made the necessary settings.

【0031】可変長復号化部6は、CPU4の制御で起
動される。デコードのタイミングは、入力端子14から
CPU4に与えられる同期信号SYNCにより設定され
る。可変長復号化部6が起動されると、可変長復号化部
6は、ビットストリーム読出し制御部5に、ビットスト
リームの読み出しを行うためのデータ要求を送る。ビッ
トストリーム読出し制御部5は、このようなデータ要求
を受け取ると、バッファ3からビットストリームを読み
出し、可変長復号化部6に転送する処理を行う。
The variable length decoding section 6 is started under the control of the CPU 4. The decoding timing is set by a synchronization signal SYNC supplied from the input terminal 14 to the CPU 4. When the variable length decoding unit 6 is started, the variable length decoding unit 6 sends a data request for reading a bit stream to the bit stream read control unit 5. Upon receiving such a data request, the bit stream read control unit 5 performs a process of reading the bit stream from the buffer 3 and transferring the read bit stream to the variable length decoding unit 6.

【0032】ピクチャ層以上の上位層のヘッダの情報
は、前述のように、バッファ3に蓄積されており、この
ヘッダの情報は、デコードを行うのに先立って、バッフ
ァ3からCPU4に送られている。そして、このヘッダ
の情報は、デコードを開始する前に、CPU4で解析さ
れている。このため、可変長復号化部6には、ピクチャ
層以上の情報を送る必要はなく、可変長復号化部6に
は、スライス層以下の階層のビットストリームだけが供
給される。
As described above, the information of the header of the upper layer above the picture layer is stored in the buffer 3, and the information of this header is sent from the buffer 3 to the CPU 4 prior to decoding. I have. The information of the header is analyzed by the CPU 4 before decoding starts. For this reason, it is not necessary to send information of a picture layer or higher to the variable-length decoding unit 6, and the variable-length decoding unit 6 is supplied with only a bit stream of a layer lower than the slice layer.

【0033】MPEG2では、ブロックデータは、その
ランレングスが可変長符号化されている。また、動きベ
クトルが可変長符号化されている。
In MPEG2, the run length of block data is variable-length coded. Further, the motion vector is variable-length coded.

【0034】可変長復号化部6には、バッファ3からビ
ットストリームが供給され、可変長復号化部6で、各部
ブロックのデータと、動きベクトルのデータとがデコー
ドされる。
The bit stream is supplied from the buffer 3 to the variable length decoding unit 6, and the data of each block and the data of the motion vector are decoded by the variable length decoding unit 6.

【0035】また、デコードされた動きベクトルは、エ
ラー用動きベクトルバッファ13に格納される。このエ
ラー用動きベクトルバッファ13は、エラーが発生した
ときに、補間処理を高速で行うことができるようにする
ためのものである。
The decoded motion vector is stored in the error motion vector buffer 13. The error motion vector buffer 13 is used to enable high-speed interpolation processing when an error occurs.

【0036】また、可変長復号化部6は、可変長符号の
復号処理を行うとともに、スライス層以下の階層のヘッ
ダのデコードも行っている。
The variable-length decoding unit 6 decodes a variable-length code and decodes a header of a layer below the slice layer.

【0037】可変長復号化部6でデコードされた各ブロ
ックのデータは、逆量子化部7で逆量子化され、逆DC
T変換部8に送られる。また、可変長復号化部6でデコ
ードされた動きベクトルは、動き補償部9に供給され
る。
The data of each block decoded by the variable length decoding unit 6 is inversely quantized by the inverse quantization unit 7 and
It is sent to the T converter 8. Further, the motion vector decoded by the variable length decoding unit 6 is supplied to the motion compensation unit 9.

【0038】MPEG2では、同一のフレーム内又はフ
ィールド内で符号化を行うIピクチャと、前方向に隣接
するフレーム又はフィールドとの差分を符号化するPピ
クチャと、両方向に隣接するフレーム又はフィールドと
の差分を符号化するBピクチャとが送られてくる。
In MPEG2, an I picture to be encoded in the same frame or field, a P picture to encode the difference between a frame or field adjacent in the forward direction, and a frame or field adjacent in both directions. A B picture for encoding the difference is sent.

【0039】デコードするピクチャがIピクチャの場合
には、逆DCT変換部8で(8×8)のブロック毎に逆
DCT変換することにより、画像データがデコードされ
る。
When the picture to be decoded is an I picture, the image data is decoded by performing an inverse DCT transform for each (8 × 8) block by the inverse DCT transform unit 8.

【0040】デコードするピクチャがPピクチャやBピ
クチャの場合には、逆DCT変換部8で、(8×8)の
ブロック毎に逆DCT演算が行われ、前方向又は両方向
の予測画像との差分がデコードされる。フレームバッフ
ァ10には、予測画像が蓄積されている。逆DCT変換
部8でデコードされた差分データと、動き補償部9によ
り動きベクトルに基づいて動き補償された予測画像デー
タとが合成されて、画像データがデコードされる。
If the picture to be decoded is a P picture or a B picture, the inverse DCT transform unit 8 performs an inverse DCT operation for each (8 × 8) block, and calculates a difference from the predicted image in the forward or bidirectional direction. Is decoded. The frame buffer 10 stores predicted images. The difference data decoded by the inverse DCT transformer 8 and the predicted image data motion-compensated by the motion compensator 9 based on the motion vector are synthesized, and the image data is decoded.

【0041】デコードされた画像データは、フレームバ
ッファ10に再び蓄積される。このフレームバッファ1
0に蓄積性された画像は、ディスプレイプロセッサ11
により、ディスプレイデバイス12に送られる。
The decoded image data is stored again in the frame buffer 10. This frame buffer 1
0 is stored in the display processor 11.
Is sent to the display device 12.

【0042】このように、この発明が適用されたMPE
G2のデコード回路では、入力されたビットストリーム
がバッファ3に格納されると共に、ピクチャ層以上の各
階層のヘッダ情報と、スライス情報とがバッファ3に格
納される。そして、スライス情報には、各スライスの開
始位置の画面上での位置と、データのバッファ3上での
アドレスが含められており、ヘッダ情報中のピクチャの
情報には、そのピクチャを構成するスライスのスライス
情報へのリンク情報が含められている。このため、MP
EG2ビデオのビットストリームをデコードするのに先
だって、ヘッダ情報を読み出して解析することが可能で
あり、素早いエラー処理が可能である。また、変速再生
処理にも、素早く対応することができる。このことにつ
いて、以下に詳述する。
As described above, the MPE to which the present invention is applied
In the G2 decoding circuit, the input bit stream is stored in the buffer 3, and the header information and the slice information of each layer above the picture layer are stored in the buffer 3. The slice information includes the position of the start position of each slice on the screen and the address of the data on the buffer 3, and the information of the picture in the header information includes the slice constituting the picture. Link information to the slice information is included. For this reason, MP
Prior to decoding the bit stream of the EG2 video, the header information can be read and analyzed, and quick error processing can be performed. Further, it is possible to quickly cope with the variable speed reproduction process. This will be described in detail below.

【0043】ビットストリーム書込み制御及びヘッダ情
報生成部2は、図2に示すように、ヘッダ情報抽出部2
4、ヘッダ情報生成部25、スライス情報抽出部26、
スライス情報生成部27とを有している。また、バッフ
ァ3は、ビットストリーム領域21と、ヘッダ情報領域
22と、スライス情報領域23とに分けられる。
As shown in FIG. 2, the bit stream write control and header information generation unit 2
4, header information generation unit 25, slice information extraction unit 26,
And a slice information generation unit 27. The buffer 3 is divided into a bit stream area 21, a header information area 22, and a slice information area 23.

【0044】入力端子1から入力されたビットストリー
ムは、バッファ3のビットストリーム領域21に書き込
まれると共に、ヘッダ情報抽出部24及びスライス情報
抽出部26に供給される。
The bit stream input from the input terminal 1 is written to the bit stream area 21 of the buffer 3 and is supplied to the header information extracting section 24 and the slice information extracting section 26.

【0045】ヘッダ情報抽出部24で、ビットストリー
ムの中のピクチャ層以上のヘッダが抽出される。
The header information extraction unit 24 extracts a header of a picture layer or higher in the bit stream.

【0046】つまり、MPEG2のストリームは、シー
ケンス層、GOP層、ピクチャ層、スライス層、マクロ
ブロック層、ブロック層からなる階層構造となってい
る。各階層には、ヘッダが設けられている。
That is, the MPEG2 stream has a hierarchical structure including a sequence layer, a GOP layer, a picture layer, a slice layer, a macroblock layer, and a block layer. Each layer is provided with a header.

【0047】シーケンス層のヘッダには、シーケンス層
の開始コード、画像の水平方向及び垂直方向の画素数、
アスペクト比等の情報が含められる。GOP層のヘッダ
には、GOP開始コード、シーケンスの先頭からの時間
等の情報が含められる。ピクチャ層のヘッダには、ピク
チャ層の開始コード、ピクチャタイプ、量子化マトリク
ス等の情報が含まれている。
The header of the sequence layer includes a start code of the sequence layer, the number of pixels in the horizontal and vertical directions of the image,
Information such as the aspect ratio is included. The header of the GOP layer includes information such as a GOP start code and time from the beginning of the sequence. The picture layer header includes information such as the picture layer start code, picture type, and quantization matrix.

【0048】ヘッダ情報抽出部24では、ピクチャ層以
上の階層、すなわち、シーケンス層、GOP層、ピクチ
ャ層の各層の開始コードが検出される。これらの各層の
開始コードが検出されたら、そのヘッダに含まれている
情報が抽出される。このヘッダ情報抽出部24で抽出さ
れたピクチャ層以上の階層の各層のヘッダの情報は、ヘ
ッダ情報生成部25に供給される。
The header information extraction unit 24 detects the start code of each of the layers above the picture layer, that is, the sequence layer, the GOP layer, and the picture layer. When the start code of each of these layers is detected, information included in the header is extracted. The header information of each layer of the picture layer or higher extracted by the header information extraction unit 24 is supplied to the header information generation unit 25.

【0049】ヘッダ情報生成部25で、このヘッダの情
報により、図3に示すような、ヘッダ情報が生成され
る。
The header information generator 25 generates header information as shown in FIG. 3 based on the information of the header.

【0050】すなわち、シーケンスヘッダには、画像の
水平方向の画素数や垂直方向のライン数や、アスペクト
比の情報等が含まれている。この情報に基づき、図3に
示すように、シーケンスヘッダ情報31が生成される。
また、GOPヘッダの情報、に基づいて、GOPヘッダ
情報32が生成され、ピクチャのヘッダの情報に基づい
て、ピクチャヘッダ情報33A、33Bが生成される。
That is, the sequence header includes information such as the number of pixels in the horizontal direction of the image, the number of lines in the vertical direction, and the aspect ratio. Based on this information, sequence header information 31 is generated as shown in FIG.
Further, GOP header information 32 is generated based on the information of the GOP header, and picture header information 33A and 33B are generated based on the information of the header of the picture.

【0051】ヘッダ情報生成部25で作成されたヘッダ
情報には、さらに、後に説明するように、各ピクチャの
スライスの情報が格納されたスライス情報のアドレスを
示すリンク情報が付加されて、バッファ3のヘッダ情報
領域22に格納される。
As will be described later, the header information generated by the header information generation unit 25 is further added with link information indicating the address of the slice information in which the information of the slice of each picture is stored. Is stored in the header information area 22.

【0052】また、図2において、入力端子1からのビ
ットストリームは、スライス情報抽出部26に供給され
る。スライス情報抽出部26で、スライス開始コードが
検出され、スライスヘッダの情報を抽出される。このス
ライス情報がスライス情報生成部27に供給される。
In FIG. 2, the bit stream from the input terminal 1 is supplied to a slice information extracting unit 26. The slice start code is detected by the slice information extraction unit 26, and the information of the slice header is extracted. This slice information is supplied to the slice information generation unit 27.

【0053】スライス情報生成部27では、図4に示す
ように、このスライスが開始する画面上の位置情報と、
このスライスのデータから始まるビットストリームが記
憶されたバッファ3のアドレス情報が生成され、これ
が、スライス情報35A、35B、35C、35Dとし
て、バッファ3のスライス情報領域23に格納される。
As shown in FIG. 4, the slice information generation unit 27 obtains position information on the screen at which this slice starts,
Address information of the buffer 3 in which a bit stream starting from the data of the slice is stored is stored in the slice information area 23 of the buffer 3 as slice information 35A, 35B, 35C, 35D.

【0054】つまり、図5Aに示すように、ピクチャ
(1)のスライス(1)は画面上の位置P1−1から始
まり、ピクチャ(1)のスライス(2)は画面上の位置
P1−2から始まっているとする。そして、ピクチャ
(1)のスライス(1)のデータは、バッファ3のアド
レスQ1に蓄積され、ピクチャ(1)のスライス(2)
のデータは、バッファ3のアドレスQ2に蓄積されてい
るとする。
That is, as shown in FIG. 5A, the slice (1) of the picture (1) starts from the position P1-1 on the screen, and the slice (2) of the picture (1) starts from the position P1-2 on the screen. Let's say it has started. Then, the data of the slice (1) of the picture (1) is stored in the address Q1 of the buffer 3, and the slice (2) of the picture (1) is stored.
Is stored at the address Q2 of the buffer 3.

【0055】また、図5Bに示すように、ピクチャ
(2)のスライス(1)は位置P2−1から始まり、ピ
クチャ(2)のスライス(2)は位置P2−2から始ま
っているとする。そして、ピクチャ(2)のスライス
(1)のデータは、バッファ3のアドレスQ11に蓄積
され、ピクチャ(2)のスライス(2)のデータは、バ
ッファ3のアドレスQ12に蓄積されているとする。
As shown in FIG. 5B, suppose that slice (1) of picture (2) starts at position P2-1 and slice (2) of picture (2) starts at position P2-2. It is assumed that the data of the slice (1) of the picture (2) is stored at the address Q11 of the buffer 3 and the data of the slice (2) of the picture (2) is stored at the address Q12 of the buffer 3.

【0056】この場合、図4に示すように、ピクチャ
(1)のスライス(1)の情報35Aにおいて、「ピク
チャ(1)のスライス(1)の画面上での位置」として
P1−1が格納される。そして、「ピクチャ(1)のス
ライス(1)のバッファ上のアドレス」としてQ1が格
納される。
In this case, as shown in FIG. 4, in the information 35A of the slice (1) of the picture (1), P1-1 is stored as “the position of the slice (1) of the picture (1) on the screen”. Is done. Then, Q1 is stored as "the address of the slice (1) of the picture (1) on the buffer".

【0057】ピクチャ(1)のスライス(2)の情報3
5Bにおいて、「ピクチャ(1)のスライス(2)の画
面上での位置」としてP1−2が格納される。そして、
「ピクチャ(1)のスライス(2)のバッファ上のアド
レス」としてQ2が格納される。
Information 3 of slice (2) of picture (1)
5B, P1-2 is stored as “the position of the slice (2) of the picture (1) on the screen”. And
Q2 is stored as “the address of the slice (2) of the picture (1) on the buffer”.

【0058】ピクチャ(2)のスライス(1)の情報3
5Cにおいて、「ピクチャ(2)のスライス(1)の画
面上での位置」としてP2−1が格納される。そして、
「ピクチャ(2)のスライス(1)のバッファ上のアド
レス」としてQ11が格納される。
Information 3 of slice (1) of picture (2)
In 5C, P2-1 is stored as “the position of the slice (1) of the picture (2) on the screen”. And
Q11 is stored as the “address of the slice (1) of the picture (2) on the buffer”.

【0059】ピクチャ(2)のスライス(2)の情報3
5Dにおいて、「ピクチャ(2)のスライス(2)の画
面上での位置」としてP2−2が格納される。そして、
「ピクチャ(2)のスライス(2)のバッファ上のアド
レス」としてQ12が格納される。
Information 3 of slice (2) of picture (2)
In 5D, P2-2 is stored as "the position of the slice (2) of the picture (2) on the screen". And
Q12 is stored as “address of slice (2) of picture (2) on buffer”.

【0060】図2において、ヘッダ情報生成部25で生
成されたピクチャ層以上の階層のヘッダ情報からなるヘ
ッダ情報(図3)は、バッファ3のヘッダ情報領域22
に書き込まれる。スライス情報生成部27で生成された
スライス情報(図4)は、バッファ3のスライス情報領
域23に書き込まれる。そして、ヘッダ情報領域22に
書き込まれるヘッダ情報中のピクチャヘッダ情報中に
は、そのピクチャに含まれるスライスのスライス情報が
書き込まれたスライス情報のバッファ3上でのアドレス
に指し示すリンク情報が付加される。
In FIG. 2, header information (FIG. 3) composed of header information of a layer higher than the picture layer generated by the header information generation unit 25 is stored in the header information area 22 of the buffer 3.
Is written to. The slice information (FIG. 4) generated by the slice information generation unit 27 is written to the slice information area 23 of the buffer 3. Then, in the picture header information in the header information written in the header information area 22, link information indicating the address on the buffer 3 of the slice information in which the slice information of the slice included in the picture is written is added. .

【0061】例えば、図3におけるピクチャ(1)のヘ
ッダ情報33Aには、「スライス(1)へのリンク先ア
ドレス」、「スライス(2)へのリンク先アドレス」、
…が設けられ、ここには、ピクチャ(1)を構成するス
ライス(1)、スライス(2)、…のスライス情報35
A、35B、…(図4)の格納されているバッファ3上
のアドレスA1、A2がリンク情報として書き込まれ
る。
For example, in the header information 33A of the picture (1) in FIG. 3, “link destination address to slice (1)”, “link destination address to slice (2)”,
Are provided, and slice information 35 of slice (1), slice (2),... Constituting picture (1) is provided here.
The addresses A1, A2 on the buffer 3 where A, 35B,... (FIG. 4) are stored are written as link information.

【0062】同様に、図3におけるピクチャ(2)のヘ
ッダ情報33Bには、「スライス(1)へのリンク先ア
ドレス」、「スライス(2)へのリンク先アドレス」、
…が設けられ、ここには、ピクチャ(2)を構成するス
ライス(1)、スライス(2)、…のスライス情報35
C、35D、…(図4)の格納されているバッファ3上
のアドレスA11、A12がリンク情報として書き込ま
れる。
Similarly, the header information 33B of the picture (2) in FIG. 3 includes “link destination address to slice (1)”, “link destination address to slice (2)”,
Are provided, and slice information 35 of slice (1), slice (2),... Constituting the picture (2) is provided here.
The addresses A11 and A12 on the buffer 3 where C, 35D,... (FIG. 4) are stored are written as link information.

【0063】図6は、バッファ3に書き込まれるビット
ストリームと、ヘッダ情報と、スライス情報との関係を
示すものである。
FIG. 6 shows the relationship among the bit stream written in the buffer 3, the header information, and the slice information.

【0064】図6に示すように、ヘッダ情報領域22に
は、シーケンスヘッダ、GOPヘッダ、ピクチャヘッダ
等、ピクチャ層以上のヘッダの情報が格納されている。
As shown in FIG. 6, the header information area 22 stores header information of a picture layer or higher, such as a sequence header, a GOP header, and a picture header.

【0065】そして、ピクチャヘッダの情報には、この
ピクチャを構成するスライスのスライス情報が格納され
ているバッファ3上のアドレスがリンク情報として格納
されている。
In the information of the picture header, an address on the buffer 3 where the slice information of the slice constituting the picture is stored as link information.

【0066】このリンク情報を辿ると、スライス情報領
域23のうちで、そのピクチャを構成するスライスのス
ライス情報が含まれている所にたどり着くことができ
る。
By following this link information, it is possible to reach a place in the slice information area 23 where the slice information of the slice constituting the picture is included.

【0067】そして、このスライス情報には、そのスラ
イスの先頭の画面上での位置と、そのスライスの先頭の
データが格納されているバッファ3上のアドレスが格納
されている。
The slice information stores the position of the head of the slice on the screen and the address of the buffer 3 where the data of the head of the slice is stored.

【0068】このスライス情報により、そのスライスの
画面上での位置を知ることができると共に、ビットスト
リーム領域21から、そのスライスの先頭からデータを
アクセスすることができる。
With this slice information, the position of the slice on the screen can be known, and data can be accessed from the bit stream area 21 from the beginning of the slice.

【0069】例えば、図5Aのピクチャ(1)のデコー
ドを行う場合には、画面の左から右、上から下に走査さ
れる。
For example, when decoding the picture (1) in FIG. 5A, the picture is scanned from left to right and from top to bottom of the screen.

【0070】まず、図3のピクチャ(1)のヘッダ情報
33Aが読み出される。このピクチャ(1)のヘッダ情
報33Aには、「スライス(1)へのリンク先アドレ
ス」が含まれており、ここにはアドレスA1が格納され
ている。
First, the header information 33A of picture (1) in FIG. 3 is read. The header information 33A of the picture (1) includes a “link destination address to the slice (1)”, in which the address A1 is stored.

【0071】この「スライス(1)へのリンク先アドレ
ス」により、ピクチャ(1)のスライス(1)のスライ
ス情報が格納されているバッファ3上のアドレスA1が
分かる。これにより、ピクチャ(1)のスライス(1)
のスライス情報35A(図4)に辿り着ける。
The address A1 on the buffer 3 where the slice information of the slice (1) of the picture (1) is known from the "link destination address to the slice (1)". Thereby, slice (1) of picture (1)
Of the slice information 35A (FIG. 4).

【0072】このピクチャ(1)のスライス(1)のス
ライス情報35Aには、「ピクチャ(1)のスライス
(1)の画面上の位置」としてP1−1が格納され、
「ピクチャ(1)のスライス(1)のバッファ上のアド
レス」としてQ1が格納されている。
In the slice information 35A of the slice (1) of the picture (1), P1-1 is stored as "the position of the slice (1) of the picture (1) on the screen".
Q1 is stored as “address of slice (1) of picture (1) on buffer”.

【0073】この「ピクチャ(1)のスライス(1)の
バッファ上のアドレス」に従って、バッファ3のアドレ
スQ1をアクセスすれば、ピクチャ(1)のスライス
(1)…の開始位置P1−1からデータを読み出すこと
ができる。
If the address Q1 of the buffer 3 is accessed in accordance with the "address of the slice (1) of the picture (1) on the buffer", data from the start position P1-1 of the slice (1) of the picture (1) is obtained. Can be read.

【0074】スライス(1)のデータがアクセスされた
ら、次に、図3のピクチャ(1)のピクチャ(1)のヘ
ッダ情報33Aの「スライス(2)へのリンク先アドレ
ス」からピクチャ(1)のスライス(2)のスライス情
報が格納されているバッファ3上のアドレスA2が分か
る。
When the data of the slice (1) is accessed, next, the picture (1) is read from the “link destination address to the slice (2)” of the header information 33A of the picture (1) of the picture (1) in FIG. The address A2 on the buffer 3 where the slice information of the slice (2) is stored can be found.

【0075】このリンク先のアドレスA2により、ピク
チャ(1)のスライス(2)のスライス情報35B(図
4)に辿り着ける。
With the address A2 of the link destination, the slice information 35B (FIG. 4) of the slice (2) of the picture (1) can be reached.

【0076】このピクチャ(1)のスライス(2)のス
ライス情報35Bには、「ピクチャ(1)のスライス
(2)の画面上の位置」としてP1−2が格納され、
「ピクチャ(1)のスライス(1)のバッファ上のアド
レス」としてQ2が格納されている。
In the slice information 35B of the slice (2) of the picture (1), P1-2 is stored as "the position of the slice (2) of the picture (1) on the screen".
Q2 is stored as “the address of the slice (1) of the picture (1) on the buffer”.

【0077】この「ピクチャ(1)のスライス(2)の
バッファ上のアドレス」に従って、アドレスQ2をアク
セスすれば、ピクチャ(1)のスライス(2)…の開始
位置P1−2からデータを読み出すことができる。
If the address Q2 is accessed according to the "address of the slice (2) of the picture (1) on the buffer", data can be read from the start position P1-2 of the slice (2) of the picture (1). Can be.

【0078】以下、同様にして、図3に示すヘッダ情報
におけるピクチャヘッダの情報中のリンク情報により、
そのピクチャを構成するスライス情報に辿り着け、この
スライス情報により、そのスライスの先頭からデータを
読み出すことができる。これにより、ピクチャ(1)の
スライス(1)、(2)、…を読み出すことができる。
Similarly, the link information in the picture header information in the header information shown in FIG.
The slice information constituting the picture can be reached, and the data can be read from the beginning of the slice based on the slice information. Thus, slices (1), (2),... Of picture (1) can be read.

【0079】この発明の実施の形態では、このように、
ヘッダ情報と、スライス情報とを、ビットストリームと
共に、バッファ3に蓄積し、デコードを行う前に、ヘッ
ダ情報を解析している。このため、エラー処理を即座に
行うことができる。
In the embodiment of the present invention,
The header information and the slice information are stored in the buffer 3 together with the bit stream, and the header information is analyzed before decoding. Therefore, error processing can be performed immediately.

【0080】例えば、図5Aにおいて、ピクチャ(1)
のスライス(n)内のマクロブロックにエラーが発生し
たとする。この場合、以下のようにしてエラーに対する
処理が行われる。
For example, in FIG. 5A, picture (1)
It is assumed that an error has occurred in a macroblock in slice (n) of the. In this case, the processing for the error is performed as follows.

【0081】前述したように、可変長復号化部6は、ス
ライス層以下のヘッダのデコードも行っている。可変長
復号化部6は、例えば、可変長符号化テーブルにないパ
ターンを検出することにより、エラーを発見すると、そ
の時点でデコードを中止し、CPU4にエラーの発生の
内容を報告する。
As described above, the variable length decoding unit 6 also decodes a header below the slice layer. When finding an error, for example, by detecting a pattern that is not in the variable-length encoding table, the variable-length decoding unit 6 stops decoding at that point and reports the content of the error occurrence to the CPU 4.

【0082】CPU4は、例えば可変長復号化部6の状
態を示すレジスタの内容をポーリングする等により、エ
ラーの発生を検出している。また、CPU4は、常に、
可変長復号化部6がデコードしているマクロブロックの
位置を把握している。
The CPU 4 detects the occurrence of an error, for example, by polling the contents of a register indicating the state of the variable length decoding unit 6. Also, the CPU 4 always
The position of the macroblock being decoded by the variable length decoding unit 6 is known.

【0083】また、可変長復号化部6でデコードされた
動きベクトルは、エラー用動きベクトルバッファ13に
格納される。エラーが発生した場合には、例えば、エラ
ー用動きベクトルバッファ13に格納されている動きベ
クトルを使って、以前のフレームのデータを補正するこ
とで、補正用のデータが作成できる。
The motion vector decoded by the variable length decoding unit 6 is stored in the error motion vector buffer 13. When an error occurs, for example, the data for the previous frame is corrected using the motion vector stored in the error motion vector buffer 13, so that correction data can be created.

【0084】CPU4は、可変長復号化部6からの知ら
せによりエラーの発生がわかると、エラーが発生した時
点で、バッファ3のスライス情報領域から、次のスライ
スのスライスヘッダ情報を読み出し、この次のスライス
の情報に含まれているスライスの画面上での位置情報を
解析する。そして、この次のスライスの情報に含まれて
いるスライスの位置情報から、補間すべきマクロブロッ
ク数を計算する。
When the CPU 4 recognizes the occurrence of the error from the notification from the variable length decoding unit 6, when the error occurs, the CPU 4 reads out the slice header information of the next slice from the slice information area of the buffer 3, and The position information on the screen of the slice included in the information of the slice is analyzed. Then, the number of macroblocks to be interpolated is calculated from the slice position information included in the information of the next slice.

【0085】補間すべきマクロブロック数は、例えば、
以下に示す計算式で求めることができる。
The number of macro blocks to be interpolated is, for example,
It can be obtained by the following formula.

【0086】MBNUM=(nSV-cSV)*HSIZE + (nSH - cSH) MBNUM:補間すべきマクロブロック数 nSV:次スライス垂直位置 cSV:現スライス垂直位置 nSH:次スライス水平位置 cSH:現スライス水平位置 HSIZE:ピクチャ水平サイズ VSIZE:ピクチャ垂直サイズMBNUM = (nSV-cSV) * HSIZE + (nSH-cSH) MBNUM: Number of macroblocks to be interpolated nSV: Next slice vertical position cSV: Current slice vertical position nSH: Next slice horizontal position cSH: Current slice horizontal position HSIZE: Picture horizontal size VSIZE: Picture vertical size

【0087】上式で、位置及びサイズは、マクロブロッ
ク単位(画素単位の位置やサイズを16で割った値)で
ある。また、現スライスがピクチャ内の最後のスライス
の場合には、次スライス垂直位置nSVは(VSIZE-1)とな
り、水平位置nSHは0となる。
In the above expression, the position and size are in units of macroblocks (values obtained by dividing the position and size in pixel units by 16). If the current slice is the last slice in the picture, the next slice vertical position nSV becomes (VSIZE-1) and the horizontal position nSH becomes 0.

【0088】例えば、図5Aのスライス(n)の位置に
エラーが起きているとすると、現スライスの垂直位置が
「3」、現スライス(n)の水平位置が「6」であり、
次スライス(n+1)の垂直位置が「3」、水平位置が
「25」となっている。この場合の補間すべきマクロブ
ロック数は、上式より、 (3−3)×ピクチャの水平サイズ+(25−6)=1
9 となり、19マクロブロックだけ補間すれば良いことに
なる。
For example, if an error occurs at the position of slice (n) in FIG. 5A, the vertical position of the current slice is “3”, the horizontal position of the current slice (n) is “6”,
The vertical position of the next slice (n + 1) is “3”, and the horizontal position is “25”. The number of macroblocks to be interpolated in this case is given by (3-3) × the horizontal size of the picture + (25−6) = 1
9, which means that only 19 macroblocks need to be interpolated.

【0089】ところで、この計算式では、補間すべきマ
クロブロックの数を求めるのに、次スライスの水平及び
垂直位置が必要である。この次スライス位置は、ヘッダ
情報のピクチャ情報と、スライス情報とのリンクを辿る
ことにより、辿ることができる。
In this equation, the horizontal and vertical positions of the next slice are required to determine the number of macroblocks to be interpolated. The next slice position can be traced by following the link between the picture information of the header information and the slice information.

【0090】図7は、上述のエラー処理を示すフローチ
ャートチャートである。図7において、まず、エラーが
起きたと判断されたら(ステップS1)、エラーが起き
た時点で、現マクロブロックの位置と、何番目のピクチ
ャかが把握される(ステップS2)。エラーが起こった
ピクチャがどのピクチャであり、そのマクロブロックの
位置がどこであるのかが把握されたら、バッファ3のヘ
ッダ情報が参照され、そのピクチャのヘッダ情報が参照
される(ステップS3)。
FIG. 7 is a flowchart showing the above-described error processing. In FIG. 7, first, when it is determined that an error has occurred (step S1), when the error occurs, the position of the current macroblock and the number of the picture are grasped (step S2). When the picture in which the error has occurred and the position of the macroblock are grasped, the header information of the buffer 3 is referred to, and the header information of the picture is referred to (step S3).

【0091】図3に示したように、このピクチャのヘッ
ダ情報には、そのマクロブロックの位置にあるスライス
情報に辿ることができるリンク情報が書いてある。
As shown in FIG. 3, in the header information of this picture, link information that can be traced to the slice information at the position of the macro block is written.

【0092】現スライスは、何番目のスライスであり、
現スライスの水平及び垂直方向の位置は分かっているの
で、このピクチャのヘッダのリンク情報を基に、次のス
ライスの情報が格納されているスライス情報が検索され
る(ステップS4)。図4に示したように、このスライ
ス情報から、次スライスの水平及び垂直の画面上の位置
が分かる。
The current slice is what slice number,
Since the horizontal and vertical positions of the current slice are known, the slice information storing the information of the next slice is searched based on the link information of the header of this picture (step S4). As shown in FIG. 4, the horizontal and vertical positions of the next slice on the screen are known from the slice information.

【0093】次スライスの水平及び垂直位置が分かった
ら、上述の式により、補間すべきマクロブロック数が算
出される(ステップS5)。そして、補間すべきマクロ
ブロック数に可変長復号化部6が設定され、可変長復号
化部6が再起動される(ステップS6)。それから、エ
ラー用動きベクトルバッファ13の動きベクトルを用い
て補間処理がなされ、通常処理に復帰される。
When the horizontal and vertical positions of the next slice are known, the number of macroblocks to be interpolated is calculated by the above equation (step S5). Then, the variable length decoding unit 6 is set to the number of macro blocks to be interpolated, and the variable length decoding unit 6 is restarted (step S6). Then, an interpolation process is performed using the motion vector of the error motion vector buffer 13, and the process returns to the normal process.

【0094】このように、この発明が適用されたMPE
G2のデコード回路では、入力されたビットストリーム
がバッファ3に格納されると共に、ピクチャ層以上の各
階層のヘッダ情報と、スライス情報とがバッファ3に格
納され、スライス情報には、各スライスの開始位置の画
面上での位置と、データのバッファ3上でのアドレスが
含められており、ヘッダ情報中のピクチャの情報には、
そのピクチャを構成するスライスのスライス情報へのリ
ンク情報が含められている。このため、MPEG2ビデ
オのビットストリームをデコードするのに先だって、ヘ
ッダ情報を解析することが可能である。このため、素早
いエラー処理や、早送りや逆再生等のトリックプレイを
効率的に行うことができる。
As described above, the MPE to which the present invention is applied
In the decoding circuit of G2, the input bit stream is stored in the buffer 3, the header information of each layer above the picture layer and the slice information are stored in the buffer 3, and the slice information includes the start of each slice. The position of the position on the screen and the address of the data on the buffer 3 are included. The information of the picture in the header information includes:
Link information to the slice information of the slice constituting the picture is included. Therefore, it is possible to analyze the header information before decoding the bit stream of the MPEG2 video. Therefore, quick error processing and trick play such as fast forward and reverse reproduction can be efficiently performed.

【0095】なお、この例では、ビットストリームと、
ヘッダ情報と、スライス情報とをすべてバッファ3に蓄
積するようにしているが、ビットストリームと、ヘッダ
情報と、スライス情報とを夫々記憶させるメモリを分け
るようにしても良い。
In this example, a bit stream and
Although the header information and the slice information are all stored in the buffer 3, the memory for storing the bit stream, the header information, and the slice information may be separated.

【0096】また、上述の例では、MPEG2のデコー
ドを行っているが、この発明は、MPEG1をデコード
する場合にも同様に適用することができる。
In the above-described example, MPEG2 decoding is performed. However, the present invention can be similarly applied to MPEG1 decoding.

【0097】[0097]

【発明の効果】この発明によれば、入力されたビットス
トリームがバッファに格納されると共に、ピクチャ層以
上の各階層のヘッダ情報と、スライス情報とがバッファ
に格納され、スライス情報には、各スライスの開始位置
の画面上での位置と、データのバッファ上でのアドレス
が含められており、ヘッダ情報中のピクチャの情報に
は、そのピクチャを構成するスライスのスライス情報へ
のリンク情報が含められている。このため、MPEG2
ビデオのビットストリームをデコードするのに先だっ
て、ヘッダ情報を解析することが可能である。このた
め、素早いエラー処理や、早送りや逆再生等のトリック
プレイを効率的に行うことができる。
According to the present invention, the input bit stream is stored in the buffer, the header information of each layer above the picture layer and the slice information are stored in the buffer, and the slice information includes The position of the start position of the slice on the screen and the address of the data in the buffer are included. The information of the picture in the header information includes the link information to the slice information of the slice constituting the picture. Have been. For this reason, MPEG2
Prior to decoding the video bitstream, it is possible to analyze the header information. Therefore, quick error processing and trick play such as fast forward and reverse reproduction can be efficiently performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の一形態のブロック図である。FIG. 1 is a block diagram of one embodiment of the present invention.

【図2】この発明の一実施の形態の説明に用いるブロッ
ク図である。
FIG. 2 is a block diagram used for describing an embodiment of the present invention.

【図3】この発明の一実施の形態におけるヘッダ情報の
説明に用いる略線図である。
FIG. 3 is a schematic diagram used for describing header information according to the embodiment of the present invention;

【図4】この発明の一実施の形態におけるスライス情報
の説明に用いる略線図である。
FIG. 4 is a schematic diagram used for explaining slice information according to the embodiment of the present invention;

【図5】この発明の一実施の形態におけるスライスの構
成の説明に用いる略線図であ
FIG. 5 is a schematic diagram used for describing the configuration of a slice according to the embodiment of the present invention;

【図6】この発明の一実施の形態の説明に用いるブロッ
ク図である。
FIG. 6 is a block diagram used for describing an embodiment of the present invention.

【図7】この発明の一実施の形態の説明に用いるフロー
チャートである。
FIG. 7 is a flowchart used to describe an embodiment of the present invention.

【図8】MPEG2の説明に用いる略線図である。FIG. 8 is a schematic diagram used to describe MPEG2.

【図9】MPEG2の説明に用いる略線図である。FIG. 9 is a schematic diagram used for describing MPEG2.

【符号の説明】[Explanation of symbols]

3・・・バッファ、4・・・CPU、6・・・可変長復
号化部、21・・・ビットストリーム領域、22・・・
ヘッダ情報領域、23・・・スライス情報領域
3 ... buffer, 4 ... CPU, 6 ... variable length decoding unit, 21 ... bit stream area, 22 ...
Header information area, 23 ... Slice information area

フロントページの続き Fターム(参考) 5C053 FA20 FA27 GA11 GB06 GB08 GB19 GB22 GB26 GB29 GB32 GB38 HA24 HA25 KA03 5C059 KK32 LB11 MA00 MA23 MC11 ME05 NN21 PP05 PP06 PP07 RB09 RC02 SS02 SS17 SS18 UA05 UA38 5J064 AA03 BA09 BA16 BB03 BB05 BC01 BC02 BC16 BD03 Continued on the front page F term (reference) 5C053 FA20 FA27 GA11 GB06 GB08 GB19 GB22 GB26 GB29 GB32 GB38 HA24 HA25 KA03 5C059 KK32 LB11 MA00 MA23 MC11 ME05 NN21 PP05 PP06 PP07 RB09 RC02 SS02 SS17 SS18 UA05 UA38 5J016 AA03 BA09 BA09 BA09 BC16 BD03

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 入力されたビットストリームを蓄積する
手段と、 上記入力されたビットストリームからピクチャ層以上の
階層のヘッダに含まれている情報を抽出してヘッダ情報
を生成し、上記生成されたヘッダ情報を蓄積する手段
と、 上記入力されたビットストリームからスライス層のヘッ
ダに含まれている情報を抽出し、上記スライスが開始す
るビットストリームが記憶されている位置と、上記スラ
イスが開始する画面上の位置を含むスライス情報を生成
し、上記スライス情報を蓄積する手段と、 更に、上記ヘッダ情報のピクチャ情報に、上記ピクチャ
を構成するスライス情報の位置を示すリンク情報を付加
する手段と、 上記蓄積されたヘッダ情報をデコードを開始する前に読
み出し、上記ヘッダ情報を予め解析する手段と、 上記蓄積されたビットストリームを読み出し、上記読み
出されたビットストリームを上記予め解析されたヘッダ
情報を使ってデコードする手段とを備えるようにしたデ
コード装置。
Means for accumulating an input bit stream; extracting information included in a header of a picture layer or higher from the input bit stream to generate header information; Means for accumulating header information, extracting information contained in a header of a slice layer from the input bit stream, a position where a bit stream at which the slice starts is stored, and a screen at which the slice starts Means for generating slice information including the above position and storing the slice information; and means for adding link information indicating the position of the slice information constituting the picture to the picture information of the header information; Means for reading out the stored header information before starting decoding and analyzing the header information in advance; Reading the bit stream, the decoding apparatus with the read bit stream as and means for decoding using the header information analyzed above in advance.
【請求項2】 上記ビットストリームは、MPEG1又
はMPEG2ビデオのビットストリームである請求項1
に記載のデコード装置。
2. The bit stream according to claim 1, wherein the bit stream is a bit stream of MPEG1 or MPEG2 video.
3. The decoding device according to item 1.
【請求項3】 入力されたビットストリームを蓄積する
と共に、 上記入力されたビットストリームからピクチャ層以上の
階層のヘッダに含まれている情報を抽出してヘッダ情報
を生成し、上記生成されたヘッダ情報を蓄積し、 更に、上記入力されたビットストリームからスライス層
のヘッダに含まれている情報を抽出し、上記スライスが
開始するビットストリームが記憶されている位置と、上
記スライスが開始する画面上の位置を含むスライス情報
を生成し、上記スライス情報を蓄積し、 更に、上記ヘッダ情報のピクチャ情報に、上記ピクチャ
を構成するスライス情報の位置を示すリンク情報を付加
しておき、 上記蓄積性されたヘッダ情報をデコードを開始する前に
読み出して、上記ヘッダ情報を予め解析し、 上記蓄積されたビットストリームを読み出し、上記読み
出されたビットストリームを上記予め解析されたヘッダ
情報を使ってデコードするようにしたデコード方法。
3. Accumulating an input bit stream, extracting information included in a header of a layer higher than a picture layer from the input bit stream, generating header information, and generating the header information. Accumulating information, further extracting information included in a header of a slice layer from the input bit stream, and determining a position where a bit stream at which the slice starts is stored, and a screen at which the slice starts. The slice information including the position of the slice information is generated, the slice information is stored, and link information indicating the position of the slice information constituting the picture is added to the picture information of the header information. The header information is read out before decoding is started, the header information is analyzed in advance, and the stored bit stream is read. It reads the arm, decoding method the read bit stream so as to decode with the header information analyzed above in advance.
【請求項4】 上記ビットストリームは、MPEG1又
はMPEG2ビデオのビットストリームである請求項3
に記載のデコード方法。
4. The bit stream according to claim 3, wherein the bit stream is a bit stream of MPEG1 or MPEG2 video.
Decoding method described in 1.
【請求項5】 入力されたビットストリームを蓄積する
手段と、 上記入力されたビットストリームからピクチャ層以上の
階層のヘッダに含まれている情報を抽出してヘッダ情報
を生成し、上記ヘッダ情報を蓄積する手段と、 上記入力されたビットストリームからスライス層のヘッ
ダに含まれている情報を抽出し、上記スライスが開始す
るビットストリームが記憶されている位置と、 上記スライスが開始する画面上の位置を含むスライス情
報を生成し、上記スライス情報を蓄積する手段と、 更に、上記ヘッダ情報のピクチャ情報に、上記ピクチャ
を構成するスライス情報の位置を示すリンク情報を付加
する手段と、 上記蓄積されたヘッダ情報を、デコードを開始する前に
読み出し、上記ヘッダ情報を予め解析する手段と、 上記蓄積されたビットストリームを読み出し、上記読み
出されたビットストリームを可変長復号化する手段と、 上記可変長復号時にエラーが発生していたら、上記スラ
イス情報に基づいて補間の範囲を求めて補間を行う手段
とを備えるようにしたデコード装置。
5. A means for storing an input bit stream, extracting information contained in a header of a picture layer or higher from the input bit stream to generate header information, and Means for accumulating, extracting the information contained in the header of the slice layer from the input bit stream, storing the bit stream where the slice starts, and the position on the screen where the slice starts Means for generating slice information including: and means for adding the link information indicating the position of the slice information constituting the picture to the picture information of the header information; and Means for reading out the header information before starting decoding and analyzing the header information in advance; Means for reading out the read stream and performing variable length decoding on the read bit stream; and means for performing interpolation by obtaining an interpolation range based on the slice information if an error has occurred during the variable length decoding. A decoding device comprising:
【請求項6】 上記ビットストリームは、MPEG1又
はMPEG2ビデオのビットストリームである請求項5
に記載のデコード装置。
6. The bit stream according to claim 5, wherein the bit stream is a bit stream of MPEG1 or MPEG2 video.
3. The decoding device according to item 1.
【請求項7】 上記補間のために、上記可変長復号化さ
れた動きベクトルを保存する手段を設けるようにした請
求項5に記載のデコード装置。
7. The decoding device according to claim 5, wherein means for storing the variable-length-decoded motion vector is provided for the interpolation.
【請求項8】 入力されたビットストリームを蓄積し、 上記入力されたビットストリームからピクチャ層以上の
階層のヘッダに含まれている情報を抽出してヘッダ情報
を生成し、上記ヘッダ情報を蓄積すると共に、 上記入力されたビットストリームからスライス層のヘッ
ダに含まれている情報を抽出し、上記スライスが開始す
るビットストリームが記憶されている位置と、上記スラ
イスが開始する画面上の位置を含むスライス情報を生成
し、上記スライス情報を蓄積し、 更に、上記ヘッダ情報のピクチャ情報に、上記ピクチャ
を構成するスライス情報の位置を示すリンク情報を付加
し、 上記蓄積されたビットストリームを、デコードを開始す
る前に読み出し、上記ヘッダ情報を予め解析し、 上記蓄積されたビットストリームを読み出し、上記読み
出されたビットストリームを可変長復号化し、 上記可変長復号時にエラーが発生していたら、上記スラ
イス情報に基づいて補間の範囲を求めて補間を行うよう
にしたデコード方法。
8. Accumulating an input bit stream, extracting information included in a header of a picture layer or higher from the input bit stream, generating header information, and accumulating the header information. And extracting information included in a header of a slice layer from the input bit stream, and a slice including a position where a bit stream at which the slice starts is stored and a position on a screen at which the slice starts. Generates information, stores the slice information, and adds link information indicating the position of the slice information constituting the picture to the picture information of the header information, and starts decoding the stored bit stream. Before reading, the header information is analyzed in advance, and the stored bit stream is read. The bit stream read by the variable length decoding, if errors have occurred during the variable length decoding, the decoding method to perform interpolation seeking range of interpolation based on the slice information.
【請求項9】 上記ビットストリームは、MPEG1又
はMPEG2ビデオのビットストリームである請求項8
に記載のデコード方法。
9. The bit stream according to claim 8, wherein said bit stream is a bit stream of MPEG1 or MPEG2 video.
Decoding method described in 1.
【請求項10】 上記補間のために、上記可変長復号化
された動きベクトルを保存する手段を設けるようにした
請求項8に記載のデコード方法。
10. The decoding method according to claim 8, wherein means for storing the variable-length-decoded motion vector is provided for the interpolation.
JP2001182338A 2001-06-15 2001-06-15 Decoder and its method Pending JP2002374537A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001182338A JP2002374537A (en) 2001-06-15 2001-06-15 Decoder and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001182338A JP2002374537A (en) 2001-06-15 2001-06-15 Decoder and its method

Publications (1)

Publication Number Publication Date
JP2002374537A true JP2002374537A (en) 2002-12-26

Family

ID=19022465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001182338A Pending JP2002374537A (en) 2001-06-15 2001-06-15 Decoder and its method

Country Status (1)

Country Link
JP (1) JP2002374537A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1306819C (en) * 2004-07-30 2007-03-21 联合信源数字音视频技术(北京)有限公司 Video frequency decoding control method and device
CN1306822C (en) * 2004-07-30 2007-03-21 联合信源数字音视频技术(北京)有限公司 Vido decoder based on software and hardware cooperative control
JP2007157278A (en) * 2005-12-07 2007-06-21 Kenwood Corp Decoding device, device for decoding video and speech, reproducing system, and decoding method
JP2007266830A (en) * 2006-03-28 2007-10-11 Alpine Electronics Inc Video output system
CN105430409A (en) * 2015-12-29 2016-03-23 福州瑞芯微电子股份有限公司 Flow control method and flower control device based on counter

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1306819C (en) * 2004-07-30 2007-03-21 联合信源数字音视频技术(北京)有限公司 Video frequency decoding control method and device
CN1306822C (en) * 2004-07-30 2007-03-21 联合信源数字音视频技术(北京)有限公司 Vido decoder based on software and hardware cooperative control
JP2007157278A (en) * 2005-12-07 2007-06-21 Kenwood Corp Decoding device, device for decoding video and speech, reproducing system, and decoding method
JP2007266830A (en) * 2006-03-28 2007-10-11 Alpine Electronics Inc Video output system
JP4719602B2 (en) * 2006-03-28 2011-07-06 アルパイン株式会社 Video output system
CN105430409A (en) * 2015-12-29 2016-03-23 福州瑞芯微电子股份有限公司 Flow control method and flower control device based on counter
CN105430409B (en) * 2015-12-29 2017-10-31 福州瑞芯微电子股份有限公司 A kind of flowing water control method and device based on counter

Similar Documents

Publication Publication Date Title
JP5393736B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, and moving picture decoding method
JP5280003B2 (en) Slice layer in video codec
KR100376207B1 (en) Method and apparatus for efficient addressing of DRAM in video expansion processor
US8428126B2 (en) Image decoding device with parallel processors
JP4534935B2 (en) Transcoder, recording apparatus, and transcoding method
KR101147744B1 (en) Method and Apparatus of video transcoding and PVR of using the same
US20160337664A1 (en) Manipulating sub-pictures of a compressed video signal
JP2001285876A (en) Image encoding device, its method, video camera, image recording device and image transmitting device
KR100824161B1 (en) Image processing apparatus
EP1292152B1 (en) Image processing apparatus, and image processing method
JP2007088922A (en) Encoding apparatus and encoding method
JP3852366B2 (en) Encoding apparatus and method, decoding apparatus and method, and program
JP5580541B2 (en) Image decoding apparatus and image decoding method
JP2002374537A (en) Decoder and its method
JP2008053848A (en) Image processor and image processing method
JP3822821B2 (en) Image playback display device
JP2008042701A (en) Image data processing method and processing apparatus
JP2008289105A (en) Image processing device and imaging apparatus equipped therewith
JP3141149B2 (en) Image coding device
KR100556341B1 (en) Vedeo decoder system having reduced memory bandwidth
JP2001309388A (en) Error image supplementing method in image decoder
KR100998545B1 (en) Method and system for providing a high speed multi-stream mpeg processor
JP2002057986A (en) Decoder and decoding method, and recording medium
JP2003179929A (en) Image decoding apparatus
JP2011091732A (en) Moving image decoding processing apparatus and method for operating the same