JP2000013791A - Image encoding device, image encoding method, image decoding device, image decoding method, and providing medium - Google Patents
Image encoding device, image encoding method, image decoding device, image decoding method, and providing mediumInfo
- Publication number
- JP2000013791A JP2000013791A JP17350098A JP17350098A JP2000013791A JP 2000013791 A JP2000013791 A JP 2000013791A JP 17350098 A JP17350098 A JP 17350098A JP 17350098 A JP17350098 A JP 17350098A JP 2000013791 A JP2000013791 A JP 2000013791A
- Authority
- JP
- Japan
- Prior art keywords
- header
- information
- image
- layer
- bit stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像符号化装置お
よび画像符号化方法、画像復号装置および画像復号方
法、並びに提供媒体に関する。特に、例えば、動画像デ
ータを、光磁気ディスクや磁気テープなどの記録媒体に
記録し、これを再生してディスプレイなどに表示した
り、テレビ会議システム、テレビ電話システム、放送用
機器、マルチメディアデータベース検索システムなどの
ように、動画像データを伝送路を介して送信側から受信
側に伝送し、受信側において、これを受信し、表示する
場合や、編集して記録する場合などに用いて好適な画像
符号化装置および画像符号化方法、画像復号装置および
画像復号方法、並びに提供媒体に関する。[0001] The present invention relates to an image encoding device and an image encoding method, an image decoding device and an image decoding method, and a providing medium. In particular, for example, moving image data is recorded on a recording medium such as a magneto-optical disk or a magnetic tape, and is reproduced and displayed on a display or the like, a video conference system, a video telephone system, a broadcasting device, a multimedia database. Suitable for transmitting moving image data from the transmitting side to the receiving side via a transmission path, such as a search system, and receiving and displaying the moving image data on the receiving side, or for editing and recording. The present invention relates to an image encoding device and an image encoding method, an image decoding device and an image decoding method, and a providing medium.
【0002】[0002]
【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像データを遠隔地に伝送
するシステムにおいては、伝送路を効率良く利用するた
め、画像データを、そのライン相関やフレーム間相関を
利用して圧縮符号化するようになされている。2. Description of the Related Art For example, in a system for transmitting moving image data to a remote place, such as a video conference system or a video telephone system, image data is converted into a line correlation or a frame in order to use a transmission path efficiently. The compression encoding is performed using the inter-correlation.
【0003】動画像の高能率符号化方式として代表的な
ものとしては、MPEG(Moving Picture Experts Group)
(蓄積用動画像符号化)方式がある。これはISO−I
EC/JTC1/SC2/WG11において議論され、
標準案として提案されたものであり、動き補償予測符号
化とDCT(Discrete Cosine Transform)符号化を組
み合わせたハイブリッド方式が採用されている。A typical high-efficiency video coding scheme is Moving Picture Experts Group (MPEG).
(Moving picture coding for storage). This is ISO-I
Discussed in EC / JTC1 / SC2 / WG11,
It has been proposed as a standard, and employs a hybrid method combining motion compensation prediction coding and DCT (Discrete Cosine Transform) coding.
【0004】MPEGでは、様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML(Main Profile
at Main Level))である。[0004] In MPEG, several profiles and levels are defined in order to support various applications and functions. The most basic is the main profile main level (MP @ ML (Main Profile
at Main Level)).
【0005】図24は、MPEG方式におけるMP@M
Lのエンコーダの一例の構成を示している。FIG. 24 is a diagram showing MP @ M in the MPEG system.
5 shows an exemplary configuration of an L encoder.
【0006】符号化すべき画像データは、フレームメモ
リ31に入力され、一時記憶される。そして、動きベク
トル検出器32は、フレームメモリ31に記憶された画
像データを、例えば、16画素×16画素などで構成さ
れるマクロブロック単位で読み出し、その動きベクトル
を検出する。[0006] Image data to be encoded is input to a frame memory 31 and is temporarily stored. Then, the motion vector detector 32 reads out the image data stored in the frame memory 31 in units of macroblocks composed of, for example, 16 pixels × 16 pixels, and detects the motion vector.
【0007】ここで、動きベクトル検出器32において
は、各フレームの画像データを、Iピクチャ、Pピクチ
ャ、またはBピクチャのうちのいずれかとして処理す
る。なお、シーケンシャルに入力される各フレームの画
像を、I,P,Bピクチャのいずれのピクチャとして処
理するかは、予め定められている(例えば、I,B,
P,B,P,・・・B,Pとして処理される)。Here, the motion vector detector 32 processes the image data of each frame as any one of an I picture, a P picture, and a B picture. It should be noted that it is determined in advance as to which of the I, P, and B pictures the image of each frame input sequentially is processed (for example, I, B,
P, B, P,..., B, P).
【0008】即ち、動きベクトル検出器32は、フレー
ムメモリ31に記憶された画像の中の、予め定められた
所定の参照フレームを参照し、その参照フレームと、現
在符号化の対象となっているフレームの16画素×16
ラインの小ブロック(マクロブロック)とをパターンマ
ッチング(ブロックマッチング)することにより、その
マクロブロックの動きベクトルを検出する。That is, the motion vector detector 32 refers to a predetermined reference frame in an image stored in the frame memory 31, and the reference frame and the current frame are to be encoded. 16 pixels of frame x 16
By performing pattern matching (block matching) with a small block (macro block) of the line, a motion vector of the macro block is detected.
【0009】ここで、MPEGにおいては、画像の予測
モードには、イントラ符号化(フレーム内符号化)、前
方予測符号化、後方予測符号化、両方向予測符号化の4
種類があり、Iピクチャはイントラ符号化され、Pピク
チャはイントラ符号化または前方予測符号化され、Bピ
クチャはイントラ符号化、前方予測符号化、後方予測符
号化、または両方法予測符号化される。[0009] Here, in MPEG, the image prediction modes include four modes: intra coding (intra-frame coding), forward prediction coding, backward prediction coding, and bidirectional prediction coding.
There are types, I pictures are intra-coded, P pictures are intra-coded or forward predicted coded, B pictures are intra-coded, forward predicted coded, backward predicted coded, or both methods predictive coded .
【0010】即ち、動きベクトル検出器32は、Iピク
チャについては、予測モードとしてイントラ符号化モー
ドを設定する。この場合、動きベクトル検出器32は、
動きベクトルの検出は行わず、予測モード(イントラ予
測モード)を、VLC(可変長符号化)器36および動
き補償器42に出力する。That is, the motion vector detector 32 sets the intra coding mode as the prediction mode for the I picture. In this case, the motion vector detector 32
The motion vector is not detected, and the prediction mode (intra prediction mode) is output to the VLC (variable length coding) unit 36 and the motion compensator 42.
【0011】また、動きベクトル検出器32は、Pピク
チャについては、前方予測を行い、その動きベクトルを
検出する。さらに、動きベクトル検出器32は、前方予
測を行うことにより生じる予測誤差と、符号化対象のマ
クロブロック(Pピクチャのマクロブロック)の、例え
ば分散とを比較し、マクロブロックの分散の方が予測誤
差より小さい場合、予測モードとしてイントラ符号化モ
ードを設定し、VLC器36および動き補償器42に出
力する。また、動きベクトル検出器32は、前方予測を
行うことにより生じる予測誤差の方が小さければ、予測
モードとして前方予測符号化モードを設定し、検出した
動きベクトルとともに、VLC器36および動き補償器
42に出力する。The motion vector detector 32 performs forward prediction on a P picture and detects the motion vector. Further, the motion vector detector 32 compares a prediction error caused by performing forward prediction with, for example, a variance of a coding-target macroblock (a macroblock of a P picture), and the variance of the macroblock is more predictive. When the difference is smaller than the error, the intra coding mode is set as the prediction mode, and the prediction mode is output to the VLC unit 36 and the motion compensator 42. If the prediction error caused by performing the forward prediction is smaller, the motion vector detector 32 sets the forward prediction encoding mode as the prediction mode, and sets the VLC unit 36 and the motion compensator 42 together with the detected motion vector. Output to
【0012】さらに、動きベクトル検出器32は、Bピ
クチャについては、前方予測、後方予測、および両方向
予測を行い、それぞれの動きベクトルを検出する。そし
て、動きベクトル検出器32は、前方予測、後方予測、
および両方向予測についての予測誤差の中の最小のもの
(以下、適宜、最小予測誤差という)を検出し、その最
小予測誤差と、符号化対象のマクロブロック(Bピクチ
ャのマクロブロック)の、例えば分散とを比較する。そ
の比較の結果、マクロブロックの分散の方が最小予測誤
差より小さい場合、動きベクトル検出器32は、予測モ
ードとしてイントラ符号化モードを設定し、VLC器3
6および動き補償器42に出力する。また、動きベクト
ル検出器32は、最小予測誤差の方が小さければ、予測
モードとして、その最小予測誤差が得られた予測モード
を設定し、対応する動きベクトルとともに、VLC器3
6および動き補償器42に出力する。Further, the motion vector detector 32 performs forward prediction, backward prediction, and bidirectional prediction on the B picture, and detects respective motion vectors. Then, the motion vector detector 32 performs forward prediction, backward prediction,
And a minimum prediction error of the bidirectional prediction (hereinafter, appropriately referred to as a minimum prediction error), and the minimum prediction error and the variance of the encoding target macroblock (the macroblock of the B picture), for example. Compare with As a result of the comparison, if the variance of the macroblock is smaller than the minimum prediction error, the motion vector detector 32 sets the intra coding mode as the prediction mode, and sets the VLC unit 3
6 and the motion compensator 42. If the minimum prediction error is smaller, the motion vector detector 32 sets the prediction mode in which the minimum prediction error is obtained as the prediction mode, and sets the VLC unit 3 together with the corresponding motion vector.
6 and the motion compensator 42.
【0013】動き補償器42は、動きベクトル検出器3
2から予測モードと動きベクトルの両方を受信すると、
その予測モードおよび動きベクトルにしたがって、フレ
ームメモリ41に記憶されている、符号化され、既に局
所復号された画像データを読み出し、これを、予測画像
として、演算器33および40に供給する。The motion compensator 42 includes a motion vector detector 3
When both the prediction mode and the motion vector are received from 2,
According to the prediction mode and the motion vector, the coded and locally decoded image data stored in the frame memory 41 is read out and supplied to the computing units 33 and 40 as a predicted image.
【0014】演算器33は、動きベクトル検出器32が
フレームメモリ31から読み出した画像データと同一の
マクロブロックを、フレームメモリ31から読み出し、
そのマクロブロックと、動き補償器42からの予測画像
との差分を演算する。この差分値は、DCT器34に供
給される。The arithmetic unit 33 reads from the frame memory 31 the same macroblock as the image data read from the frame memory 31 by the motion vector detector 32,
The difference between the macro block and the predicted image from the motion compensator 42 is calculated. This difference value is supplied to the DCT unit 34.
【0015】一方、動き補償器42は、動きベクトル検
出器32から予測モードのみを受信した場合、即ち、予
測モードがイントラ符号化モードである場合には、予測
画像を出力しない。この場合、演算器33(後述する演
算器40も同様)は、特に処理を行わず、フレームメモ
リ31から読み出したマクロブロックを、そのままDC
T器34に出力する。On the other hand, when only the prediction mode is received from the motion vector detector 32, that is, when the prediction mode is the intra-coding mode, the motion compensator 42 does not output a predicted image. In this case, the arithmetic unit 33 (the same applies to the arithmetic unit 40 to be described later) does not perform any processing, and converts the macro block read from the frame memory 31 into the DC
Output to the T unit 34.
【0016】DCT器34では、演算器33の出力に対
して、DCT処理が施され、その結果得られるDCT係
数が、量子化器35に供給される。量子化器35では、
バッファ37のデータ蓄積量(バッファ37に記憶され
ているデータの量)(バッファフィードバック)に対応
して量子化ステップ(量子化スケール)が設定され、そ
の量子化ステップで、DCT器34からのDCT係数が
量子化される。この量子化されたDCT係数(以下、適
宜、量子化係数という)は、設定された量子化ステップ
とともに、VLC器36に供給される。In the DCT unit 34, the output of the arithmetic unit 33 is subjected to DCT processing, and the resulting DCT coefficient is supplied to the quantizer 35. In the quantizer 35,
A quantization step (quantization scale) is set corresponding to the amount of data stored in the buffer 37 (the amount of data stored in the buffer 37) (buffer feedback), and the DCT from the DCT unit 34 is set in the quantization step. The coefficients are quantized. The quantized DCT coefficients (hereinafter, appropriately referred to as quantization coefficients) are supplied to the VLC unit 36 together with the set quantization steps.
【0017】VLC器36では、量子化器35より供給
される量子化係数が、例えばハフマン符号などの可変長
符号に変換され、バッファ37に出力される。さらに、
VLC器36は、量子化器35からの量子化ステップ、
動きベクトル検出器32からの予測モード(イントラ符
号化(画像内予測符号化)、前方予測符号化、後方予測
符号化、または両方向予測符号化のうちのいずれが設定
されたかを示すモード)および動きベクトルも可変長符
号化し、バッファ37に出力する。In the VLC unit 36, the quantized coefficient supplied from the quantizer 35 is converted into a variable length code such as a Huffman code and output to a buffer 37. further,
The VLC unit 36 performs a quantization step from the quantizer 35,
The prediction mode (mode indicating which of intra coding (intra-picture predictive coding), forward predictive coding, backward predictive coding, and bidirectional predictive coding has been set) and motion from the motion vector detector 32 The vector is also variable-length coded and output to the buffer 37.
【0018】バッファ37は、VLC器36からのデー
タを一時蓄積し、そのデータ量を平滑化して、例えば、
図示せぬ伝送路に出力し、または記録媒体に記録する。The buffer 37 temporarily stores data from the VLC unit 36 and smoothes the data amount.
The data is output to a transmission path (not shown) or recorded on a recording medium.
【0019】また、バッファ37は、そのデータ蓄積量
を、量子化器35に出力しており、量子化器35は、こ
のバッファ37からのデータ蓄積量にしたがって量子化
ステップを設定する。即ち、量子化器35は、バッファ
37がオーバーフローしそうなとき、量子化ステップを
大きくし、これにより、量子化係数のデータ量を低下さ
せる。また、量子化器35は、バッファ37がアンダー
フローしそうなとき、量子化ステップを小さくし、これ
により、量子化係数のデータ量を増大させる。このよう
にして、バッファ37のオーバフローとアンダフローを
防止するようになっている。The buffer 37 outputs the data storage amount to the quantizer 35, and the quantizer 35 sets a quantization step according to the data storage amount from the buffer 37. That is, when the buffer 37 is about to overflow, the quantizer 35 increases the quantization step, thereby reducing the data amount of the quantization coefficient. When the buffer 37 is about to underflow, the quantizer 35 reduces the quantization step, thereby increasing the data amount of the quantization coefficient. Thus, the overflow and the underflow of the buffer 37 are prevented.
【0020】量子化器35が出力する量子化係数と量子
化ステップは、VLC器36だけでなく、逆量子化器3
8にも供給されるようになされている。逆量子化器38
では、量子化器35からの量子化係数が、同じく量子化
器35からの量子化ステップにしたがって逆量子化さ
れ、これによりDCT係数に変換される。このDCT係
数は、IDCT器(逆DCT器)39に供給される。I
DCT器39では、DCT係数が逆DCT処理され、演
算器40に供給される。The quantization coefficient and the quantization step output from the quantizer 35 are determined not only by the VLC unit 36 but also by the inverse quantizer 3.
8 as well. Inverse quantizer 38
Then, the quantized coefficient from the quantizer 35 is inversely quantized in accordance with a quantization step from the quantizer 35, and is thereby converted into a DCT coefficient. The DCT coefficient is supplied to an IDCT unit (inverse DCT unit) 39. I
In the DCT unit 39, the DCT coefficient is subjected to an inverse DCT process, and is supplied to the arithmetic unit 40.
【0021】演算器40には、IDCT器39の出力の
他、上述したように、動き補償器42から、演算器33
に供給されている予測画像と同一のデータが供給されて
おり、演算器40は、IDCT器39からの信号(予測
残差)と、動き補償器42からの予測画像とを加算する
ことで、元の画像を、局所復号する(但し、予測モード
がイントラ符号化である場合には、IDCT器39の出
力は、演算器40をスルーして、フレームメモリ41に
供給される)。なお、この復号画像は、受信側において
得られる復号画像と同一のものである。The arithmetic unit 40 receives the output of the IDCT unit 39 and, as described above, the motion compensator 42 and the arithmetic unit 33.
Are supplied with the same data as the prediction image supplied to the calculation unit 40. The arithmetic unit 40 adds the signal (prediction residual) from the IDCT unit 39 and the prediction image from the motion compensator 42, The original image is locally decoded (however, when the prediction mode is intra coding, the output of the IDCT unit 39 is supplied to the frame memory 41 through the arithmetic unit 40). This decoded image is the same as the decoded image obtained on the receiving side.
【0022】演算器40において得られた復号画像(局
所復号画像)は、フレームメモリ41に供給されて記憶
され、その後、インター符号化(前方予測符号化、後方
予測符号化、量方向予測符号化)される画像に対する参
照画像(参照フレーム)として用いられる。The decoded image (local decoded image) obtained by the arithmetic unit 40 is supplied to and stored in the frame memory 41, and then inter-coded (forward predictive coding, backward predictive coding, quantitative predictive coding). ) Is used as a reference image (reference frame) for the image to be processed.
【0023】次に、図25は、図24のエンコーダから
出力される符号化データを復号する、MPEGにおける
MP@MLのデコーダの一例の構成を示している。Next, FIG. 25 shows an example of the configuration of an MPEG @ ML decoder in MPEG for decoding the encoded data output from the encoder shown in FIG.
【0024】伝送路を介して伝送されてきた符号化デー
タが図示せぬ受信装置で受信され、または記録媒体に記
録された符号化データが図示せぬ再生装置で再生され、
バッファ101に供給されて記憶される。The encoded data transmitted via the transmission path is received by a receiving device (not shown), or the encoded data recorded on the recording medium is reproduced by a reproducing device (not shown),
The data is supplied to the buffer 101 and stored.
【0025】IVLC器(逆VLC器)(可変長復号
器)102は、バッファ101に記憶された符号化デー
タを読み出し、可変長復号することで、その符号化デー
タを、動きベクトル、予測モード、量子化ステップ、お
よび量子化係数に分離する。これらのうち、動きベクト
ルおよび予測モードは動き補償器107に供給され、量
子化ステップおよび量子化係数は逆量子化器103に供
給される。An IVLC unit (inverse VLC unit) (variable length decoder) 102 reads out the coded data stored in the buffer 101 and performs variable length decoding to convert the coded data into a motion vector, a prediction mode, Separation into quantization steps and quantization coefficients. Among them, the motion vector and the prediction mode are supplied to the motion compensator 107, and the quantization step and the quantization coefficient are supplied to the inverse quantizer 103.
【0026】逆量子化器103は、IVLC器102よ
り供給された量子化係数を、同じくIVLC器102よ
り供給された量子化ステップにしたがって逆量子化し、
その結果得られるDCT係数を、IDCT器104に出
力する。IDCT器104は、逆量子化器103からの
DCT係数を逆DCTし、演算器105に供給する。The inverse quantizer 103 inversely quantizes the quantized coefficient supplied from the IVLC unit 102 in accordance with the quantization step also supplied from the IVLC unit 102.
The resulting DCT coefficient is output to IDCT unit 104. The IDCT unit 104 performs an inverse DCT on the DCT coefficient from the inverse quantizer 103 and supplies the result to an arithmetic unit 105.
【0027】演算器105には、IDCT器104の出
力の他、動き補償器107の出力も供給されている。即
ち、動き補償器107は、フレームメモリ106に記憶
されている、既に復号された画像を、図24の動き補償
器41における場合と同様に、IVLC器102からの
動きベクトルおよび予測モードにしたがって読み出し、
予測画像として、演算器105に供給する。演算器10
5は、IDCT器104からの信号(予測残差)と、動
き補償器107からの予測画像とを加算することで、元
の画像を復号する。この復号画像は、フレームメモリ1
06に供給されて記憶される。なお、IDCT器104
の出力が、イントラ符号化されたものである場合には、
その出力は、演算器105をスルーして、そのままフレ
ームメモリ106に供給されて記憶される。The output of the motion compensator 107 is supplied to the arithmetic unit 105 in addition to the output of the IDCT unit 104. That is, the motion compensator 107 reads the already decoded image stored in the frame memory 106 in accordance with the motion vector and the prediction mode from the IVLC unit 102 as in the case of the motion compensator 41 in FIG. ,
The prediction image is supplied to the arithmetic unit 105. Arithmetic unit 10
5 decodes the original image by adding the signal (prediction residual) from the IDCT unit 104 and the predicted image from the motion compensator 107. This decoded image is stored in the frame memory 1
06 and stored. Note that the IDCT device 104
If the output of is intra-coded,
The output passes through the arithmetic unit 105 and is supplied to and stored in the frame memory 106 as it is.
【0028】フレームメモリ106に記憶された復号画
像は、その後に復号される画像の参照画像として用いら
れるとともに、適宜読み出され、例えば、図示せぬディ
スプレイなどに供給されて表示される。The decoded image stored in the frame memory 106 is used as a reference image for an image to be subsequently decoded, read out as appropriate, and supplied to, for example, a display (not shown) and displayed.
【0029】なお、MPEG1および2では、Bピクチ
ャは、参照画像として用いられないため、エンコーダま
たはデコーダそれぞれにおいて、フレームメモリ41
(図24)または106(図25)には記憶されない。In MPEG1 and MPEG-2, B pictures are not used as reference pictures, so that the frame memory 41 is used in each of the encoder and the decoder.
(FIG. 24) or 106 (FIG. 25).
【0030】[0030]
【発明が解決しようとする課題】以上の図24、図25
に示したエンコーダ、デコーダは、MPEG1/2の規
格に準拠したものであるが、現在、画像を構成する物体
などのオブジェクトのシーケンスであるVO(Video Ob
ject)単位で符号化を行う方式につき、ISO−IEC
/JTC1/SC29/WG11において、MPEG
(Moving Picture Experts Group)4として標準化作業
が進められている。FIG. 24 and FIG. 25 described above.
Are compliant with the MPEG1 / 2 standard, but currently, a VO (Video Ob) which is a sequence of objects such as an object constituting an image is used.
ject), the encoding is performed in units of ISO-IEC
MPEG / JTC1 / SC29 / WG11
(Moving Picture Experts Group) 4 is being standardized.
【0031】ところで、MPEG4については、主とし
て、通信の分野で利用されるものとして、標準化作業が
進められていたため、MPEG1/2において規定され
ているGOP(Group Of Picture)は、MPEG4では
規定されておらず、従って、MPEG4が蓄積メディア
に利用された場合には、効率的なランダムアクセスが困
難になることが予想される。Since MPEG4 has been standardized mainly for use in the field of communications, the GOP (Group Of Picture) defined in MPEG1 / 2 has been defined in MPEG4. Therefore, when MPEG4 is used for storage media, it is expected that efficient random access will be difficult.
【0032】このため、本件出願人は、効率的なランダ
ムアクセスを可能とするために、MPEG1/2で規定
されているGOPに相当するGOV(Group Of VOP)層
の導入を、特願平10−80758号において先に提案
しており、また、MPEG4において、このGOV層が
導入された。For this reason, the applicant of the present application has proposed the introduction of a GOV (Group Of VOP) layer corresponding to a GOP defined by MPEG1 / 2 in order to enable efficient random access. No.-80758, and this GOV layer was introduced in MPEG4.
【0033】ところで、例えば、MPEG1,2,4,
H.263などの規格に準拠して符号化を行うことによ
り得られる符号化ビットストリームは、複数の階層から
なる階層構造を有している。そして、エンコーダ側で
は、各階層には、デコードに必要な情報が、ヘッダに配
置され、デコーダ側では、各階層のヘッダから必要な情
報が抽出され、符号化ビットストリームの復号が行われ
る。By the way, for example, MPEG1, 2, 4,
H. An encoded bit stream obtained by encoding according to a standard such as H.263 has a hierarchical structure including a plurality of layers. Then, on the encoder side, information necessary for decoding is arranged in a header in each layer, and on the decoder side, necessary information is extracted from the header of each layer, and the encoded bit stream is decoded.
【0034】従って、MPEG1/2では、GOPにラ
ンダムアクセスした場合に、そのGOPの復号を行うた
めに上位階層のヘッダの情報が必要となることがあるこ
とから、上位階層の送信後に、適宜、その上位階層のヘ
ッダの情報を再送することが可能な規格となっている。Therefore, according to MPEG1 / 2, when a GOP is randomly accessed, information of a header of an upper layer may be required to decode the GOP. It is a standard that allows information of the header of the upper layer to be retransmitted.
【0035】しかしながら、MPEG4では、上位階層
の送信後に、適宜、その上位階層のヘッダの情報を再送
することか可能な規格になっておらず、このため、GO
V層の導入により、効率的なランダムアクセスが可能と
なっても、そのGOVの復号を行うために必要な上位階
層のヘッダの情報が得られず、これにより、正常な復号
結果を得られないおそれがある。However, MPEG4 does not have a standard in which information of the header of the upper layer can be retransmitted after transmission of the upper layer as appropriate.
Even if efficient random access becomes possible due to the introduction of the V layer, information on the header of the upper layer necessary for decoding the GOV cannot be obtained, and thus a normal decoding result cannot be obtained. There is a risk.
【0036】ここで、MPEG4の符号化ビットストリ
ームが、蓄積メディアに記録されている場合には、その
記録メディアにアクセスすることで、上位階層のヘッダ
の情報を得ることが可能であるが、符号化ビットストリ
ームが放送等される場合には、その符号化ビットストリ
ームを最初から受信しない限りは、上位階層のヘッダの
情報が得られないことになり、従って、符号化ビットス
トリームの受信を、その途中から開始した場合には、正
常な復号結果を得られないおそれがある。Here, when an encoded bit stream of MPEG4 is recorded on a storage medium, it is possible to obtain information of a header of an upper layer by accessing the recording medium. When the encoded bit stream is broadcasted, the information of the header of the upper layer cannot be obtained unless the encoded bit stream is received from the beginning. If the decoding is started halfway, a normal decoding result may not be obtained.
【0037】本発明は、このような状況に鑑みてなされ
たものであり、符号化ビットストリームの途中からで
も、正常な復号を行うことができるようにするものであ
る。The present invention has been made in view of such a situation, and is intended to enable normal decoding even in the middle of an encoded bit stream.
【0038】[0038]
【課題を解決するための手段】本発明の画像符号化装置
は、画像を符号化し、下位階層のヘッダに、上位階層の
ヘッダの情報を含め、符号化ビットストリームを出力す
る符号化手段を備えることを特徴とする。An image coding apparatus according to the present invention comprises coding means for coding an image and outputting a coded bit stream including information of a header of an upper layer in a header of a lower layer. It is characterized by the following.
【0039】本発明の画像符号化方法は、画像を符号化
して、下位階層のヘッダに、上位階層のヘッダの情報を
含め、符号化ビットストリームを出力することを特徴と
する。The image coding method of the present invention is characterized in that an image is coded and a coded bit stream is output including the information of the upper layer header in the lower layer header.
【0040】本発明の画像復号装置は、下位階層のヘッ
ダに、上位階層のヘッダの情報を含めた符号化ビットス
トリームから、下位階層のヘッダに含まれる情報を抽出
し、その情報に基づいて、符号化ビットストリームを復
号する復号手段を備えることを特徴とする。The image decoding apparatus of the present invention extracts information included in a lower layer header from an encoded bit stream including a lower layer header including information of an upper layer header, and extracts the information based on the information. It is characterized by comprising decoding means for decoding the encoded bit stream.
【0041】本発明の画像復号方法は、下位階層のヘッ
ダに、上位階層のヘッダの情報を含めた符号化ビットス
トリームから、下位階層のヘッダに含まれる情報を抽出
し、その情報に基づいて、符号化ビットストリームを復
号することを特徴とする。According to the image decoding method of the present invention, information contained in a lower layer header is extracted from an encoded bit stream including a lower layer header including information of an upper layer header, and based on the information, The method is characterized in that the encoded bit stream is decoded.
【0042】本発明の提供媒体は、画像を符号化して、
下位階層のヘッダに、上位階層のヘッダの情報を含める
ことにより得られる符号化ビットストリームを提供する
ことを特徴とする。The providing medium of the present invention encodes an image,
It is characterized in that an encoded bit stream obtained by including information of an upper layer header in a lower layer header is provided.
【0043】本発明の画像符号化装置においては、符号
化手段が、画像を符号化し、下位階層のヘッダに、上位
階層のヘッダの情報を含め、符号化ビットストリームを
出力するようになされている。In the image encoding apparatus of the present invention, the encoding means encodes the image and outputs an encoded bit stream including the information of the header of the upper layer in the header of the lower layer. .
【0044】本発明の画像符号化方法においては、画像
を符号化して、下位階層のヘッダに、上位階層のヘッダ
の情報を含め、符号化ビットストリームを出力するよう
になされている。In the image encoding method according to the present invention, an image is encoded, and an encoded bit stream is output, including the information of the upper layer header in the lower layer header.
【0045】本発明の画像復号装置においては、復号手
段が、下位階層のヘッダに、上位階層のヘッダの情報を
含めた符号化ビットストリームから、下位階層のヘッダ
に含まれる情報を抽出し、その情報に基づいて、符号化
ビットストリームを復号するようになされている。In the image decoding apparatus according to the present invention, the decoding means extracts information contained in the lower layer header from the coded bit stream including the information of the upper layer header in the lower layer header. The encoded bit stream is decoded based on the information.
【0046】本発明の画像復号方法においては、下位階
層のヘッダに、上位階層のヘッダの情報を含めた符号化
ビットストリームから、下位階層のヘッダに含まれる情
報を抽出し、その情報に基づいて、符号化ビットストリ
ームを復号するようになされている。In the image decoding method according to the present invention, information contained in a lower layer header is extracted from an encoded bit stream including a lower layer header including information of an upper layer header, and the information is extracted based on the information. , Coded bit stream is decoded.
【0047】本発明の提供媒体においては、画像を符号
化して、下位階層のヘッダに、上位階層のヘッダの情報
を含めることにより得られる符号化ビットストリームを
提供するようになされている。In the providing medium of the present invention, an image is encoded, and an encoded bit stream obtained by including information of an upper layer header in a lower layer header is provided.
【0048】[0048]
【発明の実施の形態】以下に、本発明の実施の形態につ
いて説明するが、その前に、MPEG4において規定さ
れている符号化ビットストリームについて説明する。な
お、ここでは、MPEG4規格DraftであるFCD(Final Comitt
ee Draft)における符号化ビットストリームについて説
明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below. Before that, an encoded bit stream specified in MPEG4 will be described. In this case, the FCD (Final Comitt
ee Draft) will be described.
【0049】図1は、FCDで規定されている符号化ビッ
トストリームの構成を示している。FIG. 1 shows the structure of an encoded bit stream defined by the FCD.
【0050】符号化ビットストリームは、同図に示すよ
うに、VS(Visual Object Sequence)層、VISO(V
isual Object)層 、VO(video Object)層、VOL
(Video Object Layer)、GOV(Group of VOP)層、V
OP(Video Object Plane)層などの、複数の階層から
なる階層構造を有している(図1において、上方に位置
している階層ほど、上位の階層を構成する)。As shown in the figure, the coded bit stream has a VS (Visual Object Sequence) layer and a VISO (V
isual Object) layer, VO (video Object) layer, VOL
(Video Object Layer), GOV (Group of VOP) layer, V
It has a hierarchical structure composed of a plurality of layers, such as an OP (Video Object Plane) layer (in FIG. 1, the higher the layer, the higher the layer).
【0051】即ち、符号化ビットストリームは、VSを
単位として構成される。ここで、VSは、画像シーケン
スであり、例えば、一本の番組や映画などに相当する。That is, the coded bit stream is configured in units of VS. Here, VS is an image sequence, and corresponds to, for example, one program or movie.
【0052】各VSは、1以上のVISOから構成され
る。ここで、VISOには、幾つかの種類がある。即
ち、VISOには、例えば、静止画であるスチルテクス
チャオブジェクト(Still Texture Object)や、顔画像
から構成されるフェイスオブジェクト(Face Objec
t)、動画像のオブジェクトであるVO(Video Objec
t)などがある。従って、符号化ビットストリームが動
画像のものである場合、VISOは、VOから構成され
る。Each VS is composed of one or more VISOs. Here, there are several types of VISO. That is, VISO includes, for example, a still texture object (Still Texture Object) as a still image and a face object (Face Objec) composed of a face image.
t), VO (Video Objec)
t) and so on. Therefore, when the encoded bit stream is that of a moving image, VISO is composed of VO.
【0053】VOは、1以上のVOL(Video Object L
ayer)から構成される(画像を階層化(階層符号化)し
ないときは1のVOLで構成され、画像を階層化する場
合には、その階層数だけのVOLで構成される)。VO is composed of one or more VOLs (Video Object L
ayer) (when the image is not hierarchized (hierarchical encoding), it is composed of one VOL, and when the image is hierarchized, it is composed of VOLs of the same number of layers).
【0054】VOLは、必要な数のGOV(Group of V
OP)で構成され、GOVは、1以上のVOP(Video Ob
ject Plane)のシーケンスで構成される。なお、GOV
はなくても良く、この場合、VOLは、1以上のVOP
で構成されることになる。The VOL is a required number of GOVs (Group of V
OP), and the GOV is composed of one or more VOPs (Video Obs).
ject plane). In addition, GOV
In this case, VOL is not less than one VOP
It will be composed of
【0055】VOPは、従来のフレームに相当する。VOP corresponds to a conventional frame.
【0056】なお、VS,VO,VOPの関係につい
て、さらに説明すると、VSは、上述したように、画像
シーケンスであり、例えば、一本の番組に相当する。そ
して、VOは、ある合成画像のシーケンスが存在する場
合の、その合成画像を構成する各物体のシーケンスであ
り、VOPは、ある時刻におけるVOを意味する。即
ち、例えば、いま、画像F1およびF2を合成して構成
される合成画像F3がある場合、画像F1またはF2が
時系列に並んだものが、それぞれVOであり、ある時刻
における画像F1またはF2が、それぞれVOPであ
る。従って、VOは、異なる時刻の、同一物体のVOP
の集合ということができる。The relationship between VS, VO, and VOP will be further described. As described above, VS is an image sequence and corresponds to, for example, one program. VO is the sequence of each object constituting the composite image when there is a sequence of the composite image, and VOP means VO at a certain time. That is, for example, if there is a composite image F3 composed of the images F1 and F2, the image F1 or F2 arranged in time series is VO, and the image F1 or F2 at a certain time is , Are VOPs. Therefore, the VO is the VOP of the same object at different times.
Can be called a set of
【0057】ここで、図2乃至図4それぞれに、VS,
VISO,VOのシンタクスを示す。また、図5乃至図
7に、VOLのシンタクスを、図8に、GOVのシンタ
クスを、図9乃至図11に、VOPのシンタクスを、そ
れぞれ示す。なお、各層のシンタクスに記載されている
フラグのセマンティクスは、MPEG4FCD規格(14
496-2)に記載されているので、それを参照されたい。Here, VS,
Shows the syntax of VISO and VO. FIGS. 5 to 7 show VOL syntax, FIG. 8 shows GOV syntax, and FIGS. 9 to 11 show VOP syntax, respectively. Note that the semantics of the flags described in the syntax of each layer conform to the MPEG4 FCD standard (14
Please refer to it as described in 496-2).
【0058】MPEG4のFCD規格におけるVS,VISO,
VO,VOLヘッダの情報は、符号化ビットストリーム
を復号するために必要な必須情報を含んでおり、これら
の情報がなければ、前述したように、その符号化ビット
ストリームを正確に復号することは困難である。VS, VISO, MPEG4 FCD standard
The information of the VO and VOL headers includes essential information necessary for decoding the encoded bit stream, and without such information, as described above, it is not possible to decode the encoded bit stream correctly. Have difficulty.
【0059】即ち、例えば、記録媒体に記録された符号
化ビットストリームに対して、ランダムアクセスや、F
F/FR(早送り/巻き戻し)等のような特殊再生を行
う場合、または放送されている符号化ビットストリーム
に途中からアクセスする場合、その符号化ビットストリ
ームの復号を開始するためには、まず、VS,VIS
O,VO,VOLヘッダの情報を復号することが必要で
ある。That is, for example, random access or F-code access to an encoded bit stream recorded on a recording medium is performed.
When performing special reproduction such as F / FR (fast forward / rewind), or when accessing a broadcast coded bit stream from the middle, decoding of the coded bit stream must be started first. , VS, VIS
It is necessary to decode the information of the O, VO, and VOL headers.
【0060】しかしながら、MPEG4のFCD規格において
は、符号化ビットストリームの先頭に、一度だけVS,
VISO,VO,VOLヘッダを伝送することしか許さ
れておらず、この場合、特に、放送されてくる符号化ビ
ットストリームの途中から復号を始めることは難しい。However, according to the MPEG4 FCD standard, VS,
Only transmission of VISO, VO, and VOL headers is permitted. In this case, it is particularly difficult to start decoding from the middle of a coded bit stream that is broadcast.
【0061】さらに、例えば、VOLヘッダには、量子
化マトリクスを始め、符号化モードを指定するフラグが
記述される。これらの符号化モードは、符号化対象の画
像から得られる符号化ビットストリームの性質に依存し
て、即ち、符号化対象の画像の統計的性質が最適になる
ように設定される。しかしながら、例えば、長時間の画
像シーケンスなどに関しては、画像の性質は時刻によっ
て大きく変化することがあるため、VOLヘッダに、最
初に設定した値が、必ずしも常に最適であるとは限らな
い。それにもかかわらず、画像シーケンスの先頭(ここ
では、符号化モードを指定するフラグが記述されるVO
Lの先頭)でしか、符号化モードを指定するフラグを設
定することができないということは、効率の良い符号化
の妨げとなる。Further, for example, a flag for designating an encoding mode is described in the VOL header, including a quantization matrix. These encoding modes are set depending on the properties of the coded bit stream obtained from the picture to be coded, that is, to optimize the statistical properties of the picture to be coded. However, for a long-time image sequence, for example, the properties of an image may greatly change depending on the time, so that the value initially set in the VOL header is not always optimal. Nevertheless, the beginning of the image sequence (here, VO in which a flag specifying the encoding mode is described)
The fact that the flag for designating the encoding mode can be set only at the head of L) hinders efficient encoding.
【0062】そこで、図12は、本発明を適用したエン
コーダの一実施の形態の構成例を示している。なお、こ
のエンコーダを構成するフレームメモリ1、動きベクト
ル検出器2、演算器3,DCT器4、量子化器5,VL
C器6、バッファ7、逆量子化器8,IDCT器9,演
算器10、フレームメモリ11、動き補償器12は、図
24に示したエンコーダを構成するフレームメモリ3
1、動きベクトル検出器32、演算器33,DCT器3
4、量子化器35,VLC器36、バッファ37、逆量
子化器38,IDCT器39,演算器40、フレームメ
モリ41、動き補償器42にそれぞれ対応している。従
って、フレームメモリ1乃至動き補償器12それぞれで
は、フレームメモリ31乃至動き補償器42それぞれの
処理と同一の処理が行われる場合があり、そのような同
一の処理についての説明は、適宜省略する。FIG. 12 shows a configuration example of an embodiment of an encoder to which the present invention is applied. It should be noted that a frame memory 1, a motion vector detector 2, a computing unit 3, a DCT unit 4, a quantizer 5, and a VL
The C unit 6, the buffer 7, the inverse quantizer 8, the IDCT unit 9, the arithmetic unit 10, the frame memory 11, and the motion compensator 12 constitute a frame memory 3 constituting the encoder shown in FIG.
1, motion vector detector 32, arithmetic unit 33, DCT unit 3
4. Corresponds to the quantizer 35, VLC unit 36, buffer 37, inverse quantizer 38, IDCT unit 39, arithmetic unit 40, frame memory 41, and motion compensator 42, respectively. Therefore, in each of the frame memory 1 to the motion compensator 12, the same processing as the processing of the frame memory 31 to the motion compensator 42 may be performed, and the description of such the same processing will be appropriately omitted.
【0063】符号化対象のディジタル画像信号を構成す
るVOPは、フレームメモリ1(受信手段)に順次供給
され、そこで受信されて一時記憶される。さらに、フレ
ームメモリ1には、そこに供給されるVOPの、所定の
絶対座標系における大きさを示すフラグFSZと、位置を
示すフラグFPOSも供給されるようになされており、フレ
ームメモリ1は、これらのフラグFSZおよびFPOSも一時
記憶する。The VOPs constituting the digital image signal to be encoded are sequentially supplied to the frame memory 1 (receiving means), where they are received and temporarily stored. Further, the frame memory 1 is also supplied with a flag FSZ indicating the size of the VOP supplied thereto in a predetermined absolute coordinate system and a flag FPOS indicating the position. These flags FSZ and FPOS are also temporarily stored.
【0064】フレームメモリ1に記憶されたVOPは、
動きベクトル検出器2によって、マクロブロック単位で
読み出される。そして、動きベクトル検出回路2は、予
め設定されている所定のシーケンスに従って、各VOP
を、I(Intra)−VOP,P(Predictive)−VO
P、またはB(Biderectionally Predictive)−VOP
として処理する。シーケンシャルに入力される各VOP
を、I,P,BのいずれのVOPとして処理するかは、
予め定められている(例えば、I,B,P,B,P,・
・・B,Pとして処理される)。The VOP stored in the frame memory 1 is
The motion vector is read by the motion vector detector 2 in macroblock units. Then, the motion vector detecting circuit 2 performs each VOP according to a predetermined sequence set in advance.
To I (Intra) -VOP, P (Predictive) -VO
P or B (Biderectionally Predictive)-VOP
Process as Each VOP input sequentially
Is processed as any of VOPs of I, P, and B,
It is predetermined (for example, I, B, P, B, P,.
.. Processed as B and P).
【0065】動きベクトル検出器2は、処理対象のマク
ロブロックに対して、予め定められた所定の参照画像
(VOP)を参照して、動き補償を施し、そのマクロブ
ロックの動きベクトルを検出する。The motion vector detector 2 performs motion compensation on a macroblock to be processed with reference to a predetermined reference image (VOP), and detects a motion vector of the macroblock.
【0066】ここで、動き補償(フレーム間予測)に
は、前方予測、後方予測、両方向予測の3種類の予測モ
ードがあり、P−VOPは、前方予測のみでのみ動き補
償が施され、動きベクトル検出器2は、その予測誤差を
最小にする動きベクトルを検出する。また、B−VOP
は、前方予測、後方予測、両方向予測の3種類で動き補
償が施され、動きベクトル検出器2は、各予測モードに
おいて、その予測誤差を最小にする動きベクトルを検出
する。さらに、動きベクトル検出器2は、3つの予測モ
ードのうち、最小の予測誤差が得られたものを選択し、
その予測モードにおける動きベクトルも選択する。Here, the motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. In P-VOP, motion compensation is performed only in forward prediction only. The vector detector 2 detects a motion vector that minimizes the prediction error. Also, B-VOP
Are subjected to motion compensation in three types: forward prediction, backward prediction, and bidirectional prediction, and the motion vector detector 2 detects a motion vector that minimizes the prediction error in each prediction mode. Further, the motion vector detector 2 selects one of the three prediction modes in which the minimum prediction error is obtained,
The motion vector in the prediction mode is also selected.
【0067】そして、動きベクトル検出器2は、動き補
償の結果得られた予測誤差と、符号化対象のマクロブロ
ックの分散とを比較する。その結果、マクロブロックの
分散の方が小さい場合は、そのマクロブロックについて
はフレーム間予測は行われず、フレーム内符号化が行わ
れる。この場合、予測モードは、画像内符号化(イント
ラ)となり、そのような予測モードが、動きベクトル検
出器2からVLC器6および動き補償器12に供給され
る。一方、予測誤差の方が小さい場合には、その予測誤
差が得られた予測モードと動きベクトルとが、動きベク
トル検出器2からVLC器6および動き補償器12に供
給される。なお、I−VOPについての予測モードは、
必ず画像内符号化にされる。Then, the motion vector detector 2 compares the prediction error obtained as a result of the motion compensation with the variance of the macroblock to be coded. As a result, if the variance of the macroblock is smaller, the interframe prediction is not performed on the macroblock and the intraframe coding is performed. In this case, the prediction mode is intra-picture coding (intra), and such a prediction mode is supplied from the motion vector detector 2 to the VLC unit 6 and the motion compensator 12. On the other hand, when the prediction error is smaller, the prediction mode and the motion vector from which the prediction error was obtained are supplied from the motion vector detector 2 to the VLC unit 6 and the motion compensator 12. Note that the prediction mode for the I-VOP is
It is always intra-coded.
【0068】ここで、符号化対象となるVOPのシーケン
スは、それぞれ、大きさや位置が異なることがある。従
って、動きベクトルを検出する場合には、基準となる座
標系を設定し、その座標系において、動きベクトルの検
出を行う必要がある。そこで、ここでは、ある1つの絶
対座標を仮定し、その絶対座標における動きベクトルが
算出されるようになされている。即ち、動きベクトル検
出器2には、VOPの絶対座標系における大きさを示す
フラグFSZと、位置を示すフラグFPOSとが供給されるよ
うになされており、動きベクトル検出器2は、このフラ
グFSZおよびフラグFPOSに基づき、処理対象のVOP
と、参照画像となるVOPとを、絶対座標系に配置し、
処理対象のVOP(のマクロブロック)の動きベクトル
を算出するようになされている。Here, the VOP sequences to be encoded may have different sizes and positions. Therefore, when detecting a motion vector, it is necessary to set a reference coordinate system and detect the motion vector in the coordinate system. Therefore, here, a certain absolute coordinate is assumed, and a motion vector at the absolute coordinate is calculated. That is, the motion vector detector 2 is supplied with a flag FSZ indicating the magnitude of the VOP in the absolute coordinate system and a flag FPOS indicating the position. And VOP to be processed based on the flag FPOS
And a VOP serving as a reference image are arranged in an absolute coordinate system,
The motion vector of (the macroblock of) the VOP to be processed is calculated.
【0069】一方、動き補償器12は、動きベクトル検
出器2からの動きベクトルおよび予測モードに基づい
て、フレームメモリ11に記憶されているVOPに対し
て動き補償を施すことで、予測画像を生成する。この予
測画像は、演算器3に供給される。演算器3には、さら
に、動きベクトル検出器2がフレームメモリ1から読み
出した符号化対象のマクロブロックも、フレームメモリ
1から供給される。そして、演算器3は、符号化対象の
マクロブロックを構成する各画素の画素値それぞれと、
予測画像を構成する画素の画素値それぞれの差分を演算
し、その差分信号を、DCT器4に出力する。なお、符号
化対象のマクロブロックが、イントラマクロブロックの
場合には、演算器3は、その符号化対象のマクロブロッ
クをそのままDCT器4に出力する。On the other hand, the motion compensator 12 generates a predicted image by performing motion compensation on the VOP stored in the frame memory 11 based on the motion vector from the motion vector detector 2 and the prediction mode. I do. This predicted image is supplied to the arithmetic unit 3. The arithmetic unit 3 is also supplied from the frame memory 1 with the macroblock to be encoded read from the frame memory 1 by the motion vector detector 2. Then, the arithmetic unit 3 calculates a pixel value of each pixel constituting the macroblock to be encoded,
The difference between the pixel values of the pixels constituting the predicted image is calculated, and the difference signal is output to the DCT unit 4. When the encoding target macroblock is an intra macroblock, the arithmetic unit 3 outputs the encoding target macroblock to the DCT unit 4 as it is.
【0070】DCT器4では、演算器3の出力に対して、D
CT(離散コサイン変換)処理が施され、DCT係数に変換
される。このDCT係数は、量子化器5に入力され、送
信バッファ7のデータ蓄積量(バッファ蓄積量)に対応
した量子化ステップで量子化された後、VLC(可変長
符号化)器6に入力される。In the DCT unit 4, the output of the arithmetic unit 3 is
The data is subjected to a CT (discrete cosine transform) process and converted into DCT coefficients. This DCT coefficient is input to the quantizer 5, quantized in a quantization step corresponding to the data storage amount (buffer storage amount) of the transmission buffer 7, and then input to the VLC (variable length coding) device 6. You.
【0071】VLC器6は、量子化器5より供給される
画像データを、例えばハフマン符号などの可変長符号に
変換し、その結果得られる符号化ビットストリームを、
送信バッファ7に出力する。The VLC unit 6 converts the image data supplied from the quantizer 5 into a variable length code such as a Huffman code, and converts the resulting coded bit stream into
Output to the transmission buffer 7.
【0072】VLC器6には、また、量子化器5より量
子化ステップ(スケール)が、動きベクトル検出器2よ
り予測モード(画像内予測、前方予測、後方予測、また
は両方向予測のいずれが設定されたかを示すモード)、
および動きベクトルが、後述するキー信号符号化器13
よりキー信号の符号化結果が、それぞれ供給されるよう
になされている。さらに、VLC器6には、フラグFSZ
およびFPOSも供給されるようになされている。VLC器
6は、これらの情報、さらには、バッファ16に記憶さ
れた情報を、図1に示したように構成される符号化ビッ
トストリームの所定の階層のヘッダに挿入(配置)して
出力する。The VLC unit 6 has a quantization step (scale) set by the quantizer 5 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction) set by the motion vector detector 2. Mode that indicates whether the
And a motion vector are generated by a key signal encoder 13 described later.
The encoding result of the key signal is supplied. Further, the VLC unit 6 has a flag FSZ.
And FPOS have also been made available. The VLC unit 6 inserts (arranges) these pieces of information and further the information stored in the buffer 16 into a header of a predetermined layer of the coded bit stream configured as shown in FIG. .
【0073】なお、VLC器6は、各階層のヘッダに配
置された情報を、バッファ16に出力するようになされ
ており、バッファ16は、VLC器6から供給される情
報を記憶するようになされている。The VLC unit 6 outputs the information arranged in the header of each layer to the buffer 16, and the buffer 16 stores the information supplied from the VLC unit 6. ing.
【0074】送信バッファ7は、VLC器36からの符
号化ビットストリームを一時蓄積し、その蓄積量に対応
する量子化制御信号を量子化器5に出力する。即ち、送
信バッファ7は、その蓄積量が許容上限値まで増量する
と、量子化スケールを大きくする量子化制御信号を、量
子化器5に供給し、量子化スケールを大きくさせること
で、量子化器5の出力するデータ量を低下させる。ま
た、送信バッファ7は、その蓄積残量が許容下限値まで
減少すると、量子化スケールを小さくする量子化制御信
号を、量子化器5に供給し、量子化スケールを小さくさ
せることで、量子化器5の出力するデータ量を増大させ
る。このようにして、送信バッファ7のオーバフローお
よびアンダフローが防止されるようになされている。The transmission buffer 7 temporarily stores the coded bit stream from the VLC unit 36 and outputs a quantization control signal corresponding to the stored amount to the quantizer 5. That is, the transmission buffer 7 supplies the quantization control signal for increasing the quantization scale to the quantizer 5 when the accumulated amount increases to the allowable upper limit value, and increases the quantization scale to thereby increase the quantization scale. 5 reduces the amount of data output. When the remaining storage amount decreases to the permissible lower limit, the transmission buffer 7 supplies a quantization control signal for reducing the quantization scale to the quantizer 5 to reduce the quantization scale, thereby performing quantization. The amount of data output from the device 5 is increased. In this manner, overflow and underflow of the transmission buffer 7 are prevented.
【0075】そして、送信バッファ7に蓄積された符号
化ビットストリームは、所定のタイミングで読み出さ
れ、例えば、磁気テープや、磁気ディスク、光磁気ディ
スク、相変化ディスクなどの記録媒体201に供給され
て記録され、あるいは、アナログ公衆網や、ISDN、
衛星回線、CATV網、地上波などの伝送媒体202を
介して伝送される。これにより、記録媒体201や伝送
媒体202を媒介して、符号化ビットストリームが、後
述する図16のデコーダに提供される。The coded bit stream stored in the transmission buffer 7 is read at a predetermined timing and supplied to a recording medium 201 such as a magnetic tape, a magnetic disk, a magneto-optical disk, and a phase change disk. Or recorded on an analog public network, ISDN,
The data is transmitted via a transmission medium 202 such as a satellite line, a CATV network, and a terrestrial wave. Thereby, the encoded bit stream is provided to the decoder of FIG. 16 described below via the recording medium 201 and the transmission medium 202.
【0076】ここで、上述したように、VOは、ある合
成画像のシーケンスが存在する場合の、その合成画像を
構成する各物体のシーケンスであり、VOPは、ある時
刻におけるVOを意味する。即ち、例えば、いま、画像
F1およびF2を合成して構成される合成画像F3があ
る場合、画像F1またはF2が時系列に並んだものが、
それぞれVOであり、ある時刻における画像F1または
F2が、それぞれVOPである。従って、例えば、画像
F1を背景とするとともに、画像F2を前景とすると、
合成画像F3を得るためには、画像F2を抜くためのキ
ー信号を用いて、画像F1およびF2を合成する必要が
ある。即ち、合成画像F3を得るには、画像F2を抜く
ためのキー信号が必要となる。Here, as described above, VO is a sequence of each object constituting the composite image when a sequence of the composite image exists, and VOP means VO at a certain time. That is, for example, if there is a composite image F3 composed by combining the images F1 and F2, an image in which the images F1 or F2 are arranged in time series is
Each is a VO, and the image F1 or F2 at a certain time is a VOP. Therefore, for example, if the image F1 is set as the background and the image F2 is set as the foreground,
To obtain the composite image F3, it is necessary to combine the images F1 and F2 using a key signal for extracting the image F2. That is, in order to obtain the composite image F3, a key signal for removing the image F2 is required.
【0077】このため、各VOPを抜くためのキー信号
が、キー信号符号化器13に供給されるようになされて
おり、キー信号符号化器13では、そこに供給されるキ
ー信号が、例えばDPCMなどの所定の手法によって符号化
される。このキー信号の符号化結果は、VLC器6およ
びキー信号復号器14に供給されるようになされてい
る。For this reason, a key signal for removing each VOP is supplied to the key signal encoder 13. In the key signal encoder 13, the key signal supplied thereto is, for example, It is encoded by a predetermined method such as DPCM. The result of encoding the key signal is supplied to the VLC unit 6 and the key signal decoder 14.
【0078】キー信号復号器14では、キー信号符号化
器13からのキー信号の符号化結果が復号され、動きベ
クトル検出器2、DCT器4、IDCT器9、動き補償
器12、および画素置換器15に供給され、これらのブ
ロックでは、キー信号の復号結果を必要に応じて用いて
処理が行われる。The key signal decoder 14 decodes the encoded result of the key signal from the key signal encoder 13 and outputs the result to the motion vector detector 2, DCT unit 4, IDCT unit 9, motion compensator 12, and pixel replacement. The processing is performed in these blocks using the decoding result of the key signal as necessary.
【0079】このように、動きベクトル検出器2には、
キー信号復号器14で局所復号されたキー信号も供給さ
れるようになされているが、このキー信号は、動きベク
トル検出器2が、マクロブロックの予測誤差を計算する
際に用いられる。As described above, the motion vector detector 2 includes:
The key signal locally decoded by the key signal decoder 14 is also supplied. The key signal is used when the motion vector detector 2 calculates a prediction error of a macroblock.
【0080】即ち、VOPは、ある時刻の、ある物体の
画像であるから、その形状は、基本的に任意形状であ
り、この場合、符号化対象のマクロブロックに画像(物
体を構成する画素)が存在しない領域が含まれることが
ある。そのような場合に、動きベクトル検出器2は、符
号化対象のマクロブロックにおいて画像が存在しない画
素を除外して、予測誤差を計算するようになされてお
り、即ち、画像が存在する画素の予測誤差のみを用い
て、符号化対象のマクロブロックの予測誤差を計算し、
それを最小とする動きベクトルを検出するようになされ
ており、符号化対象のマクロブロック内の各画素につい
て、画像が存在するかどうかを認識するために、符号化
対象のマクロブロックの、局所復号されたキー信号が参
照される。That is, since the VOP is an image of a certain object at a certain time, its shape is basically an arbitrary shape. In this case, the macroblock to be coded has an image (a pixel constituting the object) There may be areas where there is no. In such a case, the motion vector detector 2 calculates a prediction error by excluding a pixel in which no image exists in the macroblock to be encoded, that is, predicting a pixel in which an image exists. Using only the error, calculate the prediction error of the macroblock to be encoded,
A motion vector that minimizes the motion vector is detected. For each pixel in the macro block to be encoded, local decoding of the macro block to be encoded is performed in order to recognize whether an image exists. The key signal is referred to.
【0081】具体的には、動きベクトル検出器2では、
キー信号が0である画素については、画像が存在しな
い、物体(画像オブジェクト)の外側の領域に属する画
素であると認識され、キー信号が0以外である画素につ
いては、画像が存在する、物体(画像オブジェクト)の
内側の領域にある画素であると認識される。そして、動
きベクトル検出器2は、キー信号が0である画素につい
ては、予測画像を求めるための、参照画像との差分を計
算しない。Specifically, in the motion vector detector 2,
A pixel having a key signal of 0 is recognized as a pixel that does not have an image and belongs to a region outside the object (image object). It is recognized that the pixel is in the area inside the (image object). Then, the motion vector detector 2 does not calculate the difference between the pixel whose key signal is 0 and the reference image for obtaining the predicted image.
【0082】なお、VOPの形状が長方形状である場合
には、キー信号は常に0以外の値(バイナリ(binary)
キー(ハードキー)では1、グレイスケール(gray sca
le)キー(ソフトキー)では1乃至255のいずれか)
となるため、マクロブロックのすべての画素を用いて予
測誤差が計算される。When the VOP has a rectangular shape, the key signal always has a value other than 0 (binary).
The key (hard key) is 1, gray scale (gray sca
le) The key (soft key) is 1 to 255)
Therefore, the prediction error is calculated using all the pixels of the macroblock.
【0083】一方、量子化器5が出力するデータは、逆
量子化器8にも供給され、逆量子化器8では、そのデー
タが、量子化器5より供給される量子化ステップに対応
して逆量子化され、DCT係数とされる。このDCT係
数は、IDCT(逆DCT)器9に入力され、逆DCT
処理された後、演算器10に供給される。On the other hand, the data output from the quantizer 5 is also supplied to an inverse quantizer 8, which outputs the data corresponding to the quantization step supplied from the quantizer 5. And inversely quantized to obtain DCT coefficients. This DCT coefficient is input to an IDCT (inverse DCT) unit 9 and the inverse DCT
After being processed, it is supplied to the arithmetic unit 10.
【0084】予測モードが、前方予測、後方予測、両方
向予測のうちのいずれかである場合、演算器10には、
IDCT器9の出力の他、動き補償器12が出力する予
測画像も供給される。演算器10は、IDCT器9の出
力に、動き補償器12が出力する予測画像を加算するこ
とで、画像を復号し、画素置換器15に供給する。When the prediction mode is any of forward prediction, backward prediction, and bidirectional prediction, the arithmetic unit 10
In addition to the output of the IDCT unit 9, a predicted image output by the motion compensator 12 is also supplied. The arithmetic unit 10 decodes the image by adding the predicted image output by the motion compensator 12 to the output of the IDCT unit 9, and supplies the decoded image to the pixel replacement unit 15.
【0085】なお、演算器10は、予測モードが画像内
符号化である場合には、IDCT器9の出力を、そのま
ま画素置換器15に供給するようになされている。When the prediction mode is intra-picture coding, the arithmetic unit 10 supplies the output of the IDCT unit 9 to the pixel replacing unit 15 as it is.
【0086】画素置換器15では、演算器10の出力に
対して、後述するパディング処理が施され、フレームメ
モリ11に供給される。フレームメモリ11では、画素
置換器15の出力が記憶され、この記憶値、即ち、復号
画像は、動き補償器12による動き補償のために用いら
れる。なお、フレームメモリ11には、フラグFSZおよ
びFPOSも供給されるようになされており、フレームメモ
リ11は、これらのフラグFSZおよびFPOSも記憶するよ
うになされている。In the pixel replacement unit 15, the output of the arithmetic unit 10 is subjected to padding processing described later, and is supplied to the frame memory 11. In the frame memory 11, the output of the pixel replacement unit 15 is stored, and the stored value, that is, the decoded image is used for motion compensation by the motion compensator 12. Note that the frame memory 11 is also supplied with the flags FSZ and FPOS, and the frame memory 11 stores these flags FSZ and FPOS.
【0087】次に、図13のフローチャートを参照し
て、図12の画素置換器15が行うパディング(paddin
g)処理について説明する。Next, referring to the flowchart of FIG. 13, padding (paddin) performed by the pixel replacement unit 15 of FIG.
g) The processing will be described.
【0088】パディング処理では、まず最初に、ステッ
プS1において、演算器10から画素置換器15に供給
されたマクロブロックを構成する画素の1つを注目画素
として、その注目画素についてのキー信号が0であるか
否かが判定される。ステップS1において、注目画素に
ついてのキー信号が0でないと判定された場合、即ち、
注目画素が、画像オブジェクトの内側を構成するもので
ある場合、ステップS2に進み、画素置換器15は、そ
の注目画素に対して、何も処理を施さず、そのままフレ
ームメモリ11に出力し、ステップS4に進む。In the padding process, first, in step S1, one of the pixels constituting the macro block supplied from the arithmetic unit 10 to the pixel replacement unit 15 is set as a target pixel, and the key signal for the target pixel is set to 0. Is determined. In step S1, when it is determined that the key signal for the target pixel is not 0, that is,
If the pixel of interest is one that forms the inside of the image object, the process proceeds to step S2, where the pixel replacement unit 15 performs no processing on the pixel of interest and outputs it to the frame memory 11 as it is. Proceed to S4.
【0089】ここで、符号化対象のVOPの形状が長方
形状である場合、上述したように、キー信号は常に0以
外の値となるため、画素置換器15では、そのVOP中
の全ての画素が何も処理されずそのまま出力されること
になる。Here, when the VOP to be encoded has a rectangular shape, as described above, the key signal always takes a value other than 0. Therefore, the pixel replacement unit 15 outputs all the pixels in the VOP. Is not processed and is output as it is.
【0090】一方、ステップS1において、注目画素に
ついてのキー信号が0であると判定された場合、即ち、
注目画素が、画像オブジェクトの外側を構成するもので
ある場合、ステップS3に進み、注目画素の画素値が、
例えば0とされ、ステップS4に進む。ステップS4で
は、演算器10からのマクロブロックを構成する画素す
べてについて処理を行ったかどうかが判定され、まだ、
すべての画素について処理を行っていないと判定された
場合、ステップS1に戻り、まだ注目画素とされていな
い画素を、新たに注目画素として、同様の処理が繰り返
される。On the other hand, if it is determined in step S1 that the key signal for the pixel of interest is 0, that is,
If the pixel of interest constitutes the outside of the image object, the process proceeds to step S3, where the pixel value of the pixel of interest is
For example, it is set to 0, and the process proceeds to step S4. In step S4, it is determined whether or not the processing has been performed for all the pixels constituting the macroblock from the arithmetic unit 10.
If it is determined that the processing has not been performed for all the pixels, the process returns to step S1, and the same processing is repeated with a pixel that has not been set as the target pixel as a new target pixel.
【0091】また、ステップS4において、演算器10
からの画素すべてについて処理を行ったと判定された場
合、ステップS5に進み、演算器10からのマクロブロ
ックのある水平ラインが、注目水平ラインとして選択さ
れ、ステップS6に進む。ステップS6では、注目水平
ラインの両端の画素の画素値が判定される。In step S4, the operation unit 10
If it is determined that the processing has been performed for all the pixels from, the process proceeds to step S5, the horizontal line including the macro block from the arithmetic unit 10 is selected as the horizontal line of interest, and the process proceeds to step S6. In step S6, the pixel values of the pixels at both ends of the horizontal line of interest are determined.
【0092】即ち、ステップS1乃至S4の処理が施さ
れた後のマクロブロックの、ある水平ラインに注目した
場合には、その注目水平ラインについては、その両端の
画素値が、いずれも0のケース(両端の画素が画像オブ
ジェクトの外側にあるケース)、いずれか一端の画素値
が0でないケース(一端の画素だけが画像オブジェクト
の内側にあるケース)、および両端の画素値がいずれも
0でないケース(両端の画素が画像オブジェクトの内側
にあるケース)の3通りのケースが生じる。ステップS
6では、注目水平ラインが、これらの3つのケースのう
ちのいずれに属するのかが判定される。That is, when attention is paid to a certain horizontal line of the macroblock after the processing of steps S1 to S4, the pixel values at both ends of the horizontal line of interest are all 0. (The case where the pixels at both ends are outside the image object), the case where the pixel value at one end is not 0 (the case where only the pixel at one end is inside the image object), and the case where the pixel values at both ends are not 0 (Cases where the pixels at both ends are inside the image object) occur in three cases. Step S
In 6, it is determined to which of these three cases the horizontal line of interest belongs.
【0093】ステップS6において、注目水平ラインの
両端の画素値が、いずれも0であると判定された場合、
ステップS7に進み、その注目水平ラインについて確保
された変数Cに、0がセットされ、ステップS10に進
む。また、ステップS6において、注目水平ラインの両
端の画素値が、いずれも0でないと判定された場合、ス
テップS8に進み、その注目水平ラインについて確保さ
れた変数Cに、注目水平ラインの両端の画素値の平均値
がセットされ、ステップS10に進む。さらに、ステッ
プS6において、注目水平ラインの両端の画素値のうち
のいずれか一方だけが0でないと判定された場合、ステ
ップS9に進み、その注目水平ラインについて確保され
た変数Cに、注目水平ラインの両端の画素値のうちの0
でない方の値がセットされ、ステップS10に進む。In step S6, when it is determined that the pixel values at both ends of the horizontal line of interest are both 0,
The process proceeds to step S7, where 0 is set to the variable C secured for the horizontal line of interest, and the process proceeds to step S10. If it is determined in step S6 that the pixel values at both ends of the horizontal line of interest are not 0, the process proceeds to step S8, and the variable C secured for the horizontal line of interest is added to the pixels at both ends of the horizontal line of interest. The average value is set, and the process proceeds to step S10. Further, if it is determined in step S6 that only one of the pixel values at both ends of the horizontal line of interest is not 0, the process proceeds to step S9, and the variable C secured for the horizontal line of interest is added to the variable C of the horizontal line of interest. 0 of pixel values at both ends of
Is set, and the process proceeds to step S10.
【0094】ステップS10では、演算器10からのマ
クロブロックのすべての水平ラインを注目水平ラインと
して処理を行ったかどうかが判定され、まだ、すべての
水平ラインを注目水平ラインとして処理を行っていない
と判定された場合、ステップS5に戻り、まだ、注目水
平ラインとして選択されていない水平ラインが、新たな
注目水平ラインとして選択され、以下、同様の処理が繰
り返される。In step S10, it is determined whether or not all horizontal lines of the macroblock from the arithmetic unit 10 have been processed as the horizontal line of interest. If all horizontal lines have not yet been processed as the horizontal line of interest. If determined, the process returns to step S5, and a horizontal line that has not been selected as the horizontal line of interest is selected as a new horizontal line of interest, and the same processing is repeated thereafter.
【0095】また、ステップS10において、すべての
水平ラインを注目水平ラインとして処理を行ったと判定
された場合、ステップS11に進む。If it is determined in step S10 that all horizontal lines have been processed as the horizontal line of interest, the process proceeds to step S11.
【0096】ステップS11乃至ステップS16では、
演算器10からのマクロブロックの水平ラインではな
く、垂直ラインを対象として、ステップS5乃至S10
における場合とそれぞれ同様の処理が行われる。In steps S11 to S16,
Steps S5 to S10 are performed on the vertical line, not the horizontal line, of the macro block from the arithmetic unit 10.
The same processing is performed as in the case of.
【0097】即ち、ステップS11では、演算器10か
らのマクロブロックのある垂直ラインが、注目垂直ライ
ンとして選択され、ステップS12に進む。ステップS
12では、注目垂直ラインの両端の画素の画素値が判定
される。That is, in step S11, a vertical line having a macroblock from the arithmetic unit 10 is selected as a target vertical line, and the flow advances to step S12. Step S
In 12, the pixel values of the pixels at both ends of the vertical line of interest are determined.
【0098】即ち、ステップS1乃至S4の処理が施さ
れた後のマクロブロックの、ある垂直ラインに注目した
場合にも、その注目垂直ラインについては、その両端の
画素値が、いずれも0のケース(両端の画素が画像オブ
ジェクトの外側にあるケース)、いずれか一端の画素値
が0でないケース(一端の画素だけが画像オブジェクト
の内側にあるケース)、および両端の画素値がいずれも
0でないケース(両端の画素が画像オブジェクトの内側
にあるケース)の3通りのケースが生じる。ステップS
12では、注目垂直ラインが、これらの3つのケースの
うちのいずれに属するのかが判定される。That is, even if a certain vertical line of the macroblock after the processing of steps S1 to S4 is focused on, the pixel value at both ends of the focused vertical line is zero. (The case where the pixels at both ends are outside the image object), the case where the pixel value at one end is not 0 (the case where only the pixel at one end is inside the image object), and the case where the pixel values at both ends are not 0 (Cases where the pixels at both ends are inside the image object) occur in three cases. Step S
In 12, it is determined to which of these three cases the vertical line of interest belongs.
【0099】ステップS12において、注目垂直ライン
の両端の画素値が、いずれも0であると判定された場
合、ステップS13に進み、その注目垂直ラインについ
て確保された変数Bに、0がセットされ、ステップS1
6に進む。また、ステップS12において、注目垂直ラ
インの両端の画素値が、いずれも0でないと判定された
場合、ステップS14に進み、その注目垂直ラインにつ
いて確保された変数Bに、注目垂直ラインの両端の画素
値の平均値がセットされ、ステップS16に進む。さら
に、ステップS12において、注目垂直ラインの両端の
画素値のうちのいずれか一方だけが0でないと判定され
た場合、ステップS15に進み、その注目垂直ラインに
ついて確保された変数Bに、注目垂直ラインの両端の画
素値のうちの0でない方の値がセットされ、ステップS
16に進む。If it is determined in step S12 that the pixel values at both ends of the vertical line of interest are all 0, the process proceeds to step S13, where 0 is set to a variable B secured for the vertical line of interest. Step S1
Proceed to 6. If it is determined in step S12 that the pixel values at both ends of the vertical line of interest are not 0, the process proceeds to step S14, and the variables B secured for the vertical line of interest are added to the pixels at both ends of the vertical line of interest. The average value is set, and the process proceeds to step S16. Further, if it is determined in step S12 that only one of the pixel values at both ends of the target vertical line is not 0, the process proceeds to step S15, and the variable B secured for the target vertical line is added to the variable B for the target vertical line. Is set to the non-zero value of the pixel values at both ends of
Proceed to 16.
【0100】ステップS16では、演算器10からのマ
クロブロックのすべての垂直ラインを注目垂直ラインと
して処理を行ったかどうかが判定され、まだ、すべての
垂直ラインを注目垂直ラインとして処理を行っていない
と判定された場合、ステップS11に戻り、まだ、注目
垂直ラインとして選択されていない垂直ラインが、新た
な注目垂直ラインとして選択され、以下、同様の処理が
繰り返される。In step S16, it is determined whether or not all vertical lines of the macro block from the arithmetic unit 10 have been processed as the target vertical line. If it is determined, the process returns to step S11, and a vertical line that has not yet been selected as the target vertical line is selected as a new target vertical line, and the same processing is repeated thereafter.
【0101】また、ステップS16において、すべての
垂直ラインを注目垂直ラインとして処理を行ったと判定
された場合、ステップS17に進み、演算器10からの
マクロブロックを構成する画素のうち、ステップS2で
そのままフレームメモリ11に出力した画素を除いたも
のの中から、ある画素が、注目画素として選択され、ス
テップS18に進む。If it is determined in step S16 that all vertical lines have been processed as the target vertical line, the process proceeds to step S17, and among the pixels constituting the macroblock from the arithmetic unit 10, the process proceeds to step S2. A certain pixel is selected as a target pixel from among the pixels except for the pixel output to the frame memory 11, and the process proceeds to step S18.
【0102】ステップS18では、注目画素上で交差す
る垂直ラインと水平ラインそれぞれについての変数Bと
Cのセット(B,C)の値が判定される。In step S18, the value of the set (B, C) of the variables B and C for each of the vertical and horizontal lines intersecting on the target pixel is determined.
【0103】ステップS18において、変数Bが0で、
Cが0でないと判定された場合、ステップS19に進
み、変数Cの値が、注目画素の画素値として、フレーム
メモリ11に出力され、ステップS23に進む。また、
ステップS18において、変数BおよびCのいずれも0
でないと判定された場合、ステップS20に進み、変数
BとCの値の平均値が、注目画素の画素値として、フレ
ームメモリ11に出力され、ステップS23に進む。さ
らに、ステップS18において、変数BおよびCのいず
れも0であると判定された場合、ステップS21に進
み、注目画素の画素値が0のままとされ、ステップS2
3に進む。In step S18, when the variable B is 0,
If it is determined that C is not 0, the process proceeds to step S19, where the value of the variable C is output to the frame memory 11 as the pixel value of the target pixel, and the process proceeds to step S23. Also,
In step S18, both variables B and C are set to 0
If it is determined that it is not, the process proceeds to step S20, where the average value of the variables B and C is output to the frame memory 11 as the pixel value of the target pixel, and the process proceeds to step S23. Further, when it is determined in step S18 that both the variables B and C are 0, the process proceeds to step S21, where the pixel value of the target pixel is kept at 0, and the process proceeds to step S2.
Proceed to 3.
【0104】一方、ステップS18において、変数Bが
0でなく、Cが0であると判定された場合、ステップS
19に進み、変数Bの値が、注目画素の画素値として、
フレームメモリ11に出力され、ステップS23に進
む。ステップS23では、演算器10からのマクロブロ
ックを構成する画素のうち、ステップS2でそのまま出
力した画素を除いたものすべてについて処理を行ったか
どうかが判定され、まだ行っていないと判定された場
合、ステップS17に戻り、まだ、注目画素とされてい
ない画素が、新たに注目画素として選択され、以下、同
様の処理が繰り返される。On the other hand, if it is determined in step S18 that the variable B is not 0 and the variable C is 0, the process proceeds to step S18.
Proceeding to 19, the value of the variable B is set as the pixel value of the target pixel,
The data is output to the frame memory 11, and the process proceeds to step S23. In step S23, it is determined whether or not all of the pixels constituting the macroblock from the computing unit 10 have been processed except for the pixels output directly in step S2, and if it is determined that the processing has not been performed, Returning to step S17, a pixel that has not yet been set as the target pixel is newly selected as the target pixel, and the same processing is repeated thereafter.
【0105】また、ステップS23において、演算器1
0からのマクロブロックを構成する画素のうち、ステッ
プS2でそのまま出力した画素を除いたものすべてにつ
いて処理を行ったと判定された場合、ステップS24に
進み、既にフレームメモリ11に出力された画素のう
ち、まだフレームメモリ11に出力されていない各画素
(以下、適宜、未出力画素という)に最も近いものが検
出される。さらに、ステップS24では、その検出され
た画素の画素値が、未出力画素の画素値として、フレー
ムメモリ11に出力され、パディング処理を終了する。
なお、既に、フレームメモリ11に出力された画素の中
で、未出力画素に最も近いものが、2個以上検出された
場合には、それらの画素値の平均値が、未出力画素の画
素値として出力される。In step S23, the operation unit 1
If it is determined that all the pixels constituting the macroblock starting from 0 have been processed except for the pixels output as they are in step S2, the process proceeds to step S24, and among the pixels already output to the frame memory 11, The pixel closest to each pixel that has not yet been output to the frame memory 11 (hereinafter, appropriately referred to as an unoutput pixel) is detected. Further, in step S24, the pixel value of the detected pixel is output to the frame memory 11 as a pixel value of a non-output pixel, and the padding process ends.
If two or more pixels that have been output to the frame memory 11 and are closest to the non-output pixel are detected, the average value of those pixel values is calculated as the pixel value of the non-output pixel. Is output as
【0106】以上のようなパディング処理を行うこと
で、画像オブジェクトの外側を構成する画素が、いわば
補間され、これにより、モスキートノイズの低減化およ
び動き補償の効率化を図ることができる。By performing the above-described padding processing, pixels constituting the outside of the image object are interpolated, so to speak, so that mosquito noise can be reduced and motion compensation can be made more efficient.
【0107】次に、図1のVLC器6(符号化手段)の
処理について、さらに説明する。Next, the processing of the VLC unit 6 (encoding means) in FIG. 1 will be further described.
【0108】VLC器6は、VS,VISO,VO,V
OL,GOV,VOPそれぞれのヘッダに、本来配置す
べき情報を配置し、さらに、量子化器5の出力の可変長
符号化結果を配置することで、符号化ビットストリーム
を構成し、送信バッファ7に出力する。The VLC unit 6 includes VS, VISO, VO, V
The information to be originally arranged is arranged in the header of each of the OL, GOV, and VOP, and the variable-length encoding result of the output of the quantizer 5 is arranged to form an encoded bit stream. Output to
【0109】また、VLC器6は、GOVより上位の階
層であるVS,VISO,VO,VOLの各ヘッダに配
置した情報を、バッファ16に出力して記憶させる。The VLC unit 6 outputs information stored in the headers of VS, VISO, VO, and VOL, which are higher layers than GOV, to the buffer 16 for storage.
【0110】その後、VLC器6は、GOVヘッダを出
力するとき、バッファ16に記憶されている、GOVよ
り上位の階層のVS,VISO,VO,VOLの各ヘッ
ダの情報を読み出し、GOVヘッダの所定の位置に挿入
して(含めて)出力する。従って、この場合、GOVヘ
ッダには、そこに本来配置すべき情報の他、VS,VI
SO,VO,VOLの各ヘッダの情報も配置される。After that, when outputting the GOV header, the VLC unit 6 reads out the information of each header of VS, VISO, VO, and VOL of the hierarchy higher than GOV stored in the buffer 16, and reads out the predetermined information of the GOV header. Insert (include) at the position of and output. Therefore, in this case, the GOV header includes VS, VI in addition to the information to be originally arranged there.
Information of each header of SO, VO, and VOL is also arranged.
【0111】図14は、以上のような処理を行うVLC
器6が出力するGOVのシンタクスを示している。な
お、図14において影を付してある部分が、図8に示し
たFCDにおけるシンタクスと異なる部分となってい
る。FIG. 14 shows a VLC performing the above processing.
3 shows the syntax of the GOV output from the device 6. Note that the shaded portions in FIG. 14 are different from the syntax in the FCD shown in FIG.
【0112】group_VOP_start_codeは、GOVの開始位置
を示す32ビットのユニークなコードである。time_code
(時刻情報)は、18bitで構成され、GOVにおいて、最
初に表示されるVOPの秒精度の表示時刻を表す。この
time_codeは、IEC standardpublication 461で規定され
ている「time and control codes for video tape reco
rders」に相当する。Group_VOP_start_code is a unique 32-bit code indicating the start position of the GOV. time_code
The (time information) is formed of 18 bits, and represents the display time of the VOP displayed first with a second precision in the GOV. this
time_code is `` time and control codes for video tape reco specified in IEC standardpublication 461.
rders ".
【0113】closed_gopおよびbroken_linkについて
は、MPEG4VideoFCD規格(ISO/IEC 14496-2)を参照された
い。For closed_gop and broken_link, refer to the MPEG4VideoFCD standard (ISO / IEC 14496-2).
【0114】is_extension(ヘッダ情報有無フラグ)
は、本実施の形態で導入した1ビットのフラグで、GOV
ヘッダに、VS,VISO,VO,VOLの各ヘッダ
の、デコーダの初期化を行うための情報、その他の情報
を含めるかどうかを表す。VLC器6では、例えば、フ
ラグis_extensionが1の場合、VS,VISO,VO,
VOLの各ヘッダの情報(VisualObjectSequence(), Vi
sualObject(), VideoObject(), VideoObjectLayer())
が、GOVヘッダに含められる。即ち、フラグis_extensio
nが1の場合、VS,VISO,VO,VOLの各ヘッ
ダの情報は、group_VOP_start_code,time_code,close
d_gop,broken_link,is_extensionの後に続けて配置さ
れる。Is_extension (header information presence / absence flag)
Is a 1-bit flag introduced in the present embodiment.
Indicates whether the header includes information for initializing the decoder and other information of each header of VS, VISO, VO, and VOL. In the VLC unit 6, for example, when the flag is_extension is 1, VS, VISO, VO,
Information of each header of VOL (VisualObjectSequence (), Vi
sualObject (), VideoObject (), VideoObjectLayer ())
Is included in the GOV header. That is, the flag is_extensio
When n is 1, information of each header of VS, VISO, VO, and VOL is group_VOP_start_code, time_code, close
It is placed after d_gop, broken_link, and is_extension.
【0115】さらに、フラグis_extensionが1の場合
は、VLC器6は、VS,VISO,VO,VOLの各
ヘッダの情報を、GOVヘッダに含めた後、その含めたV
S,VISO,VO,VOLの各ヘッダの情報を、バッ
ファ16に供給し、いままで記憶されていた情報に替え
て記憶させる。Further, when the flag is_extension is 1, the VLC unit 6 includes the information of each header of VS, VISO, VO, and VOL in the GOV header, and then includes the V
The information of each header of S, VISO, VO, and VOL is supplied to the buffer 16 and stored in place of the information stored up to now.
【0116】なお、VLC器6は、VS,VISO,V
O,VOLの各ヘッダを、その後に出力したときも、そ
のヘッダの情報をバッファ16に供給して記憶させる。Note that the VLC unit 6 has VS, VISO, V
When the O and VOL headers are subsequently output, the information of the headers is supplied to the buffer 16 and stored.
【0117】従って、バッファ16には、常に最新のV
S,VISO,VO,VOLのヘッダの情報が記憶され
ていることになる。Therefore, the buffer 16 always has the latest V
This means that the header information of S, VISO, VO, and VOL is stored.
【0118】ここで、フラグis_extensionが1の場合
に、VS,VISO,VO,VOLの各ヘッダの情報
を、GOVヘッダに含めた後、その含めたVS,VIS
O,VO,VOLの各ヘッダの情報を、バッファ16に
供給して記憶させるのは、次のような理由による。Here, when the flag is_extension is 1, information of each header of VS, VISO, VO, and VOL is included in the GOV header, and the included VS and VIS are included.
The information of each header of O, VO, and VOL is supplied to and stored in the buffer 16 for the following reason.
【0119】即ち、VLC器6には、符号化効率を向上
させる等のため、GOVヘッダに含めさせるVS,VIS
O,VO,VOLの各ヘッダの情報を変更させることが
できる。この場合、その変更後の情報が最新の情報とい
うことになるので、その最新の情報を、バッファ16に
記憶させておくために、GOVヘッダに含めたVS,VI
SO,VO,VOLの各ヘッダの情報を、バッファ16
に供給して記憶させるようになされている。That is, the VLC unit 6 includes VS and VIS included in the GOV header in order to improve the coding efficiency.
The information of each header of O, VO, and VOL can be changed. In this case, since the information after the change is the latest information, the VS and VI included in the GOV header are stored in the buffer 16 in order to store the latest information.
The information of each header of SO, VO and VOL is stored in the buffer 16.
To be stored in the memory.
【0120】一方、フラグis_extensionが0の場合、V
LC器6では、VS,VISO,VO,VOLの各ヘッ
ダの情報は、GOVヘッダに含められない。On the other hand, if the flag is_extension is 0, V
In the LC unit 6, the information of each header of VS, VISO, VO, and VOL is not included in the GOV header.
【0121】なお、バッファ16の記憶値は、外部から
変更することが可能なようになっている。即ち、VS,
VISO,VO,VOLの各ヘッダの情報の一部または
全部を、符号化ビットストリームの途中で変化させたい
場合がある。即ち、例えば、デコードに用いる量子化マ
トリクスを、符号化ビットストリームの復号の途中で変
更したい場合などがある。このような場合、ユーザは、
バッファ16に記憶されているVS,VISO,VO,
VOLの各ヘッダの情報を、適宜、所望の情報に変更す
ることができる。この変更後の情報は、フラグis_exten
sionが1になっているGOVヘッダに配置されて出力され
るから、デコーダでは、そのGOVヘッダを受信した後
に、その変更後の情報に基づいて、デコードが行われる
ことになる。The stored value in the buffer 16 can be changed from outside. That is, VS,
In some cases, it is desired to change part or all of the information of each header of VISO, VO, and VOL in the middle of an encoded bit stream. That is, for example, there is a case where it is desired to change the quantization matrix used for decoding during the decoding of the encoded bit stream. In such a case, the user:
VS, VISO, VO, stored in the buffer 16
The information of each header of the VOL can be appropriately changed to desired information. The information after this change is the flag is_exten
Since the output is placed in the GOV header whose sion is 1, the decoder performs decoding based on the changed information after receiving the GOV header.
【0122】次に、図15のフローチャートを参照し
て、図14に示したようなシンタクスのGOVを出力する
ためのVLC器6の処理について説明する。Next, the processing of the VLC unit 6 for outputting the GOV of the syntax as shown in FIG. 14 will be described with reference to the flowchart of FIG.
【0123】VLC器6は、上述したように、VS,V
ISO,VO,VOL,GOV,VOPそれぞれのヘッ
ダに、本来配置すべき情報を配置し、さらに、量子化器
5の出力の可変長符号化結果を配置することで、符号化
ビットストリームを構成し、送信バッファ7に出力して
いる。As described above, the VLC unit 6 outputs VS, V
The information to be laid out is arranged in the header of each of ISO, VO, VOL, GOV, and VOP, and the result of variable-length encoding of the output of the quantizer 5 is arranged to form an encoded bit stream. , To the transmission buffer 7.
【0124】さらに、VLC器6は、VS,VISO,
VO,VOLの各ヘッダを出力するごとに、各ヘッダに
配置した情報を、バッファ16に出力して記憶させてい
る(上書きしている)。Further, the VLC unit 6 includes VS, VISO,
Each time the VO and VOL headers are output, the information arranged in each header is output to the buffer 16 and stored (overwritten).
【0125】そして、VLC器6は、GOVヘッダを出
力する場合には、ステップS31において、そのGOV
ヘッダについてのフラグis_extensionが1であるかどう
かを判定する。ステップS1において、フラグis_exten
sionが1でない(0である)と判定された場合、VLC
器6は、GOVヘッダに、本来配置すべき情報(図8に
示した情報)およびフラグis_extensionを配置し(V
S,VISO,VO,VOLの各ヘッダの情報は配置し
ない)、その結果得られるGOVヘッダを出力する。そ
して、次のGOVヘッダを出力するタイミングまで待っ
て、ステップS31に戻る。When outputting the GOV header, the VLC unit 6 determines in step S31 that the GOV header
It is determined whether the flag is_extension for the header is 1. In step S1, the flag is_exten
If it is determined that sion is not 1 (it is 0), VLC
The device 6 arranges information to be originally arranged (information shown in FIG. 8) and a flag is_extension in the GOV header (V
The information of each header of S, VISO, VO, and VOL is not arranged), and the resulting GOV header is output. Then, the process waits until the next GOV header is output, and returns to step S31.
【0126】一方、ステップS31において、フラグis
_extensionが1であると判定された場合、ステップS3
2に進み、バッファ16に記憶されているVS,VIS
O,VO,VOLの各ヘッダの最新の情報を読み出し、
その最近の情報およびフラグis_extension、並びに本来
配置すべき情報を、GOVヘッダに配置して出力する。
そして、次のGOVヘッダを出力するタイミングまで待
って、ステップS31に戻る。On the other hand, in step S31, the flag is
If it is determined that _extension is 1, step S3
2 to VS, VIS stored in the buffer 16
Read the latest information of each header of O, VO, VOL,
The latest information, the flag is_extension, and the information to be originally arranged are arranged and output in the GOV header.
Then, the process waits until the next GOV header is output, and returns to step S31.
【0127】なお、各GOVに配置されるフラグis_ext
ensionの値は、例えば、エンコーダの管理者側におい
て、あらかじめ、VLC器に設定されている。The flag is_ext arranged in each GOV
The value of the extension is set in the VLC device in advance, for example, on the administrator side of the encoder.
【0128】次に、図16は、記録媒体201または伝
送媒体202を介して提供される符号化ビットストリー
ムを復号するデコーダの一実施の形態の構成例を示して
いる。このデコーダを構成するバッファ21、IVLC
器22,逆量子化器23,IDCT器24,演算器2
5、フレームメモリ26、動き補償器27は、図25に
示したデコーダを構成するバッファ101、IVLC器
102,逆量子化器103,IDCT器104,演算器
105、フレームメモリ106、動き補償器107にそ
れぞれ対応している。従って、バッファ21乃至動き補
償器27それぞれでは、バッファ101乃至動き補償器
107それぞれの処理と同一の処理が行われる場合があ
り、そのような同一の処理についての説明は、適宜省略
する。FIG. 16 shows a configuration example of an embodiment of a decoder for decoding an encoded bit stream provided via the recording medium 201 or the transmission medium 202. Buffer 21, IVLC constituting this decoder
Unit 22, inverse quantizer 23, IDCT unit 24, arithmetic unit 2
5. The frame memory 26 and the motion compensator 27 are a buffer 101, an IVLC unit 102, an inverse quantizer 103, an IDCT unit 104, an arithmetic unit 105, a frame memory 106, and a motion compensator 107 which constitute the decoder shown in FIG. Respectively. Therefore, in each of the buffer 21 to the motion compensator 27, the same processing as the processing of each of the buffer 101 to the motion compensator 107 may be performed, and the description of such the same processing will be appropriately omitted.
【0129】記録媒体201または伝送媒体202を介
して提供される符号化ビットストリームは、受信バッフ
ァ21(受信手段)で受信されて一時記憶される。そし
て、受信バッファ21に記憶された符号化ビットストリ
ームは、適宜、IVLC(可変長復号)器22によって
読み出される。The coded bit stream provided via the recording medium 201 or the transmission medium 202 is received by the reception buffer 21 (receiving means) and is temporarily stored. Then, the encoded bit stream stored in the reception buffer 21 is read out by an IVLC (variable length decoding) unit 22 as appropriate.
【0130】IVLC器22(復号手段)は、受信バッ
ファ21から読み出した符号化ビットストリームを可変
長復号し、動きベクトルおよび予測モードを、動き補償
器27に、また、量子化ステップを逆量子化器23に、
それぞれ出力するとともに、可変長復号された画像デー
タ(量子化されたDCT係数)を、逆量子化器23に出
力する。なお、IVLC器22は、その他、各階層のヘ
ッダに含まれている、デコーダのデコード処理に用いら
れるパラメータの初期化に必要な情報、その他の情報
(例えば、オーバラップ動き補償を行うかどうかを示す
フラグや、量子化マトリクスなど)を、適宜、必要なブ
ロックに供給する(例えば、オーバラップ動き補償を行
うかどうかを示すフラグは動き補償器27に、量子化マ
トリクスは逆量子化器23に、それぞれ供給される)The IVLC unit 22 (decoding means) performs variable-length decoding on the coded bit stream read from the reception buffer 21, sends the motion vector and the prediction mode to the motion compensator 27, and inversely quantizes the quantization step. In the vessel 23,
In addition to outputting the image data, the image data (the quantized DCT coefficient) subjected to the variable length decoding is output to the inverse quantizer 23. Note that the IVLC unit 22 also includes information necessary for initializing parameters used for decoding by the decoder, which is included in the header of each layer, and other information (for example, whether to perform overlap motion compensation. To the necessary blocks (for example, a flag indicating whether or not to perform overlap motion compensation) to the motion compensator 27, and a quantization matrix to the inverse quantizer 23. , Each supplied)
【0131】さらに、IVLC器22は、GOVヘッダ
については、フラグis_extensionを復号し、フラグis_e
xtensionが1である場合、即ち、GOVヘッダに、V
S,VISO,VO,VOLの各ヘッダの情報が含まれ
ている場合、その情報も、VS,VISO,VO,VO
Lの各ヘッダと同様に可変長復号し、その復号結果を、
必要なブロックに供給する。具体的には、例えば、動き
ベクトル、予測モード、オーバーラップ動き補償を行う
かどうかを示すフラグなどは動き補償器27に、量子化
ステップおよび量子化マトリクスなどは逆量子化器23
に、それぞれ供給される。Further, the IVLC unit 22 decodes the flag is_extension for the GOV header, and
If xtension is 1, ie, the GOV header
When the information of each header of S, VISO, VO, and VOL is included, the information is also included in VS, VISO, VO, and VO.
Variable-length decoding is performed in the same manner as each header of L, and the decoding result is
Supply necessary blocks. Specifically, for example, a motion vector, a prediction mode, a flag indicating whether to perform overlap motion compensation, and the like are provided to the motion compensator 27, and a quantization step and a quantization matrix are provided to the inverse quantizer 23.
, Respectively.
【0132】また、IVLC器22は、符号化ビットス
トリームに含まれるフラグFSZおよびFPOSを復号し、フ
レームメモリ26、動き補償器27、およびキー信号復
号器29に供給する。さらに、IVLC器22は、符号
化ビットストリームに含まれる、符号化されたキー信号
(キー信号ビットストリーム)を抽出し、キー信号復号
器29に供給する。The IVLC unit 22 decodes the flags FSZ and FPOS included in the encoded bit stream, and supplies them to the frame memory 26, the motion compensator 27, and the key signal decoder 29. Further, the IVLC unit 22 extracts an encoded key signal (key signal bit stream) included in the encoded bit stream, and supplies the extracted key signal to the key signal decoder 29.
【0133】キー信号復号器29は、IVLC器22よ
り供給されるキー信号ビットストリームを復号する。こ
の復号されたキー信号は、IDCT器24、動き補償器2
7、および画素置換器28に供給される。The key signal decoder 29 decodes the key signal bit stream supplied from the IVLC unit 22. The decoded key signal is sent to the IDCT unit 24 and the motion compensator 2
7 and the pixel replacement unit 28.
【0134】逆量子化器23は、IVLC器22より供
給される画像データを、同じくIVLC器22より供給
される量子化ステップに従って逆量子化し、IDCT器24
に出力する。IDCT器24は、逆量子化器23より出
力されたデータ(DCT係数)に対して、逆DCT処理を施
し、演算器25に供給する。The inverse quantizer 23 inversely quantizes the image data supplied from the IVLC unit 22 in accordance with the quantization step also supplied from the IVLC unit 22, and the IDCT unit 24
Output to The IDCT unit 24 performs an inverse DCT process on the data (DCT coefficient) output from the inverse quantizer 23, and supplies the data to the arithmetic unit 25.
【0135】演算器25は、IDCT器24より供給された
画像データが、I−VOPのデータである場合、そのデ
ータを、その後に入力される画像データ(PまたはB−
VOPのデータ)の予測画像の生成のために、そのま
ま、画素置換器28を介してフレームメモリ26に供給
して記憶させる。When the image data supplied from the IDCT unit 24 is I-VOP data, the arithmetic unit 25 converts the data into image data (P or B-
In order to generate a predicted image of VOP data), it is supplied to the frame memory 26 via the pixel replacement unit 28 and stored as it is.
【0136】なお、画素置換器28では、図12の画素
置換器15と同様の処理が行われる。Note that the pixel replacement unit 28 performs the same processing as the pixel replacement unit 15 in FIG.
【0137】一方、演算器25に供給されるデータが、
PまたはB−VOPのデータである場合、動き補償器2
7は、IVLC器22より供給される動きベクトルおよ
び予測モードに従って、フレームメモリ26に記憶され
た、既に復号されている画像を読み出すことで、予測画
像を生成し、演算器25に出力する。演算器25ではID
CT器24より供給される画像データ(差分データ)と、
動き補償器27より供給される予測画像データを加算
し、復号画像とする。この復号画像は、画素置換器28
を介してフレームメモリ26に供給されて記憶され、後
に復号する画像の参照画像(予測画像を生成するために
参照される画像)として、適宜用いられる。また、フレ
ームメモリ26に記憶された復号画像は、上述したよう
に参照画像として用いられる他、適宜読み出され、例え
ば、図示せぬディスプレイなどに供給されて表示され
る。On the other hand, the data supplied to the arithmetic unit 25 is
If the data is P or B-VOP data, the motion compensator 2
Reference numeral 7 reads a previously decoded image stored in the frame memory 26 in accordance with the motion vector and the prediction mode supplied from the IVLC unit 22 to generate a predicted image and output it to the calculator 25. In computing unit 25, ID
Image data (difference data) supplied from the CT unit 24,
The predicted image data supplied from the motion compensator 27 is added to obtain a decoded image. This decoded image is output to the pixel replacement unit 28
Is supplied to and stored in the frame memory 26 via the CPU, and is appropriately used as a reference image (image referred to for generating a predicted image) of an image to be decoded later. The decoded image stored in the frame memory 26 is not only used as a reference image as described above, but is also appropriately read and supplied to, for example, a display (not shown) and displayed.
【0138】次に、図17のフローチャートを参照し
て、図16のIVLC器22がGOVヘッダに関して行
う処理について、さらに説明する。Next, the processing performed by the IVLC unit 22 of FIG. 16 on the GOV header will be further described with reference to the flowchart of FIG.
【0139】IVLC器22は、GOVヘッダを受信す
ると、そのGOVヘッダについて、通常行うべき処理
(図8に示したGOVヘッダが送信されてきたときに行
うべき処理)を行い、さらに、ステップS41におい
て、GOVヘッダ(図14)に配置されているフラグis
_extensionが1であるかどうかを判定する。ステップS
41において、フラグis_extensionが1でない(0であ
る)と判定された場合、即ち、GOVヘッダに、VS,
VISO,VO,VOLの各ヘッダの情報が含まれてい
ない場合、次のGOVヘッダが送信されてくるのを待っ
て、ステップS41に戻る。When the IVLC unit 22 receives the GOV header, the IVLC unit 22 performs a process to be performed normally (a process to be performed when the GOV header shown in FIG. 8 is transmitted) with respect to the GOV header. , The flag is located in the GOV header (FIG. 14)
Determine whether _extension is 1 or not. Step S
41, if it is determined that the flag is_extension is not 1 (it is 0), that is, VS,
If the information of each header of VISO, VO, and VOL is not included, the process returns to step S41 after waiting for the next GOV header to be transmitted.
【0140】また、ステップS41において、フラグis
_extensionが1であると判定された場合、即ち、GOV
ヘッダに、VS,VISO,VO,VOLの各ヘッダの
情報が含まれている場合、ステップS42に進み、IV
LC器22は、そのVS,VISO,VO,VOLの各
ヘッダの情報を、必要なブロックに供給し、次のGOV
ヘッダが送信されてくるのを待って、ステップS41に
戻る。In step S41, the flag is
If it is determined that _extension is 1, ie, GOV
If the header includes the information of each header of VS, VISO, VO, and VOL, the process proceeds to step S42,
The LC unit 22 supplies the information of each header of the VS, VISO, VO, and VOL to a necessary block, and outputs the next GOV.
After the header is transmitted, the process returns to step S41.
【0141】次に、GOVは、図14に示したシンタク
スの他、例えば、図18に示すシンタクスのように構成
することも可能である。Next, in addition to the syntax shown in FIG. 14, the GOV can be configured, for example, like the syntax shown in FIG.
【0142】即ち、図18は、GOVのシンタクスの他
の例を示している。なお、図14と図18とでは、brok
en_linkの下からnext_start_codeの上までの間が異なっ
ている。また、図18において影を付してある部分が、
図8に示したFCDにおけるシンタクスと異なる部分と
なっている。That is, FIG. 18 shows another example of the syntax of GOV. In FIGS. 14 and 18, brok
The distance from the bottom of en_link to the top of next_start_code is different. Also, the shaded portions in FIG.
It is different from the syntax in the FCD shown in FIG.
【0143】図14の実施の形態では、フラグis_exten
sionにより、VS,VISO,VO,VOLの各ヘッダ
の情報を、GOVヘッダにおいて伝送するかどうかだけ
が設定可能であったが、図18の実施の形態では、フラ
グload_data_typeを採用することにより、VS,VIS
O,VO,VOLの各ヘッダの情報すべてを、GOVヘ
ッダにおいて伝送するかどうかだけでなく、それらの情
報の一部のみを伝送するような設定も可能になってい
る。即ち、図18の実施の形態では、VS,VISO,
VO,VOLの各ヘッダの情報の一部だけを、GOVヘ
ッダに含ませることが可能であり、フラグload_data_ty
peによれば、そのGOVヘッダに含ませる一部の情報を
識別することができるようになされている。In the embodiment shown in FIG. 14, the flag is_exten
With sion, it was possible to set only whether or not to transmit the information of each header of VS, VISO, VO, and VOL in the GOV header. However, in the embodiment of FIG. 18, by adopting the flag load_data_type, , VIS
It is possible to set whether or not to transmit all the information of each header of O, VO, and VOL in the GOV header as well as to transmit only a part of the information. That is, in the embodiment of FIG. 18, VS, VISO,
Only part of the information of each header of VO and VOL can be included in the GOV header, and the flag load_data_ty
According to pe, a part of information included in the GOV header can be identified.
【0144】具体的には、図18において、load_data_
typeは、可変長符号で、この直後に、ランダムアクセス
時にデコーダを初期化するための情報等を伝送するかど
うかと、伝送する場合には、その伝送する情報の種類を
示す。即ち、例えば、図19に示すように、load_data_
typeが'1'のときには、GOV層より上位階層のヘッダ
の情報は、GOVには含められない。また、load_data_
typeが'01'のときには、図14の実施の形態においてフ
ラグis_extensionが1である場合と同様に、VS,VI
SO,VO,VOLの各ヘッダの情報(VisualObjectSe
quence(), VisualObject(), VideoObject(), VideoObje
ctLayer())のすべてが、GOVに含められる。さら
に、load_data_typeが'001'のときには、VS,VIS
O,VO,VOLの各ヘッダの情報のうち、予め定めら
れた所定のパラメータの情報が、GOVに含められる。Specifically, in FIG. 18, load_data_
The type is a variable-length code, and indicates immediately after whether or not information for initializing a decoder at the time of random access is to be transmitted and, if so, the type of information to be transmitted. That is, for example, as shown in FIG.
When the type is “1”, the information of the header in the higher layer than the GOV layer is not included in the GOV. Also, load_data_
When the type is '01', VS and VI are set in the same manner as in the case where the flag is_extension is 1 in the embodiment of FIG.
SO, VO, VOL header information (VisualObjectSe
quence (), VisualObject (), VideoObject (), VideoObje
ctLayer ()) are all included in the GOV. Further, when load_data_type is '001', VS, VIS
Among the information of the O, VO, and VOL headers, information of predetermined parameters is included in the GOV.
【0145】即ち、図18の実施の形態において、load
_data_typeが'001'のときにGOVに含められる情報
は、download_parameters()として規定されている。That is, in the embodiment of FIG.
Information included in the GOV when _data_type is '001' is defined as download_parameters ().
【0146】ここで、本実施の形態では、download_par
ameters()は、例えば、図20に示すように規定されて
いる。Here, in the present embodiment, download_par
ameters () is defined, for example, as shown in FIG.
【0147】図20において、フラグobmc_disableは、
オーバーラップ動き補償を用いるかどうかを示す1ビッ
トのフラグである。この値が、'1'である場合には、オ
ーバーラップ動き補償は用いられず、'0'である場合に
は、オーバーラップ動き補償が用いられる。フラグquan
t_typeは、逆量子化の方法を示す1ビットのフラグであ
る。この値が'0'である場合には、H.263に規定されてい
る逆量子化方法を用いて逆量子化が行われ、'1'である
場合には、MPEG2に規定されている逆量子化方法を用い
て逆量子化が行われる。MPEG2に規定されている逆量子
化方法を用いる場合には、さらに、量子化マトリクスを
ダウンロードするかどうかを示すフラグが伝送される。
また、量子化マトリクスをダウンロードする場合には、
そのダウンロードする量子化マトリクスも伝送される。In FIG. 20, the flag obmc_disable is
This is a 1-bit flag indicating whether to use overlap motion compensation. When this value is “1”, overlap motion compensation is not used, and when this value is “0”, overlap motion compensation is used. Flag quan
t_type is a 1-bit flag indicating a method of inverse quantization. If this value is '0', inverse quantization is performed using the inverse quantization method specified in H.263, and if '1', the inverse quantization specified in MPEG2 is used. Inverse quantization is performed using a quantization method. When the inverse quantization method specified in MPEG2 is used, a flag indicating whether to download the quantization matrix is further transmitted.
Also, when downloading the quantization matrix,
The quantization matrix to be downloaded is also transmitted.
【0148】その他、図20のdownload_parameters()
において規定されているload_intra_quant_mat, intra_
quant_mat, load_nonintra_quant_mat, nonintra_quant
_mat,load_intra_quant_mat_grayscale, iontra_quant_
mat_grayscale, load_nonintra_quant_mat_grayscale,
nonintra_quant_mat_grayscaleのセマンティクスは、F
CDにおけるVOL(図5乃至図7)で規定されている
同名のフラグのセマンティクスと同様である。In addition, download_parameters () in FIG.
Load_intra_quant_mat, intra_ specified in
quant_mat, load_nonintra_quant_mat, nonintra_quant
_mat, load_intra_quant_mat_grayscale, iontra_quant_
mat_grayscale, load_nonintra_quant_mat_grayscale,
The semantics of nonintra_quant_mat_grayscale is F
This is the same as the semantics of the flag of the same name defined in the VOL (FIGS. 5 to 7) on the CD.
【0149】なお、図19の実施の形態では、フラグlo
ad_data_typeについて、3通りの場合しか規定していな
いが、4通り以上の場合を規定することも可能である。
この場合、図20のdownload_parameters()で規定され
る情報の組み合わせとは異なる組み合わせの情報を、G
OVヘッダに配置することが可能となる。In the embodiment shown in FIG. 19, the flag lo
Although only three cases are defined for ad_data_type, it is also possible to define four or more cases.
In this case, information of a combination different from the combination of information defined by download_parameters () in FIG.
It can be arranged in the OV header.
【0150】図21は、図18に示したGOVヘッダを
出力するエンコーダの一実施の形態の構成例を示してい
る。なお、図中、図12における場合と対応する部分に
ついては、同一の符号を付してある。即ち、図21のエ
ンコーダは、パーサ17(選択手段)が新たに設けられ
ている他は、図12における場合と同様に構成されてい
る。FIG. 21 shows a configuration example of an embodiment of an encoder that outputs the GOV header shown in FIG. In the figure, the same reference numerals are given to portions corresponding to the case in FIG. That is, the encoder of FIG. 21 has the same configuration as that of FIG. 12 except that a parser 17 (selection means) is newly provided.
【0151】パーサ(フラグ識別器)17は、VLC器
6が出力しようとしているGOVヘッダについてのフラ
グload_data_typeを参照し、そのフラグload_data_type
にしたがって、バッファ16から情報を読み出し、VL
C器6に供給する。VLC器6では、パーサ17から供
給される情報が、フラグload_data_typeとともに、GO
Vヘッダの図18に示した所定の位置に配置されて出力
される。The parser (flag discriminator) 17 refers to the flag load_data_type for the GOV header that the VLC unit 6 is going to output, and the flag load_data_type
, The information is read from the buffer 16 and VL
It is supplied to the C unit 6. In the VLC device 6, the information supplied from the parser 17 together with the flag load_data_type together with the GO
It is arranged and output at the predetermined position shown in FIG. 18 of the V header.
【0152】次に、図22のフローチャートを参照し
て、図18に示したようなシンタクスのGOVをVLC器
6に出力させるためのパーサ17の処理について説明す
る。Next, the processing of the parser 17 for outputting the GOV of the syntax as shown in FIG. 18 to the VLC unit 6 will be described with reference to the flowchart of FIG.
【0153】VLC器6は、GOVヘッダを出力するタ
イミングで、そのGOVヘッダについてのフラグload_d
ata_typeを、パーサ17に供給する。パーサ17は、V
LC器6からのフラグload_data_typeを受信し、ステッ
プS51において、その値を判定する。ステップS51
において、フラグload_data_typeが1であると判定され
た場合、パーサ17は、VLC器6に対して、何も出力
せず、次のGOVヘッダに配置されたフラグload_data_
typeが、VLC器6から送信されてくるのを待って、ス
テップS51に戻る。この場合、VLC器6では、GO
Vヘッダに、本来配置すべき情報およびload_data_type
を配置し、その結果得られるGOVヘッダを出力する。At the timing when the GOV header is output, the VLC unit 6 sets the flag load_d for the GOV header.
The ata_type is supplied to the parser 17. The parser 17
The flag load_data_type is received from the LC unit 6, and the value is determined in step S51. Step S51
, When it is determined that the flag load_data_type is 1, the parser 17 does not output anything to the VLC unit 6, and the flag load_data_type placed in the next GOV header is output.
After waiting for the type to be transmitted from the VLC device 6, the process returns to step S51. In this case, in the VLC device 6, GO
Information to be originally placed and load_data_type in the V header
And outputs the resulting GOV header.
【0154】また、ステップS51において、フラグlo
ad_data_typeが01であると判定された場合、ステップ
S52に進み、パーサ17は、バッファ16から、V
S,VISO,VO,VOLの各ヘッダの最新の情報を
読み出し、VLC器6に供給する。そして、次のGOV
ヘッダに配置されたフラグload_data_typeが、VLC器
6から送信されてくるのを待って、ステップS51に戻
る。従って、この場合、VLC器6では、GOVヘッダ
に、本来配置すべき情報およびload_data_typeの他に、
VS,VISO,VO,VOLの各ヘッダの情報も配置
される。In step S51, the flag lo
When it is determined that the ad_data_type is 01, the process proceeds to step S52, where the parser 17
The latest information of each header of S, VISO, VO, and VOL is read and supplied to the VLC unit 6. And the next GOV
After waiting for the flag load_data_type arranged in the header to be transmitted from the VLC device 6, the process returns to step S51. Therefore, in this case, in the VLC device 6, in addition to the information to be originally arranged and the load_data_type,
Information of each header of VS, VISO, VO, and VOL is also arranged.
【0155】一方、ステップS51において、フラグlo
ad_data_typeが001であると判定された場合、ステッ
プS53に進み、パーサ17は、バッファ16に記憶さ
れている情報のうち、図20に示したdownload_paramet
ers()に含まれるものを選択して読み出し、VLC器6
に供給する。そして、次のGOVヘッダに配置されたフ
ラグload_data_typeが、VLC器6から送信されてくる
のを待って、ステップS51に戻る。従って、この場
合、VLC器6では、GOVヘッダに、本来配置すべき
情報およびload_data_typeの他に、図20に示したdown
load_parameters()も配置される。On the other hand, in step S51, the flag lo
When it is determined that the ad_data_type is 001, the process proceeds to step S53, and the parser 17 determines, among the information stored in the buffer 16, the download_paramet shown in FIG.
Select and read out what is included in ers (), and VLC unit 6
To supply. Then, the process returns to step S51 after waiting for the flag load_data_type arranged in the next GOV header to be transmitted from the VLC device 6. Therefore, in this case, in the VLC device 6, in addition to the information to be originally arranged and the load_data_type, the down stream shown in FIG.
load_parameters () is also placed.
【0156】次に、図21のエンコーダから、記録媒体
201または伝送媒体202を介して提供される符号化
ビットストリームは、図16に示した構成のデコーダに
よってデコードすることができる。Next, the coded bit stream provided from the encoder of FIG. 21 via the recording medium 201 or the transmission medium 202 can be decoded by the decoder having the configuration shown in FIG.
【0157】図23は、図16に示した構成のデコーダ
のIVLC器22が、図18に示したシンタクスのGO
Vヘッダに関して行う処理を説明するためのフローチャ
ートである。FIG. 23 shows that the IVLC unit 22 of the decoder having the configuration shown in FIG.
It is a flowchart for demonstrating the process performed about a V header.
【0158】IVLC器22は、GOVヘッダを受信す
ると、そのGOVヘッダについて、通常行うべき処理
(図8に示したGOVヘッダが送信されてきたときに行
うべき処理)を行い、さらに、ステップS61におい
て、GOVヘッダ(図18)に配置されているフラグlo
ad_data_typeの値を判定する。ステップS61におい
て、フラグload_data_typeが1であると判定された場
合、次のGOVヘッダが送信されてくるのを待って、ス
テップS61に戻る。Upon receiving the GOV header, the IVLC unit 22 performs a process to be performed normally (a process to be performed when the GOV header shown in FIG. 8 is transmitted) with respect to the GOV header. , Flag lo located in the GOV header (FIG. 18)
Determine the value of ad_data_type. If it is determined in step S61 that the flag load_data_type is 1, the process returns to step S61 after waiting for the next GOV header to be transmitted.
【0159】また、ステップS61において、フラグlo
ad_data_typeが01であると判定された場合、即ち、G
OVヘッダに、VS,VISO,VO,VOLの各ヘッ
ダの情報が含まれている場合、ステップS62に進み、
IVLC器22は、フラグload_data_typeに基づいて、
そのVS,VISO,VO,VOLの各ヘッダの情報
を、符号化ビットストリームから抽出し、必要なブロッ
クに供給する。即ち、その情報を可変長復号し、その結
果得られる、例えば、動きベクトル、予測モード、およ
びオーバーラップ動き補償を行うかどうかを示すフラグ
を、動き補償器27に、また、量子化ステップおよび量
子化マトリクスを、逆量子化器23に、それぞれ供給す
る。そして、次のGOVヘッダが送信されてくるのを待
って、ステップS61に戻る。In step S61, the flag lo
If ad_data_type is determined to be 01, ie, G
If the OV header includes the information of each header of VS, VISO, VO, and VOL, the process proceeds to step S62,
The IVLC unit 22 determines, based on the flag load_data_type,
The information of each of the VS, VISO, VO, and VOL headers is extracted from the encoded bit stream and supplied to necessary blocks. That is, the information is subjected to variable-length decoding, and the resulting, for example, motion vector, prediction mode, and a flag indicating whether or not to perform overlap motion compensation are sent to the motion compensator 27, The quantization matrices are supplied to the inverse quantizers 23, respectively. Then, the process returns to step S61 after waiting for the next GOV header to be transmitted.
【0160】一方、ステップS61において、フラグlo
ad_data_typeが001であると判定された場合、即ち、
GOVヘッダに、download_parameters()(パラメータ
更新情報)が含まれている場合、ステップS63に進
み、IVLC器22は、フラグload_data_typeに基づい
て、そのdownload_parameters()を、符号化ビットスト
リームから抽出し、必要なブロックに供給する。即ち、
そのdownload_parameters()を可変長復号し、その結果
得られる、例えば、オーバーラップ動き補償を行うかど
うかを示すフラグを、動き補償器27に、また、量子化
ステップおよび量子化マトリクスを、逆量子化器23
に、それぞれ供給する。そして、次のGOVヘッダが送
信されてくるのを待って、ステップS61に戻る。On the other hand, in step S61, the flag lo
When it is determined that ad_data_type is 001, that is,
If the GOV header includes download_parameters () (parameter update information), the process proceeds to step S63, where the IVLC unit 22 extracts the download_parameters () from the encoded bit stream based on the flag load_data_type, and Supply to the new block. That is,
The download_parameters () is subjected to variable-length decoding, and the resulting flag, for example, indicating whether or not to perform overlap motion compensation, is supplied to the motion compensator 27, and the quantization step and the quantization matrix are dequantized. Table 23
Respectively. Then, the process returns to step S61 after waiting for the next GOV header to be transmitted.
【0161】以上のように、GOVのヘッダに、それに
より上位階層のVS,VISO,VO,VOLのヘッダ
の情報の全部または一部(本実施の形態では、図20に
示したdownload_parameters())を含めるようにしたの
で、符号化ビットストリームに対して、ランダムアクセ
ス等し、その途中から、正常な復号を行うことが可能と
なる。さらに、GOVの先頭で、量子化ステップや量子
化マトリクスを変更することが可能となり、その結果、
効率の良い符号化を行うことができるようになる。As described above, in the GOV header, all or part of the information of the headers of the VS, VISO, VO, and VOL in the upper layer (download_parameters () shown in FIG. 20 in this embodiment) Is included, so that random decoding or the like can be performed on the encoded bit stream, and normal decoding can be performed midway. Furthermore, it is possible to change the quantization step and the quantization matrix at the beginning of the GOV, and as a result,
Efficient encoding can be performed.
【0162】以上、本発明を、MPEG4に基づいた符
号化/復号を行うエンコーダ/デコーダに適用した場合
について説明したが、本発明の適用範囲は、MPEG4
に基づいた符号化/復号に限定されるものではない。The case where the present invention is applied to an encoder / decoder that performs encoding / decoding based on MPEG4 has been described above.
However, the present invention is not limited to encoding / decoding based on.
【0163】また、本実施の形態では、download_param
eters()として、図20に示した情報を、GOVのヘッ
ダに含めるようにしたが、download_parameters()とし
てGOVのヘッダに含める情報は、図20に示したもの
に限定されるものではない。In the present embodiment, download_param
Although the information shown in FIG. 20 is included in the GOV header as eters (), the information included in the GOV header as download_parameters () is not limited to the information shown in FIG. 20.
【0164】さらに、図12および図21に示したエン
コーダ、並びに図16に示したデコーダは、ハードウェ
アによって実現することも可能であるし、また、コンピ
ュータなどにプログラムを実行させることによって実現
することも可能である。Further, the encoder shown in FIGS. 12 and 21 and the decoder shown in FIG. 16 can be realized by hardware, or can be realized by causing a computer or the like to execute a program. Is also possible.
【0165】また、MPEG4では、スケーラビリティ
を実現するための階層符号化が可能であるが、本発明
は、階層符号化を行うか否かにかかわらず適用可能であ
る。In MPEG4, hierarchical coding for realizing scalability is possible, but the present invention is applicable regardless of whether or not hierarchical coding is performed.
【0166】[0166]
【発明の効果】以上の如く、本発明の画像符号化装置お
よび画像符号化方法によれば、画像を符号化することに
より得られる符号化ビットストリームの中の、下位階層
のヘッダに、上位階層のヘッダの情報が含められる。従
って、効率的な符号化が可能となる。As described above, according to the image encoding apparatus and the image encoding method of the present invention, the upper layer header is added to the lower layer header in the encoded bit stream obtained by encoding the image. Header information is included. Therefore, efficient encoding becomes possible.
【0167】また、本発明の画像復号装置および画像復
号方法によれば、下位階層のヘッダに、上位階層のヘッ
ダの情報を含めた符号化ビットストリームから、下位階
層のヘッダに含まれる情報が抽出され、その情報に基づ
いて、符号化ビットストリームが復号される。従って、
符号化ビットストリームの途中からでも、正常な復号を
行うことが可能となる。Further, according to the image decoding apparatus and the image decoding method of the present invention, information included in a lower layer header is extracted from an encoded bit stream including a lower layer header including information of an upper layer header. The encoded bit stream is decoded based on the information. Therefore,
Normal decoding can be performed even in the middle of the encoded bit stream.
【0168】さらに、本発明の提供媒体によれば、画像
を符号化して、下位階層のヘッダに、上位階層のヘッダ
の情報を含めることにより得られる符号化ビットストリ
ームが提供される。従って、その符号化ビットストリー
ムの途中からでも、正常な復号を行うことが可能とな
る。Further, according to the providing medium of the present invention, an encoded bit stream obtained by encoding an image and including information of an upper layer header in a lower layer header is provided. Therefore, normal decoding can be performed even in the middle of the encoded bit stream.
【図1】MPEG4規格FCDで規定されている符号化ビット
ストリームの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an encoded bit stream defined by the MPEG4 standard FCD.
【図2】MPEG4規格FCDで規定されているVSのシンタ
クスを示す図である。FIG. 2 is a diagram illustrating the syntax of VS defined by the MPEG4 standard FCD.
【図3】MPEG4規格FCDで規定されているVISOのシ
ンタクスを示す図である。FIG. 3 is a diagram showing the syntax of VISO defined by the MPEG4 standard FCD.
【図4】MPEG4規格FCDで規定されているVOのシンタ
クスを示す図である。FIG. 4 is a diagram illustrating the syntax of a VO defined by the MPEG4 standard FCD.
【図5】MPEG4規格FCDで規定されているVOLのシン
タクスを示す図である。FIG. 5 is a diagram showing the syntax of a VOL defined by the MPEG4 standard FCD.
【図6】MPEG4規格FCDで規定されているVOLのシン
タクスを示す図である。FIG. 6 is a diagram illustrating the syntax of a VOL defined by the MPEG4 standard FCD.
【図7】MPEG4規格FCDで規定されているVOLのシン
タクスを示す図である。FIG. 7 is a diagram showing the syntax of a VOL defined by the MPEG4 standard FCD.
【図8】MPEG4規格FCDで規定されているGOVのシン
タクスを示す図である。FIG. 8 is a diagram showing the syntax of GOV defined by the MPEG4 standard FCD.
【図9】MPEG4規格FCDで規定されているVOPのシン
タクスを示す図である。FIG. 9 is a diagram illustrating the syntax of a VOP defined by the MPEG4 standard FCD.
【図10】MPEG4規格FCDで規定されているVOPのシ
ンタクスを示す図である。FIG. 10 is a diagram illustrating the syntax of a VOP defined by the MPEG4 standard FCD.
【図11】MPEG4規格FCDで規定されているVOPのシ
ンタクスを示す図である。FIG. 11 is a diagram illustrating the syntax of a VOP defined by the MPEG4 standard FCD.
【図12】本発明を適用したエンコーダの一実施の形態
の構成例を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration example of an embodiment of an encoder to which the present invention has been applied.
【図13】図12の画素置換器15の処理を説明するた
めのフローチャートである。FIG. 13 is a flowchart for explaining processing of the pixel replacement unit 15 in FIG. 12;
【図14】図12のVLC器6が出力するGOVのシン
タクスを示す図である。14 is a diagram illustrating the syntax of a GOV output by the VLC device 6 in FIG.
【図15】図12のVLC器6の処理を説明するための
フローチャートである。FIG. 15 is a flowchart for explaining processing of the VLC device 6 in FIG. 12;
【図16】本発明を適用したデコーダの一実施の形態の
構成例を示すブロック図である。FIG. 16 is a block diagram illustrating a configuration example of an embodiment of a decoder to which the present invention has been applied.
【図17】図16のIVLC器22の処理を説明するた
めのフローチャートである。FIG. 17 is a flowchart for explaining processing of the IVLC unit 22 in FIG. 16;
【図18】図21のVLC器6が出力するGOVのシン
タクスを示す図である。18 is a diagram illustrating the syntax of a GOV output from the VLC device 6 in FIG. 21.
【図19】load_data_typeを説明するための図である。FIG. 19 is a diagram for describing load_data_type.
【図20】図18のdownload_parameters()のシンタク
スを示す図である。20 is a diagram illustrating the syntax of download_parameters () in FIG.
【図21】本発明を適用したエンコーダの他の実施の形
態の構成例を示すブロック図である。FIG. 21 is a block diagram illustrating a configuration example of another embodiment of an encoder to which the present invention has been applied.
【図22】図21のパーサ17の処理を説明するための
フローチャートである。FIG. 22 is a flowchart for explaining processing of the parser 17 of FIG. 21;
【図23】図16のIVLC器22の処理を説明するた
めのフローチャートである。FIG. 23 is a flowchart for explaining processing of the IVLC unit 22 in FIG. 16;
【図24】従来のエンコーダの一例の構成を示すブロッ
ク図である。FIG. 24 is a block diagram illustrating a configuration of an example of a conventional encoder.
【図25】従来のデコーダの一例の構成を示すブロック
図である。FIG. 25 is a block diagram showing a configuration of an example of a conventional decoder.
1 フレームメモリ(受信手段), 2 動きベクトル
検出器, 3 演算器, 4 DCT器, 5 量子化
器, 6 VLC器(符号化手段), 7 バッファ,
8 逆量子化器, 9 IDCT器, 10 演算
器, 11 フレームメモリ, 12 動き補償器,
13 キー信号符号化器, 14 キー信号復号器,
15 画素置換器, 16 バッファ, 17 パーサ
(選択手段), 21 バッファ(受信手段), 22
IVLC器(復号手段), 23逆量子化器, 24
IDCT器, 25 演算器, 26 フレームメモ
リ, 27 動き補償器, 28 画素置換器, 29
キー信号復号器, 201 記録媒体, 202 伝
送媒体1 frame memory (receiving means), 2 motion vector detector, 3 operation unit, 4 DCT unit, 5 quantizer, 6 VLC unit (encoding means), 7 buffer,
8 inverse quantizer, 9 IDCT unit, 10 operation unit, 11 frame memory, 12 motion compensator,
13 key signal encoder, 14 key signal decoder,
15 pixel replacement unit, 16 buffers, 17 parser (selection unit), 21 buffers (reception unit), 22
IVLC unit (decoding means), 23 inverse quantizer, 24
IDCT unit, 25 arithmetic unit, 26 frame memory, 27 motion compensator, 28 pixel replacement unit, 29
Key signal decoder, 201 recording medium, 202 transmission medium
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C053 FA21 FA23 FA27 GA11 GB19 GB21 GB26 GB29 GB32 GB38 KA04 LA14 5C059 KK03 MA00 MA04 MA05 MA23 MA31 MB01 MB11 MB22 MB27 MC11 MC14 MC38 ME02 NN01 NN28 PP05 PP06 PP07 RC04 RC24 RC38 SS01 SS07 SS11 UA02 UA05 UA33 UA34 UA39 ──────────────────────────────────────────────────続 き Continued on front page F term (reference) 5C053 FA21 FA23 FA27 GA11 GB19 GB21 GB26 GB29 GB32 GB38 KA04 LA14 5C059 KK03 MA00 MA04 MA05 MA23 MA31 MB01 MB11 MB22 MB27 MC11 MC14 MC38 ME02 NN01 NN28 PP05 PP06 PP07 RC04 RC24 RC38 SS01 SS07 SS11 UA02 UA05 UA33 UA34 UA39
Claims (23)
層構造の符号化ビットストリームを出力する画像符号化
装置であって、 前記画像を受信する受信手段と、 前記画像を符号化し、下位階層のヘッダに、上位階層の
ヘッダの情報を含め、前記符号化ビットストリームを出
力する符号化手段とを備えることを特徴とする画像符号
化装置。1. An image encoding apparatus that encodes an image and outputs an encoded bit stream having a hierarchical structure including a plurality of layers, comprising: a receiving unit that receives the image; And an encoding unit that outputs the encoded bit stream including the information of the header of the upper layer in the header of the image encoding apparatus.
ダに、前記上位階層のヘッダの情報のうち、前記符号化
ビットストリームを復号するためのパラメータの初期化
に必要なものを含めることを特徴とする請求項1に記載
の画像符号化装置。2. The encoding unit according to claim 1, wherein the header of the lower layer includes information necessary for initializing a parameter for decoding the encoded bit stream, among information of the header of the upper layer. The image encoding device according to claim 1, wherein:
ダに、そこに前記上位階層のヘッダの情報を含めるかど
うかを表すヘッダ情報有無フラグを配置し、前記ヘッダ
情報有無フラグが、前記上位階層のヘッダの情報を含め
ることを表しているときのみ、前記下位階層のヘッダ
に、前記上位階層のヘッダの情報を含めることを特徴と
する請求項1に記載の画像符号化装置。3. The encoding means arranges, in the lower layer header, a header information presence / absence flag indicating whether or not to include the information of the upper layer header, and the header information presence / absence flag is 2. The image encoding apparatus according to claim 1, wherein the information of the header of the upper layer is included in the header of the lower layer only when indicating that the information of the header of the layer is included.
ダに、そこに含ませる前記上位階層のヘッダの情報を識
別するための識別フラグを配置し、 前記下位階層のヘッダに含ませる、前記上位階層のヘッ
ダの情報を、前記識別フラグにしたがって選択する選択
手段をさらに備えることを特徴とする請求項1に記載の
画像符号化装置。4. The encoding means arranges, in the lower layer header, an identification flag for identifying information of the higher layer header included therein, and includes the lower layer header in the lower layer header. 2. The image encoding apparatus according to claim 1, further comprising a selection unit that selects information of a header of an upper layer according to the identification flag.
構成されるグループを規定するための階層であり、その
ヘッダに、前記グループの最初に表示される前記画像の
表示時刻に関する時刻情報が含まれるとき、 前記符号化手段は、前記時刻情報より後に、前記上位階
層のヘッダの情報を配置することを特徴とする請求項1
に記載の画像符号化装置。5. The lower hierarchy is a hierarchy for defining a group composed of one or more images, and its header contains time information on the display time of the image displayed first in the group. When included, the encoding unit arranges information of the header of the upper layer after the time information.
An image encoding device according to claim 1.
Experts Group)4の規格に準拠した方式で符号化され
る場合において、 前記符号化手段は、GOV(Group of VOP(Video Objec
t Plane))階層のヘッダに、VS(Visual Object Sequ
ence)階層、VISO(Visual Object)階層、VO(V
ideo Object)階層、またはVOL(Video Object Laye
r)階層のうちの1以上のヘッダの情報を含めることを
特徴とする請求項1に記載の画像符号化装置。6. The image is a moving picture (MPEG).
When encoding is performed by a method conforming to the standards of Experts Group (GOV) 4, the encoding means may include a GOV (Group of VOP (Video Objec).
t Plane)) In the header of the hierarchy, VS (Visual Object Sequ
ence) hierarchy, VISO (Visual Object) hierarchy, VO (V
video object layer or VOL (video object layer)
The image encoding device according to claim 1, wherein r) includes information of one or more headers in a hierarchy.
ッダに、オーバラップ動き補償を用いるか否かを示すフ
ラグ、逆量子化の方法を表すフラグ、または量子化マト
リクスを含めることを特徴とする請求項6に記載の画像
符号化装置。7. The GOV hierarchy header includes a flag indicating whether to use overlap motion compensation, a flag indicating a method of inverse quantization, or a quantization matrix. The image encoding device according to claim 6.
層構造の符号化ビットストリームを出力する画像符号化
方法であって、 前記画像を受信し、 その画像を符号化して、下位階層のヘッダに、上位階層
のヘッダの情報を含め、前記符号化ビットストリームを
出力することを特徴とする画像符号化方法。8. An image encoding method for encoding an image and outputting an encoded bit stream having a hierarchical structure including a plurality of layers, comprising: receiving the image; encoding the image; Outputting the coded bit stream including information of a header of an upper layer.
複数の階層からなる階層構造の符号化ビットストリーム
を復号する画像復号装置であって、 下位階層のヘッダに、上位階層のヘッダの情報を含めた
前記符号化ビットストリームを受信する受信手段と、 前記下位階層のヘッダに含まれる情報を抽出し、その情
報に基づいて、前記符号化ビットストリームを復号する
復号手段とを備えることを特徴とする画像復号装置。9. Obtained by encoding an image,
An image decoding device that decodes an encoded bit stream having a hierarchical structure including a plurality of layers, a receiving unit that receives the encoded bit stream including information of an upper layer header in a lower layer header, An image decoding apparatus, comprising: decoding means for extracting information included in a lower layer header and decoding the encoded bit stream based on the information.
階層のヘッダの情報のうち、前記符号化ビットストリー
ムを復号するためのパラメータの初期化に必要なものが
含まれることを特徴とする請求項9に記載の画像復号装
置。10. The header of the lower layer includes information of the header of the upper layer necessary for initializing a parameter for decoding the coded bit stream. Item 10. The image decoding device according to Item 9.
階層のヘッダの情報を含めるかどうかを表すヘッダ情報
有無フラグが含まれ、 前記復号手段は、前記ヘッダ情報有無フラグが、前記上
位階層のヘッダの情報を含めることを表しているとき、
前記下位階層のヘッダに含まれる、前記上位階層のヘッ
ダの情報を抽出することを特徴とする請求項9に記載の
画像復号装置。11. The header of the lower layer includes a header information presence / absence flag indicating whether or not to include information of the header of the upper layer. When indicating to include header information,
The image decoding apparatus according to claim 9, wherein information of the header of the upper layer included in the header of the lower layer is extracted.
まれる前記上位階層のヘッダの情報を識別するための識
別フラグが含まれ、 前記復号手段は、前記識別フラグに基づいて、前記下位
階層のヘッダに含まれる、前記上位階層のヘッダの情報
を抽出することを特徴とする請求項9に記載の画像復号
装置。12. The lower layer header includes an identification flag for identifying information of the upper layer header included therein, and the decoding unit determines the lower layer header based on the identification flag. 10. The image decoding apparatus according to claim 9, wherein information of the header of the upper layer included in the header is extracted.
ら構成されるグループを規定するための階層であり、そ
のヘッダに、前記グループの最初に表示される前記画像
の表示時刻に関する時刻情報が含まれるとき、 前記上位階層のヘッダの情報は、前記時刻情報より後に
配置されていることを特徴とする請求項9に記載の画像
復号装置。13. The lower hierarchy is a hierarchy for defining a group composed of one or more images, and its header includes time information on the display time of the image displayed first in the group. The image decoding device according to claim 9, wherein when included, the information of the header of the upper layer is arranged after the time information.
EG(Moving Picture Experts Group)4の規格に準拠
した方式で、前記画像を符号化したものである場合にお
いて、 GOV(Group of VOP(Video Object Plane))階層のヘ
ッダに、VS(VisualObject Sequence)階層、VIS
O(Visual Object)階層、VO(Video Object)階
層、またはVOL(Video Object Layer)階層のうちの
1以上のヘッダの情報が含まれることを特徴とする請求
項9に記載の画像復号装置。14. The encoded bit stream may be MP
In the case where the image is encoded by a method based on the standard of EG (Moving Picture Experts Group) 4, the header of the GOV (Group of VOP (Video Object Plane)) layer includes a VS (Visual Object Sequence) layer. , VIS
The image decoding apparatus according to claim 9, wherein information of one or more headers of an O (Visual Object) layer, a VO (Video Object) layer, or a VOL (Video Object Layer) layer is included.
ップ動き補償を用いるか否かを示すフラグ、逆量子化の
方法を表すフラグ、または量子化マトリクスが含まれる
ことを特徴とする請求項14に記載の画像復号装置。15. The method according to claim 14, wherein the GOV layer header includes a flag indicating whether to use overlap motion compensation, a flag indicating an inverse quantization method, or a quantization matrix. An image decoding apparatus according to claim 1.
る、複数の階層からなる階層構造の符号化ビットストリ
ームを復号する画像復号方法であって、 下位階層のヘッダに、上位階層のヘッダの情報を含めた
前記符号化ビットストリームを受信し、 前記下位階層のヘッダに含まれる情報を抽出し、その情
報に基づいて、前記符号化ビットストリームを復号する
ことを特徴とする画像復号方法。16. An image decoding method for decoding an encoded bit stream having a hierarchical structure composed of a plurality of layers, which is obtained by encoding an image, wherein information of an upper layer header is added to a lower layer header. An image decoding method, comprising: receiving the encoded bitstream including the extracted bitstream; extracting information included in the header of the lower layer; and decoding the encoded bitstream based on the information.
る、複数の階層からなる階層構造の符号化ビットストリ
ームを提供する提供媒体であって、 前記画像を符号化して、下位階層のヘッダに、上位階層
のヘッダの情報を含めることにより得られる前記符号化
ビットストリームを提供することを特徴とする提供媒
体。17. A providing medium for providing a coded bit stream having a hierarchical structure composed of a plurality of layers, obtained by coding an image, wherein the image is coded and a header of a lower layer is provided in a header of a lower layer. A providing medium for providing the coded bit stream obtained by including information of a header of a layer.
階層のヘッダの情報のうち、前記符号化ビットストリー
ムを復号するためのパラメータの初期化に必要なものが
含まれることを特徴とする請求項17に記載の提供媒
体。18. The header of the lower layer includes information of the header of the upper layer necessary for initializing parameters for decoding the coded bit stream. Item 18. The providing medium according to Item 17.
階層のヘッダの情報を含めるかどうかを表すヘッダ情報
有無フラグが含まれることを特徴とする請求項17に記
載の提供媒体。19. The providing medium according to claim 17, wherein the lower layer header includes a header information presence / absence flag indicating whether to include information of the upper layer header.
まれる前記上位階層のヘッダの情報を識別するための識
別フラグが含まれることを特徴とする請求項17に記載
の提供媒体。20. The providing medium according to claim 17, wherein the lower layer header includes an identification flag for identifying information of the upper layer header included therein.
ら構成されるグループを規定するための階層であり、そ
のヘッダに、前記グループの最初に表示される前記画像
の表示時刻に関する時刻情報が含まれるとき、 前記上位階層のヘッダの情報は、前記時刻情報より後に
配置されていることを特徴とする請求項17に記載の提
供媒体。21. The lower hierarchy is a hierarchy for defining a group composed of one or more images, and its header contains time information on the display time of the image displayed first in the group. 18. The providing medium according to claim 17, wherein when included, the information of the header of the upper layer is arranged after the time information.
EG(Moving Picture Experts Group)4の規格に準拠
した方式で、前記画像を符号化したものである場合にお
いて、 GOV(Group of VOP(Video Object Plane))階層のヘ
ッダに、VS(VisualObject Sequence)階層、VIS
O(Visual Object)階層、VO(Video Object)階
層、またはVOL(Video Object Layer)階層のうちの
1以上のヘッダの情報が含まれることを特徴とする請求
項17に記載の提供媒体。22. The coded bit stream has an MP
In the case where the image is encoded by a method based on the standard of EG (Moving Picture Experts Group) 4, the header of the GOV (Group of VOP (Video Object Plane)) layer includes a VS (Visual Object Sequence) layer. , VIS
18. The providing medium according to claim 17, wherein information of one or more headers of an O (Visual Object) layer, a VO (Video Object) layer, or a VOL (Video Object Layer) layer is included.
ップ動き補償を用いるか否かを示すフラグ、逆量子化の
方法を表すフラグ、または量子化マトリクスが含まれる
ことを特徴とする請求項22に記載の提供媒体。23. The method according to claim 22, wherein the GOV layer header includes a flag indicating whether to use overlap motion compensation, a flag indicating an inverse quantization method, or a quantization matrix. Provided medium as described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17350098A JP3380981B2 (en) | 1998-06-19 | 1998-06-19 | Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17350098A JP3380981B2 (en) | 1998-06-19 | 1998-06-19 | Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000196900A Division JP2001061145A (en) | 2000-01-01 | 2000-06-29 | Image coding device and method therefor, and image decoding device and method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000013791A true JP2000013791A (en) | 2000-01-14 |
JP3380981B2 JP3380981B2 (en) | 2003-02-24 |
Family
ID=15961677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17350098A Expired - Fee Related JP3380981B2 (en) | 1998-06-19 | 1998-06-19 | Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3380981B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7072574B2 (en) * | 2001-02-05 | 2006-07-04 | Hitachi, Ltd. | Method and apparatus for recording and playing back moving picture data |
JP2008271546A (en) * | 2007-04-13 | 2008-11-06 | Sony Corp | Decoding device and decoding method, and information processing apparatus and information processing method |
US11490121B2 (en) | 2018-09-12 | 2022-11-01 | Panasonic Intellectual Property Management Co., Ltd. | Transform device, decoding device, transforming method, and decoding method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08125966A (en) * | 1994-10-24 | 1996-05-17 | Matsushita Electric Ind Co Ltd | Recording and reproducing device |
-
1998
- 1998-06-19 JP JP17350098A patent/JP3380981B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08125966A (en) * | 1994-10-24 | 1996-05-17 | Matsushita Electric Ind Co Ltd | Recording and reproducing device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7072574B2 (en) * | 2001-02-05 | 2006-07-04 | Hitachi, Ltd. | Method and apparatus for recording and playing back moving picture data |
KR100789507B1 (en) * | 2001-02-05 | 2007-12-28 | 가부시키가이샤 히타치세이사쿠쇼 | Method and Apparatus for Recording and Playing back Moving Picture Data |
JP2008271546A (en) * | 2007-04-13 | 2008-11-06 | Sony Corp | Decoding device and decoding method, and information processing apparatus and information processing method |
US11490121B2 (en) | 2018-09-12 | 2022-11-01 | Panasonic Intellectual Property Management Co., Ltd. | Transform device, decoding device, transforming method, and decoding method |
Also Published As
Publication number | Publication date |
---|---|
JP3380981B2 (en) | 2003-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100323489B1 (en) | Method and device for transcoding bitstream with video data | |
US6400768B1 (en) | Picture encoding apparatus, picture encoding method, picture decoding apparatus, picture decoding method and presentation medium | |
JP3413720B2 (en) | Image encoding method and apparatus, and image decoding method and apparatus | |
US5543847A (en) | Picture coding and decoding method for random accessing | |
US7302002B2 (en) | Image encoder, image encoding method, image decoder, image decoding method, and distribution media | |
JP4313543B2 (en) | Method and apparatus for transform coding a macroblock group of a partially decoded input bitstream | |
JP3413721B2 (en) | Image encoding method and apparatus, and image decoding method and apparatus | |
JP5223769B2 (en) | Decoding device and method, program, and recording medium | |
US6792045B2 (en) | Image signal transcoder capable of bit stream transformation suppressing deterioration of picture quality | |
US5739862A (en) | Reverse playback of MPEG video | |
JP2000078468A (en) | Insertion of logotype based on restricted encoding | |
US20050135486A1 (en) | Transcoding method, medium, and apparatus | |
JP3852366B2 (en) | Encoding apparatus and method, decoding apparatus and method, and program | |
JP3371191B2 (en) | Image signal encoding method and decoding method, and encoding apparatus and decoding apparatus | |
JP4209134B2 (en) | Method and apparatus for upsampling a compressed bitstream | |
KR20050112587A (en) | Video encoding and decoding apparatus, and method thereof | |
JP3380981B2 (en) | Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium | |
JP3263901B2 (en) | Image signal encoding method and apparatus, image signal decoding method and apparatus | |
US8326060B2 (en) | Video decoding method and video decoder based on motion-vector data and transform coefficients data | |
JP2001061145A (en) | Image coding device and method therefor, and image decoding device and method therefor | |
KR20060016947A (en) | Mpeg video encoding system and method for the same | |
JP3356413B2 (en) | Image decoding method and apparatus | |
JP4211023B2 (en) | Moving image processing method and moving image processing apparatus | |
JP2004134889A (en) | Image signal converting apparatus and image signal converting method | |
JP2001045481A (en) | Device and method for encoding image, device and method for decoding image and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021106 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071220 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081220 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091220 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091220 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101220 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111220 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121220 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121220 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131220 Year of fee payment: 11 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |