JP3380981B2 - Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium - Google Patents

Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium

Info

Publication number
JP3380981B2
JP3380981B2 JP17350098A JP17350098A JP3380981B2 JP 3380981 B2 JP3380981 B2 JP 3380981B2 JP 17350098 A JP17350098 A JP 17350098A JP 17350098 A JP17350098 A JP 17350098A JP 3380981 B2 JP3380981 B2 JP 3380981B2
Authority
JP
Japan
Prior art keywords
header
header information
image
information
upper layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17350098A
Other languages
Japanese (ja)
Other versions
JP2000013791A (en
Inventor
輝彦 鈴木
陽一 矢ヶ崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP17350098A priority Critical patent/JP3380981B2/en
Publication of JP2000013791A publication Critical patent/JP2000013791A/en
Application granted granted Critical
Publication of JP3380981B2 publication Critical patent/JP3380981B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像符号化装置お
よび画像符号化方法、画像復号装置および画像復号方
法、並びに記録媒体に関する。特に、例えば、動画像デ
ータを、光磁気ディスクや磁気テープなどの記録媒体に
記録し、これを再生してディスプレイなどに表示した
り、テレビ会議システム、テレビ電話システム、放送用
機器、マルチメディアデータベース検索システムなどの
ように、動画像データを伝送路を介して送信側から受信
側に伝送し、受信側において、これを受信し、表示する
場合や、編集して記録する場合などに用いて好適な画像
符号化装置および画像符号化方法、画像復号装置および
画像復号方法、並びに記録媒体に関する。
TECHNICAL FIELD The present invention relates to an image coding apparatus and an image coding method, an image decoding apparatus and an image decoding method, and a recording medium . In particular, for example, moving image data is recorded on a recording medium such as a magneto-optical disk or a magnetic tape and is reproduced and displayed on a display or the like, or a video conference system, a video telephone system, broadcasting equipment, a multimedia database. Suitable for transmitting moving image data from the transmitting side to the receiving side via a transmission line, such as a search system, and for receiving and displaying this at the receiving side, or for editing and recording. Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium .

【0002】[0002]

【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像データを遠隔地に伝送
するシステムにおいては、伝送路を効率良く利用するた
め、画像データを、そのライン相関やフレーム間相関を
利用して圧縮符号化するようになされている。
2. Description of the Related Art In a system for transmitting moving image data to a remote place, such as a video conference system or a video telephone system, for example, the image data is line-correlated or framed in order to use the transmission line efficiently. The compression coding is performed by using the inter-correlation.

【0003】動画像の高能率符号化方式として代表的な
ものとしては、MPEG(Moving Picture Experts Group)
(蓄積用動画像符号化)方式がある。これはISO−I
EC/JTC1/SC2/WG11において議論され、
標準案として提案されたものであり、動き補償予測符号
化とDCT(Discrete Cosine Transform)符号化を組
み合わせたハイブリッド方式が採用されている。
A typical example of a high-efficiency coding method for moving images is MPEG (Moving Picture Experts Group).
There is a (video encoding for storage) system. This is ISO-I
Discussed in EC / JTC1 / SC2 / WG11,
It has been proposed as a standard proposal, and a hybrid method in which motion compensation predictive coding and DCT (Discrete Cosine Transform) coding are combined is adopted.

【0004】MPEGでは、様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML(Main Profile
at Main Level))である。
In MPEG, several profiles and levels are defined in order to support various applications and functions. The most basic is the main profile main level (MP @ ML (Main Profile
at Main Level)).

【0005】図24は、MPEG方式におけるMP@M
Lのエンコーダの一例の構成を示している。
FIG. 24 shows MP @ M in the MPEG system.
The structure of an example of the encoder of L is shown.

【0006】符号化すべき画像データは、フレームメモ
リ31に入力され、一時記憶される。そして、動きベク
トル検出器32は、フレームメモリ31に記憶された画
像データを、例えば、16画素×16画素などで構成さ
れるマクロブロック単位で読み出し、その動きベクトル
を検出する。
Image data to be encoded is input to the frame memory 31 and temporarily stored. Then, the motion vector detector 32 reads out the image data stored in the frame memory 31, for example, in units of macroblocks composed of 16 pixels × 16 pixels, and detects the motion vector.

【0007】ここで、動きベクトル検出器32において
は、各フレームの画像データを、Iピクチャ、Pピクチ
ャ、またはBピクチャのうちのいずれかとして処理す
る。なお、シーケンシャルに入力される各フレームの画
像を、I,P,Bピクチャのいずれのピクチャとして処
理するかは、予め定められている(例えば、I,B,
P,B,P,・・・B,Pとして処理される)。
Here, the motion vector detector 32 processes the image data of each frame as one of an I picture, a P picture, and a B picture. It should be noted that which of I, P, and B pictures is to be processed as an image of each frame that is sequentially input is predetermined (for example, I, B, or B).
Processed as P, B, P, ... B, P).

【0008】即ち、動きベクトル検出器32は、フレー
ムメモリ31に記憶された画像の中の、予め定められた
所定の参照フレームを参照し、その参照フレームと、現
在符号化の対象となっているフレームの16画素×16
ラインの小ブロック(マクロブロック)とをパターンマ
ッチング(ブロックマッチング)することにより、その
マクロブロックの動きベクトルを検出する。
That is, the motion vector detector 32 refers to a predetermined reference frame in the image stored in the frame memory 31, and the reference frame and the current encoding target. 16 pixels of frame x 16
By performing pattern matching (block matching) with a small block (macroblock) of a line, the motion vector of that macroblock is detected.

【0009】ここで、MPEGにおいては、画像の予測
モードには、イントラ符号化(フレーム内符号化)、前
方予測符号化、後方予測符号化、両方向予測符号化の4
種類があり、Iピクチャはイントラ符号化され、Pピク
チャはイントラ符号化または前方予測符号化され、Bピ
クチャはイントラ符号化、前方予測符号化、後方予測符
号化、または両方法予測符号化される。
Here, in MPEG, there are four image prediction modes: intra coding (intra-frame coding), forward predictive coding, backward predictive coding, and bidirectional predictive coding.
There are types, I pictures are intra coded, P pictures are intra coded or forward predictive coded, and B pictures are intra coded, forward predictive coded, backward predictive coded, or both methods predictive coded. .

【0010】即ち、動きベクトル検出器32は、Iピク
チャについては、予測モードとしてイントラ符号化モー
ドを設定する。この場合、動きベクトル検出器32は、
動きベクトルの検出は行わず、予測モード(イントラ予
測モード)を、VLC(可変長符号化)器36および動
き補償器42に出力する。
That is, the motion vector detector 32 sets the intra coding mode as the prediction mode for the I picture. In this case, the motion vector detector 32
The motion vector is not detected, and the prediction mode (intra prediction mode) is output to the VLC (variable length coding) unit 36 and the motion compensator 42.

【0011】また、動きベクトル検出器32は、Pピク
チャについては、前方予測を行い、その動きベクトルを
検出する。さらに、動きベクトル検出器32は、前方予
測を行うことにより生じる予測誤差と、符号化対象のマ
クロブロック(Pピクチャのマクロブロック)の、例え
ば分散とを比較し、マクロブロックの分散の方が予測誤
差より小さい場合、予測モードとしてイントラ符号化モ
ードを設定し、VLC器36および動き補償器42に出
力する。また、動きベクトル検出器32は、前方予測を
行うことにより生じる予測誤差の方が小さければ、予測
モードとして前方予測符号化モードを設定し、検出した
動きベクトルとともに、VLC器36および動き補償器
42に出力する。
The motion vector detector 32 also performs forward prediction for P pictures to detect the motion vector. Further, the motion vector detector 32 compares a prediction error caused by performing forward prediction with, for example, the variance of the macroblock to be encoded (macroblock of P picture), and the variance of the macroblock is predicted. If the difference is smaller than the error, the intra coding mode is set as the prediction mode and output to the VLC unit 36 and the motion compensator 42. Further, if the prediction error caused by performing the forward prediction is smaller, the motion vector detector 32 sets the forward prediction coding mode as the prediction mode, and the detected motion vector, the VLC unit 36, and the motion compensator 42 are set. Output to.

【0012】さらに、動きベクトル検出器32は、Bピ
クチャについては、前方予測、後方予測、および両方向
予測を行い、それぞれの動きベクトルを検出する。そし
て、動きベクトル検出器32は、前方予測、後方予測、
および両方向予測についての予測誤差の中の最小のもの
(以下、適宜、最小予測誤差という)を検出し、その最
小予測誤差と、符号化対象のマクロブロック(Bピクチ
ャのマクロブロック)の、例えば分散とを比較する。そ
の比較の結果、マクロブロックの分散の方が最小予測誤
差より小さい場合、動きベクトル検出器32は、予測モ
ードとしてイントラ符号化モードを設定し、VLC器3
6および動き補償器42に出力する。また、動きベクト
ル検出器32は、最小予測誤差の方が小さければ、予測
モードとして、その最小予測誤差が得られた予測モード
を設定し、対応する動きベクトルとともに、VLC器3
6および動き補償器42に出力する。
Further, the motion vector detector 32 performs forward prediction, backward prediction, and bidirectional prediction for the B picture, and detects each motion vector. Then, the motion vector detector 32 uses forward prediction, backward prediction,
And a minimum prediction error (hereinafter, appropriately referred to as a minimum prediction error) among the prediction errors for bidirectional prediction, and the minimum prediction error and, for example, the variance of the macroblock to be encoded (the macroblock of the B picture). Compare with. As a result of the comparison, when the variance of the macroblock is smaller than the minimum prediction error, the motion vector detector 32 sets the intra coding mode as the prediction mode, and the VLC unit 3
6 and the motion compensator 42. If the minimum prediction error is smaller, the motion vector detector 32 sets the prediction mode in which the minimum prediction error is obtained as the prediction mode, and the VLC unit 3 with the corresponding motion vector.
6 and the motion compensator 42.

【0013】動き補償器42は、動きベクトル検出器3
2から予測モードと動きベクトルの両方を受信すると、
その予測モードおよび動きベクトルにしたがって、フレ
ームメモリ41に記憶されている、符号化され、既に局
所復号された画像データを読み出し、これを、予測画像
として、演算器33および40に供給する。
The motion compensator 42 is a motion vector detector 3
When receiving both the prediction mode and the motion vector from 2,
According to the prediction mode and the motion vector, the encoded and already locally decoded image data stored in the frame memory 41 is read out, and this is supplied to the computing units 33 and 40 as a predicted image.

【0014】演算器33は、動きベクトル検出器32が
フレームメモリ31から読み出した画像データと同一の
マクロブロックを、フレームメモリ31から読み出し、
そのマクロブロックと、動き補償器42からの予測画像
との差分を演算する。この差分値は、DCT器34に供
給される。
The calculator 33 reads from the frame memory 31 the same macroblock as the image data read from the frame memory 31 by the motion vector detector 32,
The difference between the macroblock and the predicted image from the motion compensator 42 is calculated. This difference value is supplied to the DCT device 34.

【0015】一方、動き補償器42は、動きベクトル検
出器32から予測モードのみを受信した場合、即ち、予
測モードがイントラ符号化モードである場合には、予測
画像を出力しない。この場合、演算器33(後述する演
算器40も同様)は、特に処理を行わず、フレームメモ
リ31から読み出したマクロブロックを、そのままDC
T器34に出力する。
On the other hand, the motion compensator 42 does not output the predicted image when it receives only the prediction mode from the motion vector detector 32, that is, when the prediction mode is the intra coding mode. In this case, the arithmetic unit 33 (similarly to the arithmetic unit 40 to be described later) does not perform any processing, and the macroblock read from the frame memory 31 is directly processed by the DC
Output to the T unit 34.

【0016】DCT器34では、演算器33の出力に対
して、DCT処理が施され、その結果得られるDCT係
数が、量子化器35に供給される。量子化器35では、
バッファ37のデータ蓄積量(バッファ37に記憶され
ているデータの量)(バッファフィードバック)に対応
して量子化ステップ(量子化スケール)が設定され、そ
の量子化ステップで、DCT器34からのDCT係数が
量子化される。この量子化されたDCT係数(以下、適
宜、量子化係数という)は、設定された量子化ステップ
とともに、VLC器36に供給される。
In the DCT unit 34, the output of the arithmetic unit 33 is subjected to DCT processing, and the resulting DCT coefficient is supplied to the quantizer 35. In the quantizer 35,
A quantization step (quantization scale) is set corresponding to the amount of data accumulated in the buffer 37 (the amount of data stored in the buffer 37) (buffer feedback), and the DCT from the DCT unit 34 is set at the quantization step. The coefficients are quantized. The quantized DCT coefficient (hereinafter, appropriately referred to as a quantized coefficient) is supplied to the VLC unit 36 together with the set quantization step.

【0017】VLC器36では、量子化器35より供給
される量子化係数が、例えばハフマン符号などの可変長
符号に変換され、バッファ37に出力される。さらに、
VLC器36は、量子化器35からの量子化ステップ、
動きベクトル検出器32からの予測モード(イントラ符
号化(画像内予測符号化)、前方予測符号化、後方予測
符号化、または両方向予測符号化のうちのいずれが設定
されたかを示すモード)および動きベクトルも可変長符
号化し、バッファ37に出力する。
In the VLC unit 36, the quantized coefficient supplied from the quantizer 35 is converted into a variable length code such as Huffman code, and output to the buffer 37. further,
The VLC unit 36 uses the quantization step from the quantizer 35,
Prediction mode from motion vector detector 32 (mode indicating which of intra coding (intra-picture predictive coding), forward predictive coding, backward predictive coding, or bidirectional predictive coding) is set and motion The vector is also variable-length coded and output to the buffer 37.

【0018】バッファ37は、VLC器36からのデー
タを一時蓄積し、そのデータ量を平滑化して、例えば、
図示せぬ伝送路に出力し、または記録媒体に記録する。
The buffer 37 temporarily stores the data from the VLC device 36, smooths the data amount, and, for example,
The data is output to a transmission path (not shown) or recorded on a recording medium.

【0019】また、バッファ37は、そのデータ蓄積量
を、量子化器35に出力しており、量子化器35は、こ
のバッファ37からのデータ蓄積量にしたがって量子化
ステップを設定する。即ち、量子化器35は、バッファ
37がオーバーフローしそうなとき、量子化ステップを
大きくし、これにより、量子化係数のデータ量を低下さ
せる。また、量子化器35は、バッファ37がアンダー
フローしそうなとき、量子化ステップを小さくし、これ
により、量子化係数のデータ量を増大させる。このよう
にして、バッファ37のオーバフローとアンダフローを
防止するようになっている。
The buffer 37 also outputs the data storage amount to the quantizer 35, and the quantizer 35 sets the quantization step in accordance with the data storage amount from the buffer 37. That is, the quantizer 35 increases the quantization step when the buffer 37 is about to overflow, thereby reducing the data amount of the quantization coefficient. The quantizer 35 reduces the quantization step when the buffer 37 is likely to underflow, thereby increasing the data amount of the quantization coefficient. In this way, overflow and underflow of the buffer 37 are prevented.

【0020】量子化器35が出力する量子化係数と量子
化ステップは、VLC器36だけでなく、逆量子化器3
8にも供給されるようになされている。逆量子化器38
では、量子化器35からの量子化係数が、同じく量子化
器35からの量子化ステップにしたがって逆量子化さ
れ、これによりDCT係数に変換される。このDCT係
数は、IDCT器(逆DCT器)39に供給される。I
DCT器39では、DCT係数が逆DCT処理され、演
算器40に供給される。
The quantizing coefficient and the quantizing step output by the quantizer 35 are not limited to those of the VLC unit 36, but also of the inverse quantizer 3.
It is designed to be supplied to 8 as well. Inverse quantizer 38
Then, the quantized coefficient from the quantizer 35 is inversely quantized in accordance with the quantization step from the quantizer 35, and converted into the DCT coefficient. The DCT coefficient is supplied to the IDCT device (inverse DCT device) 39. I
In the DCT unit 39, the DCT coefficient is subjected to inverse DCT processing and supplied to the arithmetic unit 40.

【0021】演算器40には、IDCT器39の出力の
他、上述したように、動き補償器42から、演算器33
に供給されている予測画像と同一のデータが供給されて
おり、演算器40は、IDCT器39からの信号(予測
残差)と、動き補償器42からの予測画像とを加算する
ことで、元の画像を、局所復号する(但し、予測モード
がイントラ符号化である場合には、IDCT器39の出
力は、演算器40をスルーして、フレームメモリ41に
供給される)。なお、この復号画像は、受信側において
得られる復号画像と同一のものである。
In addition to the output of the IDCT device 39, the operation device 40 outputs the motion compensator 42 to the operation device 33 as described above.
Is supplied with the same data as the predicted image that is supplied to the arithmetic unit 40, and the arithmetic unit 40 adds the signal (prediction residual) from the IDCT unit 39 and the predicted image from the motion compensator 42, The original image is locally decoded (however, when the prediction mode is intra coding, the output of the IDCT unit 39 is passed through the arithmetic unit 40 and supplied to the frame memory 41). The decoded image is the same as the decoded image obtained on the receiving side.

【0022】演算器40において得られた復号画像(局
所復号画像)は、フレームメモリ41に供給されて記憶
され、その後、インター符号化(前方予測符号化、後方
予測符号化、量方向予測符号化)される画像に対する参
照画像(参照フレーム)として用いられる。
The decoded image (locally decoded image) obtained by the arithmetic unit 40 is supplied to and stored in the frame memory 41, and then inter-coded (forward predictive coding, backward predictive coding, quantity direction predictive coding). ) Is used as a reference image (reference frame) for the image.

【0023】次に、図25は、図24のエンコーダから
出力される符号化データを復号する、MPEGにおける
MP@MLのデコーダの一例の構成を示している。
Next, FIG. 25 shows an example of the structure of an MP @ ML decoder in MPEG for decoding the encoded data output from the encoder of FIG.

【0024】伝送路を介して伝送されてきた符号化デー
タが図示せぬ受信装置で受信され、または記録媒体に記
録された符号化データが図示せぬ再生装置で再生され、
バッファ101に供給されて記憶される。
The encoded data transmitted through the transmission path is received by a receiving device (not shown), or the encoded data recorded on the recording medium is reproduced by a reproducing device (not shown),
The data is supplied to and stored in the buffer 101.

【0025】IVLC器(逆VLC器)(可変長復号
器)102は、バッファ101に記憶された符号化デー
タを読み出し、可変長復号することで、その符号化デー
タを、動きベクトル、予測モード、量子化ステップ、お
よび量子化係数に分離する。これらのうち、動きベクト
ルおよび予測モードは動き補償器107に供給され、量
子化ステップおよび量子化係数は逆量子化器103に供
給される。
The IVLC unit (inverse VLC unit) (variable length decoder) 102 reads the coded data stored in the buffer 101 and performs variable length decoding to convert the coded data into a motion vector, a prediction mode, The quantization step and the quantization coefficient are separated. Of these, the motion vector and the prediction mode are supplied to the motion compensator 107, and the quantization step and the quantization coefficient are supplied to the inverse quantizer 103.

【0026】逆量子化器103は、IVLC器102よ
り供給された量子化係数を、同じくIVLC器102よ
り供給された量子化ステップにしたがって逆量子化し、
その結果得られるDCT係数を、IDCT器104に出
力する。IDCT器104は、逆量子化器103からの
DCT係数を逆DCTし、演算器105に供給する。
The inverse quantizer 103 inversely quantizes the quantized coefficient supplied from the IVLC unit 102 in accordance with the quantization step also supplied from the IVLC unit 102,
The resulting DCT coefficient is output to the IDCT device 104. The IDCT unit 104 performs inverse DCT on the DCT coefficient from the inverse quantizer 103, and supplies it to the arithmetic unit 105.

【0027】演算器105には、IDCT器104の出
力の他、動き補償器107の出力も供給されている。即
ち、動き補償器107は、フレームメモリ106に記憶
されている、既に復号された画像を、図24の動き補償
器41における場合と同様に、IVLC器102からの
動きベクトルおよび予測モードにしたがって読み出し、
予測画像として、演算器105に供給する。演算器10
5は、IDCT器104からの信号(予測残差)と、動
き補償器107からの予測画像とを加算することで、元
の画像を復号する。この復号画像は、フレームメモリ1
06に供給されて記憶される。なお、IDCT器104
の出力が、イントラ符号化されたものである場合には、
その出力は、演算器105をスルーして、そのままフレ
ームメモリ106に供給されて記憶される。
The output of the IDCT unit 104 and the output of the motion compensator 107 are also supplied to the arithmetic unit 105. That is, the motion compensator 107 reads the already-decoded image stored in the frame memory 106 according to the motion vector and the prediction mode from the IVLC unit 102, as in the case of the motion compensator 41 of FIG. ,
The prediction image is supplied to the arithmetic unit 105. Calculator 10
5 decodes the original image by adding the signal (prediction residual) from the IDCT unit 104 and the predicted image from the motion compensator 107. This decoded image is stored in the frame memory 1
06 and stored. The IDCT device 104
If the output of is intra-coded, then
The output passes through the arithmetic unit 105, is supplied to the frame memory 106 as it is, and is stored therein.

【0028】フレームメモリ106に記憶された復号画
像は、その後に復号される画像の参照画像として用いら
れるとともに、適宜読み出され、例えば、図示せぬディ
スプレイなどに供給されて表示される。
The decoded image stored in the frame memory 106 is used as a reference image of an image to be subsequently decoded, and is appropriately read and supplied to, for example, a display not shown for display.

【0029】なお、MPEG1および2では、Bピクチ
ャは、参照画像として用いられないため、エンコーダま
たはデコーダそれぞれにおいて、フレームメモリ41
(図24)または106(図25)には記憶されない。
In MPEG1 and MPEG2, the B picture is not used as a reference image, so that the frame memory 41 is used in each of the encoder and the decoder.
(FIG. 24) or 106 (FIG. 25).

【0030】[0030]

【発明が解決しようとする課題】以上の図24、図25
に示したエンコーダ、デコーダは、MPEG1/2の規
格に準拠したものであるが、現在、画像を構成する物体
などのオブジェクトのシーケンスであるVO(Video Ob
ject)単位で符号化を行う方式につき、ISO−IEC
/JTC1/SC29/WG11において、MPEG
(Moving Picture Experts Group)4として標準化作業
が進められている。
[Problems to be Solved by the Invention]
The encoders and decoders shown in (1) are compliant with the MPEG1 / 2 standard, but are currently VO (Video Ob) which is a sequence of objects such as objects forming an image.
ISO-IEC for the method of encoding in units of
In / JTC1 / SC29 / WG11, MPEG
(Moving Picture Experts Group) 4 is in the process of standardization.

【0031】ところで、MPEG4については、主とし
て、通信の分野で利用されるものとして、標準化作業が
進められていたため、MPEG1/2において規定され
ているGOP(Group Of Picture)は、MPEG4では
規定されておらず、従って、MPEG4が蓄積メディア
に利用された場合には、効率的なランダムアクセスが困
難になることが予想される。
Meanwhile, with regard to MPEG4, since standardization work has been advanced mainly for use in the field of communication, GOP (Group Of Picture) defined in MPEG1 / 2 is defined in MPEG4. Therefore, if MPEG4 is used as a storage medium, it is expected that efficient random access will be difficult.

【0032】このため、本件出願人は、効率的なランダ
ムアクセスを可能とするために、MPEG1/2で規定
されているGOPに相当するGOV(Group Of VOP)層
の導入を、特願平10−80758号において先に提案
しており、また、MPEG4において、このGOV層が
導入された。
Therefore, in order to enable efficient random access, the applicant of the present invention has introduced a GOV (Group Of VOP) layer corresponding to GOP defined by MPEG1 / 2 in Japanese Patent Application No. -80758, previously proposed, and in MPEG4 this GOV layer was introduced.

【0033】ところで、例えば、MPEG1,2,4,
H.263などの規格に準拠して符号化を行うことによ
り得られる符号化ビットストリームは、複数の階層から
なる階層構造を有している。そして、エンコーダ側で
は、各階層には、デコードに必要な情報が、ヘッダに配
置され、デコーダ側では、各階層のヘッダから必要な情
報が抽出され、符号化ビットストリームの復号が行われ
る。
By the way, for example, MPEG 1, 2, 4,
H. An encoded bit stream obtained by performing encoding in accordance with a standard such as H.263 has a hierarchical structure including a plurality of layers. Then, on the encoder side, the information necessary for decoding is arranged in the header in each layer, and on the decoder side, the necessary information is extracted from the header of each layer, and the encoded bit stream is decoded.

【0034】従って、MPEG1/2では、GOPにラ
ンダムアクセスした場合に、そのGOPの復号を行うた
めに上位階層のヘッダの情報が必要となることがあるこ
とから、上位階層の送信後に、適宜、その上位階層のヘ
ッダの情報を再送することが可能な規格となっている。
Therefore, in MPEG1 / 2, when the GOP is randomly accessed, the information of the header of the upper layer may be necessary for decoding the GOP. It is a standard that can retransmit the information of the header of the upper layer.

【0035】しかしながら、MPEG4では、上位階層
の送信後に、適宜、その上位階層のヘッダの情報を再送
することか可能な規格になっておらず、このため、GO
V層の導入により、効率的なランダムアクセスが可能と
なっても、そのGOVの復号を行うために必要な上位階
層のヘッダの情報が得られず、これにより、正常な復号
結果を得られないおそれがある。
However, in MPEG4, there is no standard that it is possible to appropriately retransmit the information of the header of the upper layer after the transmission of the upper layer. Therefore, GO
Even if efficient random access becomes possible by introducing the V layer, the information of the upper layer header necessary for decoding the GOV cannot be obtained, and thus the normal decoding result cannot be obtained. There is a risk.

【0036】ここで、MPEG4の符号化ビットストリ
ームが、蓄積メディアに記録されている場合には、その
記録メディアにアクセスすることで、上位階層のヘッダ
の情報を得ることが可能であるが、符号化ビットストリ
ームが放送等される場合には、その符号化ビットストリ
ームを最初から受信しない限りは、上位階層のヘッダの
情報が得られないことになり、従って、符号化ビットス
トリームの受信を、その途中から開始した場合には、正
常な復号結果を得られないおそれがある。
Here, when the MPEG4 coded bit stream is recorded in the storage medium, it is possible to obtain the information of the header of the upper layer by accessing the recording medium. When a coded bitstream is broadcast, etc., unless the coded bitstream is received from the beginning, the information of the upper layer header cannot be obtained. If it starts in the middle, there is a possibility that a normal decoding result cannot be obtained.

【0037】本発明は、このような状況に鑑みてなされ
たものであり、符号化ビットストリームの途中からで
も、正常な復号を行うことができるようにするものであ
る。
The present invention has been made in view of such a situation, and makes it possible to perform normal decoding even in the middle of an encoded bit stream.

【0038】[0038]

【課題を解決するための手段】本発明の画像符号化装置
は、符号化ビットストリームの上位階層のヘッダ情報を
記憶部に記憶させる記憶手段と、符号化ビットストリー
ムの下位階層のヘッダに配置されている識別フラグに応
じた上位階層のヘッダ情報を記憶部から読み出し、それ
を下位階層のヘッダに配置する配置手段と、配置手段に
より、記憶部から読み出された上位階層のヘッダ情報が
下位階層のヘッダに配置された符号化ビットストリーム
を出力する出力手段とを備え、識別フラグは少なくと
も、上位階層のヘッダ情報を何も伝送しない、上位階層
のヘッダ情報を全て伝送する、若しくは、上位階層のヘ
ッダ情報のうち所定のヘッダ情報のみを伝送する、の3
通りを規定することを特徴とする。
An image coding apparatus according to the present invention is arranged in a storage unit for storing header information of an upper layer of a coded bitstream in a storage unit and a header of a lower layer of the coded bitstream. The header information of the upper layer corresponding to the identification flag is read from the storage unit and arranged in the header of the lower layer, and the header information of the upper layer read from the storage unit by the arrangement unit is the lower layer. and output means for outputting disposed in the header encoded bit stream, the identification flag is small
Also transmits no header information of the upper layer, the upper layer
All header information of the
Of the header information, only certain header information is transmitted, 3
It is characterized by defining a street .

【0039】ヘッダ情報には、オーバーラップ動き補償
を用いるか否かを示すパラメータ、または逆量子化の方
法を表すパラメーを含ませることができる。
Overlap motion compensation is included in the header information.
Parameter indicating whether to use or dequantization
You can include parameters that represent the law.

【0040】記憶手段は、上位階層の最新のヘッダ情報
を記憶部に記憶させることができる。
The storage means stores the latest header information of the upper hierarchy.
Can be stored in the storage unit.

【0041】記憶部に記憶されている上位階層のヘッダ
情報を変更する変更手段をさらに設けることができる。
Upper layer header stored in the storage unit
Change means for changing the information can be further provided.

【0042】本発明の画像符号化方法は、符号化ビット
ストリームの上位階層のヘッダ情報を記憶部に記憶させ
る記憶ステップと、符号化ビットストリームの下位階層
のヘッダに配置されている識別フラグに応じた上位階層
のヘッダ情報を記憶部から読み出し、それを下位階層の
ヘッダに配置する配置ステップと、配置ステップの処理
で記憶部から読み出された上位階層のヘッダ情報が下位
階層のヘッダに配置された符号化ビットストリームを出
力する出力ステップとを含み、識別フラグは少なくと
も、上位階層のヘッダ情報を何も伝送しない、上位階層
のヘッダ情報を全て伝送する、若しくは、上位階層のヘ
ッダ情報のうち所定のヘッダ情報のみを伝送する、の3
通りを規定することを特徴とする。
The image coding method of the present invention is responsive to the storage step of storing the header information of the upper layer of the coded bitstream in the storage section and the identification flag arranged in the header of the lower layer of the coded bitstream. The placement step of reading the header information of the upper layer from the storage unit and placing it in the header of the lower layer, and the header information of the upper layer read from the storage unit in the processing of the placement step is placed in the header of the lower layer. saw including an output step of outputting a coded bit stream, the identification flag is small
Also transmits no header information of the upper layer, the upper layer
All header information of the
Of the header information, only certain header information is transmitted, 3
It is characterized by defining a street .

【0043】本発明の画像符号化装置および方法におい
ては、符号化ビットストリームの上位階層のヘッダ情報
が記憶部に記憶され、符号化ビットストリームの下位階
層のヘッダに配置されている識別フラグに応じた上位階
層のヘッダ情報が記憶部から読み出され、それが下位階
層のヘッダに配置され、記憶部から読み出された上位階
層のヘッダ情報が下位階層のヘッダに配置された符号化
ビットストリームが出力され、識別フラグには少なくと
も、上位階層のヘッダ情報を何も伝送しない、上位階層
のヘッダ情報を全て伝送する、若しくは、上位階層のヘ
ッダ情報のうち所定のヘッダ情報のみを伝送する、の3
通りが規定されている
In the image coding apparatus and method of the present invention, the header information of the upper layer of the coded bitstream is stored in the storage unit, and the header information of the lower layer of the coded bitstream is stored according to the identification flag. The upper-layer header information read from the storage unit is placed in the lower-layer header, and the upper-layer header information read from the storage unit is placed in the lower-layer header. Output and at least the identification flag
Also transmits no header information of the upper layer, the upper layer
All header information of the
Of the header information, only certain header information is transmitted, 3
The street is regulated .

【0044】本発明の画像復号装置は、識別フラグに基
づいて、符号化ビットストリームの下位階層のヘッダに
含まれる上位階層のヘッダ情報を抽出する抽出手段と、
抽出手段により抽出されたヘッダ情報に基づいて、符号
化ビットストリームを復号する復号手段とを備え、識別
フラグは少なくとも、上位階層のヘッダ情報を何も伝送
しない、上位階層のヘッダ情報を全て伝送する、若しく
は、上位階層のヘッダ情報のうち所定のヘッダ情報のみ
を伝送する、の3通りを規定することを特徴とする。
The image decoding apparatus of the present invention comprises an extracting means for extracting the header information of the upper layer contained in the header of the lower layer of the encoded bitstream based on the identification flag,
Decoding means for decoding the coded bit stream based on the header information extracted by the extracting means ,
The flag transmits at least no upper layer header information
No, all upper layer header information is transmitted,
Is only the specified header information in the upper-layer header information
Is specified .

【0045】ヘッダ情報には、オーバーラップ動き補償
を用いるか否かを示すパラメータ、または逆量子化の方
法を表すパラメータが含ませることができる。
The header information can include a parameter indicating whether or not the overlap motion compensation is used, or a parameter indicating a dequantization method.

【0046】本発明の画像復号方法は、識別フラグに基
づいて、符号化ビットストリームの下位階層のヘッダに
含まれる上位階層のヘッダ情報を抽出する抽出ステップ
と、抽出ステップの処理で抽出されたヘッダ情報に基づ
いて、符号化ビットストリームを復号する復号ステップ
とを含み、識別フラグは少なくとも、上位階層のヘッダ
情報を何も伝送しない、上位階層のヘッダ情報を全て伝
送する、若しくは、上位階層のヘッダ情報のうち所定の
ヘッダ情報のみを伝送する、の3通りを規定することを
特徴とする。
According to the image decoding method of the present invention, the extraction step of extracting the header information of the upper layer included in the header of the lower layer of the encoded bitstream based on the identification flag, and the header extracted by the processing of the extraction step. based on the information, see contains a decoding step of decoding the coded bit stream, the identification flag is at least, the upper layer header
Does not transmit any information, transmits all upper-layer header information
To send, or a predetermined number of upper-layer header information
It is characterized by defining three types of transmitting only header information .

【0047】本発明の画像復号装置および方法において
は、識別フラグに基づいて、符号化ビットストリームの
下位階層のヘッダに含まれる上位階層のヘッダ情報が抽
出され、抽出されたヘッダ情報に基づいて、符号化ビッ
トストリームが復号され、識別フラグには少なくとも、
上位階層のヘッダ情報を何も伝送しない、上位階層のヘ
ッダ情報を全て伝送する、若しくは、上位階層のヘッダ
情報のうち所定のヘッダ情報のみを伝送する、の3通り
が規定されている
In the image decoding apparatus and method of the present invention, the upper layer header information included in the lower layer header of the coded bitstream is extracted based on the identification flag, and based on the extracted header information, Encoding bit
Stream is decoded and the identification flag contains at least
The header information of the upper layer that does not transmit any header information of the upper layer
All header information is transmitted, or the upper layer header
Of the information, only the predetermined header information is transmitted.
Is specified .

【0048】[0048]

【発明の実施の形態】以下に、本発明の実施の形態につ
いて説明するが、その前に、MPEG4において規定さ
れている符号化ビットストリームについて説明する。な
お、ここでは、MPEG4規格DraftであるFCD(Final Comitt
ee Draft)における符号化ビットストリームについて説
明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below, but before that, a coded bit stream defined in MPEG4 will be described. In addition, here, FCD (Final Comitt) which is a Draft of MPEG4 standard is used.
An encoded bitstream in ee Draft) will be described.

【0049】図1は、FCDで規定されている符号化ビッ
トストリームの構成を示している。
FIG. 1 shows the structure of a coded bit stream specified by FCD.

【0050】符号化ビットストリームは、同図に示すよ
うに、VS(Visual Object Sequence)層、VISO(V
isual Object)層 、VO(video Object)層、VOL
(Video Object Layer)、GOV(Group of VOP)層、V
OP(Video Object Plane)層などの、複数の階層から
なる階層構造を有している(図1において、上方に位置
している階層ほど、上位の階層を構成する)。
As shown in the figure, the coded bit stream has a VS (Visual Object Sequence) layer, a VISO (V
isual Object) layer, VO (video Object) layer, VOL
(Video Object Layer), GOV (Group of VOP) layer, V
It has a hierarchical structure composed of a plurality of layers such as OP (Video Object Plane) layer (the upper layer in FIG. 1 constitutes a higher layer).

【0051】即ち、符号化ビットストリームは、VSを
単位として構成される。ここで、VSは、画像シーケン
スであり、例えば、一本の番組や映画などに相当する。
That is, the coded bit stream is configured in units of VS. Here, VS is an image sequence and corresponds to, for example, one program or movie.

【0052】各VSは、1以上のVISOから構成され
る。ここで、VISOには、幾つかの種類がある。即
ち、VISOには、例えば、静止画であるスチルテクス
チャオブジェクト(Still Texture Object)や、顔画像
から構成されるフェイスオブジェクト(Face Objec
t)、動画像のオブジェクトであるVO(Video Objec
t)などがある。従って、符号化ビットストリームが動
画像のものである場合、VISOは、VOから構成され
る。
Each VS is composed of one or more VISOs. Here, there are several types of VISO. That is, in the VISO, for example, a still texture object (Still Texture Object) that is a still image and a face object (Face Objec) composed of a face image are included.
t), VO (Video Objec) that is a moving image object
t) etc. Therefore, if the encoded bitstream is of a moving image, the VISO is composed of VOs.

【0053】VOは、1以上のVOL(Video Object L
ayer)から構成される(画像を階層化(階層符号化)し
ないときは1のVOLで構成され、画像を階層化する場
合には、その階層数だけのVOLで構成される)。
VO is one or more VOLs (Video Object L
ayer) (composed of one VOL when the image is not layered (layered encoding), and is composed of the number of VOLs when the image is layered).

【0054】VOLは、必要な数のGOV(Group of V
OP)で構成され、GOVは、1以上のVOP(Video Ob
ject Plane)のシーケンスで構成される。なお、GOV
はなくても良く、この場合、VOLは、1以上のVOP
で構成されることになる。
VOL is a required number of GOVs (Group of V
OP), and GOV is one or more VOP (Video Ob
ject Plane) sequence. In addition, GOV
May be omitted, in which case the VOL is one or more VOPs.
Will be composed of.

【0055】VOPは、従来のフレームに相当する。A VOP corresponds to a conventional frame.

【0056】なお、VS,VO,VOPの関係につい
て、さらに説明すると、VSは、上述したように、画像
シーケンスであり、例えば、一本の番組に相当する。そ
して、VOは、ある合成画像のシーケンスが存在する場
合の、その合成画像を構成する各物体のシーケンスであ
り、VOPは、ある時刻におけるVOを意味する。即
ち、例えば、いま、画像F1およびF2を合成して構成
される合成画像F3がある場合、画像F1またはF2が
時系列に並んだものが、それぞれVOであり、ある時刻
における画像F1またはF2が、それぞれVOPであ
る。従って、VOは、異なる時刻の、同一物体のVOP
の集合ということができる。
The relationship between VS, VO, and VOP will be further described. VS is an image sequence as described above, and corresponds to, for example, one program. Then, VO is a sequence of each object forming a composite image when a sequence of the composite image exists, and VOP means VO at a certain time. That is, for example, when there is a composite image F3 configured by combining the images F1 and F2, the images F1 or F2 arranged in time series are VOs, respectively, and the image F1 or F2 at a certain time is , And each is a VOP. Therefore, VOs are VOPs of the same object at different times.
Can be said to be a set of.

【0057】ここで、図2乃至図4それぞれに、VS,
VISO,VOのシンタクスを示す。また、図5乃至図
7に、VOLのシンタクスを、図8に、GOVのシンタ
クスを、図9乃至図11に、VOPのシンタクスを、そ
れぞれ示す。なお、各層のシンタクスに記載されている
フラグのセマンティクスは、MPEG4FCD規格(14
496-2)に記載されているので、それを参照されたい。
Here, in each of FIGS. 2 to 4, VS,
The syntax of VISO and VO is shown. 5 to 7 show VOL syntax, FIG. 8 shows GOV syntax, and FIGS. 9 to 11 show VOP syntax. The flag semantics described in the syntax of each layer are defined in the MPEG4 FCD standard (14
496-2), refer to it.

【0058】MPEG4のFCD規格におけるVS,VISO,
VO,VOLヘッダの情報は、符号化ビットストリーム
を復号するために必要な必須情報を含んでおり、これら
の情報がなければ、前述したように、その符号化ビット
ストリームを正確に復号することは困難である。
VS, VISO, in the FCD standard of MPEG4,
The information of the VO and VOL headers includes essential information necessary for decoding the coded bitstream, and without this information, as described above, it is impossible to correctly decode the coded bitstream. Have difficulty.

【0059】即ち、例えば、記録媒体に記録された符号
化ビットストリームに対して、ランダムアクセスや、F
F/FR(早送り/巻き戻し)等のような特殊再生を行
う場合、または放送されている符号化ビットストリーム
に途中からアクセスする場合、その符号化ビットストリ
ームの復号を開始するためには、まず、VS,VIS
O,VO,VOLヘッダの情報を復号することが必要で
ある。
That is, for example, random access to the coded bit stream recorded on the recording medium or F
When performing special playback such as F / FR (fast forward / rewind) or accessing a coded bit stream being broadcast from the middle, first of all, in order to start decoding of the coded bit stream, , VS, VIS
It is necessary to decode the information in the O, VO, and VOL headers.

【0060】しかしながら、MPEG4のFCD規格において
は、符号化ビットストリームの先頭に、一度だけVS,
VISO,VO,VOLヘッダを伝送することしか許さ
れておらず、この場合、特に、放送されてくる符号化ビ
ットストリームの途中から復号を始めることは難しい。
However, according to the FCD standard of MPEG4, the VS,
Only VISO, VO, and VOL headers are allowed to be transmitted, and in this case, it is particularly difficult to start decoding from the middle of the coded bit stream that is broadcast.

【0061】さらに、例えば、VOLヘッダには、量子
化マトリクスを始め、符号化モードを指定するフラグが
記述される。これらの符号化モードは、符号化対象の画
像から得られる符号化ビットストリームの性質に依存し
て、即ち、符号化対象の画像の統計的性質が最適になる
ように設定される。しかしながら、例えば、長時間の画
像シーケンスなどに関しては、画像の性質は時刻によっ
て大きく変化することがあるため、VOLヘッダに、最
初に設定した値が、必ずしも常に最適であるとは限らな
い。それにもかかわらず、画像シーケンスの先頭(ここ
では、符号化モードを指定するフラグが記述されるVO
Lの先頭)でしか、符号化モードを指定するフラグを設
定することができないということは、効率の良い符号化
の妨げとなる。
Further, for example, the VOL header describes a quantization matrix and a flag designating a coding mode. These coding modes are set depending on the property of the coded bitstream obtained from the image to be coded, that is, the statistical property of the image to be coded is optimized. However, for example, with respect to a long-time image sequence or the like, the nature of the image may change greatly depending on the time, so that the value initially set in the VOL header is not always optimal. Nevertheless, at the beginning of the image sequence (here, the VO in which the flag designating the coding mode is described
The fact that the flag that specifies the encoding mode can be set only at the beginning of L) impedes efficient encoding.

【0062】そこで、図12は、本発明を適用したエン
コーダの一実施の形態の構成例を示している。なお、こ
のエンコーダを構成するフレームメモリ1、動きベクト
ル検出器2、演算器3,DCT器4、量子化器5,VL
C器6、バッファ7、逆量子化器8,IDCT器9,演
算器10、フレームメモリ11、動き補償器12は、図
24に示したエンコーダを構成するフレームメモリ3
1、動きベクトル検出器32、演算器33,DCT器3
4、量子化器35,VLC器36、バッファ37、逆量
子化器38,IDCT器39,演算器40、フレームメ
モリ41、動き補償器42にそれぞれ対応している。従
って、フレームメモリ1乃至動き補償器12それぞれで
は、フレームメモリ31乃至動き補償器42それぞれの
処理と同一の処理が行われる場合があり、そのような同
一の処理についての説明は、適宜省略する。
Therefore, FIG. 12 shows a configuration example of an embodiment of an encoder to which the present invention is applied. A frame memory 1, a motion vector detector 2, an arithmetic unit 3, a DCT unit 4, a quantizer 5, and VL which constitute this encoder.
The C unit 6, the buffer 7, the inverse quantizer 8, the IDCT unit 9, the arithmetic unit 10, the frame memory 11, and the motion compensator 12 are the frame memory 3 which constitutes the encoder shown in FIG.
1, motion vector detector 32, calculator 33, DCT device 3
4, a quantizer 35, a VLC device 36, a buffer 37, an inverse quantizer 38, an IDCT device 39, a calculator 40, a frame memory 41, and a motion compensator 42, respectively. Therefore, the frame memory 1 to the motion compensator 12 may perform the same process as the frame memory 31 to the motion compensator 42, respectively, and the description of the same process will be appropriately omitted.

【0063】符号化対象のディジタル画像信号を構成す
るVOPは、フレームメモリ1(受信手段)に順次供給
され、そこで受信されて一時記憶される。さらに、フレ
ームメモリ1には、そこに供給されるVOPの、所定の
絶対座標系における大きさを示すフラグFSZと、位置を
示すフラグFPOSも供給されるようになされており、フレ
ームメモリ1は、これらのフラグFSZおよびFPOSも一時
記憶する。
The VOPs forming the digital image signal to be coded are sequentially supplied to the frame memory 1 (reception means), where they are received and temporarily stored. Further, the frame memory 1 is also supplied with a flag FSZ indicating the size of the VOP supplied thereto in a predetermined absolute coordinate system and a flag FPOS indicating the position. These flags FSZ and FPOS are also temporarily stored.

【0064】フレームメモリ1に記憶されたVOPは、
動きベクトル検出器2によって、マクロブロック単位で
読み出される。そして、動きベクトル検出回路2は、予
め設定されている所定のシーケンスに従って、各VOP
を、I(Intra)−VOP,P(Predictive)−VO
P、またはB(Biderectionally Predictive)−VOP
として処理する。シーケンシャルに入力される各VOP
を、I,P,BのいずれのVOPとして処理するかは、
予め定められている(例えば、I,B,P,B,P,・
・・B,Pとして処理される)。
The VOP stored in the frame memory 1 is
The motion vector detector 2 reads the data in macroblock units. Then, the motion vector detection circuit 2 follows each VOP according to a preset predetermined sequence.
, I (Intra) -VOP, P (Predictive) -VO
P or B (Biderectionally Predictive) -VOP
Process as. Each VOP input sequentially
Is processed as a VOP of I, P, or B,
Predetermined (for example, I, B, P, B, P, ...
.. are treated as B and P).

【0065】動きベクトル検出器2は、処理対象のマク
ロブロックに対して、予め定められた所定の参照画像
(VOP)を参照して、動き補償を施し、そのマクロブ
ロックの動きベクトルを検出する。
The motion vector detector 2 refers to a predetermined reference image (VOP) that is predetermined for the macroblock to be processed, performs motion compensation, and detects the motion vector of the macroblock.

【0066】ここで、動き補償(フレーム間予測)に
は、前方予測、後方予測、両方向予測の3種類の予測モ
ードがあり、P−VOPは、前方予測のみでのみ動き補
償が施され、動きベクトル検出器2は、その予測誤差を
最小にする動きベクトルを検出する。また、B−VOP
は、前方予測、後方予測、両方向予測の3種類で動き補
償が施され、動きベクトル検出器2は、各予測モードに
おいて、その予測誤差を最小にする動きベクトルを検出
する。さらに、動きベクトル検出器2は、3つの予測モ
ードのうち、最小の予測誤差が得られたものを選択し、
その予測モードにおける動きベクトルも選択する。
Here, there are three types of prediction modes of motion compensation (inter-frame prediction): forward prediction, backward prediction, and bidirectional prediction. In P-VOP, motion compensation is performed only in forward prediction, and motion compensation is performed. The vector detector 2 detects a motion vector that minimizes the prediction error. Also, B-VOP
Is subjected to motion compensation in three types of prediction, forward prediction, and bidirectional prediction, and the motion vector detector 2 detects a motion vector that minimizes the prediction error in each prediction mode. Furthermore, the motion vector detector 2 selects one of the three prediction modes in which the minimum prediction error is obtained,
The motion vector in the prediction mode is also selected.

【0067】そして、動きベクトル検出器2は、動き補
償の結果得られた予測誤差と、符号化対象のマクロブロ
ックの分散とを比較する。その結果、マクロブロックの
分散の方が小さい場合は、そのマクロブロックについて
はフレーム間予測は行われず、フレーム内符号化が行わ
れる。この場合、予測モードは、画像内符号化(イント
ラ)となり、そのような予測モードが、動きベクトル検
出器2からVLC器6および動き補償器12に供給され
る。一方、予測誤差の方が小さい場合には、その予測誤
差が得られた予測モードと動きベクトルとが、動きベク
トル検出器2からVLC器6および動き補償器12に供
給される。なお、I−VOPについての予測モードは、
必ず画像内符号化にされる。
Then, the motion vector detector 2 compares the prediction error obtained as a result of motion compensation with the variance of the macroblock to be coded. As a result, if the variance of the macroblock is smaller, interframe prediction is not performed for that macroblock, and intraframe coding is performed. In this case, the prediction mode is intra-picture coding (intra), and such a prediction mode is supplied from the motion vector detector 2 to the VLC unit 6 and the motion compensator 12. On the other hand, when the prediction error is smaller, the prediction mode and the motion vector for which the prediction error is obtained are supplied from the motion vector detector 2 to the VLC unit 6 and the motion compensator 12. The prediction mode for I-VOP is
Be sure to use intra-picture coding.

【0068】ここで、符号化対象となるVOPのシーケン
スは、それぞれ、大きさや位置が異なることがある。従
って、動きベクトルを検出する場合には、基準となる座
標系を設定し、その座標系において、動きベクトルの検
出を行う必要がある。そこで、ここでは、ある1つの絶
対座標を仮定し、その絶対座標における動きベクトルが
算出されるようになされている。即ち、動きベクトル検
出器2には、VOPの絶対座標系における大きさを示す
フラグFSZと、位置を示すフラグFPOSとが供給されるよ
うになされており、動きベクトル検出器2は、このフラ
グFSZおよびフラグFPOSに基づき、処理対象のVOP
と、参照画像となるVOPとを、絶対座標系に配置し、
処理対象のVOP(のマクロブロック)の動きベクトル
を算出するようになされている。
Here, the VOP sequences to be encoded may differ in size and position. Therefore, when detecting a motion vector, it is necessary to set a reference coordinate system and detect the motion vector in the coordinate system. Therefore, here, one certain absolute coordinate is assumed, and the motion vector at the absolute coordinate is calculated. That is, the motion vector detector 2 is supplied with the flag FSZ indicating the size of the VOP in the absolute coordinate system and the flag FPOS indicating the position, and the motion vector detector 2 receives this flag FSZ. And VOP to be processed based on flag FPOS
And the VOP to be the reference image are arranged in the absolute coordinate system,
The motion vector of (the macroblock of) the VOP to be processed is calculated.

【0069】一方、動き補償器12は、動きベクトル検
出器2からの動きベクトルおよび予測モードに基づい
て、フレームメモリ11に記憶されているVOPに対し
て動き補償を施すことで、予測画像を生成する。この予
測画像は、演算器3に供給される。演算器3には、さら
に、動きベクトル検出器2がフレームメモリ1から読み
出した符号化対象のマクロブロックも、フレームメモリ
1から供給される。そして、演算器3は、符号化対象の
マクロブロックを構成する各画素の画素値それぞれと、
予測画像を構成する画素の画素値それぞれの差分を演算
し、その差分信号を、DCT器4に出力する。なお、符号
化対象のマクロブロックが、イントラマクロブロックの
場合には、演算器3は、その符号化対象のマクロブロッ
クをそのままDCT器4に出力する。
On the other hand, the motion compensator 12 generates a predicted image by performing motion compensation on the VOP stored in the frame memory 11 based on the motion vector from the motion vector detector 2 and the prediction mode. To do. This predicted image is supplied to the arithmetic unit 3. The encoding unit macroblock read from the frame memory 1 by the motion vector detector 2 is also supplied to the arithmetic unit 3 from the frame memory 1. Then, the computing unit 3 sets the pixel value of each pixel forming the encoding target macroblock,
The difference between the pixel values of the pixels forming the predicted image is calculated, and the difference signal is output to the DCT unit 4. If the macroblock to be encoded is an intra macroblock, the arithmetic unit 3 outputs the macroblock to be encoded as it is to the DCT unit 4.

【0070】DCT器4では、演算器3の出力に対して、D
CT(離散コサイン変換)処理が施され、DCT係数に変換
される。このDCT係数は、量子化器5に入力され、送
信バッファ7のデータ蓄積量(バッファ蓄積量)に対応
した量子化ステップで量子化された後、VLC(可変長
符号化)器6に入力される。
In the DCT unit 4, D
CT (discrete cosine transform) processing is performed and converted into DCT coefficients. The DCT coefficient is input to the quantizer 5, quantized in a quantization step corresponding to the data storage amount (buffer storage amount) of the transmission buffer 7, and then input to the VLC (variable length coding) unit 6. It

【0071】VLC器6は、量子化器5より供給される
画像データを、例えばハフマン符号などの可変長符号に
変換し、その結果得られる符号化ビットストリームを、
送信バッファ7に出力する。
The VLC device 6 converts the image data supplied from the quantizer 5 into a variable length code such as Huffman code, and the resulting encoded bit stream is
Output to the transmission buffer 7.

【0072】VLC器6には、また、量子化器5より量
子化ステップ(スケール)が、動きベクトル検出器2よ
り予測モード(画像内予測、前方予測、後方予測、また
は両方向予測のいずれが設定されたかを示すモード)、
および動きベクトルが、後述するキー信号符号化器13
よりキー信号の符号化結果が、それぞれ供給されるよう
になされている。さらに、VLC器6には、フラグFSZ
およびFPOSも供給されるようになされている。VLC器
6は、これらの情報、さらには、バッファ16に記憶さ
れた情報を、図1に示したように構成される符号化ビッ
トストリームの所定の階層のヘッダに挿入(配置)して
出力する。
In the VLC unit 6, the quantizer 5 sets a quantization step (scale), and the motion vector detector 2 sets a prediction mode (intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction). Mode),
And the motion vector is a key signal encoder 13 described later.
More key signal encoding results are supplied. Further, the VLC unit 6 has a flag FSZ.
And FPOS is also being supplied. The VLC unit 6 inserts (arranges) these pieces of information, and further, the information stored in the buffer 16 into the header of a predetermined layer of the encoded bitstream configured as shown in FIG. 1 and outputs it. .

【0073】なお、VLC器6は、各階層のヘッダに配
置された情報を、バッファ16に出力するようになされ
ており、バッファ16は、VLC器6から供給される情
報を記憶するようになされている。
The VLC unit 6 outputs the information arranged in the header of each layer to the buffer 16, and the buffer 16 stores the information supplied from the VLC unit 6. ing.

【0074】送信バッファ7は、VLC器36からの符
号化ビットストリームを一時蓄積し、その蓄積量に対応
する量子化制御信号を量子化器5に出力する。即ち、送
信バッファ7は、その蓄積量が許容上限値まで増量する
と、量子化スケールを大きくする量子化制御信号を、量
子化器5に供給し、量子化スケールを大きくさせること
で、量子化器5の出力するデータ量を低下させる。ま
た、送信バッファ7は、その蓄積残量が許容下限値まで
減少すると、量子化スケールを小さくする量子化制御信
号を、量子化器5に供給し、量子化スケールを小さくさ
せることで、量子化器5の出力するデータ量を増大させ
る。このようにして、送信バッファ7のオーバフローお
よびアンダフローが防止されるようになされている。
The transmission buffer 7 temporarily stores the coded bit stream from the VLC unit 36 and outputs a quantization control signal corresponding to the stored amount to the quantizer 5. That is, the transmission buffer 7 supplies the quantization control signal for increasing the quantization scale to the quantizer 5 when the accumulated amount increases to the allowable upper limit value, and increases the quantization scale, thereby increasing the quantization scale. 5 reduces the amount of data output. Further, when the remaining storage amount decreases to the allowable lower limit value, the transmission buffer 7 supplies the quantizer 5 with a quantization control signal that reduces the quantization scale, and reduces the quantization scale, thereby performing quantization. The amount of data output from the device 5 is increased. In this way, overflow and underflow of the transmission buffer 7 are prevented.

【0075】そして、送信バッファ7に蓄積された符号
化ビットストリームは、所定のタイミングで読み出さ
れ、例えば、磁気テープや、磁気ディスク、光磁気ディ
スク、相変化ディスクなどの記録媒体201に供給され
て記録され、あるいは、アナログ公衆網や、ISDN、
衛星回線、CATV網、地上波などの伝送媒体202を
介して伝送される。これにより、記録媒体201や伝送
媒体202を媒介して、符号化ビットストリームが、後
述する図16のデコーダに提供される。
Then, the encoded bit stream accumulated in the transmission buffer 7 is read out at a predetermined timing and supplied to a recording medium 201 such as a magnetic tape, a magnetic disk, a magneto-optical disk, a phase change disk or the like. Recorded, or analog public network, ISDN,
It is transmitted via a transmission medium 202 such as a satellite line, a CATV network, or a terrestrial wave. As a result, the coded bitstream is provided to the decoder of FIG. 16 described later via the recording medium 201 and the transmission medium 202.

【0076】ここで、上述したように、VOは、ある合
成画像のシーケンスが存在する場合の、その合成画像を
構成する各物体のシーケンスであり、VOPは、ある時
刻におけるVOを意味する。即ち、例えば、いま、画像
F1およびF2を合成して構成される合成画像F3があ
る場合、画像F1またはF2が時系列に並んだものが、
それぞれVOであり、ある時刻における画像F1または
F2が、それぞれVOPである。従って、例えば、画像
F1を背景とするとともに、画像F2を前景とすると、
合成画像F3を得るためには、画像F2を抜くためのキ
ー信号を用いて、画像F1およびF2を合成する必要が
ある。即ち、合成画像F3を得るには、画像F2を抜く
ためのキー信号が必要となる。
Here, as described above, VO is a sequence of each object forming a synthetic image when a sequence of the synthetic image exists, and VOP means VO at a certain time. That is, for example, when there is a composite image F3 that is composed by combining the images F1 and F2, the image F1 or F2 arranged in time series is
Each is a VO, and the image F1 or F2 at a certain time point is a VOP. Therefore, for example, if the image F1 is the background and the image F2 is the foreground,
In order to obtain the combined image F3, it is necessary to combine the images F1 and F2 using the key signal for removing the image F2. That is, in order to obtain the composite image F3, a key signal for extracting the image F2 is required.

【0077】このため、各VOPを抜くためのキー信号
が、キー信号符号化器13に供給されるようになされて
おり、キー信号符号化器13では、そこに供給されるキ
ー信号が、例えばDPCMなどの所定の手法によって符号化
される。このキー信号の符号化結果は、VLC器6およ
びキー信号復号器14に供給されるようになされてい
る。
Therefore, the key signal for removing each VOP is supplied to the key signal encoder 13. In the key signal encoder 13, the key signal supplied thereto is, for example, It is encoded by a predetermined method such as DPCM. The encoded result of the key signal is supplied to the VLC unit 6 and the key signal decoder 14.

【0078】キー信号復号器14では、キー信号符号化
器13からのキー信号の符号化結果が復号され、動きベ
クトル検出器2、DCT器4、IDCT器9、動き補償
器12、および画素置換器15に供給され、これらのブ
ロックでは、キー信号の復号結果を必要に応じて用いて
処理が行われる。
The key signal decoder 14 decodes the encoded result of the key signal from the key signal encoder 13, and the motion vector detector 2, the DCT unit 4, the IDCT unit 9, the motion compensator 12, and the pixel replacement. The blocks are supplied to the device 15, and the blocks are processed by using the decryption result of the key signal as needed.

【0079】このように、動きベクトル検出器2には、
キー信号復号器14で局所復号されたキー信号も供給さ
れるようになされているが、このキー信号は、動きベク
トル検出器2が、マクロブロックの予測誤差を計算する
際に用いられる。
Thus, the motion vector detector 2 has
Although the key signal locally decoded by the key signal decoder 14 is also supplied, this key signal is used when the motion vector detector 2 calculates the prediction error of the macroblock.

【0080】即ち、VOPは、ある時刻の、ある物体の
画像であるから、その形状は、基本的に任意形状であ
り、この場合、符号化対象のマクロブロックに画像(物
体を構成する画素)が存在しない領域が含まれることが
ある。そのような場合に、動きベクトル検出器2は、符
号化対象のマクロブロックにおいて画像が存在しない画
素を除外して、予測誤差を計算するようになされてお
り、即ち、画像が存在する画素の予測誤差のみを用い
て、符号化対象のマクロブロックの予測誤差を計算し、
それを最小とする動きベクトルを検出するようになされ
ており、符号化対象のマクロブロック内の各画素につい
て、画像が存在するかどうかを認識するために、符号化
対象のマクロブロックの、局所復号されたキー信号が参
照される。
That is, since the VOP is an image of a certain object at a certain time, its shape is basically an arbitrary shape. In this case, the image (pixels forming the object) is displayed in the macroblock to be encoded. May include areas where no. In such a case, the motion vector detector 2 is adapted to calculate a prediction error by excluding pixels in the macroblock to be encoded in which an image does not exist, that is, prediction of a pixel in which an image exists. Calculate the prediction error of the macroblock to be encoded using only the error,
It is designed to detect a motion vector that minimizes it, and for each pixel in the macroblock to be encoded, in order to recognize whether or not an image exists, local decoding of the macroblock to be encoded is performed. The generated key signal is referred to.

【0081】具体的には、動きベクトル検出器2では、
キー信号が0である画素については、画像が存在しな
い、物体(画像オブジェクト)の外側の領域に属する画
素であると認識され、キー信号が0以外である画素につ
いては、画像が存在する、物体(画像オブジェクト)の
内側の領域にある画素であると認識される。そして、動
きベクトル検出器2は、キー信号が0である画素につい
ては、予測画像を求めるための、参照画像との差分を計
算しない。
Specifically, in the motion vector detector 2,
A pixel having a key signal of 0 is recognized as a pixel belonging to a region outside the object (image object) in which an image does not exist, and a pixel having a key signal other than 0 indicates that an image exists. It is recognized as a pixel in the area inside the (image object). Then, the motion vector detector 2 does not calculate the difference between the pixel having the key signal of 0 and the reference image for obtaining the predicted image.

【0082】なお、VOPの形状が長方形状である場合
には、キー信号は常に0以外の値(バイナリ(binary)
キー(ハードキー)では1、グレイスケール(gray sca
le)キー(ソフトキー)では1乃至255のいずれか)
となるため、マクロブロックのすべての画素を用いて予
測誤差が計算される。
When the VOP has a rectangular shape, the key signal is always a value other than 0 (binary).
1 for the key (hard key), gray scale (gray sca
le) key (soft key) from 1 to 255)
Therefore, the prediction error is calculated using all the pixels of the macroblock.

【0083】一方、量子化器5が出力するデータは、逆
量子化器8にも供給され、逆量子化器8では、そのデー
タが、量子化器5より供給される量子化ステップに対応
して逆量子化され、DCT係数とされる。このDCT係
数は、IDCT(逆DCT)器9に入力され、逆DCT
処理された後、演算器10に供給される。
On the other hand, the data output from the quantizer 5 is also supplied to the inverse quantizer 8, and in the inverse quantizer 8, the data corresponds to the quantization step supplied from the quantizer 5. Inversely quantized to obtain DCT coefficients. This DCT coefficient is input to the IDCT (inverse DCT) unit 9 and the inverse DCT
After being processed, it is supplied to the arithmetic unit 10.

【0084】予測モードが、前方予測、後方予測、両方
向予測のうちのいずれかである場合、演算器10には、
IDCT器9の出力の他、動き補償器12が出力する予
測画像も供給される。演算器10は、IDCT器9の出
力に、動き補償器12が出力する予測画像を加算するこ
とで、画像を復号し、画素置換器15に供給する。
When the prediction mode is any of forward prediction, backward prediction, and bidirectional prediction, the arithmetic unit 10
In addition to the output of the IDCT device 9, the predicted image output by the motion compensator 12 is also supplied. The arithmetic unit 10 adds the predicted image output from the motion compensator 12 to the output of the IDCT unit 9 to decode the image, and supplies the image to the pixel replacer 15.

【0085】なお、演算器10は、予測モードが画像内
符号化である場合には、IDCT器9の出力を、そのま
ま画素置換器15に供給するようになされている。
When the prediction mode is intra-picture coding, the arithmetic unit 10 supplies the output of the IDCT unit 9 to the pixel replacing unit 15 as it is.

【0086】画素置換器15では、演算器10の出力に
対して、後述するパディング処理が施され、フレームメ
モリ11に供給される。フレームメモリ11では、画素
置換器15の出力が記憶され、この記憶値、即ち、復号
画像は、動き補償器12による動き補償のために用いら
れる。なお、フレームメモリ11には、フラグFSZおよ
びFPOSも供給されるようになされており、フレームメモ
リ11は、これらのフラグFSZおよびFPOSも記憶するよ
うになされている。
In the pixel replacer 15, the output of the calculator 10 is subjected to padding processing, which will be described later, and the result is supplied to the frame memory 11. The output of the pixel replacer 15 is stored in the frame memory 11, and the stored value, that is, the decoded image is used for motion compensation by the motion compensator 12. The flags FSZ and FPOS are also supplied to the frame memory 11, and the frame memory 11 also stores these flags FSZ and FPOS.

【0087】次に、図13のフローチャートを参照し
て、図12の画素置換器15が行うパディング(paddin
g)処理について説明する。
Next, referring to the flowchart of FIG. 13, the padding (paddin) performed by the pixel replacer 15 of FIG.
g) Describe the processing.

【0088】パディング処理では、まず最初に、ステッ
プS1において、演算器10から画素置換器15に供給
されたマクロブロックを構成する画素の1つを注目画素
として、その注目画素についてのキー信号が0であるか
否かが判定される。ステップS1において、注目画素に
ついてのキー信号が0でないと判定された場合、即ち、
注目画素が、画像オブジェクトの内側を構成するもので
ある場合、ステップS2に進み、画素置換器15は、そ
の注目画素に対して、何も処理を施さず、そのままフレ
ームメモリ11に出力し、ステップS4に進む。
In the padding process, first, in step S1, one of the pixels forming the macroblock supplied from the calculator 10 to the pixel replacer 15 is set as a target pixel, and the key signal for the target pixel is set to 0. Is determined. When it is determined in step S1 that the key signal for the pixel of interest is not 0, that is,
If the pixel of interest constitutes the inside of the image object, the process proceeds to step S2, where the pixel replacer 15 does not perform any processing on the pixel of interest and outputs it to the frame memory 11 as it is. Proceed to S4.

【0089】ここで、符号化対象のVOPの形状が長方
形状である場合、上述したように、キー信号は常に0以
外の値となるため、画素置換器15では、そのVOP中
の全ての画素が何も処理されずそのまま出力されること
になる。
Here, when the VOP to be encoded has a rectangular shape, the key signal always has a value other than 0 as described above, so that the pixel replacer 15 selects all the pixels in the VOP. Will be output without any processing.

【0090】一方、ステップS1において、注目画素に
ついてのキー信号が0であると判定された場合、即ち、
注目画素が、画像オブジェクトの外側を構成するもので
ある場合、ステップS3に進み、注目画素の画素値が、
例えば0とされ、ステップS4に進む。ステップS4で
は、演算器10からのマクロブロックを構成する画素す
べてについて処理を行ったかどうかが判定され、まだ、
すべての画素について処理を行っていないと判定された
場合、ステップS1に戻り、まだ注目画素とされていな
い画素を、新たに注目画素として、同様の処理が繰り返
される。
On the other hand, if it is determined in step S1 that the key signal for the pixel of interest is 0, that is,
If the pixel of interest constitutes the outside of the image object, the process proceeds to step S3, and the pixel value of the pixel of interest is
For example, it is set to 0, and the process proceeds to step S4. In step S4, it is determined whether or not the processing has been performed for all the pixels forming the macroblock from the arithmetic unit 10, and
If it is determined that the processing has not been performed for all the pixels, the process returns to step S1 and the same processing is repeated with the pixel not yet set as the target pixel as a new target pixel.

【0091】また、ステップS4において、演算器10
からの画素すべてについて処理を行ったと判定された場
合、ステップS5に進み、演算器10からのマクロブロ
ックのある水平ラインが、注目水平ラインとして選択さ
れ、ステップS6に進む。ステップS6では、注目水平
ラインの両端の画素の画素値が判定される。
In step S4, the arithmetic unit 10
If it is determined that the processing has been performed for all the pixels from, the process proceeds to step S5, the horizontal line having the macroblock from the arithmetic unit 10 is selected as the target horizontal line, and the process proceeds to step S6. In step S6, the pixel values of the pixels at both ends of the horizontal line of interest are determined.

【0092】即ち、ステップS1乃至S4の処理が施さ
れた後のマクロブロックの、ある水平ラインに注目した
場合には、その注目水平ラインについては、その両端の
画素値が、いずれも0のケース(両端の画素が画像オブ
ジェクトの外側にあるケース)、いずれか一端の画素値
が0でないケース(一端の画素だけが画像オブジェクト
の内側にあるケース)、および両端の画素値がいずれも
0でないケース(両端の画素が画像オブジェクトの内側
にあるケース)の3通りのケースが生じる。ステップS
6では、注目水平ラインが、これらの3つのケースのう
ちのいずれに属するのかが判定される。
That is, when attention is paid to a certain horizontal line of the macroblock after the processing of steps S1 to S4, the pixel values at both ends of the horizontal line of interest are both 0. (The pixels at both ends are outside the image object), the pixel value at one end is not 0 (only the pixels at one end are inside the image object), and the pixel values at both ends are not 0 There are three cases (cases where pixels at both ends are inside the image object). Step S
At 6, it is determined which of these three cases the horizontal line of interest belongs to.

【0093】ステップS6において、注目水平ラインの
両端の画素値が、いずれも0であると判定された場合、
ステップS7に進み、その注目水平ラインについて確保
された変数Cに、0がセットされ、ステップS10に進
む。また、ステップS6において、注目水平ラインの両
端の画素値が、いずれも0でないと判定された場合、ス
テップS8に進み、その注目水平ラインについて確保さ
れた変数Cに、注目水平ラインの両端の画素値の平均値
がセットされ、ステップS10に進む。さらに、ステッ
プS6において、注目水平ラインの両端の画素値のうち
のいずれか一方だけが0でないと判定された場合、ステ
ップS9に進み、その注目水平ラインについて確保され
た変数Cに、注目水平ラインの両端の画素値のうちの0
でない方の値がセットされ、ステップS10に進む。
If it is determined in step S6 that the pixel values at both ends of the horizontal line of interest are both 0,
The process proceeds to step S7, 0 is set to the variable C secured for the horizontal line of interest, and the process proceeds to step S10. If it is determined in step S6 that the pixel values at both ends of the target horizontal line are not 0, the process proceeds to step S8 and the variable C secured for the target horizontal line is set to the pixels at both ends of the target horizontal line. The average value is set, and the process proceeds to step S10. Further, when it is determined in step S6 that only one of the pixel values at both ends of the target horizontal line is not 0, the process proceeds to step S9, and the variable C secured for the target horizontal line is set to the target horizontal line. 0 of the pixel values at both ends of
The other value is set, and the process proceeds to step S10.

【0094】ステップS10では、演算器10からのマ
クロブロックのすべての水平ラインを注目水平ラインと
して処理を行ったかどうかが判定され、まだ、すべての
水平ラインを注目水平ラインとして処理を行っていない
と判定された場合、ステップS5に戻り、まだ、注目水
平ラインとして選択されていない水平ラインが、新たな
注目水平ラインとして選択され、以下、同様の処理が繰
り返される。
In step S10, it is determined whether or not all the horizontal lines of the macroblock from the arithmetic unit 10 have been processed as the noticeable horizontal lines, and all the horizontal lines have not been processed as the noticeable horizontal lines. When it is determined, the process returns to step S5, a horizontal line that is not yet selected as the horizontal line of interest is selected as a new horizontal line of interest, and the same processing is repeated thereafter.

【0095】また、ステップS10において、すべての
水平ラインを注目水平ラインとして処理を行ったと判定
された場合、ステップS11に進む。
If it is determined in step S10 that all the horizontal lines have been processed as the noticeable horizontal lines, the process proceeds to step S11.

【0096】ステップS11乃至ステップS16では、
演算器10からのマクロブロックの水平ラインではな
く、垂直ラインを対象として、ステップS5乃至S10
における場合とそれぞれ同様の処理が行われる。
In steps S11 to S16,
Steps S5 to S10 are performed on the vertical line, not the horizontal line of the macroblock from the arithmetic unit 10.
The same processing as in the case of is performed.

【0097】即ち、ステップS11では、演算器10か
らのマクロブロックのある垂直ラインが、注目垂直ライ
ンとして選択され、ステップS12に進む。ステップS
12では、注目垂直ラインの両端の画素の画素値が判定
される。
That is, in step S11, the vertical line with the macroblock from the arithmetic unit 10 is selected as the vertical line of interest, and the process proceeds to step S12. Step S
At 12, the pixel values of the pixels at both ends of the vertical line of interest are determined.

【0098】即ち、ステップS1乃至S4の処理が施さ
れた後のマクロブロックの、ある垂直ラインに注目した
場合にも、その注目垂直ラインについては、その両端の
画素値が、いずれも0のケース(両端の画素が画像オブ
ジェクトの外側にあるケース)、いずれか一端の画素値
が0でないケース(一端の画素だけが画像オブジェクト
の内側にあるケース)、および両端の画素値がいずれも
0でないケース(両端の画素が画像オブジェクトの内側
にあるケース)の3通りのケースが生じる。ステップS
12では、注目垂直ラインが、これらの3つのケースの
うちのいずれに属するのかが判定される。
That is, even when attention is paid to a certain vertical line of the macroblock after the processing of steps S1 to S4, the pixel values at both ends of the vertical line of interest are both 0. (The pixels at both ends are outside the image object), the pixel value at one end is not 0 (only the pixels at one end are inside the image object), and the pixel values at both ends are not 0 There are three cases (cases where pixels at both ends are inside the image object). Step S
At 12, it is determined which of these three cases the vertical line of interest belongs to.

【0099】ステップS12において、注目垂直ライン
の両端の画素値が、いずれも0であると判定された場
合、ステップS13に進み、その注目垂直ラインについ
て確保された変数Bに、0がセットされ、ステップS1
6に進む。また、ステップS12において、注目垂直ラ
インの両端の画素値が、いずれも0でないと判定された
場合、ステップS14に進み、その注目垂直ラインにつ
いて確保された変数Bに、注目垂直ラインの両端の画素
値の平均値がセットされ、ステップS16に進む。さら
に、ステップS12において、注目垂直ラインの両端の
画素値のうちのいずれか一方だけが0でないと判定され
た場合、ステップS15に進み、その注目垂直ラインに
ついて確保された変数Bに、注目垂直ラインの両端の画
素値のうちの0でない方の値がセットされ、ステップS
16に進む。
When it is determined in step S12 that the pixel values at both ends of the target vertical line are both 0, the process proceeds to step S13, and 0 is set to the variable B secured for the target vertical line. Step S1
Go to 6. If it is determined in step S12 that the pixel values at both ends of the vertical line of interest are not 0, the process proceeds to step S14 and the variable B secured for the vertical line of interest is set to the pixels at both ends of the vertical line of interest. The average value is set, and the process proceeds to step S16. Further, when it is determined in step S12 that only one of the pixel values at both ends of the target vertical line is not 0, the process proceeds to step S15, and the variable B secured for the target vertical line is set to the target vertical line. One of the pixel values at both ends of the non-zero value is set, and step S
Proceed to 16.

【0100】ステップS16では、演算器10からのマ
クロブロックのすべての垂直ラインを注目垂直ラインと
して処理を行ったかどうかが判定され、まだ、すべての
垂直ラインを注目垂直ラインとして処理を行っていない
と判定された場合、ステップS11に戻り、まだ、注目
垂直ラインとして選択されていない垂直ラインが、新た
な注目垂直ラインとして選択され、以下、同様の処理が
繰り返される。
In step S16, it is determined whether or not all the vertical lines of the macroblock from the arithmetic unit 10 have been processed as the target vertical lines, and all the vertical lines have not been processed as the target vertical lines. If determined, the process returns to step S11, a vertical line that has not yet been selected as the vertical line of interest is selected as a new vertical line of interest, and the same processing is repeated thereafter.

【0101】また、ステップS16において、すべての
垂直ラインを注目垂直ラインとして処理を行ったと判定
された場合、ステップS17に進み、演算器10からの
マクロブロックを構成する画素のうち、ステップS2で
そのままフレームメモリ11に出力した画素を除いたも
のの中から、ある画素が、注目画素として選択され、ス
テップS18に進む。
If it is determined in step S16 that all the vertical lines have been processed as the vertical lines of interest, the process proceeds to step S17, and among the pixels forming the macro block from the arithmetic unit 10, the same as in step S2. A pixel is selected as a pixel of interest from the pixels excluding the pixel output to the frame memory 11, and the process proceeds to step S18.

【0102】ステップS18では、注目画素上で交差す
る垂直ラインと水平ラインそれぞれについての変数Bと
Cのセット(B,C)の値が判定される。
In step S18, the value of the set (B, C) of variables B and C for each of the vertical line and the horizontal line intersecting on the target pixel is determined.

【0103】ステップS18において、変数Bが0で、
Cが0でないと判定された場合、ステップS19に進
み、変数Cの値が、注目画素の画素値として、フレーム
メモリ11に出力され、ステップS23に進む。また、
ステップS18において、変数BおよびCのいずれも0
でないと判定された場合、ステップS20に進み、変数
BとCの値の平均値が、注目画素の画素値として、フレ
ームメモリ11に出力され、ステップS23に進む。さ
らに、ステップS18において、変数BおよびCのいず
れも0であると判定された場合、ステップS21に進
み、注目画素の画素値が0のままとされ、ステップS2
3に進む。
In step S18, the variable B is 0,
When it is determined that C is not 0, the process proceeds to step S19, the value of the variable C is output to the frame memory 11 as the pixel value of the pixel of interest, and the process proceeds to step S23. Also,
In step S18, both variables B and C are 0
If it is determined that it is not, the process proceeds to step S20, the average value of the values of the variables B and C is output to the frame memory 11 as the pixel value of the pixel of interest, and the process proceeds to step S23. Furthermore, when it is determined in step S18 that both the variables B and C are 0, the process proceeds to step S21, in which the pixel value of the target pixel remains 0, and step S2
Go to 3.

【0104】一方、ステップS18において、変数Bが
0でなく、Cが0であると判定された場合、ステップS
19に進み、変数Bの値が、注目画素の画素値として、
フレームメモリ11に出力され、ステップS23に進
む。ステップS23では、演算器10からのマクロブロ
ックを構成する画素のうち、ステップS2でそのまま出
力した画素を除いたものすべてについて処理を行ったか
どうかが判定され、まだ行っていないと判定された場
合、ステップS17に戻り、まだ、注目画素とされてい
ない画素が、新たに注目画素として選択され、以下、同
様の処理が繰り返される。
On the other hand, if it is determined in step S18 that the variable B is not 0 and C is 0, then step S
In step 19, the value of the variable B is the pixel value of the target pixel,
It is output to the frame memory 11, and the process proceeds to step S23. In step S23, it is determined whether or not all the pixels forming the macroblock from the arithmetic unit 10 except the pixels output as they are in step S2 have been processed. If it is determined that the processing has not been performed, Returning to step S17, a pixel that has not yet been set as a target pixel is newly selected as a target pixel, and the same processing is repeated thereafter.

【0105】また、ステップS23において、演算器1
0からのマクロブロックを構成する画素のうち、ステッ
プS2でそのまま出力した画素を除いたものすべてにつ
いて処理を行ったと判定された場合、ステップS24に
進み、既にフレームメモリ11に出力された画素のう
ち、まだフレームメモリ11に出力されていない各画素
(以下、適宜、未出力画素という)に最も近いものが検
出される。さらに、ステップS24では、その検出され
た画素の画素値が、未出力画素の画素値として、フレー
ムメモリ11に出力され、パディング処理を終了する。
なお、既に、フレームメモリ11に出力された画素の中
で、未出力画素に最も近いものが、2個以上検出された
場合には、それらの画素値の平均値が、未出力画素の画
素値として出力される。
In step S23, the arithmetic unit 1
When it is determined that all the pixels forming the macro block from 0 except the pixel output as it is in step S2 are processed, the process proceeds to step S24, and among the pixels already output to the frame memory 11. The pixel closest to each pixel that has not been output to the frame memory 11 (hereinafter, appropriately referred to as a non-output pixel) is detected. Further, in step S24, the pixel value of the detected pixel is output to the frame memory 11 as the pixel value of the non-output pixel, and the padding process ends.
In addition, when two or more pixels that are closest to the non-output pixel have already been detected among the pixels output to the frame memory 11, the average value of those pixel values is the pixel value of the non-output pixel. Is output as.

【0106】以上のようなパディング処理を行うこと
で、画像オブジェクトの外側を構成する画素が、いわば
補間され、これにより、モスキートノイズの低減化およ
び動き補償の効率化を図ることができる。
By performing the padding processing as described above, the pixels constituting the outside of the image object are interpolated, so to speak, whereby the mosquito noise can be reduced and the motion compensation efficiency can be improved.

【0107】次に、図1のVLC器6(符号化手段)の
処理について、さらに説明する。
Next, the processing of the VLC unit 6 (encoding means) of FIG. 1 will be further described.

【0108】VLC器6は、VS,VISO,VO,V
OL,GOV,VOPそれぞれのヘッダに、本来配置す
べき情報を配置し、さらに、量子化器5の出力の可変長
符号化結果を配置することで、符号化ビットストリーム
を構成し、送信バッファ7に出力する。
The VLC device 6 has VS, VISO, VO, V
Information to be originally arranged is arranged in the headers of OL, GOV, and VOP, and further, the variable-length coding result of the output of the quantizer 5 is arranged to form a coded bit stream, and the transmission buffer 7 Output to.

【0109】また、VLC器6は、GOVより上位の階
層であるVS,VISO,VO,VOLの各ヘッダに配
置した情報を、バッファ16に出力して記憶させる。
Further, the VLC unit 6 outputs the information arranged in the headers of VS, VISO, VO, and VOL, which are higher layers than the GOV, to the buffer 16 and stores it therein.

【0110】その後、VLC器6は、GOVヘッダを出
力するとき、バッファ16に記憶されている、GOVよ
り上位の階層のVS,VISO,VO,VOLの各ヘッ
ダの情報を読み出し、GOVヘッダの所定の位置に挿入
して(含めて)出力する。従って、この場合、GOVヘ
ッダには、そこに本来配置すべき情報の他、VS,VI
SO,VO,VOLの各ヘッダの情報も配置される。
After that, when outputting the GOV header, the VLC unit 6 reads the information of the VS, VISO, VO, and VOL headers of the hierarchy higher than the GOV, which is stored in the buffer 16, and determines the predetermined GOV header. Insert (include) in the position of and output. Therefore, in this case, in addition to the information that should be originally placed in the GOV header, VS, VI
Information of each header of SO, VO, and VOL is also arranged.

【0111】図14は、以上のような処理を行うVLC
器6が出力するGOVのシンタクスを示している。な
お、図14において影を付してある部分が、図8に示し
たFCDにおけるシンタクスと異なる部分となってい
る。
FIG. 14 shows a VLC which performs the above processing.
The syntax of GOV output by the device 6 is shown. The shaded area in FIG. 14 is different from the syntax in the FCD shown in FIG.

【0112】group_VOP_start_codeは、GOVの開始位置
を示す32ビットのユニークなコードである。time_code
(時刻情報)は、18bitで構成され、GOVにおいて、最
初に表示されるVOPの秒精度の表示時刻を表す。この
time_codeは、IEC standardpublication 461で規定され
ている「time and control codes for video tape reco
rders」に相当する。
Group_VOP_start_code is a 32-bit unique code indicating the start position of GOV. time_code
The (time information) is composed of 18 bits and represents the display time with the second precision of the VOP first displayed in the GOV. this
time_code is `` time and control codes for video tape reco '' specified in IEC standard publication 461.
"rders".

【0113】closed_gopおよびbroken_linkについて
は、MPEG4VideoFCD規格(ISO/IEC 14496-2)を参照された
い。
For closed_gop and broken_link, refer to the MPEG4 Video FCD standard (ISO / IEC 14496-2).

【0114】is_extension(ヘッダ情報有無フラグ)
は、本実施の形態で導入した1ビットのフラグで、GOV
ヘッダに、VS,VISO,VO,VOLの各ヘッダ
の、デコーダの初期化を行うための情報、その他の情報
を含めるかどうかを表す。VLC器6では、例えば、フ
ラグis_extensionが1の場合、VS,VISO,VO,
VOLの各ヘッダの情報(VisualObjectSequence(), Vi
sualObject(), VideoObject(), VideoObjectLayer())
が、GOVヘッダに含められる。即ち、フラグis_extensio
nが1の場合、VS,VISO,VO,VOLの各ヘッ
ダの情報は、group_VOP_start_code,time_code,close
d_gop,broken_link,is_extensionの後に続けて配置さ
れる。
Is_extension (header information presence / absence flag)
Is a 1-bit flag introduced in this embodiment.
It indicates whether or not the header includes information for initializing the decoder of the VS, VISO, VO, and VOL headers and other information. In the VLC device 6, for example, when the flag is_extension is 1, VS, VISO, VO,
Information of each VOL header (VisualObjectSequence (), Vi
sualObject (), VideoObject (), VideoObjectLayer ())
Is included in the GOV header. That is, the flag is_extensio
When n is 1, the information of each header of VS, VISO, VO, and VOL is group_VOP_start_code, time_code, close.
Placed after d_gop, broken_link, is_extension.

【0115】さらに、フラグis_extensionが1の場合
は、VLC器6は、VS,VISO,VO,VOLの各
ヘッダの情報を、GOVヘッダに含めた後、その含めたV
S,VISO,VO,VOLの各ヘッダの情報を、バッ
ファ16に供給し、いままで記憶されていた情報に替え
て記憶させる。
Further, when the flag is_extension is 1, the VLC unit 6 includes the information of each header of VS, VISO, VO, and VOL in the GOV header, and then includes the included V.
The information of each header of S, VISO, VO, and VOL is supplied to the buffer 16 and stored in place of the information stored so far.

【0116】なお、VLC器6は、VS,VISO,V
O,VOLの各ヘッダを、その後に出力したときも、そ
のヘッダの情報をバッファ16に供給して記憶させる。
The VLC device 6 is provided with VS, VISO, V
Even when the O and VOL headers are subsequently output, the information of the headers is supplied to the buffer 16 and stored therein.

【0117】従って、バッファ16には、常に最新のV
S,VISO,VO,VOLのヘッダの情報が記憶され
ていることになる。
Therefore, the buffer 16 always has the latest V.
The information on the headers of S, VISO, VO, and VOL is stored.

【0118】ここで、フラグis_extensionが1の場合
に、VS,VISO,VO,VOLの各ヘッダの情報
を、GOVヘッダに含めた後、その含めたVS,VIS
O,VO,VOLの各ヘッダの情報を、バッファ16に
供給して記憶させるのは、次のような理由による。
Here, when the flag is_extension is 1, after the information of each header of VS, VISO, VO, and VOL is included in the GOV header, the included VS, VIS is included.
The information of each header of O, VO, and VOL is supplied to the buffer 16 and stored therein for the following reason.

【0119】即ち、VLC器6には、符号化効率を向上
させる等のため、GOVヘッダに含めさせるVS,VIS
O,VO,VOLの各ヘッダの情報を変更させることが
できる。この場合、その変更後の情報が最新の情報とい
うことになるので、その最新の情報を、バッファ16に
記憶させておくために、GOVヘッダに含めたVS,VI
SO,VO,VOLの各ヘッダの情報を、バッファ16
に供給して記憶させるようになされている。
That is, the VLC unit 6 includes VS and VIS to be included in the GOV header in order to improve coding efficiency.
The information of each header of O, VO, and VOL can be changed. In this case, since the changed information is the latest information, the VS and VI included in the GOV header are stored in order to store the latest information in the buffer 16.
Information of each header of SO, VO, and VOL is stored in the buffer 16
It is designed to be supplied to and stored in.

【0120】一方、フラグis_extensionが0の場合、V
LC器6では、VS,VISO,VO,VOLの各ヘッ
ダの情報は、GOVヘッダに含められない。
On the other hand, when the flag is_extension is 0, V
In the LC device 6, the information of each VS, VISO, VO, and VOL header is not included in the GOV header.

【0121】なお、バッファ16の記憶値は、外部から
変更することが可能なようになっている。即ち、VS,
VISO,VO,VOLの各ヘッダの情報の一部または
全部を、符号化ビットストリームの途中で変化させたい
場合がある。即ち、例えば、デコードに用いる量子化マ
トリクスを、符号化ビットストリームの復号の途中で変
更したい場合などがある。このような場合、ユーザは、
バッファ16に記憶されているVS,VISO,VO,
VOLの各ヘッダの情報を、適宜、所望の情報に変更す
ることができる。この変更後の情報は、フラグis_exten
sionが1になっているGOVヘッダに配置されて出力され
るから、デコーダでは、そのGOVヘッダを受信した後
に、その変更後の情報に基づいて、デコードが行われる
ことになる。
The value stored in the buffer 16 can be changed externally. That is, VS,
There are cases where it is desired to change some or all of the information in each header of VISO, VO, and VOL in the middle of the encoded bitstream. That is, for example, there is a case where it is desired to change the quantization matrix used for decoding during the decoding of the encoded bitstream. In such cases, the user
VS, VISO, VO stored in the buffer 16
The information in each header of the VOL can be appropriately changed to desired information. The information after this change is the flag is_exten
Since the sion is placed in the GOV header and is output, the decoder receives the GOV header and then decodes it based on the changed information.

【0122】次に、図15のフローチャートを参照し
て、図14に示したようなシンタクスのGOVを出力する
ためのVLC器6の処理について説明する。
Next, the processing of the VLC unit 6 for outputting the GOV of the syntax shown in FIG. 14 will be described with reference to the flowchart of FIG.

【0123】VLC器6は、上述したように、VS,V
ISO,VO,VOL,GOV,VOPそれぞれのヘッ
ダに、本来配置すべき情報を配置し、さらに、量子化器
5の出力の可変長符号化結果を配置することで、符号化
ビットストリームを構成し、送信バッファ7に出力して
いる。
As described above, the VLC device 6 has VS, V
An encoded bit stream is formed by arranging information to be originally arranged in the headers of ISO, VO, VOL, GOV, and VOP, and further arranging the variable-length coding result of the output of the quantizer 5. , To the transmission buffer 7.

【0124】さらに、VLC器6は、VS,VISO,
VO,VOLの各ヘッダを出力するごとに、各ヘッダに
配置した情報を、バッファ16に出力して記憶させてい
る(上書きしている)。
Further, the VLC device 6 has VS, VISO,
Each time each header of VO and VOL is output, the information arranged in each header is output to the buffer 16 and stored (overwritten).

【0125】そして、VLC器6は、GOVヘッダを出
力する場合には、ステップS31において、そのGOV
ヘッダについてのフラグis_extensionが1であるかどう
かを判定する。ステップS1において、フラグis_exten
sionが1でない(0である)と判定された場合、VLC
器6は、GOVヘッダに、本来配置すべき情報(図8に
示した情報)およびフラグis_extensionを配置し(V
S,VISO,VO,VOLの各ヘッダの情報は配置し
ない)、その結果得られるGOVヘッダを出力する。そ
して、次のGOVヘッダを出力するタイミングまで待っ
て、ステップS31に戻る。
When outputting the GOV header, the VLC unit 6 determines the GOV header in step S31.
It is determined whether the flag is_extension for the header is 1. In step S1, the flag is_exten
If it is determined that sion is not 1 (0), VLC
The device 6 arranges the information that should be originally arranged (information shown in FIG. 8) and the flag is_extension in the GOV header (V
The information of each header of S, VISO, VO, and VOL is not arranged), and the GOV header obtained as a result is output. Then, after waiting for the timing of outputting the next GOV header, the process returns to step S31.

【0126】一方、ステップS31において、フラグis
_extensionが1であると判定された場合、ステップS3
2に進み、バッファ16に記憶されているVS,VIS
O,VO,VOLの各ヘッダの最新の情報を読み出し、
その最近の情報およびフラグis_extension、並びに本来
配置すべき情報を、GOVヘッダに配置して出力する。
そして、次のGOVヘッダを出力するタイミングまで待
って、ステップS31に戻る。
On the other hand, in step S31, the flag is
If it is determined that _extension is 1, step S3
2 proceeds to VS, VIS stored in the buffer 16
Read the latest information of each header of O, VO, VOL,
The latest information, the flag is_extension, and the information to be originally placed are placed in the GOV header and output.
Then, after waiting for the timing of outputting the next GOV header, the process returns to step S31.

【0127】なお、各GOVに配置されるフラグis_ext
ensionの値は、例えば、エンコーダの管理者側におい
て、あらかじめ、VLC器に設定されている。
The flag is_ext allocated to each GOV
The value of the tension is set in the VLC device in advance on the administrator side of the encoder, for example.

【0128】次に、図16は、記録媒体201または伝
送媒体202を介して提供される符号化ビットストリー
ムを復号するデコーダの一実施の形態の構成例を示して
いる。このデコーダを構成するバッファ21、IVLC
器22,逆量子化器23,IDCT器24,演算器2
5、フレームメモリ26、動き補償器27は、図25に
示したデコーダを構成するバッファ101、IVLC器
102,逆量子化器103,IDCT器104,演算器
105、フレームメモリ106、動き補償器107にそ
れぞれ対応している。従って、バッファ21乃至動き補
償器27それぞれでは、バッファ101乃至動き補償器
107それぞれの処理と同一の処理が行われる場合があ
り、そのような同一の処理についての説明は、適宜省略
する。
Next, FIG. 16 shows an example of the configuration of an embodiment of a decoder for decoding a coded bit stream provided via the recording medium 201 or the transmission medium 202. Buffer 21 and IVLC that constitute this decoder
Device 22, inverse quantizer 23, IDCT device 24, calculator 2
5, a frame memory 26, and a motion compensator 27 are a buffer 101, an IVLC unit 102, an inverse quantizer 103, an IDCT unit 104, an arithmetic unit 105, a frame memory 106, and a motion compensator 107 which constitute the decoder shown in FIG. It corresponds to each. Therefore, the buffer 21 to the motion compensator 27 may perform the same processing as the buffer 101 to the motion compensator 107, respectively, and the description of the same processing will be appropriately omitted.

【0129】記録媒体201または伝送媒体202を介
して提供される符号化ビットストリームは、受信バッフ
ァ21(受信手段)で受信されて一時記憶される。そし
て、受信バッファ21に記憶された符号化ビットストリ
ームは、適宜、IVLC(可変長復号)器22によって
読み出される。
The coded bit stream provided via the recording medium 201 or the transmission medium 202 is received by the reception buffer 21 (reception means) and temporarily stored. Then, the coded bit stream stored in the reception buffer 21 is read by the IVLC (variable length decoding) unit 22 as appropriate.

【0130】IVLC器22(復号手段)は、受信バッ
ファ21から読み出した符号化ビットストリームを可変
長復号し、動きベクトルおよび予測モードを、動き補償
器27に、また、量子化ステップを逆量子化器23に、
それぞれ出力するとともに、可変長復号された画像デー
タ(量子化されたDCT係数)を、逆量子化器23に出
力する。なお、IVLC器22は、その他、各階層のヘ
ッダに含まれている、デコーダのデコード処理に用いら
れるパラメータの初期化に必要な情報、その他の情報
(例えば、オーバラップ動き補償を行うかどうかを示す
フラグや、量子化マトリクスなど)を、適宜、必要なブ
ロックに供給する(例えば、オーバラップ動き補償を行
うかどうかを示すフラグは動き補償器27に、量子化マ
トリクスは逆量子化器23に、それぞれ供給される)
The IVLC unit 22 (decoding means) performs variable length decoding of the coded bit stream read from the reception buffer 21, the motion vector and the prediction mode to the motion compensator 27, and the quantization step to the inverse quantization. In the vessel 23,
The image data (quantized DCT coefficient) subjected to variable length decoding is output to the inverse quantizer 23 while being output. The IVLC unit 22 also determines other information necessary for initializing the parameters included in the header of each layer and used in the decoding process of the decoder, and other information (for example, whether to perform overlap motion compensation). A flag indicating a quantization matrix or the like is appropriately supplied to a necessary block (for example, a flag indicating whether or not to perform overlap motion compensation is supplied to the motion compensator 27, and a quantization matrix is supplied to the inverse quantizer 23). , Each supplied)

【0131】さらに、IVLC器22は、GOVヘッダ
については、フラグis_extensionを復号し、フラグis_e
xtensionが1である場合、即ち、GOVヘッダに、V
S,VISO,VO,VOLの各ヘッダの情報が含まれ
ている場合、その情報も、VS,VISO,VO,VO
Lの各ヘッダと同様に可変長復号し、その復号結果を、
必要なブロックに供給する。具体的には、例えば、動き
ベクトル、予測モード、オーバーラップ動き補償を行う
かどうかを示すフラグなどは動き補償器27に、量子化
ステップおよび量子化マトリクスなどは逆量子化器23
に、それぞれ供給される。
Furthermore, the IVLC unit 22 decodes the flag is_extension for the GOV header, and the flag is_e.
When xtension is 1, that is, in the GOV header, V
When the information of each header of S, VISO, VO, and VOL is included, the information is also VS, VISO, VO, and VO.
Variable length decoding is performed in the same way as for each header of L, and the decoding result is
Supply the required blocks. Specifically, for example, a motion vector, a prediction mode, a flag indicating whether or not to perform overlap motion compensation, and the like are provided to the motion compensator 27, and a quantization step, a quantization matrix, and the like are provided to the dequantizer 23.
, Respectively.

【0132】また、IVLC器22は、符号化ビットス
トリームに含まれるフラグFSZおよびFPOSを復号し、フ
レームメモリ26、動き補償器27、およびキー信号復
号器29に供給する。さらに、IVLC器22は、符号
化ビットストリームに含まれる、符号化されたキー信号
(キー信号ビットストリーム)を抽出し、キー信号復号
器29に供給する。
The IVLC unit 22 also decodes the flags FSZ and FPOS contained in the encoded bit stream and supplies them to the frame memory 26, motion compensator 27, and key signal decoder 29. Further, the IVLC unit 22 extracts the encoded key signal (key signal bit stream) included in the encoded bit stream and supplies it to the key signal decoder 29.

【0133】キー信号復号器29は、IVLC器22よ
り供給されるキー信号ビットストリームを復号する。こ
の復号されたキー信号は、IDCT器24、動き補償器2
7、および画素置換器28に供給される。
The key signal decoder 29 decodes the key signal bit stream supplied from the IVLC unit 22. This decoded key signal is used for the IDCT unit 24 and the motion compensator 2
7 and the pixel replacer 28.

【0134】逆量子化器23は、IVLC器22より供
給される画像データを、同じくIVLC器22より供給
される量子化ステップに従って逆量子化し、IDCT器24
に出力する。IDCT器24は、逆量子化器23より出
力されたデータ(DCT係数)に対して、逆DCT処理を施
し、演算器25に供給する。
The inverse quantizer 23 inversely quantizes the image data supplied from the IVLC unit 22 in accordance with the quantization step also supplied from the IVLC unit 22, and the IDCT unit 24
Output to. The IDCT device 24 performs inverse DCT processing on the data (DCT coefficient) output from the inverse quantizer 23, and supplies the data to the calculator 25.

【0135】演算器25は、IDCT器24より供給された
画像データが、I−VOPのデータである場合、そのデ
ータを、その後に入力される画像データ(PまたはB−
VOPのデータ)の予測画像の生成のために、そのま
ま、画素置換器28を介してフレームメモリ26に供給
して記憶させる。
When the image data supplied from the IDCT device 24 is I-VOP data, the calculator 25 converts the image data into image data (P or B-
In order to generate a predicted image of (VOP data), it is directly supplied to the frame memory 26 via the pixel replacer 28 and stored therein.

【0136】なお、画素置換器28では、図12の画素
置換器15と同様の処理が行われる。
The pixel replacer 28 performs the same processing as the pixel replacer 15 of FIG.

【0137】一方、演算器25に供給されるデータが、
PまたはB−VOPのデータである場合、動き補償器2
7は、IVLC器22より供給される動きベクトルおよ
び予測モードに従って、フレームメモリ26に記憶され
た、既に復号されている画像を読み出すことで、予測画
像を生成し、演算器25に出力する。演算器25ではID
CT器24より供給される画像データ(差分データ)と、
動き補償器27より供給される予測画像データを加算
し、復号画像とする。この復号画像は、画素置換器28
を介してフレームメモリ26に供給されて記憶され、後
に復号する画像の参照画像(予測画像を生成するために
参照される画像)として、適宜用いられる。また、フレ
ームメモリ26に記憶された復号画像は、上述したよう
に参照画像として用いられる他、適宜読み出され、例え
ば、図示せぬディスプレイなどに供給されて表示され
る。
On the other hand, the data supplied to the arithmetic unit 25 is
If it is P or B-VOP data, the motion compensator 2
7 reads out the already decoded image stored in the frame memory 26 according to the motion vector and the prediction mode supplied from the IVLC unit 22, thereby generating a predicted image and outputting it to the calculator 25. ID in the calculator 25
Image data (difference data) supplied from the CT device 24,
The predicted image data supplied from the motion compensator 27 is added to obtain a decoded image. This decoded image is used as the pixel replacer 28.
The image is supplied to and stored in the frame memory 26 via, and is appropriately used as a reference image (image referred to for generating a predicted image) of an image to be decoded later. The decoded image stored in the frame memory 26 is used as a reference image as described above, and is also read as appropriate and supplied to, for example, a display (not shown) for display.

【0138】次に、図17のフローチャートを参照し
て、図16のIVLC器22がGOVヘッダに関して行
う処理について、さらに説明する。
Next, with reference to the flowchart of FIG. 17, the processing performed by the IVLC unit 22 of FIG. 16 with respect to the GOV header will be further described.

【0139】IVLC器22は、GOVヘッダを受信す
ると、そのGOVヘッダについて、通常行うべき処理
(図8に示したGOVヘッダが送信されてきたときに行
うべき処理)を行い、さらに、ステップS41におい
て、GOVヘッダ(図14)に配置されているフラグis
_extensionが1であるかどうかを判定する。ステップS
41において、フラグis_extensionが1でない(0であ
る)と判定された場合、即ち、GOVヘッダに、VS,
VISO,VO,VOLの各ヘッダの情報が含まれてい
ない場合、次のGOVヘッダが送信されてくるのを待っ
て、ステップS41に戻る。
Upon receiving the GOV header, the IVLC unit 22 performs the processing that should normally be performed on the GOV header (the processing that should be performed when the GOV header shown in FIG. 8 is transmitted), and at step S41. , Flag is located in the GOV header (Fig. 14)
Determine whether _extension is 1. Step S
In 41, when it is determined that the flag is_extension is not 1 (is 0), that is, in the GOV header, VS,
When the information of each header of VISO, VO, and VOL is not included, it waits for the next GOV header to be transmitted, and returns to step S41.

【0140】また、ステップS41において、フラグis
_extensionが1であると判定された場合、即ち、GOV
ヘッダに、VS,VISO,VO,VOLの各ヘッダの
情報が含まれている場合、ステップS42に進み、IV
LC器22は、そのVS,VISO,VO,VOLの各
ヘッダの情報を、必要なブロックに供給し、次のGOV
ヘッダが送信されてくるのを待って、ステップS41に
戻る。
In step S41, the flag is
When it is determined that _extension is 1, that is, GOV
When the header includes information of each header of VS, VISO, VO, and VOL, the process proceeds to step S42 and IV
The LC unit 22 supplies the information of the respective headers of VS, VISO, VO, and VOL to the necessary block, and the next GOV.
After waiting for the header to be transmitted, the process returns to step S41.

【0141】次に、GOVは、図14に示したシンタク
スの他、例えば、図18に示すシンタクスのように構成
することも可能である。
Next, the GOV can be configured as the syntax shown in FIG. 18, for example, in addition to the syntax shown in FIG.

【0142】即ち、図18は、GOVのシンタクスの他
の例を示している。なお、図14と図18とでは、brok
en_linkの下からnext_start_codeの上までの間が異なっ
ている。また、図18において影を付してある部分が、
図8に示したFCDにおけるシンタクスと異なる部分と
なっている。
That is, FIG. 18 shows another example of the syntax of GOV. In addition, in FIG. 14 and FIG.
There is a difference between the bottom of en_link and the top of next_start_code. In addition, the shaded portion in FIG.
This is a part different from the syntax in the FCD shown in FIG.

【0143】図14の実施の形態では、フラグis_exten
sionにより、VS,VISO,VO,VOLの各ヘッダ
の情報を、GOVヘッダにおいて伝送するかどうかだけ
が設定可能であったが、図18の実施の形態では、フラ
グload_data_typeを採用することにより、VS,VIS
O,VO,VOLの各ヘッダの情報すべてを、GOVヘ
ッダにおいて伝送するかどうかだけでなく、それらの情
報の一部のみを伝送するような設定も可能になってい
る。即ち、図18の実施の形態では、VS,VISO,
VO,VOLの各ヘッダの情報の一部だけを、GOVヘ
ッダに含ませることが可能であり、フラグload_data_ty
peによれば、そのGOVヘッダに含ませる一部の情報を
識別することができるようになされている。
In the embodiment shown in FIG. 14, the flag is_exten is used.
It was possible to set only whether or not the information of each header of VS, VISO, VO, and VOL is transmitted in the GOV header by sion, but in the embodiment of FIG. 18, by adopting the flag load_data_type, VS , VIS
It is possible to set not only whether all the information in each of the O, VO, and VOL headers is transmitted in the GOV header, but also to transmit only a part of the information. That is, in the embodiment of FIG. 18, VS, VISO,
It is possible to include only a part of the information of each header of VO and VOL in the GOV header, and the flag load_data_ty
According to pe, some information included in the GOV header can be identified.

【0144】具体的には、図18において、load_data_
typeは、可変長符号で、この直後に、ランダムアクセス
時にデコーダを初期化するための情報等を伝送するかど
うかと、伝送する場合には、その伝送する情報の種類を
示す。即ち、例えば、図19に示すように、load_data_
typeが'1'のときには、GOV層より上位階層のヘッダ
の情報は、GOVには含められない。また、load_data_
typeが'01'のときには、図14の実施の形態においてフ
ラグis_extensionが1である場合と同様に、VS,VI
SO,VO,VOLの各ヘッダの情報(VisualObjectSe
quence(), VisualObject(), VideoObject(), VideoObje
ctLayer())のすべてが、GOVに含められる。さら
に、load_data_typeが'001'のときには、VS,VIS
O,VO,VOLの各ヘッダの情報のうち、予め定めら
れた所定のパラメータの情報が、GOVに含められる。
Specifically, in FIG. 18, load_data_
The type is a variable length code, and immediately after this, indicates whether or not to transmit information for initializing the decoder at the time of random access and, if so, the type of information to be transmitted. That is, for example, as shown in FIG. 19, load_data_
When the type is "1", the information of the header in the upper hierarchy than the GOV layer is not included in the GOV. Also, load_data_
When type is “01”, VS and VI are the same as when the flag is_extension is 1 in the embodiment of FIG.
Information of each header of SO, VO, VOL (VisualObjectSe
quence (), VisualObject (), VideoObject (), VideoObje
All of ctLayer ()) are included in the GOV. Furthermore, when load_data_type is '001', VS, VIS
Of the information of each header of O, VO, and VOL, information of a predetermined parameter that is determined in advance is included in the GOV.

【0145】即ち、図18の実施の形態において、load
_data_typeが'001'のときにGOVに含められる情報
は、download_parameters()として規定されている。
That is, in the embodiment of FIG. 18, load
Information included in GOV when _data_type is “001” is defined as download_parameters ().

【0146】ここで、本実施の形態では、download_par
ameters()は、例えば、図20に示すように規定されて
いる。
Here, in the present embodiment, download_par
ameters () is defined as shown in FIG. 20, for example.

【0147】図20において、フラグobmc_disableは、
オーバーラップ動き補償を用いるかどうかを示す1ビッ
トのフラグである。この値が、'1'である場合には、オ
ーバーラップ動き補償は用いられず、'0'である場合に
は、オーバーラップ動き補償が用いられる。フラグquan
t_typeは、逆量子化の方法を示す1ビットのフラグであ
る。この値が'0'である場合には、H.263に規定されてい
る逆量子化方法を用いて逆量子化が行われ、'1'である
場合には、MPEG2に規定されている逆量子化方法を用い
て逆量子化が行われる。MPEG2に規定されている逆量子
化方法を用いる場合には、さらに、量子化マトリクスを
ダウンロードするかどうかを示すフラグが伝送される。
また、量子化マトリクスをダウンロードする場合には、
そのダウンロードする量子化マトリクスも伝送される。
In FIG. 20, the flag obmc_disable is
This is a 1-bit flag indicating whether to use overlap motion compensation. If this value is '1', overlap motion compensation is not used, and if it is '0', overlap motion compensation is used. Flag quan
t_type is a 1-bit flag indicating the method of inverse quantization. If this value is '0', inverse quantization is performed using the inverse quantization method specified in H.263, and if it is '1', the inverse quantization specified in MPEG2 is performed. Inverse quantization is performed using the quantization method. When using the inverse quantization method defined in MPEG2, a flag indicating whether or not to download the quantization matrix is further transmitted.
Also, when downloading the quantization matrix,
The downloaded quantization matrix is also transmitted.

【0148】その他、図20のdownload_parameters()
において規定されているload_intra_quant_mat, intra_
quant_mat, load_nonintra_quant_mat, nonintra_quant
_mat,load_intra_quant_mat_grayscale, iontra_quant_
mat_grayscale, load_nonintra_quant_mat_grayscale,
nonintra_quant_mat_grayscaleのセマンティクスは、F
CDにおけるVOL(図5乃至図7)で規定されている
同名のフラグのセマンティクスと同様である。
In addition, download_parameters () shown in FIG.
Load_intra_quant_mat, intra_ specified in
quant_mat, load_nonintra_quant_mat, nonintra_quant
_mat, load_intra_quant_mat_grayscale, iontra_quant_
mat_grayscale, load_nonintra_quant_mat_grayscale,
The semantics of nonintra_quant_mat_grayscale are F
This is the same as the semantics of the flag of the same name defined in the VOL (FIGS. 5 to 7) on the CD.

【0149】なお、図19の実施の形態では、フラグlo
ad_data_typeについて、3通りの場合しか規定していな
いが、4通り以上の場合を規定することも可能である。
この場合、図20のdownload_parameters()で規定され
る情報の組み合わせとは異なる組み合わせの情報を、G
OVヘッダに配置することが可能となる。
In the embodiment of FIG. 19, the flag lo
Regarding ad_data_type, only three cases are specified, but it is also possible to specify four or more cases.
In this case, the information of the combination different from the combination of the information defined by download_parameters () in FIG.
It becomes possible to arrange in the OV header.

【0150】図21は、図18に示したGOVヘッダを
出力するエンコーダの一実施の形態の構成例を示してい
る。なお、図中、図12における場合と対応する部分に
ついては、同一の符号を付してある。即ち、図21のエ
ンコーダは、パーサ17(選択手段)が新たに設けられ
ている他は、図12における場合と同様に構成されてい
る。
FIG. 21 shows a configuration example of an embodiment of an encoder for outputting the GOV header shown in FIG. In addition, in the figure, the same reference numerals are given to the portions corresponding to the case in FIG. That is, the encoder of FIG. 21 is configured similarly to the case of FIG. 12, except that the parser 17 (selection means) is newly provided.

【0151】パーサ(フラグ識別器)17は、VLC器
6が出力しようとしているGOVヘッダについてのフラ
グload_data_typeを参照し、そのフラグload_data_type
にしたがって、バッファ16から情報を読み出し、VL
C器6に供給する。VLC器6では、パーサ17から供
給される情報が、フラグload_data_typeとともに、GO
Vヘッダの図18に示した所定の位置に配置されて出力
される。
The parser (flag discriminator) 17 refers to the flag load_data_type regarding the GOV header which the VLC unit 6 is about to output, and the flag load_data_type.
Information is read from the buffer 16 according to
It is supplied to the C unit 6. In the VLC unit 6, the information supplied from the parser 17 together with the flag load_data_type is GO.
The V header is arranged and output at a predetermined position shown in FIG.

【0152】次に、図22のフローチャートを参照し
て、図18に示したようなシンタクスのGOVをVLC器
6に出力させるためのパーサ17の処理について説明す
る。
Next, the processing of the parser 17 for outputting the GOV having the syntax shown in FIG. 18 to the VLC device 6 will be described with reference to the flowchart of FIG.

【0153】VLC器6は、GOVヘッダを出力するタ
イミングで、そのGOVヘッダについてのフラグload_d
ata_typeを、パーサ17に供給する。パーサ17は、V
LC器6からのフラグload_data_typeを受信し、ステッ
プS51において、その値を判定する。ステップS51
において、フラグload_data_typeが1であると判定され
た場合、パーサ17は、VLC器6に対して、何も出力
せず、次のGOVヘッダに配置されたフラグload_data_
typeが、VLC器6から送信されてくるのを待って、ス
テップS51に戻る。この場合、VLC器6では、GO
Vヘッダに、本来配置すべき情報およびload_data_type
を配置し、その結果得られるGOVヘッダを出力する。
The VLC unit 6 outputs the GOV header flag load_d at the timing of outputting the GOV header.
The ata_type is supplied to the parser 17. Parser 17 is V
The flag load_data_type is received from the LC device 6, and its value is determined in step S51. Step S51
When it is determined that the flag load_data_type is 1, the parser 17 outputs nothing to the VLC unit 6 and the flag load_data_ arranged in the next GOV header.
After waiting for the type to be transmitted from the VLC unit 6, the process returns to step S51. In this case, in the VLC device 6, GO
Information that should be placed in the V header and load_data_type
And output the resulting GOV header.

【0154】また、ステップS51において、フラグlo
ad_data_typeが01であると判定された場合、ステップ
S52に進み、パーサ17は、バッファ16から、V
S,VISO,VO,VOLの各ヘッダの最新の情報を
読み出し、VLC器6に供給する。そして、次のGOV
ヘッダに配置されたフラグload_data_typeが、VLC器
6から送信されてくるのを待って、ステップS51に戻
る。従って、この場合、VLC器6では、GOVヘッダ
に、本来配置すべき情報およびload_data_typeの他に、
VS,VISO,VO,VOLの各ヘッダの情報も配置
される。
In step S51, the flag lo
When it is determined that ad_data_type is 01, the process proceeds to step S52, where the parser 17 reads V from the buffer 16.
The latest information in each header of S, VISO, VO, and VOL is read and supplied to the VLC unit 6. And the next GOV
After waiting for the flag load_data_type arranged in the header to be transmitted from the VLC unit 6, the process returns to step S51. Therefore, in this case, in the VLC unit 6, in addition to the information and load_data_type that should be originally arranged in the GOV header,
Information on each header of VS, VISO, VO, and VOL is also arranged.

【0155】一方、ステップS51において、フラグlo
ad_data_typeが001であると判定された場合、ステッ
プS53に進み、パーサ17は、バッファ16に記憶さ
れている情報のうち、図20に示したdownload_paramet
ers()に含まれるものを選択して読み出し、VLC器6
に供給する。そして、次のGOVヘッダに配置されたフ
ラグload_data_typeが、VLC器6から送信されてくる
のを待って、ステップS51に戻る。従って、この場
合、VLC器6では、GOVヘッダに、本来配置すべき
情報およびload_data_typeの他に、図20に示したdown
load_parameters()も配置される。
On the other hand, in step S51, the flag lo
If it is determined that ad_data_type is 001, the parser 17 proceeds to step S53, and the parser 17 download_paramet shown in FIG. 20 among the information stored in the buffer 16.
Select the one included in ers () and read it out.
Supply to. Then, after waiting for the flag load_data_type arranged in the next GOV header to be transmitted from the VLC unit 6, the process returns to step S51. Therefore, in this case, in the VLC unit 6, in addition to the information and load_data_type to be originally arranged in the GOV header, down shown in FIG.
load_parameters () is also placed.

【0156】次に、図21のエンコーダから、記録媒体
201または伝送媒体202を介して提供される符号化
ビットストリームは、図16に示した構成のデコーダに
よってデコードすることができる。
Next, the encoded bit stream provided from the encoder of FIG. 21 via the recording medium 201 or the transmission medium 202 can be decoded by the decoder having the configuration shown in FIG.

【0157】図23は、図16に示した構成のデコーダ
のIVLC器22が、図18に示したシンタクスのGO
Vヘッダに関して行う処理を説明するためのフローチャ
ートである。
FIG. 23 shows that the IVLC unit 22 of the decoder having the configuration shown in FIG. 16 has the syntax GO shown in FIG.
It is a flow chart for explaining processing performed about a V header.

【0158】IVLC器22は、GOVヘッダを受信す
ると、そのGOVヘッダについて、通常行うべき処理
(図8に示したGOVヘッダが送信されてきたときに行
うべき処理)を行い、さらに、ステップS61におい
て、GOVヘッダ(図18)に配置されているフラグlo
ad_data_typeの値を判定する。ステップS61におい
て、フラグload_data_typeが1であると判定された場
合、次のGOVヘッダが送信されてくるのを待って、ス
テップS61に戻る。
Upon receiving the GOV header, the IVLC unit 22 performs the processing that should normally be performed on the GOV header (the processing that should be performed when the GOV header shown in FIG. 8 is transmitted), and at step S61. , The flag lo located in the GOV header (FIG. 18)
Determine the value of ad_data_type. When it is determined in step S61 that the flag load_data_type is 1, the process waits for the next GOV header to be transmitted, and the process returns to step S61.

【0159】また、ステップS61において、フラグlo
ad_data_typeが01であると判定された場合、即ち、G
OVヘッダに、VS,VISO,VO,VOLの各ヘッ
ダの情報が含まれている場合、ステップS62に進み、
IVLC器22は、フラグload_data_typeに基づいて、
そのVS,VISO,VO,VOLの各ヘッダの情報
を、符号化ビットストリームから抽出し、必要なブロッ
クに供給する。即ち、その情報を可変長復号し、その結
果得られる、例えば、動きベクトル、予測モード、およ
びオーバーラップ動き補償を行うかどうかを示すフラグ
を、動き補償器27に、また、量子化ステップおよび量
子化マトリクスを、逆量子化器23に、それぞれ供給す
る。そして、次のGOVヘッダが送信されてくるのを待
って、ステップS61に戻る。
Further, in step S61, the flag lo
When it is determined that ad_data_type is 01, that is, G
If the OV header includes the information of the VS, VISO, VO, and VOL headers, the process proceeds to step S62.
The IVLC unit 22 uses the flag load_data_type to
The information of the VS, VISO, VO, and VOL headers is extracted from the encoded bitstream and supplied to the necessary blocks. That is, the information is subjected to variable length decoding, and a flag obtained as a result thereof, for example, a motion vector, a prediction mode, and whether or not to perform overlap motion compensation is provided to the motion compensator 27, and the quantization step and the The respective quantization matrices are supplied to the inverse quantizer 23. Then, after waiting for the next GOV header to be transmitted, the process returns to step S61.

【0160】一方、ステップS61において、フラグlo
ad_data_typeが001であると判定された場合、即ち、
GOVヘッダに、download_parameters()(パラメータ
更新情報)が含まれている場合、ステップS63に進
み、IVLC器22は、フラグload_data_typeに基づい
て、そのdownload_parameters()を、符号化ビットスト
リームから抽出し、必要なブロックに供給する。即ち、
そのdownload_parameters()を可変長復号し、その結果
得られる、例えば、オーバーラップ動き補償を行うかど
うかを示すフラグを、動き補償器27に、また、量子化
ステップおよび量子化マトリクスを、逆量子化器23
に、それぞれ供給する。そして、次のGOVヘッダが送
信されてくるのを待って、ステップS61に戻る。
On the other hand, in step S61, the flag lo
When it is determined that ad_data_type is 001, that is,
If the GOV header includes download_parameters () (parameter update information), the IVLC unit 22 extracts the download_parameters () from the encoded bitstream based on the flag load_data_type, and proceeds to step S63. Supply to the block. That is,
The download_parameters () is subjected to variable length decoding, and the resulting flag, for example, indicating whether or not to perform overlap motion compensation is provided to the motion compensator 27, and the quantization step and the quantization matrix are inversely quantized. Bowl 23
, Respectively. Then, after waiting for the next GOV header to be transmitted, the process returns to step S61.

【0161】以上のように、GOVのヘッダに、それに
より上位階層のVS,VISO,VO,VOLのヘッダ
の情報の全部または一部(本実施の形態では、図20に
示したdownload_parameters())を含めるようにしたの
で、符号化ビットストリームに対して、ランダムアクセ
ス等し、その途中から、正常な復号を行うことが可能と
なる。さらに、GOVの先頭で、量子化ステップや量子
化マトリクスを変更することが可能となり、その結果、
効率の良い符号化を行うことができるようになる。
As described above, in the GOV header, all or part of the information of the VS, VISO, VO, and VOL headers of the upper layer, according to the header (download_parameters () shown in FIG. 20 in this embodiment). Since it has been included, it is possible to perform random access or the like to the encoded bit stream and perform normal decoding from the middle. Furthermore, it becomes possible to change the quantization step and the quantization matrix at the beginning of the GOV, and as a result,
It becomes possible to perform efficient encoding.

【0162】以上、本発明を、MPEG4に基づいた符
号化/復号を行うエンコーダ/デコーダに適用した場合
について説明したが、本発明の適用範囲は、MPEG4
に基づいた符号化/復号に限定されるものではない。
The case where the present invention is applied to the encoder / decoder which performs encoding / decoding based on MPEG4 has been described above. However, the applicable range of the present invention is MPEG4.
It is not limited to encoding / decoding based on

【0163】また、本実施の形態では、download_param
eters()として、図20に示した情報を、GOVのヘッ
ダに含めるようにしたが、download_parameters()とし
てGOVのヘッダに含める情報は、図20に示したもの
に限定されるものではない。
Further, in the present embodiment, download_param
The information shown in FIG. 20 as the eters () is included in the GOV header, but the information included in the GOV header as the download_parameters () is not limited to that shown in FIG.

【0164】さらに、図12および図21に示したエン
コーダ、並びに図16に示したデコーダは、ハードウェ
アによって実現することも可能であるし、また、コンピ
ュータなどにプログラムを実行させることによって実現
することも可能である。
Further, the encoder shown in FIGS. 12 and 21 and the decoder shown in FIG. 16 can be realized by hardware, or can be realized by causing a computer or the like to execute a program. Is also possible.

【0165】また、MPEG4では、スケーラビリティ
を実現するための階層符号化が可能であるが、本発明
は、階層符号化を行うか否かにかかわらず適用可能であ
る。
Also, with MPEG4, hierarchical coding for achieving scalability is possible, but the present invention is applicable regardless of whether hierarchical coding is performed or not.

【0166】[0166]

【発明の効果】第1の本発明によれば、効率的な符号化
が可能となる。
According to the first aspect of the present invention, efficient coding is possible.

【0167】第2の本発明によれば、符号化ビットスト
リームの途中からでも、正常な復号を行うことが可能と
なる。
According to the second aspect of the present invention , normal decoding can be performed even in the middle of the encoded bit stream.

【0168】[0168]

【図面の簡単な説明】[Brief description of drawings]

【図1】MPEG4規格FCDで規定されている符号化ビット
ストリームの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a coded bitstream defined by MPEG4 standard FCD.

【図2】MPEG4規格FCDで規定されているVSのシンタ
クスを示す図である。
[Fig. 2] Fig. 2 is a diagram illustrating the syntax of VS defined by the MPEG4 standard FCD.

【図3】MPEG4規格FCDで規定されているVISOのシ
ンタクスを示す図である。
[Fig. 3] Fig. 3 is a diagram illustrating the syntax of VISO defined by the MPEG4 standard FCD.

【図4】MPEG4規格FCDで規定されているVOのシンタ
クスを示す図である。
FIG. 4 is a diagram showing the syntax of VO defined by the MPEG4 standard FCD.

【図5】MPEG4規格FCDで規定されているVOLのシン
タクスを示す図である。
[Fig. 5] Fig. 5 is a diagram illustrating the syntax of a VOL defined by the MPEG4 standard FCD.

【図6】MPEG4規格FCDで規定されているVOLのシン
タクスを示す図である。
FIG. 6 is a diagram showing the syntax of a VOL defined by the MPEG4 standard FCD.

【図7】MPEG4規格FCDで規定されているVOLのシン
タクスを示す図である。
[Fig. 7] Fig. 7 is a diagram illustrating the syntax of a VOL defined by the MPEG4 standard FCD.

【図8】MPEG4規格FCDで規定されているGOVのシン
タクスを示す図である。
[Fig. 8] Fig. 8 is a diagram illustrating the syntax of GOV defined by the MPEG4 standard FCD.

【図9】MPEG4規格FCDで規定されているVOPのシン
タクスを示す図である。
[Fig. 9] Fig. 9 is a diagram illustrating the syntax of a VOP defined by the MPEG4 standard FCD.

【図10】MPEG4規格FCDで規定されているVOPのシ
ンタクスを示す図である。
[Fig. 10] Fig. 10 is a diagram illustrating the syntax of a VOP defined by the MPEG4 standard FCD.

【図11】MPEG4規格FCDで規定されているVOPのシ
ンタクスを示す図である。
FIG. 11 is a diagram showing the syntax of VOP defined by the MPEG4 standard FCD.

【図12】本発明を適用したエンコーダの一実施の形態
の構成例を示すブロック図である。
FIG. 12 is a block diagram illustrating a configuration example of an embodiment of an encoder to which the present invention has been applied.

【図13】図12の画素置換器15の処理を説明するた
めのフローチャートである。
FIG. 13 is a flowchart for explaining the process of the pixel replacer 15 in FIG.

【図14】図12のVLC器6が出力するGOVのシン
タクスを示す図である。
14 is a diagram showing the syntax of GOV output by the VLC unit 6 of FIG.

【図15】図12のVLC器6の処理を説明するための
フローチャートである。
FIG. 15 is a flowchart for explaining the processing of the VLC device 6 of FIG.

【図16】本発明を適用したデコーダの一実施の形態の
構成例を示すブロック図である。
FIG. 16 is a block diagram showing a configuration example of an embodiment of a decoder to which the present invention has been applied.

【図17】図16のIVLC器22の処理を説明するた
めのフローチャートである。
FIG. 17 is a flowchart for explaining the processing of the IVLC device 22 of FIG.

【図18】図21のVLC器6が出力するGOVのシン
タクスを示す図である。
FIG. 18 is a diagram showing the syntax of GOV output by the VLC unit 6 of FIG. 21.

【図19】load_data_typeを説明するための図である。FIG. 19 is a diagram for explaining load_data_type.

【図20】図18のdownload_parameters()のシンタク
スを示す図である。
[Fig. 20] Fig. 20 is a diagram illustrating the syntax of download_parameters () in Fig. 18.

【図21】本発明を適用したエンコーダの他の実施の形
態の構成例を示すブロック図である。
FIG. 21 is a block diagram showing a configuration example of another embodiment of an encoder to which the present invention has been applied.

【図22】図21のパーサ17の処理を説明するための
フローチャートである。
22 is a flowchart for explaining the process of the parser 17 in FIG.

【図23】図16のIVLC器22の処理を説明するた
めのフローチャートである。
23 is a flow chart for explaining the processing of the IVLC device 22 of FIG.

【図24】従来のエンコーダの一例の構成を示すブロッ
ク図である。
FIG. 24 is a block diagram showing a configuration of an example of a conventional encoder.

【図25】従来のデコーダの一例の構成を示すブロック
図である。
FIG. 25 is a block diagram showing a configuration of an example of a conventional decoder.

【符号の説明】[Explanation of symbols]

1 フレームメモリ(受信手段), 2 動きベクトル
検出器, 3 演算器, 4 DCT器, 5 量子化
器, 6 VLC器(符号化手段), 7 バッファ,
8 逆量子化器, 9 IDCT器, 10 演算
器, 11 フレームメモリ, 12 動き補償器,
13 キー信号符号化器, 14 キー信号復号器,
15 画素置換器, 16 バッファ, 17 パーサ
(選択手段), 21 バッファ(受信手段), 22
IVLC器(復号手段), 23逆量子化器, 24
IDCT器, 25 演算器, 26 フレームメモ
リ, 27 動き補償器, 28 画素置換器, 29
キー信号復号器, 201 記録媒体, 202 伝
送媒体
1 frame memory (reception means), 2 motion vector detectors, 3 arithmetic units, 4 DCT units, 5 quantizers, 6 VLC units (encoding means), 7 buffers,
8 inverse quantizer, 9 IDCT device, 10 arithmetic unit, 11 frame memory, 12 motion compensator,
13 key signal encoder, 14 key signal decoder,
15 pixel replacer, 16 buffer, 17 parser (selecting means), 21 buffer (receiving means), 22
IVLC device (decoding means), 23 inverse quantizer, 24
IDCT device, 25 arithmetic unit, 26 frame memory, 27 motion compensator, 28 pixel replacer, 29
Key signal decoder, 201 recording medium, 202 transmission medium

フロントページの続き (56)参考文献 特開 平8−125966(JP,A) インダーフェース, ,日本,1992 年,Vol.18 No.8,p.124− 146 コンピュータサイエンス誌 bit vol.29 no.6 共立出版社 (1997.6.1),日本,p.86−96 (58)調査した分野(Int.Cl.7,DB名) H04N 5/91 - 5/95 H04N 7/24 - 7/68 Continuation of the front page (56) References JP-A-8-125966 (JP, A) Underface, Japan, 1992, Vol. 18 No. 8, p. 124-146 Computer Science Magazine bit vol. 29 no. 6 Kyoritsu Publishing Co. (1997.6.1), Japan, p. 86-96 (58) Fields investigated (Int.Cl. 7 , DB name) H04N 5/ 91-5/95 H04N 7/ 24-7/68

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像を符号化し、複数の階層からなる階
層構造の符号化ビットストリームを出力する画像符号化
装置であって、 前記符号化ビットストリームの上位階層のヘッダ情報を
記憶部に記憶させる記憶手段と、 前記符号化ビットストリームの下位階層のヘッダに配置
されている識別フラグに応じた前記上位階層のヘッダ情
報を前記記憶部から読み出し、それを前記下位階層のヘ
ッダに配置する配置手段と、 前記配置手段により、前記記憶部から読み出された前記
上位階層のヘッダ情報が前記下位階層のヘッダに配置さ
れた前記符号化ビットストリームを出力する出力手段と
を備え 前記識別フラグは少なくとも、前記上位階層のヘッダ情
報を何も伝送しない、前記上位階層のヘッダ情報を全て
伝送する、若しくは、前記上位階層のヘッダ情報のうち
所定のヘッダ情報のみを伝送する、の3通りを規定する
ことを特徴とする画像符号化装置。
1. An image encoding apparatus for encoding an image and outputting an encoded bitstream having a hierarchical structure composed of a plurality of layers, wherein header information of an upper layer of the encoded bitstream is stored in a storage unit. Storage means, and arrangement means for reading header information of the higher layer according to an identification flag arranged in the header of the lower layer of the encoded bitstream from the storage unit and arranging it in the header of the lower layer. , by the arrangement means, and output means for header information of the upper layer which is read from the storage unit to output the encoded bit stream which is disposed in the header of the lower layer, the identification flag is at least, Header information of the upper layer
No information is transmitted, all header information of the upper layer is transmitted.
Of the header information of the upper layer
An image coding apparatus characterized in that it defines three types of transmitting only predetermined header information .
【請求項2】 前記ヘッダ情報には、オーバーラップ動
き補償を用いるか否かを示すパラメータ、または逆量子
化の方法を表すパラメータが含まれることを特徴とする
請求項1に記載の画像符号化装置。
To wherein said header information, picture coding according to claim 1, characterized in that it includes a parameter representing the process parameters or inverse quantization, indicating whether to use overlapping motion compensation apparatus.
【請求項3】 前記記憶手段は、前記上位階層の最新の
ヘッダ情報を前記記憶部に記憶させることを特徴とする
請求項1に記載の画像符号化装置。
3. The image coding apparatus according to claim 1, wherein the storage unit stores the latest header information of the upper layer in the storage unit.
【請求項4】 前記記憶部に記憶されている前記上位階
層のヘッダ情報を変更する変更手段をさらに備えること
を特徴とする請求項1に記載の画像符号化装置。
4. The image coding apparatus according to claim 1, further comprising a changing unit that changes the header information of the upper layer stored in the storage unit.
【請求項5】 画像を符号化し、複数の階層からなる階
層構造の符号化ビットストリームを出力する画像符号化
装置の画像符号化方法であって、 前記符号化ビットストリームの上位階層のヘッダ情報を
記憶部に記憶させる記憶ステップと、 前記符号化ビットストリームの下位階層のヘッダに配置
されている識別フラグに応じた前記上位階層のヘッダ情
報を前記記憶部から読み出し、それを前記下位階層のヘ
ッダに配置する配置ステップと、 前記配置ステップの処理で前記記憶部から読み出された
前記上位階層のヘッダ情報が前記下位階層のヘッダに配
置された前記符号化ビットストリームを出力する出力ス
テップとを含み、 前記識別フラグは少なくとも、前記上位階層のヘッダ情
報を何も伝送しない、前記上位階層のヘッダ情報を全て
伝送する、若しくは、前記上位階層のヘッダ情報のうち
所定のヘッダ情報のみを伝送する、の3通りを規定する
ことを特徴とする画像符号化方法。
5. An image encoding method for an image encoding apparatus, which encodes an image and outputs an encoded bitstream having a hierarchical structure composed of a plurality of layers, wherein header information of an upper layer of the encoded bitstream is provided. A storage step of storing in the storage unit, read the header information of the upper layer according to the identification flag arranged in the header of the lower layer of the encoded bitstream from the storage unit, in the header of the lower layer seen including a placement step of placing, and an output step of header information of said placement step of processing the upper read from the storage unit in a hierarchical outputs the coded bit stream arranged in a header of the lower layer , The identification flag is at least the header information of the upper layer.
No information is transmitted, all header information of the upper layer is transmitted.
Of the header information of the upper layer
An image coding method characterized in that it defines three types of transmitting only predetermined header information .
【請求項6】 記憶部から読み出された、階層構造の符
号化ビットストリームの下位階層のヘッダに配置されて
いる識別フラグに応じた前記符号化ビットストリームの
上位階層のヘッダ情報が前記下位階層のヘッダに配置さ
れている前記符号化ビットストリームを復号する画像復
号装置において、 前記識別フラグに基づいて、前記下位階層のヘッダに含
まれる前記上位階層のヘッダ情報を抽出する抽出手段
と、 前記抽出手段により抽出された前記ヘッダ情報に基づい
て、前記符号化ビットストリームを復号する復号手段と
を備え 前記識別フラグは少なくとも、前記上位階層のヘッダ情
報を何も伝送しない、前記上位階層のヘッダ情報を全て
伝送する、若しくは、前記上位階層のヘッダ情報のうち
所定のヘッダ情報のみを伝送する、の3通りを規定する
ことを特徴とする画像復号装置。
6. The header information of the upper layer of the encoded bitstream read from the storage unit according to the identification flag arranged in the header of the lower layer of the encoded bitstream of the hierarchical structure is the lower layer. An image decoding apparatus for decoding the coded bitstream arranged in the header of the extracting unit, which extracts header information of the upper layer included in the header of the lower layer based on the identification flag; Decoding means for decoding the encoded bitstream based on the header information extracted by the means , wherein the identification flag is at least the header information of the upper layer.
No information is transmitted, all header information of the upper layer is transmitted.
Of the header information of the upper layer
An image decoding device characterized in that it defines three types of transmitting only predetermined header information .
【請求項7】 前記ヘッダ情報には、オーバーラップ動
き補償を用いるか否かを示すパラメータ、または逆量子
化の方法を表すパラメータが含まれることを特徴とする
請求項6に記載の画像復号装置。
To wherein said header information, the image decoding apparatus according to claim 6, characterized in that it includes a parameter representing the process parameters or inverse quantization, indicating whether to use overlapping motion compensation .
【請求項8】 記憶部から読み出された、階層構造の符
号化ビットストリームの下位階層のヘッダに配置されて
いる識別フラグに応じた前記符号化ビットストリームの
上位階層のヘッダ情報が前記下位階層のヘッダに配置さ
れている前記符号化ビットストリームを復号する画像復
号装置の画像復号方法において、 前記識別フラグに基づいて、前記下位階層のヘッダに含
まれる前記上位階層のヘッダ情報を抽出する抽出ステッ
プと、 前記抽出ステップの処理で抽出された前記ヘッダ情報に
基づいて、前記符号化ビットストリームを復号する復号
ステップとを含み、 前記識別フラグは少なくとも、前記上位階層のヘッダ情
報を何も伝送しない、前記上位階層のヘッダ情報を全て
伝送する、若しくは、前記上位階層のヘッダ情報のうち
所定のヘッダ情報のみを伝送する、の3通りを規定する
ことを特徴とする画像復号方法。
8. The header information of the upper layer of the coded bitstream, which is read from the storage unit and corresponds to the identification flag arranged in the header of the lower layer of the coded bitstream of the hierarchical structure, is the lower layer. In the image decoding method of the image decoding device for decoding the coded bitstream arranged in the header, the extracting step of extracting header information of the higher layer included in the header of the lower layer based on the identification flag. If, on the basis of the header information extracted by the processing of the extracting step, seen including a decoding step of decoding the coded bit stream, the identification flag is at least, the header information of the upper layer
No information is transmitted, all header information of the upper layer is transmitted.
Of the header information of the upper layer
An image decoding method characterized by defining three types of transmitting only predetermined header information .
JP17350098A 1998-06-19 1998-06-19 Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium Expired - Fee Related JP3380981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17350098A JP3380981B2 (en) 1998-06-19 1998-06-19 Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17350098A JP3380981B2 (en) 1998-06-19 1998-06-19 Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000196900A Division JP2001061145A (en) 2000-01-01 2000-06-29 Image coding device and method therefor, and image decoding device and method therefor

Publications (2)

Publication Number Publication Date
JP2000013791A JP2000013791A (en) 2000-01-14
JP3380981B2 true JP3380981B2 (en) 2003-02-24

Family

ID=15961677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17350098A Expired - Fee Related JP3380981B2 (en) 1998-06-19 1998-06-19 Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium

Country Status (1)

Country Link
JP (1) JP3380981B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11490121B2 (en) 2018-09-12 2022-11-01 Panasonic Intellectual Property Management Co., Ltd. Transform device, decoding device, transforming method, and decoding method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3857057B2 (en) * 2001-02-05 2006-12-13 株式会社日立製作所 Method and apparatus for recording / reproducing moving image data
US20080253449A1 (en) * 2007-04-13 2008-10-16 Yoji Shimizu Information apparatus and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125966A (en) * 1994-10-24 1996-05-17 Matsushita Electric Ind Co Ltd Recording and reproducing device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
インダーフェース, ,日本,1992年,Vol.18 No.8,p.124−146
コンピュータサイエンス誌 bit vol.29 no.6 共立出版社(1997.6.1),日本,p.86−96

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11490121B2 (en) 2018-09-12 2022-11-01 Panasonic Intellectual Property Management Co., Ltd. Transform device, decoding device, transforming method, and decoding method

Also Published As

Publication number Publication date
JP2000013791A (en) 2000-01-14

Similar Documents

Publication Publication Date Title
JP3413720B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
US6400768B1 (en) Picture encoding apparatus, picture encoding method, picture decoding apparatus, picture decoding method and presentation medium
US7302002B2 (en) Image encoder, image encoding method, image decoder, image decoding method, and distribution media
KR100323489B1 (en) Method and device for transcoding bitstream with video data
US5543847A (en) Picture coding and decoding method for random accessing
JP3413721B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
US6130911A (en) Method and apparatus for compressing reference frames in an interframe video codec
CN1922884B (en) Method of video decoding
JP2003527004A (en) Method for reducing layer decoding complexity by reordering the transmission of enhancement layer frames
US20010010707A1 (en) Image signal transcoder capable of bit stream transformation suppressing deterioration of picture quality
WO2006114954A1 (en) Video information recording device, video information recording method, video information recording program, and recording medium containing the video information recording program
JP3380981B2 (en) Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium
JP3263901B2 (en) Image signal encoding method and apparatus, image signal decoding method and apparatus
US8326060B2 (en) Video decoding method and video decoder based on motion-vector data and transform coefficients data
JP2001061145A (en) Image coding device and method therefor, and image decoding device and method therefor
KR20060016947A (en) Mpeg video encoding system and method for the same
JP3356413B2 (en) Image decoding method and apparatus
JP4211023B2 (en) Moving image processing method and moving image processing apparatus
JP3345887B2 (en) Image encoding device and image encoding method, image decoding device and image decoding method, and recording medium
KR0171756B1 (en) Method and apparatus for extracting the standing fictures from a receiver of digital dbs
Onishi MPEG-4 VIDEO ENCODER IMPLEMENTATION IN JAVA
JP2001054120A (en) Image coder, image coding method, image decoder, image decoding method and recording medium
JP2004134889A (en) Image signal converting apparatus and image signal converting method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081220

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091220

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101220

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111220

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121220

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121220

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131220

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees