JP3344577B2 - Image encoding device and image encoding method, image decoding device and image decoding method, and recording method - Google Patents

Image encoding device and image encoding method, image decoding device and image decoding method, and recording method

Info

Publication number
JP3344577B2
JP3344577B2 JP2000184493A JP2000184493A JP3344577B2 JP 3344577 B2 JP3344577 B2 JP 3344577B2 JP 2000184493 A JP2000184493 A JP 2000184493A JP 2000184493 A JP2000184493 A JP 2000184493A JP 3344577 B2 JP3344577 B2 JP 3344577B2
Authority
JP
Japan
Prior art keywords
image
picture
coding
vop
macroblock
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000184493A
Other languages
Japanese (ja)
Other versions
JP2001045498A (en
Inventor
輝彦 鈴木
陽一 矢ヶ崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000184493A priority Critical patent/JP3344577B2/en
Publication of JP2001045498A publication Critical patent/JP2001045498A/en
Application granted granted Critical
Publication of JP3344577B2 publication Critical patent/JP3344577B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像符号化装置お
よび画像符号化方法、画像復号化装置および画像復号化
方法、並びに記録媒体および記録方法に関する。特に、
例えば、動画像データを、光磁気ディスクや磁気テープ
などの記録媒体に記録し、これを再生してディスプレイ
などに表示したり、テレビ会議システム、テレビ電話シ
ステム、放送用機器、マルチメディアデータベース検索
システムなどのように、動画像データを伝送路を介して
送信側から受信側に伝送し、受信側において、これを受
信し、表示する場合や、編集して記録する場合などに用
いて好適な画像符号化装置および画像符号化方法、画像
復号化装置および画像復号化方法、並びに記録媒体およ
び記録方法に関する。
The present invention relates to an image encoding device and an image encoding method, an image decoding device and an image decoding method, and a recording medium and a recording method. In particular,
For example, moving image data is recorded on a recording medium such as a magneto-optical disk or a magnetic tape, and is reproduced and displayed on a display or the like, a video conference system, a video telephone system, a broadcasting device, a multimedia database search system. For example, when moving image data is transmitted from a transmitting side to a receiving side via a transmission path, and the receiving side receives and displays the moving image data, or edits and records the image, a suitable image is used. The present invention relates to an encoding device and an image encoding method, an image decoding device and an image decoding method, and a recording medium and a recording method.

【0002】[0002]

【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像データを遠隔地に伝送
するシステムにおいては、伝送路を効率良く利用するた
め、画像データを、そのライン相関やフレーム間相関を
利用して圧縮符号化するようになされている。
2. Description of the Related Art For example, in a system for transmitting moving image data to a remote place, such as a video conference system or a video telephone system, image data is converted into a line correlation or a frame in order to use a transmission path efficiently. The compression encoding is performed using the inter-correlation.

【0003】動画像の高能率符号化方式として代表的な
ものとしてMPEG(Moving Picture Experts Group)
(蓄積用動画像符号化)方式がある。これはISO−I
EC/JTC1/SC2/WG11において議論され、
標準案として提案されたものであり、動き補償予測符号
化とDCT(Discrete Cosine Transform)符号化を組
み合わせたハイブリッド方式が採用されている。
A moving picture experts group (MPEG) is a typical moving picture coding scheme.
(Moving picture coding for storage). This is ISO-I
Discussed in EC / JTC1 / SC2 / WG11,
It has been proposed as a standard, and employs a hybrid method combining motion compensation prediction coding and DCT (Discrete Cosine Transform) coding.

【0004】MPEGでは、様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML(Main Profile
at Main Level))である。
[0004] In MPEG, several profiles and levels are defined in order to support various applications and functions. The most basic is the main profile main level (MP @ ML (Main Profile
at Main Level)).

【0005】図42は、MPEG方式におけるMP@M
Lのエンコーダの一例の構成を示している。
[0005] FIG. 42 is a diagram showing MP @ M in the MPEG system.
5 shows an exemplary configuration of an L encoder.

【0006】符号化すべき画像データは、フレームメモ
リ31に入力され、一時記憶される。そして、動きベク
トル検出器32は、フレームメモリ31に記憶された画
像データを、例えば、16画素×16画素などで構成さ
れるマクロブロック単位で読み出し、その動きベクトル
を検出する。
[0006] Image data to be encoded is input to a frame memory 31 and is temporarily stored. Then, the motion vector detector 32 reads out the image data stored in the frame memory 31 in units of macroblocks composed of, for example, 16 pixels × 16 pixels, and detects the motion vector.

【0007】ここで、動きベクトル検出器32において
は、各フレームの画像データを、Iピクチャ、Pピクチ
ャ、またはBピクチャのうちのいずれかとして処理す
る。なお、シーケンシャルに入力される各フレームの画
像を、I,P,Bピクチャのいずれのピクチャとして処
理するかは、予め定められている(例えば、I,B,
P,B,P,・・・B,Pとして処理される)。
Here, the motion vector detector 32 processes the image data of each frame as any one of an I picture, a P picture, and a B picture. It should be noted that it is determined in advance as to which of the I, P, and B pictures the image of each frame input sequentially is processed (for example, I, B,
P, B, P,..., B, P).

【0008】即ち、動きベクトル検出器32は、フレー
ムメモリ31に記憶された画像の中の、予め定められた
所定の参照フレームを参照し、その参照フレームと、現
在符号化の対象となっているフレームの16画素×16
ラインの小ブロック(マクロブロック)とをパターンマ
ッチング(ブロックマッチング)することにより、その
マクロブロックの動きベクトルを検出する。
That is, the motion vector detector 32 refers to a predetermined reference frame in an image stored in the frame memory 31, and the reference frame and the current frame are to be encoded. 16 pixels of frame x 16
By performing pattern matching (block matching) with a small block (macro block) of the line, a motion vector of the macro block is detected.

【0009】ここで、MPEGにおいては、画像の予測
モードには、イントラ符号化(フレーム内符号化)、前
方予測符号化、後方予測符号化、両方向予測符号化の4
種類があり、Iピクチャはイントラ符号化され、Pピク
チャはイントラ符号化または前方予測符号化され、Bピ
クチャはイントラ符号化、前方予測符号化、後方予測符
号化、または両方法予測符号化される。
[0009] Here, in MPEG, the image prediction modes include four modes: intra coding (intra-frame coding), forward prediction coding, backward prediction coding, and bidirectional prediction coding.
There are types, I pictures are intra-coded, P pictures are intra-coded or forward predicted coded, B pictures are intra-coded, forward predicted coded, backward predicted coded, or both methods predictive coded .

【0010】即ち、動きベクトル検出器32は、Iピク
チャについては、予測モードとしてイントラ符号化モー
ドを設定する。この場合、動きベクトル検出器32は、
動きベクトルの検出は行わず、予測モード(イントラ予
測モード)を、VLC(可変長符号化)器36および動
き補償器42に出力する。
That is, the motion vector detector 32 sets the intra coding mode as the prediction mode for the I picture. In this case, the motion vector detector 32
The motion vector is not detected, and the prediction mode (intra prediction mode) is output to the VLC (variable length coding) unit 36 and the motion compensator 42.

【0011】また、動きベクトル検出器32は、Pピク
チャについては、前方予測を行い、その動きベクトルを
検出する。さらに、動きベクトル検出器32は、前方予
測を行うことにより生じる予測誤差と、符号化対象のマ
クロブロック(Pピクチャのマクロブロック)の、例え
ば分散とを比較し、マクロブロックの分散の方が予測誤
差より小さい場合、予測モードとしてイントラ符号化モ
ードを設定し、VLC器36および動き補償器42に出
力する。また、動きベクトル検出器32は、前方予測を
行うことにより生じる予測誤差の方が小さければ、予測
モードとして前方予測符号化モードを設定し、検出した
動きベクトルとともに、VLC器36および動き補償器
42に出力する。
The motion vector detector 32 performs forward prediction on a P picture and detects the motion vector. Further, the motion vector detector 32 compares a prediction error caused by performing forward prediction with, for example, a variance of a coding-target macroblock (a macroblock of a P picture), and the variance of the macroblock is more predictive. When the difference is smaller than the error, the intra coding mode is set as the prediction mode, and the prediction mode is output to the VLC unit 36 and the motion compensator 42. If the prediction error caused by performing the forward prediction is smaller, the motion vector detector 32 sets the forward prediction encoding mode as the prediction mode, and sets the VLC unit 36 and the motion compensator 42 together with the detected motion vector. Output to

【0012】さらに、動きベクトル検出器32は、Bピ
クチャについては、前方予測、後方予測、および両方向
予測を行い、それぞれの動きベクトルを検出する。そし
て、動きベクトル検出器32は、前方予測、後方予測、
および両方向予測についての予測誤差の中の最小のもの
(以下、適宜、最小予測誤差という)を検出し、その最
小予測誤差と、符号化対象のマクロブロック(Bピクチ
ャのマクロブロック)の、例えば分散とを比較する。そ
の比較の結果、マクロブロックの分散の方が最小予測誤
差より小さい場合、動きベクトル検出器32は、予測モ
ードとしてイントラ符号化モードを設定し、VLC器3
6および動き補償器42に出力する。また、動きベクト
ル検出器32は、最小予測誤差の方が小さければ、予測
モードとして、その最小予測誤差が得られた予測モード
を設定し、対応する動きベクトルとともに、VLC器3
6および動き補償器42に出力する。
Further, the motion vector detector 32 performs forward prediction, backward prediction, and bidirectional prediction on the B picture, and detects respective motion vectors. Then, the motion vector detector 32 performs forward prediction, backward prediction,
And a minimum prediction error of the bidirectional prediction (hereinafter, appropriately referred to as a minimum prediction error), and the minimum prediction error and the variance of the encoding target macroblock (the macroblock of the B picture), for example. Compare with As a result of the comparison, if the variance of the macroblock is smaller than the minimum prediction error, the motion vector detector 32 sets the intra coding mode as the prediction mode, and sets the VLC unit 3
6 and the motion compensator 42. If the minimum prediction error is smaller, the motion vector detector 32 sets the prediction mode in which the minimum prediction error is obtained as the prediction mode, and sets the VLC unit 3 together with the corresponding motion vector.
6 and the motion compensator 42.

【0013】動き補償器42は、動きベクトル検出器3
2から予測モードと動きベクトルの両方を受信すると、
その予測モードおよび動きベクトルにしたがって、フレ
ームメモリ41に記憶されている、符号化され、既に局
所復号化された画像データを読み出し、これを、予測画
像として、演算器33および40に供給する。
The motion compensator 42 includes a motion vector detector 3
When both the prediction mode and the motion vector are received from 2,
According to the prediction mode and the motion vector, the coded and already locally decoded image data stored in the frame memory 41 is read out and supplied to the calculators 33 and 40 as a predicted image.

【0014】演算器33は、動きベクトル検出器32が
フレームメモリ31から読み出した画像データと同一の
マクロブロックを、フレームメモリ31から読み出し、
そのマクロブロックと、動き補償器42からの予測画像
との差分を演算する。この差分値は、DCT器34に供
給される。
The arithmetic unit 33 reads from the frame memory 31 the same macroblock as the image data read from the frame memory 31 by the motion vector detector 32,
The difference between the macro block and the predicted image from the motion compensator 42 is calculated. This difference value is supplied to the DCT unit 34.

【0015】一方、動き補償器42は、動きベクトル検
出器32から予測モードのみを受信した場合、即ち、予
測モードがイントラ符号化モードである場合には、予測
画像を出力しない。この場合、演算器33(演算器40
も同様)は、特に処理を行わず、フレームメモリ31か
ら読み出したマクロブロックを、そのままDCT器34
に出力する。
On the other hand, when only the prediction mode is received from the motion vector detector 32, that is, when the prediction mode is the intra-coding mode, the motion compensator 42 does not output a predicted image. In this case, the operator 33 (the operator 40
Does not perform any particular processing, and converts the macroblock read from the frame memory 31 into the DCT unit 34 without any processing.
Output to

【0016】DCT器34では、演算器33の出力に対
して、DCT処理が施され、その結果得られるDCT係
数が、量子化器35に供給される。量子化器35では、
バッファ37のデータ蓄積量(バッファ37に記憶され
ているデータの量)(バッファフィードバック)に対応
して量子化ステップ(量子化スケール)が設定され、そ
の量子化ステップで、DCT器34からのDCT係数が
量子化される。この量子化されたDCT係数(以下、適
宜、量子化係数という)は、設定された量子化ステップ
とともに、VLC器36に供給される。
In the DCT unit 34, the output of the arithmetic unit 33 is subjected to DCT processing, and the resulting DCT coefficient is supplied to the quantizer 35. In the quantizer 35,
A quantization step (quantization scale) is set corresponding to the amount of data stored in the buffer 37 (the amount of data stored in the buffer 37) (buffer feedback), and the DCT from the DCT unit 34 is set in the quantization step. The coefficients are quantized. The quantized DCT coefficients (hereinafter, appropriately referred to as quantization coefficients) are supplied to the VLC unit 36 together with the set quantization steps.

【0017】VLC器36では、量子化器35より供給
される量子化ステップに対応して、同じく量子化器35
より供給される量子化係数が、例えばハフマン符号など
の可変長符号に変換され、バッファ37に出力される。
さらに、VLC器36は、量子化器35からの量子化ス
テップ、動きベクトル検出器32からの予測モード(イ
ントラ符号化(画像内予測符号化)、前方予測符号化、
後方予測符号化、または両方向予測符号化のうちのいず
れが設定されたかを示すモード)および動きベクトルも
可変長符号化し、バッファ37に出力する。
In the VLC unit 36, corresponding to the quantization step supplied from the quantizer 35,
The supplied quantization coefficient is converted into a variable-length code such as a Huffman code, for example, and output to the buffer 37.
Further, the VLC unit 36 performs a quantization step from the quantizer 35, a prediction mode (intra-coding (intra-picture prediction coding), a forward prediction coding,
A mode indicating which of the backward prediction coding and the bidirectional prediction coding has been set) and the motion vector are also variable-length coded and output to the buffer 37.

【0018】バッファ37は、VLC器36からのデー
タを一時蓄積し、そのデータ量を平滑化して、例えば、
伝送路に出力し、または記録媒体に記録する。
The buffer 37 temporarily stores data from the VLC unit 36 and smoothes the data amount.
Output to a transmission path or record on a recording medium.

【0019】また、バッファ37は、そのデータ蓄積量
を、量子化器35に出力しており、量子化器35は、こ
のバッファ37からのデータ蓄積量にしたがって量子化
ステップを設定する。即ち、量子化器35は、バッファ
37がオーバーフローしそうなとき、量子化ステップを
大きくし、これにより、量子化係数のデータ量を低下さ
せる。また、量子化器35は、バッファ37がアンダー
フローしそうなとき、量子化ステップを小さくし、これ
により、量子化係数のデータ量を増大させる。このよう
にして、バッファ37のオーバフローとアンダフローを
防止するようになっている。
The buffer 37 outputs the data storage amount to the quantizer 35, and the quantizer 35 sets a quantization step according to the data storage amount from the buffer 37. That is, when the buffer 37 is about to overflow, the quantizer 35 increases the quantization step, thereby reducing the data amount of the quantization coefficient. When the buffer 37 is about to underflow, the quantizer 35 reduces the quantization step, thereby increasing the data amount of the quantization coefficient. Thus, the overflow and the underflow of the buffer 37 are prevented.

【0020】量子化器35が出力する量子化係数と量子
化ステップは、VLC器36だけでなく、逆量子化器3
8にも供給されるようになされている。逆量子化器35
では、量子化器35からの量子化係数が、同じく量子化
器35からの量子化ステップにしたがって逆量子化さ
れ、これによりDCT係数に変換される。このDCT係
数は、IDCT器(逆DCT器)39に供給される。I
DCT器39では、DCT係数が逆DCT処理され、演
算器40に供給される。
The quantization coefficient and the quantization step output from the quantizer 35 are determined not only by the VLC unit 36 but also by the inverse quantizer 3.
8 as well. Inverse quantizer 35
Then, the quantized coefficient from the quantizer 35 is inversely quantized in accordance with a quantization step from the quantizer 35, and is thereby converted into a DCT coefficient. The DCT coefficient is supplied to an IDCT unit (inverse DCT unit) 39. I
In the DCT unit 39, the DCT coefficient is subjected to an inverse DCT process, and is supplied to the arithmetic unit 40.

【0021】演算器40には、IDCT器39の出力の
他、上述したように、動き補償器42から、演算器33
に供給されている予測画像と同一のデータが供給されて
おり、演算器40は、IDCT器39からの信号(予測
残差)と、動き補償器42からの予測画像とを加算する
ことで、元の画像を、局所復号する(但し、予測モード
がイントラ符号化である場合には、IDCT器39の出
力は、演算器40をスルーして、フレームメモリ41に
供給される)。なお、この復号画像は、受信側において
得られる復号画像と同一のものである。
The arithmetic unit 40 receives the output of the IDCT unit 39 and, as described above, the motion compensator 42 and the arithmetic unit 33.
Are supplied with the same data as the prediction image supplied to the calculation unit 40. The arithmetic unit 40 adds the signal (prediction residual) from the IDCT unit 39 and the prediction image from the motion compensator 42, The original image is locally decoded (however, when the prediction mode is intra coding, the output of the IDCT unit 39 is supplied to the frame memory 41 through the arithmetic unit 40). This decoded image is the same as the decoded image obtained on the receiving side.

【0022】演算器40において得られた復号画像(局
所復号画像)は、フレームメモリ41に供給されて記憶
され、その後、インター符号化(前方予測符号化、後方
予測符号化、量方向予測符号化)される画像に対する参
照画像(参照フレーム)として用いられる。
The decoded image (local decoded image) obtained by the arithmetic unit 40 is supplied to and stored in the frame memory 41, and then inter-coded (forward predictive coding, backward predictive coding, quantitative predictive coding). ) Is used as a reference image (reference frame) for the image to be processed.

【0023】次に、図43は、図42のエンコーダから
出力される符号化データを復号化する、MPEGにおけ
るMP@MLのデコーダの一例の構成を示している。
FIG. 43 shows an example of the configuration of an MPEG @ ML decoder in MPEG for decoding encoded data output from the encoder shown in FIG.

【0024】伝送路を介して伝送されてきた符号化デー
タが図示せぬ受信装置で受信され、または記録媒体に記
録された符号化データが図示せぬ再生装置で再生され、
バッファ101に供給されて記憶される。
The encoded data transmitted via the transmission path is received by a receiving device (not shown), or the encoded data recorded on the recording medium is reproduced by a reproducing device (not shown),
The data is supplied to the buffer 101 and stored.

【0025】IVLC器(逆VLC器)(可変長復号化
器)102は、バッファ101に記憶された符号化デー
タを読み出し、可変長復号化することで、その符号化デ
ータを、動きベクトル、予測モード、量子化ステップ、
および量子化係数に分離する。これらのうち、動きベク
トルおよび予測モードは動き補償器107に供給され、
量子化ステップおよび量子化係数は逆量子化器103に
供給される。
An IVLC unit (inverse VLC unit) (variable-length decoder) 102 reads out the encoded data stored in the buffer 101 and performs variable-length decoding so that the encoded data is converted into a motion vector Mode, quantization step,
And quantization coefficients. Among them, the motion vector and the prediction mode are supplied to the motion compensator 107,
The quantization step and the quantization coefficient are supplied to the inverse quantizer 103.

【0026】逆量子化器103は、IVLC器102よ
り供給された量子化係数を、同じくIVLC器102よ
り供給された量子化ステップにしたがって逆量子化し、
その結果得られるDCT係数を、IDCT器104に出
力する。IDCT器104は、逆量子化器103からの
DCT係数を逆DCTし、演算器105に供給する。
The inverse quantizer 103 inversely quantizes the quantized coefficient supplied from the IVLC unit 102 in accordance with the quantization step also supplied from the IVLC unit 102.
The resulting DCT coefficient is output to IDCT unit 104. The IDCT unit 104 performs an inverse DCT on the DCT coefficient from the inverse quantizer 103 and supplies the result to an arithmetic unit 105.

【0027】演算器105には、IDCT器104の出
力の他、動き補償器107の出力も供給されている。即
ち、動き補償器107は、フレームメモリ106に記憶
されている、既に復号された画像を、図42の動き補償
器41における場合と同様に、IVLC器102からの
動きベクトルおよび予測モードにしたがって読み出し、
予測画像として、演算器105に供給する。演算器10
5は、IDCT器104からの信号(予測残差)と、動
き補償器107からの予測画像とを加算することで、元
の画像を復号する。この復号画像は、フレームメモリ1
06に供給されて記憶される。なお、IDCT器104
の出力が、イントラ符号化されたものである場合には、
その出力は、演算器105をスルーして、そのままフレ
ームメモリ106に供給されて記憶される。
The output of the motion compensator 107 is supplied to the arithmetic unit 105 in addition to the output of the IDCT unit 104. That is, the motion compensator 107 reads the already decoded image stored in the frame memory 106 in accordance with the motion vector and the prediction mode from the IVLC unit 102 as in the case of the motion compensator 41 in FIG. ,
The prediction image is supplied to the arithmetic unit 105. Arithmetic unit 10
5 decodes the original image by adding the signal (prediction residual) from the IDCT unit 104 and the predicted image from the motion compensator 107. This decoded image is stored in the frame memory 1
06 and stored. Note that the IDCT device 104
If the output of is intra-coded,
The output passes through the arithmetic unit 105 and is supplied to and stored in the frame memory 106 as it is.

【0028】フレームメモリ106に記憶された復号画
像は、その後に復号される画像の参照画像として用いら
れるとともに、適宜読み出され、例えば、図示せぬディ
スプレイなどに供給されて表示される。
The decoded image stored in the frame memory 106 is used as a reference image for an image to be subsequently decoded, read out as appropriate, and supplied to, for example, a display (not shown) and displayed.

【0029】なお、MPEG1および2では、Bピクチ
ャは、参照画像として用いられないため、エンコーダま
たはデコーダそれぞれにおいて、フレームメモリ41
(図42)または106(図43)には記憶されない。
In MPEG1 and MPEG-2, B pictures are not used as reference pictures, so that the frame memory 41 is used in each of the encoder and the decoder.
(FIG. 42) or 106 (FIG. 43).

【0030】MPEGでは、以上のようなMP@MLの
他にも、様々なプロファイルおよびレベルが定義され、
また各種のツールが用意されている。MPEGのツール
の代表的なものの1つとしては、例えば、スケーラビリ
ティがある。
In MPEG, in addition to the above-mentioned MP @ ML, various profiles and levels are defined.
In addition, various tools are prepared. One of the typical MPEG tools is scalability, for example.

【0031】即ち、MPEGでは、異なる画像サイズや
フレームレートに対応するスケーラビリティを実現する
スケーラブル符号化方式が導入されている。例えば、空
間スケーラビリティでは、下位レイヤのビットストリー
ムのみを復号する場合、画像サイズの小さい画像だけが
得られ、下位レイヤおよび上位レイヤの両方のビットス
トリームを復号する場合、画像サイズの大きい画像が得
られる。
That is, MPEG introduces a scalable encoding method for realizing scalability corresponding to different image sizes and frame rates. For example, in spatial scalability, when decoding only the bit stream of the lower layer, only an image having a small image size is obtained, and when decoding the bit streams of both the lower layer and the upper layer, an image having a large image size is obtained. .

【0032】図44は、空間スケーラビリティを実現す
るエンコーダの一例の構成を示している。なお、空間ス
ケーラビリティでは、例えば、下位レイヤは画像サイズ
の小さい画像信号、また上位レイヤは画像サイズの大き
い画像信号に対応する。
FIG. 44 shows an example of the configuration of an encoder for realizing spatial scalability. In the spatial scalability, for example, the lower layer corresponds to an image signal having a small image size, and the upper layer corresponds to an image signal having a large image size.

【0033】上位レイヤ符号化部201には、例えば、
符号化すべき画像が、そのまま上位レイヤの画像として
入力され、下位レイヤ符号化部202には、符号化すべ
き画像を間引いて、その画素数を少なくしたもの(従っ
て、解像度を低下させ、そのサイズを小さくしたもの)
が、下位レイヤの画像として入力される。
For example, the upper layer coding section 201
The image to be coded is input as it is as the image of the upper layer, and the lower layer coding unit 202 thins out the image to be coded and reduces the number of pixels (accordingly, the resolution is reduced and the size is reduced). Smaller)
Is input as the image of the lower layer.

【0034】下位レイヤ符号化部202では、下位レイ
ヤの画像が、例えば、図42における場合と同様にして
予測符号化され、その符号化結果としての下位レイヤビ
ットストリームが出力される。さらに、下位レイヤ符号
化部202では、局所復号した下位レイヤの画像を、上
位レイヤの画像のサイズと同一サイズに拡大したもの
(以下、適宜、拡大画像という)が生成される。この拡
大画像は、上位レイヤ符号化部201に供給される。
The lower layer coding section 202 predictively codes the image of the lower layer, for example, as in the case of FIG. 42, and outputs a lower layer bit stream as a result of the coding. Further, the lower layer encoding unit 202 generates a locally decoded image of the lower layer enlarged to the same size as the image of the upper layer (hereinafter, appropriately referred to as an enlarged image). This enlarged image is supplied to the upper layer encoding unit 201.

【0035】上位レイヤ符号化部201でも、やはり、
例えば、図42における場合と同様にして、上位レイヤ
の画像が予測符号化され、その符号化結果としての上位
レイヤビットストリームが出力される。なお、上位レイ
ヤ符号化部201では、下位レイヤ符号化部202から
の拡大画像をも参照画像として用いて、予測符号化が行
われる。
In the upper layer coding section 201,
For example, as in the case of FIG. 42, the image of the upper layer is predictively encoded, and an upper layer bit stream is output as a result of the encoding. Note that the upper layer encoding unit 201 performs predictive encoding using the enlarged image from the lower layer encoding unit 202 as a reference image.

【0036】上位レイヤビットストリームおよび下位レ
イヤビットストリームは多重化され、符号化データとし
て出力される。
The upper layer bit stream and the lower layer bit stream are multiplexed and output as encoded data.

【0037】図45は、図44の下位レイヤ符号化部2
02の一例の構成を示している。なお、図中、図42に
おける場合と対応する部分については、同一の符号を付
してある。即ち、下位レイヤ符号化部202は、アップ
サンプリング部211が新たに設けられている他は、図
42のエンコーダと同様に構成されている。
FIG. 45 is a diagram showing the lower layer coding unit 2 in FIG.
02 shows an example configuration. Note that, in the figure, parts corresponding to those in FIG. 42 are denoted by the same reference numerals. That is, the lower layer encoding unit 202 is configured similarly to the encoder in FIG. 42 except that an upsampling unit 211 is newly provided.

【0038】アップサンプリング部211では、演算器
40が出力する、局所復号された下位レイヤの画像がア
ップサンプリングされる(補間される)ことで、上位レ
イヤの画像サイズと同一の画像サイズに拡大され、上位
レイヤ符号化部201に供給される。
The up-sampling unit 211 up-samples (interpolates) the locally decoded lower-layer image output from the arithmetic unit 40, thereby enlarging the image to the same image size as the upper-layer image. , Are supplied to the upper layer coding section 201.

【0039】図46は、図44の上位レイヤ符号化部2
01の一例の構成を示している。なお、図中、図42に
おける場合と対応する部分については、同一の符号を付
してある。即ち、上位レイヤ符号化部201は、重み付
加部221,222、および演算器223が新たに設け
られている他は、基本的に図42のエンコーダと同様に
構成されている。
FIG. 46 shows the upper layer coding section 2 of FIG.
01 shows an example configuration. Note that, in the figure, parts corresponding to those in FIG. 42 are denoted by the same reference numerals. That is, the upper layer encoding unit 201 is basically configured in the same manner as the encoder of FIG. 42 except that weighting units 221 and 222 and a calculator 223 are newly provided.

【0040】重み付加部221は、動き補償器42が出
力する予測画像に対して、重みWを乗算し、演算器22
3に出力する。演算器223には、重み付加部221の
出力の他、重み付加部222の出力も供給されており、
重み付加部222は、下位レイヤ符号化部202から供
給される拡大画像に対して、重み(1−W)を乗算し、
演算器223に供給する。
The weighting unit 221 multiplies the predicted image output from the motion compensator 42 by a weight W,
Output to 3. The output of the weighting unit 222 is also supplied to the arithmetic unit 223 in addition to the output of the weighting unit 221.
The weighting unit 222 multiplies the enlarged image supplied from the lower layer encoding unit 202 by a weight (1-W),
It is supplied to the arithmetic unit 223.

【0041】演算器223は、重み付加回路221およ
び222の出力を加算し、その加算結果を、予測画像と
して演算器33および40に出力する。
The arithmetic unit 223 adds the outputs of the weighting circuits 221 and 222, and outputs the addition result to the arithmetic units 33 and 40 as a predicted image.

【0042】以下、上位レイヤ符号化部201では、図
42における場合と同様の処理が行われる。
Thereafter, in upper layer coding section 201, the same processing as in the case of FIG. 42 is performed.

【0043】従って、上位レイヤ符号化部201では、
上位レイヤの画像を参照画像とするだけでなく、下位レ
イヤ符号化部202からの拡大画像、即ち、下位レイヤ
の画像をも参照画像として、予測符号化が行われる。
Therefore, in the upper layer coding section 201,
Predictive coding is performed using not only the image of the upper layer as a reference image but also the enlarged image from the lower layer encoding unit 202, that is, the image of the lower layer as a reference image.

【0044】なお、重み付加部221において用いられ
る重みWは、あらかじめ設定されており(従って、重み
付加部222において用いられる重み1−Wも、あらか
じめ設定されている)、また、この重みWは、VLC器
36に供給され、可変長符号化されるようになされてい
る。
The weight W used in the weight adding section 221 is set in advance (therefore, the weight 1-W used in the weight adding section 222 is also set in advance). , VLC unit 36 and are subjected to variable-length coding.

【0045】次に、図47は、空間スケーラビリティを
実現するデコーダの一例の構成を示している。
FIG. 47 shows an example of the configuration of a decoder for realizing spatial scalability.

【0046】図44のエンコーダから出力された符号化
データは、上位レイヤビットストリームと下位レイヤビ
ットストリームとに分離され、それぞれは、上位レイヤ
復号化部231または下位レイヤ復号化部232に供給
される。
The encoded data output from the encoder of FIG. 44 is separated into an upper layer bit stream and a lower layer bit stream, and each is supplied to the upper layer decoding section 231 or the lower layer decoding section 232. .

【0047】下位レイヤ復号化部232では、下位レイ
ヤビットストリームが、図43における場合と同様にし
て復号化され、その結果得られる下位レイヤの復号画像
が出力される。さらに、下位レイヤ復号化部232で
は、下位レイヤの復号画像が、上位レイヤの画像のサイ
ズと同一サイズに拡大され、これにより、拡大画像が生
成される。この拡大画像は、上位レイヤ復号化部231
に供給される。
In lower layer decoding section 232, the lower layer bit stream is decoded in the same manner as in FIG. 43, and the resulting lower layer decoded image is output. Further, the lower layer decoding unit 232 enlarges the decoded image of the lower layer to the same size as the image of the upper layer, thereby generating an enlarged image. This enlarged image is output to the upper layer decoding unit 231.
Supplied to

【0048】上位レイヤ復号化部231でも、やはり、
例えば、図43における場合と同様にして、上位レイヤ
ビットストリームが復号化される。但し、上位レイヤ復
号化部231では、下位レイヤ復号化部232からの拡
大画像をも参照画像として用いて、復号が行われる。
In the upper layer decoding section 231,
For example, as in the case of FIG. 43, the upper layer bit stream is decoded. However, the upper layer decoding unit 231 performs decoding using the enlarged image from the lower layer decoding unit 232 as a reference image.

【0049】図48は、図47の下位レイヤ復号化部2
32の一例の構成を示している。なお、図中、図43に
おける場合と対応する部分については、同一の符号を付
してある。即ち、下位レイヤ復号化部232は、アップ
サンプリング部241が新たに設けられている他は、図
43のデコーダと同様に構成されている。
FIG. 48 shows the lower layer decoding unit 2 in FIG.
32 shows an example configuration. Note that, in the figure, parts corresponding to the case in FIG. 43 are denoted by the same reference numerals. That is, the lower layer decoding unit 232 has the same configuration as the decoder in FIG. 43 except that an upsampling unit 241 is newly provided.

【0050】アップサンプリング部241では、演算器
105が出力する、復号された下位レイヤの画像がアッ
プサンプリングされる(補間される)ことで、上位レイ
ヤの画像サイズと同一の画像サイズに拡大され、上位レ
イヤ復号化部231に供給される。
The up-sampling unit 241 up-samples (interpolates) the decoded lower-layer image output from the arithmetic unit 105 to enlarge the image to the same image size as the upper-layer image. This is supplied to the upper layer decoding unit 231.

【0051】図49は、図47の上位レイヤ復号化部2
31の一例の構成を示している。なお、図中、図43に
おける場合と対応する部分については、同一の符号を付
してある。即ち、上位レイヤ復号化部231は、重み付
加部251,252、および演算器253が新たに設け
られている他は、基本的に図43のエンコーダと同様に
構成されている。
FIG. 49 shows the upper layer decoding section 2 of FIG.
31 shows an example configuration. Note that, in the figure, parts corresponding to the case in FIG. 43 are denoted by the same reference numerals. That is, the upper layer decoding unit 231 is basically configured in the same manner as the encoder in FIG. 43 except that the weighting units 251 and 252 and the arithmetic unit 253 are newly provided.

【0052】IVLC器102は、図43で説明した処
理の他、符号化データから重みWを抽出し、重み付加部
251および252に出力する。重み付加部251は、
動き補償器107が出力する予測画像に対して、重みW
を乗算し、演算器253に出力する。演算器253に
は、重み付加部251の出力の他、重み付加部252の
出力も供給されており、重み付加部252は、下位レイ
ヤ復号化部232から供給される拡大画像に対して、重
み(1−W)を乗算し、演算器253に供給する。
The IVLC unit 102 extracts the weight W from the encoded data in addition to the processing described with reference to FIG. 43 and outputs the weight W to the weight adding units 251 and 252. The weight adding unit 251 includes:
For the predicted image output from the motion compensator 107, the weight W
And outputs the result to the calculator 253. The output of the weighting unit 252 is also supplied to the arithmetic unit 253 in addition to the output of the weighting unit 251. The weighting unit 252 performs weighting on the enlarged image supplied from the lower layer decoding unit 232. The product is multiplied by (1−W) and supplied to the calculator 253.

【0053】演算器253は、重み付加回路251およ
び252の出力を加算し、その加算結果を、予測画像と
して演算器105に出力する。
The arithmetic unit 253 adds the outputs of the weighting circuits 251 and 252, and outputs the addition result to the arithmetic unit 105 as a predicted image.

【0054】以上のように、上位レイヤ復号化部231
では、上位レイヤの画像を参照画像とするだけでなく、
下位レイヤ符号化部232からの拡大画像、即ち、下位
レイヤの画像をも参照画像として、復号が行われる。
As described above, upper layer decoding section 231
Now, in addition to using the upper layer image as a reference image,
Decoding is performed using the enlarged image from the lower layer encoding unit 232, that is, the image of the lower layer as a reference image.

【0055】なお、以上説明した処理は、輝度信号およ
び色差信号の両方に対して施される。但し、色差信号の
動きベクトルとしては、例えば、輝度信号の動きベクト
ルを1/2倍したものが用いられる。
The above-described processing is performed on both the luminance signal and the color difference signal. However, as the motion vector of the color difference signal, for example, a value obtained by halving the motion vector of the luminance signal is used.

【0056】現在、上述のようなMPEG方式の他に
も、様々な動画像の高能率符号化方式が標準化されてい
る。例えば、ITU−Tでは、主に通信用の符号化方式
として、H.261やH.263という方式が規定され
ている。このH.261やH.263も、基本的にはM
PEG方式と同様に動き補償予測符号化とDCT変換符
号化を組み合わせたものであり、ヘッダ情報などの詳細
は異なるが、エンコーダやデコーダの基本的な構成は、
MPEG方式の場合と同様となる。
At present, in addition to the above-mentioned MPEG system, various high-efficiency coding systems for moving images are standardized. For example, in ITU-T, H.264 is mainly used as an encoding method for communication. 261 and H.E. 263 is defined. This H. 261 and H.E. 263 is basically M
Similar to the PEG method, this is a combination of motion compensation prediction coding and DCT transform coding. Although details such as header information are different, the basic configuration of an encoder and a decoder is as follows.
This is similar to the case of the MPEG system.

【0057】[0057]

【発明が解決しようとする課題】ところで、複数の画像
を合成して1つの画像を構成する画像合成システムで
は、例えばクロマキーという手法が用いられる。これ
は、ある物体を青などの特定の一様な色の背景の前で撮
影し、青以外の領域をそこから抽出し、別の画像に合成
するもので、抽出した領域を示す信号はキー信号(ke
y信号)と呼ばれる。
In an image synthesizing system for synthesizing a plurality of images to form one image, for example, a technique called chroma key is used. In this method, an object is photographed in front of a specific color background such as blue, and the non-blue area is extracted therefrom and combined with another image.The signal indicating the extracted area is a key. Signal (ke
y signal).

【0058】図50は、従来の画像の合成方法を説明す
るための図である。なお、ここでは、画像F1を背景
と、画像F2を前景とする。また、画像F2は、特定の
色の背景の前で、物体(ここでは、人物)を撮影し、そ
の色以外の領域を抽出することによって得られるもので
あり、キー信号K1は、その抽出した領域を示す信号で
ある。
FIG. 50 is a diagram for explaining a conventional image synthesizing method. Here, it is assumed that the image F1 is a background and the image F2 is a foreground. The image F2 is obtained by photographing an object (here, a person) in front of a background of a specific color and extracting a region other than the color. The key signal K1 is obtained by extracting the key signal K1. This is a signal indicating an area.

【0059】画像合成システムでは、背景である画像F
1と、前景である画像F2とが、キー信号K1にしたが
って合成され、合成画像F3が生成される。この合成画
像F3は、例えば、MPEG符号化などされて伝送され
る。
In the image synthesizing system, the background image F
1 and the image F2, which is the foreground, are synthesized according to the key signal K1 to generate a synthesized image F3. The composite image F3 is transmitted after being subjected to, for example, MPEG encoding.

【0060】ところで、以上のように合成画像F3を符
号化して伝送した場合、伝送されるのは、合成画像F3
についての符号化データだけであるから、キー信号K1
などについての情報は失われ、従って、受信側におい
て、例えば、前景F2はそのままで、背景F1のみを変
更するといったような画像の再編集、再合成は困難とな
る。
When the composite image F3 is encoded and transmitted as described above, what is transmitted is the composite image F3.
, The key signal K1
Information is lost, so that it becomes difficult for the receiving side to re-edit and re-synthesize the image, for example, changing only the background F1 while keeping the foreground F2.

【0061】そこで、例えば、図51に示すように、画
像F1,F2、およびキー信号K1をそれぞれ単独で符
号化し、それぞれのビットストリームを多重化する方法
が考えられる。この場合、受信側では、例えば、図52
に示すように、多重化されたデータを、逆多重化するこ
とで、画像F1,F2、またはキー信号K1のビットス
トリームを得て、それぞれのビットストリームを復号化
する。そして、それにより得られる画像F1,F2、ま
たはキー信号K1の復号結果を用いて合成を行うこと
で、合成画像F3が生成される。この場合、受信側で
は、例えば、前景F2をそのままにして、背景F1だけ
を他の画像に変更するといった再編集および再合成が可
能となる。
Therefore, for example, as shown in FIG. 51, a method of independently encoding the images F1 and F2 and the key signal K1 and multiplexing the respective bit streams is conceivable. In this case, on the receiving side, for example, FIG.
As shown in (1), the multiplexed data is demultiplexed to obtain a bit stream of the images F1 and F2 or the key signal K1, and each bit stream is decoded. Then, by performing synthesis using the images F1 and F2 obtained thereby or the decoding result of the key signal K1, a synthesized image F3 is generated. In this case, the receiving side can perform re-editing and re-synthesis, for example, changing the background F1 to another image while leaving the foreground F2 as it is.

【0062】ところで、合成画像F3は、画像F1とF
2とから構成されているが、これと同様に、いかなる画
像も、複数の画像(物体)から構成されていると考える
ことができる。いま、このように画像を構成する単位を
VO(Video Object)と呼ぶものとすると、このような
VO単位で符号化を行う方式については、現在、ISO
−IEC/JTC1/SC29/WG11において、M
PEG4として標準化作業が進められている。
Incidentally, the composite image F3 is composed of the images F1 and F
Similarly, any image can be considered to be composed of a plurality of images (objects). Now, assuming that a unit forming an image in this way is called a VO (Video Object), a method of performing encoding in such a VO unit is currently under ISO.
-In IEC / JTC1 / SC29 / WG11, M
Standardization work is underway for PEG4.

【0063】しかしながら、いまのところ、VOを効率
良く符号化する方法や、キー信号を符号化する方法が確
立しておらず、未解決な問題となっている。
However, at present, a method for efficiently encoding VO and a method for encoding key signals have not been established, and are unsolved problems.

【0064】また、MPEG4では、スケーラビリティ
機能の提供について規定しているが、時間とともに位置
と大きさが変化するVOを対象としたスケーラビリティ
を実現する具体的な手法も提案されていない。
Although MPEG4 specifies provision of a scalability function, no specific method for realizing scalability for a VO whose position and size change with time has not been proposed.

【0065】即ち、例えば、遠方から向かってくる人物
などをVOとした場合、そのVOの位置と大きさは、時
間の経過とともに変化する。従って、上位レイヤの画像
の予測符号化に際し、下位レイヤの画像を参照画像とし
て用いる場合には、その上位レイヤの画像と、参照画像
として用いる下位レイヤの画像との相対的な位置関係を
明確にする必要がある。
That is, for example, when a person or the like coming from a distance is a VO, the position and size of the VO change over time. Therefore, when a lower layer image is used as a reference image in predictive encoding of an upper layer image, the relative positional relationship between the upper layer image and the lower layer image used as the reference image is clearly defined. There is a need to.

【0066】また、VO単位のスケーラビリティを行う
場合においては、下位レイヤのスキップマクロブロック
の条件が、上位レイヤのスキップマクロブロックの条件
に、そのまま当てはまるとは限らない。
When scalability is performed on a VO basis, the condition of a skip macroblock in a lower layer does not always directly apply to the condition of a skip macroblock in an upper layer.

【0067】本発明は、このような状況に鑑みてなされ
たものであり、VO単位の符号化を、容易に実現するこ
とができるようにするものである。
The present invention has been made in view of such a situation, and is intended to easily realize coding on a VO basis.

【0068】[0068]

【課題を解決するための手段】[Means for Solving the Problems]

【0069】[0069]

【課題を解決するための手段】請求項1に記載の画像符
号化装置は、前方予測符号化、後方予測符号化、または
両方向予測符号化のうちのいずれかにより、Bピクチャ
のマクロブロックを符号化する場合、マクロブロックが
符号化される直前に符号化されたIまたはPピクチャを
構成するマクロブロックのうちの、Bピクチャのマクロ
ブロックに対応するものがスキップマクロブロックであ
るときに、Bピクチャは、スキップマクロブロックであ
ると決定することを特徴とする。
According to a first aspect of the present invention, there is provided an image coding apparatus for coding a macroblock of a B picture by one of forward prediction coding, backward prediction coding, and bidirectional prediction coding. Macro block
I or P picture coded just before being coded
Macro of B picture of macroblocks constituting
The one corresponding to the block is the skip macro block.
B picture is a skip macro block
Is determined .

【0070】請求項に記載の画像符号化方法は、前方
予測符号化、後方予測符号化、または両方向予測符号化
のうちのいずれかにより、Bピクチャのマクロブロック
を符号化する場合、マクロブロックが符号化される直前
に符号化されたIまたはPピクチャを構成するマクロブ
ロックのうちの、Bピクチャのマクロブロックに対応す
るものがスキップマクロブロックであるときに、Bピク
チャは、スキップマクロブロックであると決定すること
を特徴とする。
[0070] Image coding method according to claim 2, forward predictive coding, backward predictive coding, or by any of the bidirectional predictive coding, when encoding a macroblock of a B picture, a macro block Just before is encoded
Macro block that constitutes an I or P picture encoded in
Of the lock, corresponding to the macroblock of the B picture
When the object is a skip macro block,
The character is determined to be a skip macro block .

【0071】請求項に記載の画像復号化装置は、前方
予測符号化、後方予測符号化、または両方向予測符号化
のうちのいずれかにより、Bピクチャのマクロブロック
を復号化する場合、マクロブロックが復号化される直前
に復号化されたIまたはPピクチャを構成するマクロブ
ロックのうちの、Bピクチャのマクロブロックに対応す
るものがスキップマクロブロックであるときに、Bピク
チャは、スキップマクロブロックであると決定すること
を特徴とする。
[0071] The image decoding apparatus according to claim 3, forward predictive coding, backward predictive coding, or by any of the bidirectional predictive coding, when decoding a macroblock of the B picture, macroblock Just before is decrypted
Macroblocks constituting an I or P picture decoded in
Of the lock, corresponding to the macroblock of the B picture
When the object is a skip macro block,
The character is determined to be a skip macro block .

【0072】請求項に記載の画像復号化方法は、前方
予測符号化、後方予測符号化、または両方向予測符号化
のうちのいずれかにより、Bピクチャのマクロブロック
を復号化する場合、マクロブロックが復号化される直前
に復号化されたIまたはPピクチャを構成するマクロブ
ロックのうちの、Bピクチャのマクロブロックに対応す
るものがスキップマクロブロックであるときに、Bピク
チャは、スキップマクロブロックであると決定すること
を特徴とする。
[0072] Image decoding method according to claim 4, forward predictive coding, backward predictive coding, or by any of the bidirectional predictive coding, when decoding a macroblock of the B picture, macroblock Just before is decrypted
Macroblocks constituting an I or P picture decoded in
Of the lock, corresponding to the macroblock of the B picture
When the object is a skip macro block,
The character is determined to be a skip macro block .

【0073】[0073]

【0074】請求項に記載の記録方法は、前方予測符
号化、後方予測符号化、または両方向予測符号化のうち
のいずれかにより、Bピクチャのマクロブロックを符号
化する場合、マクロブロックが符号化される直前に符号
化されたIまたはPピクチャを構成するマクロブロック
のうちの、Bピクチャのマクロブロックに対応するもの
がスキップマクロブロックであるときに、Bピクチャ
は、スキップマクロブロックであると決定することを特
徴とする。
[0074] recording method according to claim 5, forward predictive coding, backward predictive coding, or by any of the bidirectional predictive coding, when encoding a macroblock of a B picture, macroblock code Sign just before
Macroblocks Constituting a Converted I or P Picture
Of which corresponds to a macroblock of a B picture
Is a skip macroblock, the B picture
Is determined to be a skip macroblock .

【0075】請求項1に記載の画像符号化装置および請
求項に記載の画像符号化方法、並びに請求項に記載
の画像復号化装置および請求項に記載の画像復号化方
法においては、前方予測符号化、後方予測符号化、また
は両方向予測符号化のうちのいずれかにより、Bピクチ
ャのマクロブロックを符号化する場合、マクロブロック
が符号化される直前に符号化されたIまたはPピクチャ
を構成するマクロブロックのうちの、Bピクチャのマク
ロブロックに対応するものがスキップマクロブロックで
あるときに、Bピクチャは、スキップマクロブロックで
あると決定するようになされている。
In the image encoding apparatus according to the first aspect, the image encoding method according to the second aspect , and the image decoding apparatus according to the third aspect and the image decoding method according to the fourth aspect , When a macroblock of a B picture is coded by one of forward prediction coding, backward prediction coding, and bidirectional prediction coding, the macroblock
I or P picture encoded just before is encoded
Of the B picture of the macroblocks
The one corresponding to the local block is the skip macro block.
At one time, a B picture is a skip macroblock
It has been decided to be.

【0076】請求項5に記載の記録方法においては、前
方予測符号化、後方予測符号化、または両方向予測符号
化のうちのいずれかにより、Bピクチャのマクロブロッ
クを符号化する場合、マクロブロックが符号化される直
前に符号化されたIまたはPピクチャを構成するマクロ
ブロックのうちの、Bピクチャのマクロブロックに対応
するものがスキップマクロブロックであるときに、Bピ
クチャは、スキップマクロブロックであるとされてい
る。
[0076] In the recording method according to claim 5, forward predictive coding, backward predictive coding, or by any of the bidirectional predictive coding, when encoding a macroblock of a B picture, macroblock Immediately encoded
Macros that make up a previously encoded I or P picture
Supports B-picture macroblocks in blocks
When the skipping macroblock is
Kucha is considered to be a skip macroblock
You.

【0077】[0077]

【発明の実施の形態】図1は、本発明を適用したエンコ
ーダの一実施の形態を示している。
FIG. 1 shows an embodiment of an encoder to which the present invention is applied.

【0078】符号化すべき画像データは、VO構成部1
に入力され、VO構成部1では、そこに入力される画像
を構成する物体を抽出し、VOを構成する。さらに、V
O構成部1は、各VOについてのキー信号を生成し、対
応するVOとともに、VOP構成部21乃至2Nそれぞれ
に出力する。即ち、VO構成部1においてN個のVO1
乃至VO#Nが構成された場合、そのN個のVO1乃至
VO#Nは、対応するキー信号とともに、VOP構成部
21乃至2Nそれぞれに出力される。
The image data to be coded is
The VO composing unit 1 extracts an object constituting an image inputted thereto and constructs a VO. Furthermore, V
The O component 1 generates a key signal for each VO and outputs the key signal to the VOP components 21 to 2N together with the corresponding VO. That is, in the VO configuration unit 1, N VO1s
When VO # N is configured, the N VO1 to VO # N are output to the VOP constituent units 21 to 2N together with the corresponding key signals.

【0079】具体的には、例えば、符号化すべき画像デ
ータが、前述の図51で示したように、背景F1、前景
F2、およびキー信号K1を含んでおり、これらから、
クロマキーにより合成画像を生成することができるもの
である場合、VO構成部1は、例えば、前景F2を、V
O1とし、キー信号K1を、そのVO1のキー信号とし
て、VOP構成部21に出力する。さらに、VO構成部
1は、背景F1を、VO2として、VOP構成部22に
出力する。なお、背景についてはキー信号は不要なた
め、出力されない(生成されない)。
More specifically, for example, the image data to be encoded includes a background F1, a foreground F2, and a key signal K1, as shown in FIG.
If a composite image can be generated by chroma keying, the VO constructing unit 1
O1 and outputs the key signal K1 to the VOP constructing unit 21 as a key signal of the VO1. Further, the VO component 1 outputs the background F1 to the VOP component 22 as VO2. Note that a key signal is not output for the background because it is unnecessary (it is not generated).

【0080】また、VO構成部1は、符号化すべき画像
データが、キー信号を含んでいない、例えば、既に合成
された画像である場合、所定のアルゴリズムにしたがっ
て、画像を領域分割することにより、1以上の領域を抽
出し、さらに、その各領域に対応するキー信号を生成す
る。そして、VO構成部1は、抽出した領域のシーケン
スをVOとし、生成したキー信号とともに、対応するV
OP構成部2n(但し、n=1,2,・・・,N)に出
力する。
When the image data to be encoded does not include a key signal, for example, an already synthesized image, the VO constructing unit 1 divides the image into regions according to a predetermined algorithm. One or more regions are extracted, and a key signal corresponding to each region is generated. Then, the VO configuration unit 1 sets the sequence of the extracted region as VO, and generates the corresponding key signal together with the corresponding V signal.
Output to the OP constituent unit 2n (where n = 1, 2,..., N).

【0081】VOP構成部2nは、VO構成部1の出力
から、VOP(VO Plane)を構成する。即ち、各フレー
ムから物体を抽出し、その物体を囲む、例えば、最小の
長方形をVOPとする。なお、このとき、VOP構成部
2nは、その横および縦の画素数が、例えば、16の倍
数となるようにVOPを構成する。VO構成部2nは、
VOPを構成すると、そのVOPに含まれる物体の部分
の画像データ(例えば、輝度信号および色差信号など)
を抜くためのキー信号(このキー信号は、上述したよう
に、VO構成部1から供給される)とともに、VOP符
号化部3nに出力する。
The VOP constructing unit 2 n constructs a VOP (VO Plane) from the output of the VO constructing unit 1. That is, an object is extracted from each frame, and, for example, a minimum rectangle surrounding the object is set as a VOP. At this time, the VOP forming unit 2n forms the VOP such that the number of horizontal and vertical pixels is a multiple of, for example, 16. The VO component 2n
When a VOP is configured, image data of an object portion included in the VOP (for example, a luminance signal and a color difference signal)
Is output to the VOP encoding unit 3n together with a key signal for extracting the symbol (this key signal is supplied from the VO configuration unit 1 as described above).

【0082】さらに、VOP構成部2nは、VOPの大
きさ(例えば、横および縦の長さ)を表すサイズデータ
(VOP size)と、フレームにおける、そのVOPの位置
(例えば、フレームの最も左上を原点とするときの座
標)を表すオフセットデータ(VOP offset)とを検出
し、これらのデータも、VOP符号化部3nに供給す
る。
Further, the VOP constructing unit 2n includes size data (VOP size) indicating the size of the VOP (for example, horizontal and vertical lengths) and the position of the VOP in the frame (for example, The offset data (VOP offset) representing the origin (coordinates at the origin) is detected, and these data are also supplied to the VOP encoding unit 3n.

【0083】VOP符号化部3nは、VOP構成部2nの
出力を、例えば、MPEGや、H.263などの規格に
準拠した方式で符号化し、その結果得られるビットスト
リームを、多重化部4に出力する。多重化部4は、VO
P符号化部31乃至3Nからのビットストリームを多重化
し、その結果得られる多重化データを、例えば、地上波
や、衛星回線、CATV網その他の伝送路5を介して伝
送し、または、例えば、磁気ディスク、光磁気ディス
ク、光ディスク、磁気テープその他の記録媒体6に記録
する。
The VOP encoder 3n outputs the output of the VOP constructor 2n to, for example, MPEG or H.264. H.263 and the like, and the resulting bit stream is output to the multiplexing unit 4. The multiplexing unit 4 includes a VO
The bit streams from the P encoders 31 to 3N are multiplexed, and the resulting multiplexed data is transmitted via, for example, a terrestrial wave, a satellite line, a CATV network or another transmission path 5, or The information is recorded on a recording medium 6 such as a magnetic disk, a magneto-optical disk, an optical disk, a magnetic tape, or the like.

【0084】ここで、VOおよびVOPについて説明す
る。
Here, VO and VOP will be described.

【0085】VOは、ある合成画像のシーケンスが存在
する場合の、その合成画像を構成する各物体のシーケン
スであり、VOPは、ある時刻におけるVOを意味す
る。即ち、例えば、いま、画像F1およびF2を合成し
て構成される合成画像F3がある場合、画像F1または
F2が時系列に並んだものが、それぞれVOであり、あ
る時刻における画像F1またはF2が、それぞれVOP
である。従って、VOは、異なる時刻の、同一物体のV
OPの集合ということができる。
VO is a sequence of each object constituting the composite image when a sequence of the composite image exists, and VOP means VO at a certain time. That is, for example, if there is a composite image F3 composed of the images F1 and F2, the image F1 or F2 arranged in time series is VO, and the image F1 or F2 at a certain time is , Each VOP
It is. Therefore, VO is the V of the same object at different times.
It can be said that it is a set of OPs.

【0086】なお、例えば、画像F1を背景とするとと
もに、画像F2を前景とすると、合成画像F3は、画像
F2を抜くためのキー信号を用いて、画像F1およびF
2を合成することによって得られるが、この場合におけ
る画像F2のVOPには、その画像F2を構成する画像
データ(輝度信号および色差信号)の他、適宜、そのキ
ー信号も含まれるものとする。
For example, when the image F1 is set as the background and the image F2 is set as the foreground, the composite image F3 is formed by using the key signals for extracting the image F2 and the images F1 and F2.
2, the VOP of the image F2 in this case includes not only the image data (luminance signal and color difference signal) constituting the image F2 but also its key signal as appropriate.

【0087】画像フレーム(画枠)のシーケンスは、そ
の大きさおよび位置のいずれも変化しないが、VOは、
大きさや位置が変化する場合がある。即ち、同一のVO
を構成するVOPであっても、時刻によって、その大き
さや位置が異なる場合がある。
Although the sequence of image frames (image frames) does not change in both size and position, VO
The size and position may change. That is, the same VO
May be different in size and position depending on the time.

【0088】具体的には、図2は、背景である画像F1
と、前景である画像F2とからなる合成画像を示してい
る。
More specifically, FIG. 2 shows an image F1 as a background.
And a composite image including the foreground image F2.

【0089】画像F1は、例えば、ある自然の風景を撮
影したものであり、その画像全体のシーケンスが1つの
VO(VO0とする)とされている。また、画像F2
は、例えば、人が歩いている様子を撮影したものであ
り、その人を囲む最小の長方形のシーケンスが1つのV
O(VO1とする)とされている。
The image F1 is, for example, a photograph of a certain natural scenery, and the sequence of the entire image is one VO (referred to as VO0). Also, the image F2
Is an image of a person walking, for example, and the smallest rectangular sequence surrounding the person is one V
O (referred to as VO1).

【0090】この場合、VO0は風景の画像であるか
ら、基本的に、通常の画像のフレームと同様に、その位
置および大きさの両方とも変化しない。これに対して、
VO1は人の画像であるから、人物が左右に移動した
り、また、図面において手前側または奥側に移動するこ
とにより、その大きさや位置が変化する。従って、図2
は、同一時刻におけるVO0およびVO1を表している
が、両者の位置や大きさが同一とは限らない。
In this case, since VO0 is a landscape image, basically, both its position and its size do not change, similarly to a normal image frame. On the contrary,
Since the VO1 is an image of a person, the size and position of the VO1 change when the person moves left and right or moves forward or backward in the drawing. Therefore, FIG.
Represents VO0 and VO1 at the same time, but their positions and sizes are not necessarily the same.

【0091】そこで、図1のVOP符号化部3nは、そ
の出力するビットストリームに、VOPを符号化したデ
ータの他、所定の絶対座標系におけるVOPの位置(座
標)および大きさに関する情報も含めるようになされて
いる。なお、図2においては、ある時刻におけるVO0
(VOP)の位置を示すベクトルをOST0と、同一時
刻におけるVO1(VOP)の位置を表すベクトルをO
ST1と、それぞれ表してある。
Therefore, the VOP encoding unit 3n in FIG. 1 includes, in the output bit stream, information on the position (coordinates) and size of the VOP in a predetermined absolute coordinate system, in addition to the data obtained by encoding the VOP. It has been made like that. In FIG. 2, VO0 at a certain time
The vector indicating the position of (VOP) is OST0, and the vector indicating the position of VO1 (VOP) at the same time is OST0.
ST1.

【0092】次に、図3は、図1のVOP符号化部3n
の基本的な構成例を示している。
Next, FIG. 3 shows the VOP encoding section 3n of FIG.
2 shows an example of a basic configuration.

【0093】VOP構成部2nからの画像信号(画像デ
ータ)(VOPを構成する輝度信号および色差信号)
は、画像信号符号化部11に入力される。画像信号符号
化部11は、基本的には、前述した図42のエンコーダ
と同様に構成され、そこでは、VOPが、例えば、MP
EGやH.263などの規格に準拠した方式で符号化さ
れる。画像信号符号化部11でVOPが符号化されるこ
とにより得られる、その動きおよびテクスチャの情報
は、多重化部13に供給される。
Image signal (image data) from VOP forming section 2n (luminance signal and color difference signal forming VOP)
Is input to the image signal encoding unit 11. The image signal encoding unit 11 is basically configured in the same manner as the encoder of FIG. 42 described above.
EG and H. H.263 and the like. The motion and texture information obtained by encoding the VOP in the image signal encoding unit 11 is supplied to the multiplexing unit 13.

【0094】また、VOP構成部2nからのキー信号
は、キー信号符号化部12に入力され、そこで、例え
ば、DPCM(Differential Pulse Code Modulation)
などにされることにより符号化される。キー信号符号化
部12における符号化の結果得られるキー信号情報は、
やはり多重化部13に供給される。
The key signal from the VOP forming unit 2n is input to the key signal encoding unit 12, where, for example, DPCM (Differential Pulse Code Modulation).
And so on. Key signal information obtained as a result of encoding in the key signal encoding unit 12 is as follows:
It is also supplied to the multiplexing unit 13.

【0095】多重化部13には、画像信号符号化部11
およびキー信号符号化部12の出力の他、VOP構成部
2nからのサイズデータ(VOP size)およびオフセット
データ(VOP offset)も供給されており、多重化部13
は、これらを多重化して、バッファ14に出力する。バ
ッファ14は、多重化部13の出力を一時記憶し、その
データ量を平滑化して出力する。
The multiplexing unit 13 includes the image signal encoding unit 11
In addition to the output of the key signal encoding unit 12 and the size data (VOP size) and offset data (VOP offset) from the VOP configuration unit 2n, the multiplexing unit 13
Multiplexes these and outputs them to the buffer 14. The buffer 14 temporarily stores the output of the multiplexing unit 13, smoothes the data amount, and outputs the data.

【0096】なお、キー信号符号化部12においては、
DPCMの他、例えば、画像信号符号化部11において
予測符号化が行われることにより検出された動きベクト
ルにしたがって、キー信号を動き補償し、その時間的に
前または後のVOPにおけるキー信号との差分を演算す
ることで、キー信号を符号化するようにすることなども
可能である。
Note that, in the key signal encoding unit 12,
In addition to the DPCM, for example, the key signal is motion-compensated in accordance with the motion vector detected by performing the predictive encoding in the image signal encoding unit 11, and the key signal is compared with the key signal in the temporally preceding or succeeding VOP. By calculating the difference, the key signal can be encoded.

【0097】また、キー信号符号化部12におけるキー
信号の符号化結果のデータ量(バッファフィードバッ
ク)は、画像信号符号化部11に供給するようにするこ
とが可能である。この場合、画像信号符号化部11で
は、キー信号符号化部12からのデータ量をも考慮し
て、量子化ステップが決定される。
The data amount (buffer feedback) of the encoding result of the key signal in the key signal encoding unit 12 can be supplied to the image signal encoding unit 11. In this case, the quantization step is determined in the image signal encoding unit 11 in consideration of the data amount from the key signal encoding unit 12 as well.

【0098】次に、図4は、スケーラビリティを実現す
る、図1のVOP符号化部3nの構成例を示している。
Next, FIG. 4 shows a configuration example of the VOP encoding unit 3n of FIG. 1 for realizing scalability.

【0099】VOP構成部2nからのVOP(画像デー
タ)、並びにそのキー信号、サイズデータ(VOP siz
e)、およびオフセットデータ(VOP offset)は、いず
れも画像階層化部21に供給される。
The VOP (image data) from the VOP constructing unit 2n, its key signal, and size data (VOP siz
e) and the offset data (VOP offset) are both supplied to the image layering unit 21.

【0100】画像階層化部21は、VOPから、複数の
階層の画像データを生成する(VOPの階層化を行
う)。即ち、例えば、空間スケーラビリティの符号化を
行う場合においては、画像階層化部21は、そこに入力
される画像データおよびキー信号を、そのまま上位レイ
ヤ(上位階層)の画像データおよびキー信号として出力
するとともに、それらの画像データおよびキー信号を構
成する画素数を間引くことなどにより縮小し(解像度を
低下させ)、これを下位レイヤ(下位階層)の画像デー
タおよびキー信号として出力する。
The image layering unit 21 generates a plurality of layers of image data from the VOP (performs VOP layering). That is, for example, when performing spatial scalability encoding, the image layering unit 21 outputs the image data and the key signal input thereto as it is as the image data and the key signal of the upper layer (upper layer). At the same time, the image data and the key signal are reduced by reducing the number of pixels constituting the key signal (reducing the resolution), and are output as lower layer (lower layer) image data and a key signal.

【0101】なお、入力されたVOPを下位レイヤのデ
ータとするとともに、そのVOPの解像度を、何らかの
手法で高くし(画素数を多くし)、これを、上位レイヤ
のデータとすることなども可能である。
It is also possible to use the input VOP as data of the lower layer, increase the resolution of the VOP by some method (increase the number of pixels), and use this as data of the upper layer. It is.

【0102】また、階層数は、3以上とすることも可能
であるが、ここでは、簡単のために、2階層の場合につ
いて説明を行う。
Although the number of layers can be three or more, the case of two layers will be described here for simplicity.

【0103】画像階層化部21は、例えば、時間スケー
ラビリティ(テンポラルスケーラビリティ)の符号化を
行う場合、時刻に応じて、画像データおよびキー信号
を、下位レイヤまたは上位レイヤのデータとして、例え
ば、交互に出力する。即ち、例えば、画像階層化部21
は、そこに、あるVOを構成するVOPが、VOP0,
VOP1,VOP2,VOP3,・・・の順で入力され
たとした場合、VOP0,VOP2,VOP4,VOP
6,・・・を、下位レイヤのデータとして、また、VO
P1,VOP3,VOP5,VOP7,・・・を、上位
レイヤデータとして出力する。なお、時間スケーラビリ
ティの場合は、このようにVOPが間引かれたものが、
下位レイヤおよび上位レイヤのデータとされるだけで、
画像データの拡大または縮小(解像度の変換)は行われ
ない(但し、行うようにすることも可能である)。
For example, when performing temporal scalability (temporal scalability) encoding, the image layering unit 21 alternately converts image data and key signals as lower layer or upper layer data, for example, according to time. Output. That is, for example, the image layering unit 21
Indicates that VOPs constituting a certain VO are VOP0,
If it is assumed that VOP1, VOP2, VOP3,... Are input in this order, VOP0, VOP2, VOP4, VOP
, ... as lower layer data, and VO
P1, VOP3, VOP5, VOP7,... Are output as upper layer data. In the case of time scalability, VOPs are thinned out in this way,
Only the lower layer and upper layer data,
The enlargement or reduction (resolution conversion) of the image data is not performed (however, it can be performed).

【0104】また、画像階層化部21は、例えば、SN
R(Signal to Noise Ratio)スケーラビリティの符号
化を行う場合、入力された画像データおよびキー信号
を、そのまま上位レイヤまたは下位レイヤのデータそれ
ぞれとして出力する。即ち、この場合、下位レイヤ並び
に上位レイヤの画像データおよびキー信号は、同一のデ
ータとなる。
Further, the image hierarchical unit 21 can, for example,
When performing R (Signal to Noise Ratio) scalability encoding, input image data and a key signal are output as data of an upper layer or a lower layer as they are. That is, in this case, the image data and the key signal of the lower layer and the upper layer are the same data.

【0105】ここで、VOPごとに符号化を行う場合の
空間スケーラビリティについては、例えば、次のような
3種類が考えられる。
Here, the following three types of spatial scalability when encoding is performed for each VOP can be considered, for example.

【0106】即ち、例えば、いま、VOPとして、図2
に示したような画像F1およびF2でなる合成画像が入
力されたとすると、第1の空間スケーラビリティは、図
5に示すように、入力されたVOP全体(図5(A))
を上位レイヤ(EnhancementLayer)とするとともに、そ
のVOP全体を縮小したもの(図5(B))を下位レイ
ヤ(Base Layer)とするものである。
That is, for example, as a VOP, FIG.
Assuming that a composite image composed of the images F1 and F2 as shown in FIG. 5 is input, the first spatial scalability is as shown in FIG. 5 as a whole of the input VOP (FIG. 5A).
Is the upper layer (EnhancementLayer), and the reduced VOP (FIG. 5B) is the lower layer (Base Layer).

【0107】また、第2の空間スケーラビリティは、図
6に示すように、入力されたVOPを構成する一部の物
体(図6(A)(ここでは、画像F2に相当する部
分)))を抜き出して(なお、このような抜き出しは、
例えば、VOP構成部2nにおける場合と同様にして行
われ、従って、これにより抜き出された物体も、1つの
VOPと考えることができる)、上位レイヤとするとと
もに、そのVOP全体を縮小したもの(図6(B))を
下位レイヤとするものである。
As shown in FIG. 6, the second spatial scalability is such that some objects (FIG. 6A (here, a portion corresponding to image F2)) constituting the input VOP are used. Extract (Note that such extraction is
For example, the processing is performed in the same manner as in the VOP composing unit 2n, so that the extracted object can also be considered as one VOP), the upper layer, and a reduced VOP as a whole ( FIG. 6B) is a lower layer.

【0108】さらに、第3の空間スケーラビリティは、
図7および図8に示すように、入力されたVOPを構成
する物体(VOP)を抜き出して、その物体ごとに、上
位レイヤおよび下位レイヤを生成するものである。な
お、図7は、図2のVOPを構成する背景(画像F1)
から上位レイヤおよび下位レイヤを生成した場合を示し
ており、また、図8は、図2のVOPを構成する前景
(画像F2)から上位レイヤおよび下位レイヤを生成し
た場合を示している。
Furthermore, the third spatial scalability is:
As shown in FIGS. 7 and 8, an object (VOP) constituting an input VOP is extracted, and an upper layer and a lower layer are generated for each object. FIG. 7 shows a background (image F1) constituting the VOP of FIG.
8 shows a case where an upper layer and a lower layer are generated from the foreground (image F2) constituting the VOP of FIG. 2.

【0109】以上のようなスケーラビリティのうちのい
ずれを用いるかは予め決められており、画像階層化部2
1は、その予め決められたスケーラビリティによる符号
化を行うことができるように、VOPの階層化を行う。
Which of the above scalabilities is used is determined in advance, and the image hierarchy unit 2
1 hierarchically arranges VOPs so that encoding based on the predetermined scalability can be performed.

【0110】さらに、画像階層化部21は、そこに入力
されるVOPのサイズデータおよびオフセットデータ
(それぞれを、以下、適宜、初期サイズデータ、初期オ
フセットデータという)から、生成した下位レイヤおよ
び上位レイヤのVOPの所定の絶対座標系における位置
を表すオフセットデータと、その大きさを示すサイズデ
ータとを計算(決定)する。
Further, the image layering unit 21 generates the lower layer and the upper layer generated from the VOP size data and the offset data (hereinafter referred to as initial size data and initial offset data, respectively, as appropriate). The offset data indicating the position of the VOP in the predetermined absolute coordinate system and the size data indicating the size are calculated (determined).

【0111】ここで、下位レイヤ並びに上位レイヤのV
OPのオフセットデータ(位置情報)およびサイズデー
タの決定方法について、例えば、上述の第2のスケーラ
ビリティ(図6)を行う場合を例に説明する。
Here, V of the lower layer and the upper layer
A method of determining the offset data (position information) and the size data of the OP will be described by taking, for example, a case where the above-described second scalability (FIG. 6) is performed.

【0112】この場合、下位レイヤのオフセットデータ
FPOS_Bは、例えば、図9(A)に示すように、下
位レイヤの画像データを、その解像度および上位レイヤ
の解像度の違いに基づいて拡大(補間)したときに、即
ち、下位レイヤの画像を、上位レイヤの画像の大きさと
一致するような拡大率(上位レイヤの画像を縮小して下
位レイヤの画像を生成したときの、その縮小率の逆数)
(以下、適宜、倍率FRという)で拡大したときに、そ
の拡大画像の絶対座標系におけるオフセットデータが、
初期オフセットデータと一致するように決定される。ま
た、下位レイヤのサイズデータFSZ_Bも同様に、下
位レイヤの画像を倍率FRで拡大したときに得られる拡
大画像のサイズデータが初期サイズデータと一致するよ
うに決定される。
In this case, the offset data FPOS_B of the lower layer is obtained by enlarging (interpolating) the image data of the lower layer based on the difference between the resolution of the lower layer and the resolution of the upper layer, as shown in FIG. 9A, for example. Sometimes, that is, the enlargement ratio of the image of the lower layer to match the size of the image of the upper layer (the reciprocal of the reduction ratio when the image of the lower layer is generated by reducing the image of the upper layer)
(Hereinafter, appropriately referred to as magnification FR), the offset data of the enlarged image in the absolute coordinate system is
It is determined to match the initial offset data. Similarly, the size data FSZ_B of the lower layer is determined so that the size data of the enlarged image obtained when the image of the lower layer is enlarged by the magnification FR matches the initial size data.

【0113】一方、上位レイヤのオフセットデータFP
OS_Eは、例えば、図9(B)に示すように、入力さ
れたVOPから抜き出した物体を囲む16倍最小長方形
(VOP)の、例えば、左上の頂点の座標が、初期オフ
セットデータに基づいて求められ、この値に決定され
る。また、上位レイヤのサイズデータFPOS_Eは、
入力されたVOPから抜き出した物体を囲む16倍最小
長方形の、例えば横および縦の長さに決定される。
On the other hand, upper layer offset data FP
OS_E is, for example, as shown in FIG. 9B, the coordinates of, for example, the upper left vertex of the 16-fold minimum rectangle (VOP) surrounding the object extracted from the input VOP is obtained based on the initial offset data. And is determined to this value. The size data FPOS_E of the upper layer is
The length is determined to be, for example, the horizontal and vertical lengths of a 16-fold minimum rectangle surrounding the object extracted from the input VOP.

【0114】従って、この場合、下位レイヤのオフセッ
トデータFPOS_BおよびサイズデータFPOS_B
を、倍率FRにしたがって変換し(変換後のオフセット
データFPOS_BまたはサイズデータFPOS_B
を、それぞれ、変換オフセットデータFPOS_Bまた
は変換サイズデータFPOS_Bという)、絶対座標系
において、変換オフセットデータFPOS_Bに対応す
る位置に、変換サイズデータFSZ_Bに対応する大き
さの画枠を考え、そこに、下位レイヤの画像データをF
R倍だけした拡大画像を配置するとともに(図9
(A))、その絶対座標系において、上位レイヤのオフ
セットデータFPOS_EおよびサイズデータFPOS
_Eにしたがって、上位レイヤの画像を同様に配置する
と(図9(B))、拡大画像を構成する各画素と、上位
レイヤの画像を構成する各画素とは、対応するものどう
しが同一の位置に配置されることになる。即ち、この場
合、例えば、図9において、上位レイヤの画像である人
の部分と、拡大画像の中の人の部分とは、同一の位置に
配置されることになる。
Accordingly, in this case, the offset data FPOS_B and the size data FPOS_B of the lower layer
Is converted according to the magnification FR (the offset data FPOS_B or the size data FPOS_B after the conversion).
Are respectively referred to as conversion offset data FPOS_B or conversion size data FPOS_B), and an image frame having a size corresponding to the conversion size data FSZ_B is considered at a position corresponding to the conversion offset data FPOS_B in the absolute coordinate system. F is the image data of the layer
In addition to arranging an enlarged image R times (see FIG. 9)
(A)), the offset data FPOS_E and the size data FPOS of the upper layer in the absolute coordinate system.
If the image of the upper layer is similarly arranged according to _E (FIG. 9B), each pixel constituting the enlarged image and each pixel constituting the image of the upper layer have the same position at the same position. Will be placed in That is, in this case, for example, in FIG. 9, the part of the person, which is the image of the upper layer, and the part of the person in the enlarged image are arranged at the same position.

【0115】第1および第3のスケーラビリティにおけ
る場合も、同様にして、下位レイヤの拡大画像および上
位レイヤの画像を構成する、対応する画素どうしが、絶
対座標系において同一の位置に配置されるように、オフ
セットデータFPOS_BおよびFPOS_E、並びに
サイズデータFSZ_BおよびFSZ_Eが決定され
る。
Similarly, in the first and third scalabilities, the corresponding pixels constituting the enlarged image of the lower layer and the image of the upper layer are arranged at the same position in the absolute coordinate system. Then, offset data FPOS_B and FPOS_E and size data FSZ_B and FSZ_E are determined.

【0116】また、オフセットデータFPOS_Bおよ
びFPOS_E、並びにサイズデータFSZ_Bおよび
FSZ_Eは、その他、例えば、次のように決定するこ
とも可能である。
The offset data FPOS_B and FPOS_E and the size data FSZ_B and FSZ_E can be determined as follows, for example.

【0117】即ち、下位レイヤのオフセットデータFP
OS_Bは、例えば、図10(A)に示すように、下位
レイヤの拡大画像のオフセットデータが、絶対座標系に
おける所定の位置としての、例えば原点などに一致する
ように決定することができる。
That is, the offset data FP of the lower layer
OS_B can be determined such that, for example, as shown in FIG. 10A, the offset data of the enlarged image of the lower layer matches a predetermined position in the absolute coordinate system, such as the origin.

【0118】一方、上位レイヤのオフセットデータFP
OS_Eは、例えば、図10(B)に示すように、入力
されたVOPから抜き出した物体を囲む16倍最小長方
形の、例えば、左上の頂点の座標が、初期オフセットデ
ータに基づいて求められ、その座標から初期オフセット
データを減算した値に決定することができる。
On the other hand, upper layer offset data FP
OS_E is, for example, as shown in FIG. 10B, the coordinates of, for example, the upper left vertex of the 16-fold minimum rectangle surrounding the object extracted from the input VOP are obtained based on the initial offset data. The value can be determined by subtracting the initial offset data from the coordinates.

【0119】なお、図10における場合、下位レイヤの
サイズデータFSZ_Bおよび上位レイヤのサイズデー
タFPOS_Eは、図9における場合と同様に決定され
る。
In FIG. 10, the size data FSZ_B of the lower layer and the size data FPOS_E of the upper layer are determined in the same manner as in FIG.

【0120】以上のようにオフセットデータFPOS_
BおよびFPOS_Eを決定する場合においても、下位
レイヤの拡大画像および上位レイヤの画像を構成する、
対応する画素どうしが、絶対座標系において同一の位置
に配置されることになる。
As described above, the offset data FPOS_
Even when B and FPOS_E are determined, an enlarged image of the lower layer and an image of the upper layer are formed.
The corresponding pixels are arranged at the same position in the absolute coordinate system.

【0121】図4に戻り、画像階層化部21において生
成された上位レイヤの画像データ、キー信号、オフセッ
トデータFPOS_E、およびサイズデータFSZ_E
は、遅延回路22で、後述する下位レイヤ符号化部25
における処理時間だけ遅延され、上位レイヤ符号化部2
3に供給される。また、下位レイヤの画像データ、キー
信号、オフセットデータFPOS_B、およびサイズデ
ータFSZ_Bは、下位レイヤ符号化部25に供給され
る。また、倍率FRは、遅延回路22を介して、上位レ
イヤ符号化部23および解像度変換部24に供給され
る。
Returning to FIG. 4, the image data, the key signal, the offset data FPOS_E, and the size data FSZ_E of the upper layer generated in the image layering unit 21 are obtained.
Is a delay circuit 22, and a lower layer coding unit 25 described later
Is delayed by the processing time in the upper layer encoding unit 2
3 is supplied. The lower layer image data, the key signal, the offset data FPOS_B, and the size data FSZ_B are supplied to the lower layer encoding unit 25. Further, the magnification FR is supplied to the upper layer encoding unit 23 and the resolution conversion unit 24 via the delay circuit 22.

【0122】下位レイヤ符号化部25では、下位レイヤ
の画像データ(第2の画像)およびキー信号が符号化さ
れ、その結果得られる符号化データ(ビットストリー
ム)に、オフセットデータFPOS_Bおよびサイズデ
ータFSZ_Bが含められ、多重化部26に供給され
る。
In lower layer coding section 25, the lower layer image data (second image) and the key signal are coded, and the resulting coded data (bit stream) has offset data FPOS_B and size data FSZ_B. And supplied to the multiplexing unit 26.

【0123】また、下位レイヤ符号化部25は、符号化
データを局所復号化し、その結果局所復号結果である下
位レイヤの画像データを、解像度変換部24に出力す
る。解像度変換部24は、下位レイヤ符号化部25から
の下位レイヤの画像データを、倍率FRにしたがって拡
大(または縮小)することにより、元の大きさに戻し、
これにより得られる拡大画像を、上位レイヤ符号化部2
3に出力する。
The lower layer encoding unit 25 locally decodes the encoded data, and outputs the image data of the lower layer as a result of the local decoding to the resolution conversion unit 24. The resolution conversion unit 24 returns the image data of the lower layer from the lower layer encoding unit 25 to the original size by enlarging (or reducing) the image data according to the magnification FR.
The enlarged image obtained in this way is converted into an upper layer encoding unit 2
Output to 3.

【0124】一方、上位レイヤ符号化部23では、上位
レイヤの画像データ(第1の画像)およびキー信号が符
号化され、その結果得られる符号化データ(ビットスト
リーム)に、オフセットデータFPOS_Eおよびサイ
ズデータFSZ_Eが含められ、多重化部26に供給さ
れる。なお、上位レイヤ符号化部23においては、上位
レイヤ画像データの符号化は、解像度変換部24から供
給される拡大画像をも参照画像として用いて行われる。
On the other hand, the upper layer encoding section 23 encodes the image data (first image) and the key signal of the upper layer, and adds the offset data FPOS_E and the size to the resulting encoded data (bit stream). The data FSZ_E is included and supplied to the multiplexing unit 26. In the upper layer encoding unit 23, encoding of the upper layer image data is performed using the enlarged image supplied from the resolution conversion unit 24 as a reference image.

【0125】多重化部26では、上位レイヤ符号化部2
3および下位レイヤ符号化部25の出力が多重化されて
出力される。
In the multiplexing section 26, the upper layer coding section 2
3 and the output of the lower layer coding unit 25 are multiplexed and output.

【0126】なお、下位レイヤ符号化部25から上位レ
イヤ符号化部23に対しては、下位レイヤのサイズデー
タFSZ_B、オフセットデータFPOS_B、動きベ
クトルMV、フラグCODなどが供給されており、上位
レイヤ符号化部23では、これらのデータを必要に応じ
て参照しながら、処理を行うようになされているが、こ
の詳細については、後述する。
Note that the lower layer encoder 25 is supplied with the lower layer size data FSZ_B, offset data FPOS_B, motion vector MV, flag COD, etc., from the upper layer encoder The conversion unit 23 performs processing while referring to these data as necessary. The details will be described later.

【0127】次に、図11は、図4の下位レイヤ符号化
部25の詳細構成例を示している。なお、図中、図42
における場合と対応する部分については、同一の符号を
付してある。即ち、下位レイヤ符号化部25は、キー信
号符号化部43およびキー信号復号部44が新たに設け
られている他は、基本的には、図42のエンコーダと同
様に構成されている。
Next, FIG. 11 shows a detailed configuration example of the lower layer coding unit 25 of FIG. Note that in FIG.
The same reference numerals are given to the portions corresponding to the case in. That is, the lower layer encoding unit 25 is basically configured in the same manner as the encoder in FIG. 42 except that a key signal encoding unit 43 and a key signal decoding unit 44 are newly provided.

【0128】画像階層化部21(図4)からの画像デー
タ、即ち、下位レイヤのVOPは、図42における場合
と同様に、フレームメモリ31に供給されて記憶され、
動きベクトル検出器32において、マクロブロック単位
で動きベクトルの検出が行われる。
The image data from the image layering unit 21 (FIG. 4), that is, the VOP of the lower layer is supplied to and stored in the frame memory 31 as in the case of FIG.
In the motion vector detector 32, a motion vector is detected for each macroblock.

【0129】但し、下位レイヤ符号化部25の動きベク
トル検出器32には、下位レイヤのVOPのサイズデー
タFSZ_BおよびオフセットデータFPOS_Bが供
給されるようになされており、そこでは、このサイズデ
ータFSZ_BおよびオフセットデータFPOS_Bに
基づいて、マクロブロックの動きベクトルが検出され
る。
However, the motion vector detector 32 of the lower layer encoding unit 25 is supplied with the size data FSZ_B and the offset data FPOS_B of the VOP of the lower layer, where the size data FSZ_B and the offset data FPOS_B are supplied. A motion vector of a macroblock is detected based on the offset data FPOS_B.

【0130】即ち、上述したように、VOPは、時刻
(フレーム)によって、大きさや位置が変化するため、
その動きベクトルの検出にあたっては、その検出のため
の基準となる座標系を設定し、その座標系における動き
を検出する必要がある。そこで、ここでは、動きベクト
ル検出器43は、上述の絶対座標系を基準となる座標系
とし、その絶対座標系に、サイズデータFSZ_Bおよ
びオフセットデータFPOS_Bにしたがって、符号化
対象のVOPおよび参照画像とするVOPを配置して、
動きベクトルを検出するようになされている。
That is, as described above, the size and the position of the VOP change depending on the time (frame).
In detecting the motion vector, it is necessary to set a coordinate system serving as a reference for the detection and to detect a motion in the coordinate system. Therefore, here, the motion vector detector 43 uses the above-described absolute coordinate system as a reference coordinate system, and uses the absolute coordinate system as a reference according to the size data FSZ_B and the offset data FPOS_B. Place a VOP to
A motion vector is detected.

【0131】さらに、動きベクトル検出器32には、下
位レイヤのキー信号を符号化し、その符号化結果を復号
化した復号キー信号が、キー信号復号部44から供給さ
れるようになされており、動きベクトル検出器32は、
この復号キー信号によって、VOPから物体を抜き出
し、その動きベクトルを検出するようになされている。
ここで、物体を抜き出すのに、元のキー信号(符号化前
のキー信号)ではなく、復号キー信号を用いるのは、受
信側において用いられるのが復号キー信号だからであ
る。
Further, the motion vector detector 32 encodes the key signal of the lower layer, and supplies a decoded key signal obtained by decoding the encoded result from the key signal decoding unit 44. The motion vector detector 32
With this decryption key signal, an object is extracted from the VOP and its motion vector is detected.
Here, the reason why the decoding key signal is used instead of the original key signal (key signal before encoding) to extract the object is that the decoding key signal is used on the receiving side.

【0132】なお、検出された動きベクトル(MV)
は、予測モードとともに、VLC器36および動き補償
器42に供給される他、上位レイヤ符号化部23(図
4)にも供給される。
Note that the detected motion vector (MV)
Is supplied to the VLC unit 36 and the motion compensator 42 together with the prediction mode, and is also supplied to the upper layer encoding unit 23 (FIG. 4).

【0133】また、動き補償を行う場合においても、や
はり、上述したように、基準となる座標系における動き
を検出する必要があるため、動き補償器42には、サイ
ズデータFSZ_BおよびオフセットデータFPOS_
Bが供給されるようになされている。さらに、動き補償
器42には、動きベクトル検出器32における場合と同
様の理由から、キー信号復号部44から復号キー信号が
供給されるようになされている。
Also, when performing motion compensation, it is necessary to detect the motion in the reference coordinate system, as described above. Therefore, the size data FSZ_B and the offset data FPOS_
B is supplied. Further, the decoded key signal is supplied from the key signal decoding unit 44 to the motion compensator 42 for the same reason as in the motion vector detector 32.

【0134】動きベクトルの検出されたVOPは、図4
2における場合と同様に量子化データとされてVLC器
36に供給される。VLC器36には、やはり図42に
おける場合と同様に、量子化データ、量子化ステップ、
動きベクトル、および予測モードが供給される他、画像
階層化部21からのサイズデータFSZ_Bおよびオフ
セットデータFPOS_Bも供給されており、そこで
は、これらのデータすべてが可変長符号化される。さら
に、VLC器36には、キー信号符号化部43からキー
信号の符号化結果(キー信号のビットストリーム)も供
給されるようになされており、VLC器36は、このキ
ー信号の符号化結果も可変長符号化して出力する。
The VOP in which the motion vector is detected is shown in FIG.
2, and is supplied to the VLC unit 36 as quantized data. As in the case of FIG. 42, the VLC unit 36 also includes quantized data, a quantized step,
In addition to the motion vector and the prediction mode, size data FSZ_B and offset data FPOS_B from the image layering unit 21 are also supplied, where all of these data are variable-length coded. Further, the VLC unit 36 is also supplied with the encoding result of the key signal (the bit stream of the key signal) from the key signal encoding unit 43. The VLC unit 36 outputs the encoding result of the key signal. Is also output after variable-length encoding.

【0135】即ち、キー信号符号化部43は、画像階層
化部21からのキー信号を、例えば、図3で説明したよ
うに符号化し、その符号化結果を、VLC器36に出力
する。また、キー信号の符号化結果は、VLC器36の
他、キー信号復号部44にも供給され、キー信号復号部
44は、キー信号の符号化結果を復号化し、その復号化
されたキー信号(復号キー信号)を、動きベクトル検出
器32、動き補償器42、および解像度変換部24(図
4)に出力する。
That is, the key signal encoding unit 43 encodes the key signal from the image layering unit 21 as described with reference to FIG. 3, for example, and outputs the encoded result to the VLC unit 36. The encoding result of the key signal is also supplied to the key signal decoding unit 44 in addition to the VLC unit 36, and the key signal decoding unit 44 decodes the encoding result of the key signal and outputs the decoded key signal. (Decryption key signal) is output to the motion vector detector 32, the motion compensator 42, and the resolution converter 24 (FIG. 4).

【0136】ここで、キー信号符号化部43には、下位
レイヤのキー信号の他、サイズデータFSZ_Bおよび
オフセットデータFPOS_Bが供給されるようになさ
れており、そこでも、動きベクトル検出器32における
場合と同様に、それらのデータに基づいて、絶対座標系
におけるキー信号の位置と範囲とが認識されるようにな
されている。
Here, in addition to the key signal of the lower layer, the size signal FSZ_B and the offset data FPOS_B are supplied to the key signal encoding unit 43. Similarly, the position and range of the key signal in the absolute coordinate system are recognized based on the data.

【0137】動きベクトルの検出されたVOPは、上述
したように符号化される他、やはり図42における場合
と同様に局所復号され、フレームメモリ41に記憶され
る。この復号画像は、前述したように参照画像として用
いられる他、解像度変換部24に出力される。
The VOP in which the motion vector has been detected is coded as described above, and is also locally decoded as in FIG. 42 and stored in the frame memory 41. The decoded image is used as a reference image as described above, and is output to the resolution conversion unit 24.

【0138】なお、MPEG4においては、MPEG1
および2と異なり、Bピクチャも参照画像として用いら
れるため、Bピクチャも、局所復号化され、フレームメ
モリ41に記憶されるようになされている(但し、現時
点においては、Bピクチャが参照画像として用いられる
のは上位レイヤについてだけである)。
Note that in MPEG4, MPEG1
Unlike B and 2, the B picture is also used as a reference picture, so the B picture is also locally decoded and stored in the frame memory 41 (however, at this time, the B picture is used as a reference picture). Only for the upper layers).

【0139】一方、VLC器36は、図42で説明した
ように、I,P,Bピクチャのマクロブロックについ
て、スキップマクロブロックとするかどうかを決定し、
その決定結果を示すフラグCOD,MODBを設定す
る。このフラグCOD,MODBは、やはり可変長符号
化されて伝送される。さらに、フラグCODは、上位レ
イヤ符号化部23にも供給される。
On the other hand, as described with reference to FIG. 42, the VLC unit 36 determines whether or not macroblocks of I, P, and B pictures are to be skipped macroblocks.
The flags COD and MODB indicating the determination result are set. The flags COD and MODB are also transmitted after being variable-length coded. Further, the flag COD is also supplied to the upper layer encoding unit 23.

【0140】次に、図12は、図4の上位レイヤ符号化
部23の構成例を示している。なお、図中、図11また
は図42における場合と対応する部分については、同一
の符号を付してある。即ち、上位レイヤ符号化部23
は、キー信号符号化部51、フレームメモリ52、およ
びキー信号復号部53が、新たに設けられている他は、
基本的には、図11の下位レイヤ符号化部25または図
42のエンコーダと同様に構成されている。
Next, FIG. 12 shows an example of the configuration of the upper layer coding section 23 of FIG. Note that, in the figure, parts corresponding to those in FIG. 11 or FIG. 42 are denoted by the same reference numerals. That is, the upper layer encoding unit 23
Except that a key signal encoding unit 51, a frame memory 52, and a key signal decoding unit 53 are newly provided,
Basically, the configuration is the same as that of the lower layer encoding unit 25 in FIG. 11 or the encoder in FIG.

【0141】画像階層化部21(図4)からの画像デー
タ、即ち、上位レイヤのVOPは、図42における場合
と同様に、フレームメモリ31に供給されて記憶され、
動きベクトル検出器32において、マクロブロック単位
で動きベクトルの検出が行われる。なお、この場合も、
動きベクトル検出器32には、図11における場合と同
様に、上位レイヤのVOPの他、そのサイズデータFS
Z_EおよびオフセットデータFPOS_Eが供給され
るととも、キー信号復号部53がら復号キーが供給され
るようになされており、動きベクトル検出器32では、
上述の場合と同様に、このサイズデータFSZ_Eおよ
びオフセットデータFPOS_Eに基づいて、絶対座標
系における上位レイヤのVOPの配置位置が認識される
とともに、そのVOPに含まれる物体の抜き出しが、復
号キー信号に基づいて行われ、マクロブロックの動きベ
クトルが検出される。
The image data from the image layering unit 21 (FIG. 4), that is, the VOP of the upper layer is supplied to and stored in the frame memory 31 as in the case of FIG.
In the motion vector detector 32, a motion vector is detected for each macroblock. In this case,
As in the case of FIG. 11, the motion vector detector 32 includes, in addition to the VOP of the upper layer, the size data FS thereof.
When the Z_E and the offset data FPOS_E are supplied, the decryption key is supplied from the key signal decryption unit 53. In the motion vector detector 32,
Similarly to the above case, based on the size data FSZ_E and the offset data FPOS_E, the arrangement position of the VOP of the upper layer in the absolute coordinate system is recognized, and the extraction of the object included in the VOP is included in the decryption key signal. Based on this, a motion vector of a macroblock is detected.

【0142】ここで、上位レイヤ符号化部23および下
位レイヤ符号化部25における動きベクトル検出器32
では、図42で説明したように、予め設定されている所
定のシーケンスにしたがって、VOPが処理されていく
が、そのシーケンスは、ここでは、例えば、次のように
設定されている。
Here, the motion vector detector 32 in the upper layer encoding section 23 and the lower layer encoding section 25
Then, as described with reference to FIG. 42, the VOP is processed according to a predetermined sequence that is set in advance. Here, the sequence is set as follows, for example.

【0143】即ち、空間スケーラビリティの場合におい
ては、図13(A)または図13(B)に示すように、
上位レイヤまたは下位レイヤのVOPは、例えば、P,
B,B,B,・・・またはI,P,P,P,・・・の順
でそれぞれ処理されていく。
That is, in the case of spatial scalability, as shown in FIG. 13A or FIG.
The VOP of the upper layer or the lower layer is, for example, P,
Are processed in the order of B, B, B,... Or I, P, P, P,.

【0144】そして、この場合、上位レイヤの最初のV
OPであるPピクチャは、例えば、同時刻における下位
レイヤのVOP(ここでは、Iピクチャ)を参照画像と
して用いて符号化される。また、上位レイヤの2番目以
降のVOPであるBピクチャは、例えば、その直前の上
位レイヤのVOPおよびそれと同時刻の下位レイヤのV
OPを参照画像として用いて符号化される。即ち、ここ
では、上位レイヤのBピクチャは、下位レイヤのPピク
チャと同様に他のVOPを符号化する場合の参照画像と
して用いられる。
Then, in this case, the first V
The P picture that is the OP is encoded using, for example, a VOP (here, an I picture) of a lower layer at the same time as a reference image. The B picture that is the second or later VOP of the upper layer is, for example, the VOP of the immediately preceding upper layer and the VOP of the lower layer at the same time as the VOP.
The encoding is performed using the OP as a reference image. That is, here, the B picture in the upper layer is used as a reference image when encoding another VOP, like the P picture in the lower layer.

【0145】なお、下位レイヤについては、例えば、M
PEG1や2、あるいはH.263における場合と同様
に符号化が行われていく。
For the lower layer, for example, M
PEG 1 or 2, or H.264. Encoding is performed as in the case of H.263.

【0146】SNRスケーラビリティは、空間スケーラ
ビリティにおける倍率FRが1のときと考えられるか
ら、上述の空間スケーラビリティの場合と同様に処理さ
れる。
Since the SNR scalability is considered to be when the magnification FR in the spatial scalability is 1, it is processed in the same manner as in the case of the spatial scalability described above.

【0147】テンポラルスケーラビリティの場合、即
ち、例えば、上述したように、VOが、VOP0,VO
P1,VOP2,VOP3,・・・で構成され、VOP
1,VOP3,VOP5,VOP7,・・・が上位レイ
ヤとされ(図14(A))、VOP0,VOP2,VO
P4,VOP6,・・・が下位レイヤとされた場合にお
いては(図14(B))、図14に示すように、上位レ
イヤまたは下位レイヤのVOPは、例えば、B,B,
B,・・・またはI,P,P,P,・・・の順でそれぞ
れ処理されていく。
In the case of temporal scalability, that is, for example, as described above, VO is VOP0, VO
P1, VOP2, VOP3,...
, VOP3, VOP5, VOP7,... Are upper layers (FIG. 14A), and VOP0, VOP2, VO
When P4, VOP6,... Are the lower layers (FIG. 14B), as shown in FIG. 14, the VOPs of the upper layer or the lower layer are, for example, B, B,
B,... Or I, P, P, P,.

【0148】そして、この場合、上位レイヤの最初のV
OP1(Bピクチャ)は、例えば、下位レイヤのVOP
0(Iピクチャ)およびVOP2(Pピクチャ)を参照
画像として用いて符号化される。また、上位レイヤの2
番目のVOP3(Bピクチャ)は、例えば、その直前に
Bピクチャとして符号化された上位レイヤのVOP1、
およびVOP3の次の時刻(フレーム)における画像で
ある下位レイヤのVOP4(Pピクチャ)を参照画像と
して用いて符号化される。上位レイヤの3番目のVOP
5(Bピクチャ)も、VOP3と同様に、例えば、その
直前にBピクチャとして符号化された上位レイヤのVO
P3、およびVOP5の次の時刻(フレーム)における
画像である下位レイヤのVOP6(Pピクチャ)を参照
画像として用いて符号化される。
Then, in this case, the first V
OP1 (B picture) is, for example, a lower layer VOP.
0 (I picture) and VOP2 (P picture) are coded using as reference pictures. Also, the upper layer 2
The VOP3 (B-picture) is, for example, VOP1 of the upper layer coded immediately before as a B-picture,
And VOP4 (P picture) of the lower layer, which is an image at the time (frame) next to VOP3, is used as a reference image. Third VOP of upper layer
5 (B picture), like VOP3, for example, the VO of the upper layer coded immediately before as a B picture
Encoding is performed using P3 and VOP6 (P picture) of the lower layer, which is an image at the time (frame) next to VOP5, as a reference image.

【0149】以上のように、あるレイヤのVOP(ここ
では、上位レイヤ)については、PおよびBピクチャを
符号化するための参照画像として、他のレイヤ(スケー
ラブルレイヤ)(ここでは、下位レイヤ)のVOPを用
いることができる。このように、あるレイヤのVOPを
符号化するのに、他のレイヤのVOPを参照画像として
用いる場合、即ち、ここでは、上位レイヤのVOPを予
測符号化するのに、下位レイヤのVOPを参照画像とし
て用いる場合、上位レイヤ符号化部23(図12)の動
きベクトル検出器32は、その旨を示すフラグref_
layer_id(階層数が3以上存在する場合、フラ
グref_layer_idは、参照画像として用いる
VOPが属するレイヤを表す)を設定して出力するよう
になされている。
As described above, with respect to a VOP of a certain layer (here, an upper layer), another layer (a scalable layer) (here, a lower layer) is used as a reference image for coding P and B pictures. VOP can be used. As described above, when a VOP of another layer is used as a reference image to encode a VOP of a certain layer, that is, here, a VOP of a lower layer is referred to for predictive encoding of a VOP of an upper layer. When used as an image, the motion vector detector 32 of the upper layer encoding unit 23 (FIG. 12) outputs a flag ref_
A layer_id (when there are three or more layers, the flag ref_layer_id indicates a layer to which a VOP used as a reference image belongs) is set and output.

【0150】さらに、上位レイヤ符号化部23の動きベ
クトル検出器32は、VOPについてのフラグref_
layer_idにしたがい、前方予測符号化または後
方予測符号化を、それぞれ、どのレイヤのVOPを参照
画像として行うかを示すフラグref_select_
code(参照画像情報)を設定して出力するようにも
なされている。
Further, the motion vector detector 32 of the upper layer encoding unit 23 sets the flag ref_
According to the layer_id, a flag ref_select__ indicating which layer VOP is to be used as a reference image for forward prediction coding or backward prediction coding, respectively.
A code (reference image information) is set and output.

【0151】即ち、図15(A)または(B)は、Pま
たはBピクチャについてのフラグref_select
_codeを、それぞれ示している。
That is, FIG. 15 (A) or (B) shows a flag ref_select for a P or B picture.
_Code are shown respectively.

【0152】例えば、上位レイヤ(Enhancement Laye
r)のPピクチャが、その直前に復号(局所復号)され
る、それと同一のレイヤに属するVOPを参照画像とし
て用いて符号化される場合、フラグref_selec
t_codeは「00」とされる。また、Pピクチャ
が、その直前に表示される、それと異なるレイヤ(ここ
では、下位レイヤ)(Reference Layer)に属するVO
Pを参照画像として用いて符号化される場合、フラグr
ef_select_codeは「01」とされる。さ
らに、Pピクチャが、その直後に表示される、それと異
なるレイヤに属するVOPを参照画像として用いて符号
化される場合、フラグref_select_code
は「10」とされる。また、Pピクチャが、それと同時
刻における、異なるレイヤのVOPを参照画像として用
いて符号化される場合、フラグref_select_
codeは「11」とされる(図15(A))。
For example, the upper layer (Enhancement Layer)
When the P picture of r) is encoded using a VOP belonging to the same layer as the reference picture, which is decoded immediately before (local decoding), the flag ref_selec
t_code is set to “00”. Also, the VO belonging to a different layer (here, lower layer) (Reference Layer) displayed immediately before the P picture is displayed.
If encoding is performed using P as a reference image, the flag r
ef_select_code is set to “01”. Further, when the P picture is encoded using a VOP that is displayed immediately after and belongs to a different layer from the POP as a reference image, the flag ref_select_code is used.
Is set to “10”. When a P picture is encoded using a VOP of a different layer at the same time as the reference picture as a reference picture, the flag ref_select_
The code is set to “11” (FIG. 15A).

【0153】一方、例えば、上位レイヤのBピクチャ
が、それと同時刻における、異なるレイヤのVOPを前
方予測のための参照画像として用い、かつ、その直前に
復号される、それと同一のレイヤに属するVOPを後方
予測のための参照画像として用いて符号化される場合、
フラグref_select_codeは「00」とさ
れる。また、上位レイヤのBピクチャが、それと同一の
レイヤに属するVOPを前方予測のための参照画像とし
て用い、かつ、その直前に表示される、それと異なるレ
イヤに属するVOPを後方予測のための参照画像として
用いて符号化される場合、フラグref_select
_codeは「01」とされる。さらに、上位レイヤの
Bピクチャが、その直前に復号される、それと同一のレ
イヤに属するVOPを前方予測のための参照画像として
用い、かつその直後に表示される、それと異なるレイヤ
に属するVOPを後方予測のための参照画像として用い
て符号化される場合、フラグref_select_c
odeは「10」とされる。また、上位レイヤのBピク
チャが、その直前に表示される、それと異なるレイヤに
属するVOPを前方予測のための参照画像として用い、
かつその直後に表示される、それと異なるレイヤに属す
るVOPを後方予測のための参照画像として用いて符号
化される場合、フラグref_select_code
は「11」とされる(図15(B))。
On the other hand, for example, a BOP in an upper layer uses a VOP of a different layer at the same time as a reference picture for forward prediction, and decodes immediately before the VOP belonging to the same layer. Is encoded using as a reference image for backward prediction,
The flag ref_select_code is set to “00”. In addition, a B-picture of an upper layer uses a VOP belonging to the same layer as a reference image for forward prediction, and displays a VOP belonging to a different layer, which is displayed immediately before and belongs to a different layer, as a reference image for backward prediction. When the encoding is performed by using the flag ref_select
_Code is set to “01”. Further, the BOP of the upper layer is decoded immediately before and uses the VOP belonging to the same layer as the reference image for forward prediction, and the VOP belonging to a different layer displayed immediately after that and belonging to a different layer is backward. If the encoding is performed using a reference image for prediction, the flag ref_select_c is used.
mode is set to “10”. Further, a VOP belonging to a different layer, which is displayed immediately before the B picture of the upper layer and belongs to a different layer, is used as a reference image for forward prediction,
In the case where encoding is performed using a VOP displayed immediately after that and belonging to a different layer as a reference image for backward prediction, a flag ref_select_code is used.
Is set to “11” (FIG. 15B).

【0154】ここで、図13および図14で説明した予
測符号化の方法は、1つの例であり、前方予測符号化、
後方予測符号化、または両方向予測符号化における参照
画像として、どのレイヤの、どのVOPを用いるかは、
例えば、図15で説明した範囲で、自由に設定すること
が可能である。
Here, the method of predictive coding described with reference to FIGS. 13 and 14 is one example.
Which VOP of which layer is used as a reference image in backward prediction coding or bidirectional prediction coding is as follows.
For example, it can be set freely within the range described with reference to FIG.

【0155】なお、上述の場合においては、便宜的に、
「空間スケーラビリティ」、「時間スケーラビリテ
ィ」、「SNRスケーラビリティ」という語を用いた
が、図15で説明したように、予測符号化に用いる参照
画像を設定する場合、即ち、図15に示したようなシン
タクスを用いる場合、フラグref_select_c
odeによって、空間スケーラビリティや、テンポラル
スケーラビリティ、SNRスケーラビリティを明確に区
別することは困難となる。即ち、逆にいえば、フラグr
ef_select_codeを用いることによって、
上述のようなスケーラビリティの区別をせずに済むよう
になる。
In the above case, for convenience,
Although the terms “spatial scalability”, “temporal scalability”, and “SNR scalability” are used, as described with reference to FIG. 15, when a reference image used for predictive coding is set, that is, as shown in FIG. When the syntax is used, the flag ref_select_c
The mode makes it difficult to clearly distinguish spatial scalability, temporal scalability, and SNR scalability. That is, conversely, the flag r
By using ef_select_code,
It is not necessary to distinguish the scalability as described above.

【0156】なお、上述のスケーラビリティとフラグr
ef_select_codeとを対応付けるとすれ
ば、例えば、次のようになる。即ち、Pピクチャについ
ては、フラグref_select_codeが「1
1」の場合が、フラグref_layer_idが示す
レイヤの同時刻におけるVOPを参照画像(前方予測の
ための参照画像)として用いる場合であるから、これ
は、空間スケーラビリティまたはSNRスケーラビリテ
ィに対応する。そして、フラグref_select_
codeが「11」の場合以外は、テンポラルスケーラ
ビリティに対応する。
The scalability and the flag r
If ef_select_code is associated, for example, it is as follows. That is, for the P picture, the flag ref_select_code is set to “1”.
Since the case of “1” is a case where the VOP of the layer indicated by the flag ref_layer_id at the same time is used as a reference image (a reference image for forward prediction), this corresponds to spatial scalability or SNR scalability. Then, the flag ref_select_
Except when the code is “11”, it corresponds to temporal scalability.

【0157】また、Bピクチャについては、フラグre
f_select_codeが「00」の場合が、やは
り、フラグref_layer_idが示すレイヤの同
時刻におけるVOPを前方予測のための参照画像として
用いる場合であるから、これが、空間スケーラビリティ
またはSNRスケーラビリティに対応する。そして、フ
ラグref_select_codeが「00」の場合
以外は、テンポラルスケーラビリティに対応する。
For a B picture, the flag re
Since the case where f_select_code is “00” is the case where the VOP of the layer indicated by the flag ref_layer_id at the same time is used as a reference image for forward prediction, this corresponds to spatial scalability or SNR scalability. Except when the flag ref_select_code is “00”, it corresponds to temporal scalability.

【0158】なお、上位レイヤのVOPの予測符号化の
ために、それと異なるレイヤ(ここでは、下位レイヤ)
の、同時刻におけるVOPを参照画像として用いる場
合、両者の間に動きはないので、動きベクトルは、常に
0(0,0)とされる。
It is to be noted that a different layer (here, a lower layer) is used for predictive coding of the VOP of the upper layer.
When the VOP at the same time is used as a reference image, there is no motion between the two and the motion vector is always 0 (0, 0).

【0159】図12に戻り、上位レイヤ符号化部23の
動き検出器31では、以上のようなフラグref_la
yer_idおよびref_select_codeが
設定され、動き補償器42およびVLC器36に供給さ
れる。
Returning to FIG. 12, in the motion detector 31 of the upper layer coding unit 23, the flag ref_la
Yer_id and ref_select_code are set and supplied to the motion compensator 42 and the VLC unit 36.

【0160】また、動きベクトル検出器32では、フラ
グref_layer_idおよびref_selec
t_codeにしたがって、フレームメモリ31を参照
するだけでなく、必要に応じて、フレームメモリ52を
も参照して、動きベクトルが検出される。
In the motion vector detector 32, the flags ref_layer_id and ref_select
According to t_code, a motion vector is detected not only by referring to the frame memory 31 but also by referring to the frame memory 52 as necessary.

【0161】ここで、フレームメモリ52には、解像度
変換部24(図4)から、局所復号された下位レイヤの
拡大画像が供給されるようになされている。即ち、解像
度変換部24では、局所復号された下位レイヤのVOP
が、例えば、いわゆる補間フィルタなどによって拡大さ
れ、これにより、そのVOPを、FR倍だけした拡大画
像、つまり、その下位レイヤのVOPに対応する上位レ
イヤのVOPと同一の大きさとした拡大画像が生成さ
れ、上位レイヤ符号化部23に供給される。フレームメ
モリ52では、このようにして解像度変換部24から供
給される拡大画像が記憶される。
Here, the frame memory 52 is supplied with the locally decoded enlarged image of the lower layer from the resolution converter 24 (FIG. 4). That is, in the resolution conversion unit 24, the locally decoded VOP of the lower layer
Is enlarged by, for example, a so-called interpolation filter, thereby generating an enlarged image obtained by multiplying the VOP by FR times, that is, an enlarged image having the same size as the VOP of the upper layer corresponding to the VOP of the lower layer. Then, it is supplied to the upper layer coding unit 23. The frame memory 52 stores the enlarged image supplied from the resolution conversion unit 24 in this way.

【0162】従って、倍率FRが1の場合は、解像度変
換部24は、下位レイヤ符号化部25からの局所復号さ
れたVOPに対して、特に処理を施すことなく、そのま
ま、上位レイヤ符号化部23に供給する。
Therefore, when the magnification FR is 1, the resolution conversion unit 24 does not perform any processing on the locally decoded VOP from the lower layer encoding unit 25 without any processing. 23.

【0163】動きベクトル検出器32には、下位レイヤ
符号化部25からサイズデータFSZ_Bおよびオフセ
ットデータFPOS_Bが供給されるとともに、遅延回
路22(図4)からの倍率FRが供給されるようになさ
れており、動きベクトル検出器31は、フレームメモリ
52に記憶された拡大画像を参照画像として用いる場
合、即ち、上位レイヤのVOPの予測符号化に、そのV
OPと同時刻における下位レイヤのVOPを参照画像と
して用いる場合(この場合、図15で説明したように、
フラグref_select_codeは、Pピクチャ
については「11」に(同図(A))、Bピクチャにつ
いては「00」にされる(同図(B))、その拡大画像
に対応するサイズデータFSZ_Bおよびオフセットデ
ータFPOS_Bに、倍率FRを乗算する。そして、そ
の乗算結果に基づいて、絶対座標系における拡大画像の
位置を認識し、動きベクトルの検出を行う。
The motion vector detector 32 is supplied with the size data FSZ_B and the offset data FPOS_B from the lower layer coding unit 25 and the magnification FR from the delay circuit 22 (FIG. 4). When the motion vector detector 31 uses the enlarged image stored in the frame memory 52 as a reference image, that is, the motion vector detector 31 uses the V
When a lower layer VOP at the same time as the OP is used as a reference image (in this case, as described in FIG.
The flag ref_select_code is set to “11” for the P picture (FIG. (A)) and “00” for the B picture (FIG. (B)), and the size data FSZ_B and offset data corresponding to the enlarged image FPOS_B is multiplied by the magnification FR. Then, based on the multiplication result, the position of the enlarged image in the absolute coordinate system is recognized, and a motion vector is detected.

【0164】なお、動きベクトル検出器32には、下位
レイヤの動きベクトルと予測モードが供給されるように
なされており、これは、次のような場合に使用される。
即ち、動きベクトル検出部32は、例えば、上位レイヤ
のBピクチャについてのフラグref_select_
codeが「00」である場合において、倍率FRが1
であるとき、即ち、SNRスケーラビリティのとき(但
し、この場合、上位レイヤの予測符号化に、上位レイヤ
のVOPが用いられるので、この点で、ここでいうSN
Rスケーラビリティは、MPEG2に規定されているも
のと異なる)、上位レイヤと下位レイヤは同一の画像で
あるから、上位レイヤのBピクチャの予測符号化には、
下位レイヤの同時刻における画像の動きベクトルと予測
モードをそのまま用いることができる。そこで、この場
合、動きベクトル検出部32は、上位レイヤのBピクチ
ャについては、特に処理を行わず、下位レイヤの動きベ
クトルと予測モードをそのまま採用する。
The motion vector detector 32 is supplied with the motion vector of the lower layer and the prediction mode, and is used in the following case.
That is, for example, the motion vector detection unit 32 sets the flag ref_select_
When the code is “00”, the magnification FR is 1
, Ie, when the SNR is scalable (however, in this case, since the VOP of the upper layer is used for predictive coding of the upper layer, the SN
The R scalability is different from that specified in MPEG2). Since the upper layer and the lower layer are the same image, the predictive coding of the B picture of the upper layer
The motion vector and the prediction mode of the image at the same time of the lower layer can be used as they are. Therefore, in this case, the motion vector detection unit 32 does not particularly perform processing on the B picture of the upper layer, and adopts the motion vector and the prediction mode of the lower layer as they are.

【0165】なお、この場合、上位レイヤ符号化部23
では、動きベクトル検出器32からVLC器36には、
動きベクトルおよび予測モードは出力されない(従っ
て、伝送されない)。これは、受信側において、上位レ
イヤの動きベクトルおよび予測モードを、下位レイヤの
復号結果から認識することができるからである。
In this case, upper layer coding section 23
Then, from the motion vector detector 32 to the VLC unit 36,
The motion vector and prediction mode are not output (and therefore not transmitted). This is because the receiving side can recognize the motion vector and the prediction mode of the upper layer from the decoding result of the lower layer.

【0166】以上のように、動きベクトル検出器32
は、上位レイヤのVOPの他、拡大画像をも参照画像と
して用いて、動きベクトルを検出し、さらに、図42で
説明したように、予測誤差(あるいは分散)を最小にす
る予測モードを設定する。また、動きベクトル検出器3
2は、例えば、フラグref_select_code
やref_layer_idその他の必要な情報を設定
して出力する。
As described above, the motion vector detector 32
Detects a motion vector using an enlarged image as a reference image in addition to the VOP of the upper layer, and sets a prediction mode that minimizes a prediction error (or variance) as described with reference to FIG. . Also, the motion vector detector 3
2 is, for example, a flag ref_select_code
And ref_layer_id and other necessary information are set and output.

【0167】なお、図12では、下位レイヤ符号化部2
5から、下位レイヤにおけるIまたはPピクチャを構成
するマクロブロックがスキップマクロブロックであるか
どうかを示すフラグCODが、動きベクトル検出器3
2、VLC器36、および動き補償器42に供給される
ようになされているが、これについては、後述する。
In FIG. 12, lower layer coding section 2
5, a flag COD indicating whether a macroblock constituting an I or P picture in a lower layer is a skip macroblock is determined by the motion vector detector 3
2, which is supplied to the VLC unit 36 and the motion compensator 42, which will be described later.

【0168】動きベクトルの検出されたマクロブロック
は、上述した場合と同様に符号化され、これにより、V
LC器36からは、その符号化結果としての可変長符号
が出力される。
The macroblock in which the motion vector has been detected is coded in the same manner as described above.
The LC unit 36 outputs a variable-length code as a result of the encoding.

【0169】なお、上位レイヤ符号化部23のVLC器
36は、下位レイヤ符号化部25における場合と同様
に、フラグCOD,MODBを設定して出力するように
なされている。ここで、フラグCODは、上述したよう
に、IまたはPピクチャのマクロブロックがスキップマ
クロブロックであるかどうかを示すものであるが、フラ
グMODBは、Bピクチャのマクロブロックがスキップ
マクロブロックであるかどうかを示すものである。
The VLC unit 36 of the upper layer coding unit 23 sets and outputs flags COD and MODB as in the case of the lower layer coding unit 25. Here, the flag COD indicates whether the macroblock of the I or P picture is a skip macroblock, as described above. The flag MODB indicates whether the macroblock of the B picture is a skip macroblock. It indicates whether or not.

【0170】また、VLC器36には、量子化係数、量
子化ステップ、動きベクトル、および予測モードの他、
倍率FR、フラグref_serect_code,r
ef_layer_id、サイズデータFSZ_E、オ
フセットデータFPOS_E、およびキー信号符号化部
51の出力も供給されるようになされており、VLC器
36では、これらのデータがすべて可変長符号化されて
出力される。
The VLC unit 36 has a quantization coefficient, a quantization step, a motion vector, and a prediction mode.
Magnification FR, flag ref_select_code, r
The ef_layer_id, the size data FSZ_E, the offset data FPOS_E, and the output of the key signal encoding unit 51 are also supplied. The VLC unit 36 performs variable-length encoding on all of these data and outputs them.

【0171】一方、動きベクトルの検出されたマクロブ
ロックは符号化された後、やはり上述したように局所復
号され、フレームメモリ41に記憶される。そして、動
き補償器42において、動きベクトル検出器32におけ
る場合と同様にして、フレームメモリ41に記憶され
た、局所復号された上位レイヤのVOPだけでなく、フ
レームメモリ52に記憶された、局所復号されて拡大さ
れた下位レイヤのVOPをも参照画像として用いて動き
補償が行われ、予測画像が生成される。
On the other hand, the macroblock in which the motion vector has been detected is encoded, then locally decoded as described above, and stored in the frame memory 41. Then, in the motion compensator 42, similarly to the case of the motion vector detector 32, not only the locally decoded VOP of the upper layer stored in the frame memory 41 but also the local decoding The motion compensation is performed using the VOP of the lower layer enlarged as a reference image, and a predicted image is generated.

【0172】即ち、動き補償器42には、動きベクトル
および予測モードの他、フラグref_serect_
code,ref_layer_id、復号キー信号、
倍率FR、サイズデータFSZ_B,FSZ_E、オフ
セットデータFPOS_B,FPOS_Eが供給される
ようになされており、動き補償器42は、フラグref
_serect_code,ref_layer_id
に基づいて、動き補償すべき参照画像を認識し、さら
に、参照画像として、局所復号された上位レイヤのVO
P、または拡大画像を用いる場合には、その絶対座標系
における位置と大きさを、サイズデータFSZ_Eおよ
びオフセットデータFPOS_E、またはサイズデータ
FSZ_BおよびオフセットデータFPOS_Bに基づ
いて認識し、必要に応じて、倍率FRと復号キー信号を
用いて予測画像を生成する。
That is, in addition to the motion vector and the prediction mode, the flag ref_select_
code, ref_layer_id, decryption key signal,
The magnification FR, the size data FSZ_B, FSZ_E, and the offset data FPOS_B, FPOS_E are supplied, and the motion compensator 42 sets the flag ref
_Select_code, ref_layer_id
, The reference image to be motion-compensated is recognized, and the VO of the locally decoded upper layer is used as the reference image.
When using P or the enlarged image, the position and size in the absolute coordinate system are recognized based on the size data FSZ_E and the offset data FPOS_E, or the size data FSZ_B and the offset data FPOS_B. A predicted image is generated using the FR and the decryption key signal.

【0173】一方、上位レイヤのVOPのキー信号は、
キー信号符号化部51に供給される。キー信号符号化部
51では、例えば、図11のキー信号符号化部43にお
ける場合と同様にして、キー信号が符号化され、VLC
器36およびキー信号復号部53に供給される。キー信
号復号部53では、キー信号符号化部51によるキー信
号の符号化結果が復号される。この復号化されたキー信
号は、上述したように、動きベクトル検出器32および
動き補償器42に供給され、上位レイヤのVOPの抜き
出しに用いられる。
On the other hand, the key signal of the VOP of the upper layer is
It is supplied to the key signal encoding unit 51. In the key signal encoding unit 51, for example, the key signal is encoded in the same manner as in the case of the key signal encoding unit 43 in FIG.
Is supplied to the device 36 and the key signal decoding unit 53. In the key signal decoding unit 53, the result of encoding the key signal by the key signal encoding unit 51 is decoded. The decoded key signal is supplied to the motion vector detector 32 and the motion compensator 42 as described above, and is used for extracting the VOP of the upper layer.

【0174】次に、図16は、図1のエンコーダから出
力されるビットストリームを復号化するデコーダの一実
施の形態の構成を示している。
Next, FIG. 16 shows a configuration of an embodiment of a decoder for decoding a bit stream output from the encoder of FIG.

【0175】図1のエンコーダから出力され、伝送路5
を介して伝送されてくるビットストリームは、図示せぬ
受信装置で受信され、あるいは、記録媒体6に記録され
たビットストリームは、図示せぬ再生装置で再生され、
逆多重化部71に供給される。
Output from the encoder of FIG.
Is received by a receiving device (not shown), or the bit stream recorded on the recording medium 6 is reproduced by a reproducing device (not shown),
The signal is supplied to the demultiplexing unit 71.

【0176】逆多重化部71では、そこに入力されたビ
ットストリームが、VOごとのビットストリームVO
1,VO2,・・・に分離され、それぞれ、対応するV
OP復号部72nに供給される。VOP復号部72nで
は、逆多重化部71からのビットストリームから、VO
を構成するVOP(画像データ)、キー信号、サイズデ
ータ(VOP size)、およびオフセットデータ(VOP offs
et)が復号され、画像再構成部73に供給される。
The demultiplexer 71 converts the bit stream input thereto into a bit stream VO for each VO.
, VO2,..., And the corresponding V
This is supplied to the OP decoding unit 72n. The VOP decoding unit 72n converts the bit stream from the demultiplexing unit 71 into a VO
(Image data), key signal, size data (VOP size), and offset data (VOP offs)
et) is decoded and supplied to the image reconstruction unit 73.

【0177】画像再構成部73では、VOP復号部72
1乃至72Nそれぞれからの出力に基づいて、元の画像が
再構成される。この再構成された画像は、例えば、モニ
タ74に供給されて表示される。
In the image reconstruction unit 73, the VOP decoding unit 72
An original image is reconstructed based on the output from each of 1 to 72N. The reconstructed image is supplied to the monitor 74 and displayed, for example.

【0178】次に、図17は、図16のVOP復号部7
2nの基本的な構成例を示している。
FIG. 17 is a block diagram of the VOP decoding unit 7 shown in FIG.
2n shows a basic configuration example.

【0179】逆多重化部71(図16)からのビットス
トリームは、逆多重化部81に入力され、そこで、キー
信号情報と、動きおよびテクスチャの情報とが抽出され
る。そして、キー信号情報はキー信号復号部82に供給
され、また、動きおよびテクスチャの情報は画像信号復
号部83に供給される。さらに、逆多重化部71では、
そこに入力されるビットストリームから、サイズデータ
(VOP size)およびオフセットデータ(VOP offset)が
抽出され、画像再構成部73(図16)に供給される。
The bit stream from demultiplexing section 71 (FIG. 16) is input to demultiplexing section 81, where key signal information and motion and texture information are extracted. Then, the key signal information is supplied to the key signal decoding unit 82, and the motion and texture information is supplied to the image signal decoding unit 83. Further, in the demultiplexing unit 71,
Size data (VOP size) and offset data (VOP offset) are extracted from the bit stream input thereto and supplied to the image reconstruction unit 73 (FIG. 16).

【0180】キー信号復号部82または画像信号復号部
83では、キー信号情報、または動きおよびテクスチャ
の情報それぞれが復号され、その結果得られるキー信
号、またはVOPの画像データ(輝度信号および色差信
号)が、画像再構成部73に供給される。
The key signal decoder 82 or the image signal decoder 83 decodes the key signal information or the motion and texture information, respectively, and obtains the resulting key signal or VOP image data (luminance signal and color difference signal). Is supplied to the image reconstruction unit 73.

【0181】なお、図3のキー信号符号化部12におい
て、キー信号を、画像信号符号化部11において検出さ
れた動きベクトルにしたがって動き補償することによ
り、その符号化を行った場合には、画像信号復号部83
において画像を復号するのに用いた動きベクトルは、キ
ー信号復号部82に供給され、これにより、キー信号復
号部82では、その動きベクトルを用いて、キー信号の
復号が行われる。
When the key signal is encoded by the key signal encoder 12 shown in FIG. 3 by performing motion compensation on the key signal according to the motion vector detected by the image signal encoder 11, Image signal decoding unit 83
Are supplied to the key signal decoding unit 82, and the key signal decoding unit 82 decodes the key signal using the motion vector.

【0182】次に、図18は、スケーラビリティを実現
する、図16のVOP復号部72nの構成例を示してい
る。
Next, FIG. 18 shows a configuration example of the VOP decoding unit 72n of FIG. 16 for realizing scalability.

【0183】逆多重化部71(図16)から供給される
ビットストリームは、逆多重化部91に入力され、そこ
で、上位レイヤのVOPのビットストリームと、下位レ
イヤのVOPのビットストリームとに分離される。上位
レイヤのVOPのビットストリームは、遅延回路92に
おいて、下位レイヤ復号部95における処理の時間だけ
遅延された後、上位レイヤ復号部93に供給され、ま
た、下位レイヤのVOPのビットストリームは、下位レ
イヤ復号部95に供給される。
The bit stream supplied from the demultiplexing section 71 (FIG. 16) is input to the demultiplexing section 91, where the bit stream is separated into an upper layer VOP bit stream and a lower layer VOP bit stream. Is done. The bit stream of the VOP of the upper layer is supplied to the upper layer decoding unit 93 after being delayed by the processing time of the lower layer decoding unit 95 in the delay circuit 92, and the bit stream of the VOP of the lower layer is This is supplied to the layer decoding unit 95.

【0184】下位レイヤ復号部95では、下位レイヤの
ビットストリームが復号され、その結果得られる下位レ
イヤの復号画像およびキー信号が解像度変換部94に供
給される。また、下位レイヤ復号部95は、下位レイヤ
のビットストリームを復号することにより得られるサイ
ズデータFSZ_B、オフセットデータFPOS_B、
動きベクトル(MV)、予測モード、フラグCODなど
の、上位レイヤのVOPを復号するのに必要な情報を、
上位レイヤ復号部93に供給する。
The lower layer decoding section 95 decodes the bit stream of the lower layer, and supplies the resulting decoded image and key signal of the lower layer to the resolution conversion section 94. Further, the lower layer decoding unit 95 outputs size data FSZ_B, offset data FPOS_B, and the like obtained by decoding the bit stream of the lower layer.
Information necessary for decoding a higher layer VOP, such as a motion vector (MV), a prediction mode, and a flag COD,
This is supplied to the upper layer decoding unit 93.

【0185】上位レイヤ復号部93では、遅延回路92
を介して供給される上位レイヤのビットストリームが、
下位レイヤ復号部95および解像度変換部94の出力を
必要に応じて参照することにより復号化され、その結果
得られる上位レイヤの復号画像、キー信号、サイズデー
タFSZ_E、およびオフセットデータFPOS_Eが
出力される。さらに、上位レイヤ復号部93は、上位レ
イヤのビットストリームを復号することにより得られる
倍率FRを、解像度変換部94に出力する。解像度変換
部94では、上位レイヤ復号部93からの倍率FRを用
いて、図4における解像度変換部24における場合と同
様にして、下位レイヤの復号画像が変換される。この変
換により得られる拡大画像は、上位レイヤ復号部93に
供給され、上述したように、上位レイヤのビットストリ
ームの復号に用いられる。
In the upper layer decoding section 93, the delay circuit 92
The upper layer bit stream provided via
The output is decoded by referring to the outputs of the lower layer decoding unit 95 and the resolution conversion unit 94 as necessary, and the resulting decoded image, key signal, size data FSZ_E, and offset data FPOS_E of the upper layer are output. . Further, the upper layer decoding unit 93 outputs the magnification FR obtained by decoding the bit stream of the upper layer to the resolution conversion unit 94. The resolution conversion unit 94 converts the decoded image of the lower layer using the magnification FR from the upper layer decoding unit 93 in the same manner as in the case of the resolution conversion unit 24 in FIG. The enlarged image obtained by this conversion is supplied to the upper layer decoding unit 93, and is used for decoding the bit stream of the upper layer as described above.

【0186】次に、図19は、図18の下位レイヤ復号
部95の構成例を示している。なお、図中、図43のデ
コーダにおける場合と対応する部分については、同一の
符号を付してある。即ち、下位レイヤ復号部95は、キ
ー信号復号部108が新たに設けられている他は、図4
3のデコーダと基本的に同様に構成されている。
Next, FIG. 19 shows a configuration example of the lower layer decoding section 95 in FIG. Note that, in the figure, parts corresponding to those in the decoder in FIG. 43 are denoted by the same reference numerals. That is, the lower layer decoding unit 95 is different from the one shown in FIG.
3 is basically the same as the decoder of FIG.

【0187】逆多重化部91からの下位レイヤのビット
ストリームは、バッファ101に供給されて記憶され
る。IVLC器102は、その後段のブロックの処理状
態に対応して、バッファ101からビットストリームを
適宜読み出し、そのビットストリームを可変長復号化す
ることで、量子化係数、動きベクトル、予測モード、量
子化ステップ、キー信号の符号化データ、サイズデータ
FSZ_B、オフセットデータFPOS_B、およびフ
ラグCODなどを分離する。量子化係数および量子化ス
テップは、逆量子化器103に供給され、動きベクトル
および予測モードは、動き補償器107と上位レイヤ復
号部93(図18)に供給される。また、サイズデータ
FSZ_BおよびオフセットデータFPOS_Bは、動
き補償器107、キー信号復号部108、画像再構成部
73(図16)、および上位レイヤ復号部93に供給さ
れ、フラグCODは、上位レイヤ復号部93に供給され
る。さらに、キー信号の符号化データは、キー信号復号
部108に供給される。
[0187] The bit stream of the lower layer from the demultiplexing section 91 is supplied to the buffer 101 and stored. The IVLC unit 102 appropriately reads out a bit stream from the buffer 101 in accordance with the processing state of the subsequent block, and performs variable length decoding on the bit stream to obtain a quantization coefficient, a motion vector, a prediction mode, a quantization mode, Steps, encoded data of key signals, size data FSZ_B, offset data FPOS_B, flag COD, and the like are separated. The quantization coefficient and the quantization step are supplied to the inverse quantizer 103, and the motion vector and the prediction mode are supplied to the motion compensator 107 and the upper layer decoding unit 93 (FIG. 18). The size data FSZ_B and the offset data FPOS_B are supplied to the motion compensator 107, the key signal decoding unit 108, the image reconstruction unit 73 (FIG. 16), and the upper layer decoding unit 93, and the flag COD is set to the upper layer decoding unit. 93. Further, the encoded data of the key signal is supplied to the key signal decoding unit 108.

【0188】逆量子化器103、IDCT器104、演
算器105、フレームメモリ106、または動き補償器
107では、図11の下位レイヤ符号化部25の逆量子
化器38、IDCT器39、演算器40、フレームメモ
リ41、または動き補償器42における場合とそれぞれ
同様の処理が行われることで、下位レイヤのVOPが復
号され、画像再構成部73、上位レイヤ復号部93、お
よび解像度変換部94(図18)に供給される。
In the inverse quantizer 103, the IDCT unit 104, the arithmetic unit 105, the frame memory 106, or the motion compensator 107, the inverse quantizer 38, the IDCT unit 39, and the arithmetic unit of the lower layer encoding unit 25 in FIG. 40, the frame memory 41, or the motion compensator 42, the same processing is performed, whereby the lower layer VOP is decoded, and the image reconstruction unit 73, the upper layer decoding unit 93, and the resolution conversion unit 94 ( 18).

【0189】また、キー信号復号部108では、やはり
図11の下位レイヤ符号化部25のキー信号復号部44
における場合と同様の処理が行われることで、キー信号
の符号化データが復号され、その結果得られるキー信号
が、画像再構成部73、上位レイヤ復号部93、および
解像度変換部94に供給される。
In the key signal decoding section 108, the key signal decoding section 44 of the lower layer coding section 25 in FIG.
Is performed, the encoded data of the key signal is decoded, and the resulting key signal is supplied to the image reconstruction unit 73, the upper layer decoding unit 93, and the resolution conversion unit 94. You.

【0190】次に、図20は、図18の上位レイヤ復号
部93の構成例を示している。なお、図中、図43にお
ける場合と対応する部分については、同一の符号を付し
てある。即ち、上位レイヤ復号部93は、キー信号復号
部111およびフレームメモリ112が新たに設けられ
ている他は、基本的に、図43のエンコーダと同様に構
成されている。
Next, FIG. 20 shows a configuration example of the upper layer decoding section 93 of FIG. Note that, in the figure, parts corresponding to the case in FIG. 43 are denoted by the same reference numerals. That is, the upper layer decoding unit 93 is basically configured in the same manner as the encoder in FIG. 43 except that a key signal decoding unit 111 and a frame memory 112 are newly provided.

【0191】逆多重化部91からの上位レイヤのビット
ストリームは、バッファ101を介してIVLC器10
2に供給される。IVLC器102は、上位レイヤのビ
ットストリームを可変長復号化することで、量子化係
数、動きベクトル、予測モード、量子化ステップ、キー
信号の符号化データ、サイズデータFSZ_E、オフセ
ットデータFPOS_E、倍率FR、フラグref_l
ayer_id,ref_select_code,C
OD,MODBなどを分離する。量子化係数および量子
化ステップは、図19における場合と同様に、逆量子化
器103に供給され、動きベクトルおよび予測モード
は、動き補償器107に供給される。また、サイズデー
タFSZ_EおよびオフセットデータFPOS_Eは、
動き補償器107、キー信号復号部108、および画像
再構成部73(図16)に供給され、フラグCOD,M
ODB,ref_layer_id、およびref_s
elect_codeは、動きベクトル検出器107に
供給される。さらに、キー信号の符号化データは、キー
信号復号部111に供給され、倍率FRは、動き補償器
107および解像度変換部94(図18)に供給され
る。
The bit stream of the higher layer from the demultiplexer 91 is supplied to the IVLC unit 10 via the buffer 101.
2 is supplied. The IVLC unit 102 performs variable-length decoding on the bit stream of the upper layer to obtain a quantization coefficient, a motion vector, a prediction mode, a quantization step, encoded data of a key signal, size data FSZ_E, offset data FPOS_E, and a scaling factor FR. , Flag ref_l
ayer_id, ref_select_code, C
OD, MODB, etc. are separated. As in the case of FIG. 19, the quantization coefficient and the quantization step are supplied to the inverse quantizer 103, and the motion vector and the prediction mode are supplied to the motion compensator 107. The size data FSZ_E and the offset data FPOS_E are
The signals are supplied to the motion compensator 107, the key signal decoding unit 108, and the image reconstructing unit 73 (FIG. 16).
ODB, ref_layer_id, and ref_s
The select_code is supplied to the motion vector detector 107. Further, the encoded data of the key signal is supplied to the key signal decoding unit 111, and the magnification FR is supplied to the motion compensator 107 and the resolution conversion unit 94 (FIG. 18).

【0192】なお、動き補償器107には、上述したデ
ータの他、下位レイヤ復号部95(図18)から、下位
レイヤの動きベクトル、フラグCOD、サイズデータF
SZ_B、およびオフセットデータFPOS_Bが供給
されるようになされている。また、フレームメモリ11
2には、解像度変換部94から拡大画像が供給される。
In addition to the data described above, the motion compensator 107 receives the motion vector, flag COD, and size data F of the lower layer from the lower layer decoding unit 95 (FIG. 18).
SZ_B and offset data FPOS_B are supplied. Also, the frame memory 11
2 is supplied with an enlarged image from the resolution conversion unit 94.

【0193】逆量子化器103、IDCT器104、演
算器105、フレームメモリ106、動き補償器10
7、またはフレームメモリ112では、図12の上位レ
イヤ符号化部23の逆量子化器38、IDCT器39、
演算器40、フレームメモリ41、動き補償器42、ま
たはフレームメモリ52における場合とそれぞれ同様の
処理が行われることで、上位レイヤのVOPが復号さ
れ、画像再構成部73に供給される。
Inverse quantizer 103, IDCT unit 104, arithmetic unit 105, frame memory 106, motion compensator 10
7 or the frame memory 112, the inverse quantizer 38, the IDCT unit 39,
By performing the same processing as in the arithmetic unit 40, the frame memory 41, the motion compensator 42, or the frame memory 52, the VOP of the upper layer is decoded and supplied to the image reconstruction unit 73.

【0194】また、キー信号復号部111では、やはり
図12の上位レイヤ符号化部23のキー信号復号部53
における場合と同様の処理が行われることで、キー信号
の符号化データが復号され、その結果得られるキー信号
が、画像再構成部73に供給される。
The key signal decoding section 111 also includes the key signal decoding section 53 of the upper layer coding section 23 shown in FIG.
Is performed, the encoded data of the key signal is decoded, and the resulting key signal is supplied to the image reconstruction unit 73.

【0195】ここで、以上のように構成される上位レイ
ヤ復号部93および下位レイヤ復号部95を有するVO
P復号部72nにおいては、上位レイヤについての復号
画像、キー信号、サイズデータFSZ_E、およびオフ
セットデータFPOS_E(以下、適宜、これらをすべ
て含めて、上位レイヤデータという)と、下位レイヤに
ついての上位レイヤについての復号画像、キー信号、サ
イズデータFSZ_B、およびオフセットデータFPO
S_B(以下、適宜、これらをすべて含めて、下位レイ
ヤデータという)が得られるが、画像再構成部73で
は、この上位レイヤデータまたは下位レイヤデータか
ら、例えば、次のようにして画像が再構成されるように
なされている。
Here, a VO having upper layer decoding section 93 and lower layer decoding section 95 configured as described above is provided.
In the P decoding unit 72n, the decoded image, the key signal, the size data FSZ_E, and the offset data FPOS_E (hereinafter, all of which are appropriately referred to as upper layer data) for the upper layer and the upper layer for the lower layer Image, key signal, size data FSZ_B, and offset data FPO
S_B (hereinafter referred to as “lower layer data” as appropriate, including all of them) is obtained. The image reconstructing unit 73 reconstructs an image from the upper layer data or the lower layer data as follows, for example. It has been made to be.

【0196】即ち、例えば、第1の空間スケーラビリテ
ィ(図5)が行われた場合(入力されたVOP全体が上
位レイヤとされるとともに、そのVOP全体を縮小した
ものが下位レイヤされた場合)において、下位レイヤデ
ータおよび上位レイヤデータの両方のデータが復号され
たときには、画像再構成部73は、上位レイヤデータの
みに基づき、サイズデータFSZ_Eに対応する大きさ
の上位レイヤの復号画像(VOP)を、必要に応じて、
そのキー信号で抜き出し、オフセットデータFPOS_
Eによって示される位置に配置する。また、例えば、上
位レイヤのビットストリームにエラーが生じたり、ま
た、モニタ74が、低解像度の画像にしか対応していな
いため、下位レイヤデータのみの復号が行われたときに
は、画像再構成部73は、その下位レイヤデータのみに
基づき、サイズデータFSZ_Bに対応する大きさの上
位レイヤの復号画像(VOP)を、必要に応じて、その
キー信号で抜き出し、オフセットデータFPOS_Bに
よって示される位置に配置する。
That is, for example, when the first spatial scalability (FIG. 5) is performed (when the entire input VOP is set as the upper layer and a reduced version of the VOP is set as the lower layer) When both the lower layer data and the upper layer data are decoded, the image reconstructing unit 73 generates a decoded image (VOP) of the upper layer having a size corresponding to the size data FSZ_E based on only the upper layer data. ,If necessary,
Extracted by the key signal, the offset data FPOS_
Place at the location indicated by E. Further, for example, when an error occurs in the bit stream of the upper layer, or when the monitor 74 supports only low-resolution images, decoding of only the lower layer data is performed. Extracts a decoded image (VOP) of the upper layer having a size corresponding to the size data FSZ_B based on only the lower layer data, if necessary, with the key signal and arranges the decoded image at the position indicated by the offset data FPOS_B. .

【0197】また、例えば、第2の空間スケーラビリテ
ィ(図6)が行われた場合(入力されたVOPの一部が
上位レイヤとされるとともに、そのVOP全体を縮小し
たものが下位レイヤとされた場合)において、下位レイ
ヤデータおよび上位レイヤデータの両方のデータが復号
されたときには、画像再構成部73は、サイズデータF
SZ_Bに対応する大きさの下位レイヤの復号画像を、
倍率FRにしたがって拡大し、その拡大画像を生成す
る。さらに、画像再構成部73は、オフセットデータF
POS_BをFR倍し、その結果得られる値に対応する
位置に、拡大画像を配置する。そして、画像再構成部7
3は、サイズデータFSZ_Eに対応する大きさの上位
レイヤの復号画像を、オフセットデータFPOS_Eに
よって示される位置に配置する。
Further, for example, when the second spatial scalability (FIG. 6) is performed (a part of the input VOP is set as an upper layer, and a reduced whole of the VOP is set as a lower layer). In the case, when both the lower layer data and the upper layer data are decoded, the image reconstructing unit 73 outputs the size data F
A decoded image of a lower layer having a size corresponding to SZ_B is
The image is enlarged according to the magnification FR, and an enlarged image is generated. Further, the image reconstructing unit 73 outputs the offset data F
POS_B is multiplied by FR, and the enlarged image is arranged at a position corresponding to the value obtained as a result. Then, the image reconstruction unit 7
No. 3 arranges the decoded image of the upper layer of the size corresponding to the size data FSZ_E at the position indicated by the offset data FPOS_E.

【0198】この場合、上位レイヤの復号画像の部分
が、それ以外の部分に比較して高い解像度で表示される
ことになる。
In this case, the decoded image portion of the upper layer is displayed with a higher resolution than the other portions.

【0199】なお、上位レイヤの復号画像を配置する場
合、その復号画像と、拡大画像とは合成されることにな
るが、この合成は、上位レイヤのキー信号を用いて行わ
れる。
When the decoded image of the upper layer is arranged, the decoded image and the enlarged image are combined, and this combination is performed using the key signal of the upper layer.

【0200】また、図18(図16)には図示しなかっ
たが、上位レイヤ復号部93(VOP復号部72n)か
ら画像再構成部73に対しては、上述したデータの他、
倍率FRも供給されるようになされており、画像再構成
部73は、これを用いて、拡大画像を生成するようにな
されている。
Although not shown in FIG. 18 (FIG. 16), the upper layer decoding unit 93 (VOP decoding unit 72n) sends the image reconstruction unit 73
The magnification FR is also supplied, and the image reconstruction unit 73 generates an enlarged image using the magnification FR.

【0201】一方、第2の空間スケーラビリティが行わ
れた場合において、下位レイヤデータのみが復号された
ときには、上述の第1の空間スケーラビリティが行われ
た場合と同様にして、画像が再構成される。
On the other hand, when only the lower layer data is decoded in the case where the second spatial scalability is performed, an image is reconstructed in the same manner as in the case where the first spatial scalability is performed. .

【0202】さらに、第3の空間スケーラビリティ(図
7、図8)が行われた場合(入力されたVOPを構成す
る物体ごとに、その物体全体を上位レイヤとするととも
に、その物体全体を間引いたものを下位レイヤとした場
合)においては、上述の第2の空間スケーラビリティが
行われた場合と同様にして、画像が再構成される。
Further, when the third spatial scalability (FIGS. 7 and 8) is performed (for each object constituting the input VOP, the entire object is set as an upper layer and the entire object is thinned out). In this case, the image is reconstructed in the same manner as when the above-described second spatial scalability is performed.

【0203】上述したように、オフセットデータFPO
S_BおよびFPOS_Eは、下位レイヤの拡大画像お
よび上位レイヤの画像を構成する、対応する画素どうし
が、絶対座標系において同一の位置に配置されるように
なっているため、以上のように画像を再構成すること
で、正確な(位置ずれのない)画像を得ることができ
る。
As described above, the offset data FPO
S_B and FPOS_E are such that the corresponding pixels constituting the enlarged image of the lower layer and the image of the upper layer are arranged at the same position in the absolute coordinate system. With this configuration, an accurate (no displacement) image can be obtained.

【0204】次に、スケーラビリティにおけるシンタク
スについて、例えば、MPEG4VM(Verification M
odel)を例に説明する。
Next, regarding syntax in scalability, for example, MPEG4VM (Verification M
odel) will be described as an example.

【0205】図21は、スケーラビリティの符号化によ
って得られるビットストリームの構成を示している。
FIG. 21 shows the configuration of a bit stream obtained by scalability encoding.

【0206】ビットストリームは、VS(Video Sessio
n Class)を単位として構成され、各VSは、1以上の
VO(Video Object Class)から構成される。そして、
VOは、1以上のVOL(Video Object Layer Class)
から構成され(画像を階層化しないときは1のVOLで
構成され、画像を階層化する場合には、その階層数だけ
のVOLで構成される)、VOLは、VOPから構成さ
れる。
The bit stream is VS (Video Sessio)
n Class), and each VS is composed of one or more VOs (Video Object Classes). And
VO is one or more VOL (Video Object Layer Class)
(When the image is not hierarchized, it is composed of one VOL, and when the image is hierarchized, it is composed of the VOL of the number of layers), and the VOL is composed of the VOL.

【0207】図22または図23は、VSまたはVOの
シンタクスをそれぞれ示している。VOは、画像全体ま
たは画像の一部(物体)のシーケンスに対応するビット
ストリームであり、従って、VSは、そのようなシーケ
ンスの集合で構成される(よって、VSは、例えば、一
本の番組に相当する)。
FIG. 22 or FIG. 23 shows the syntax of VS or VO, respectively. A VO is a bit stream corresponding to a sequence of an entire image or a part (object) of an image, and thus a VS is composed of a set of such sequences (so that a VS is, for example, a single program). Equivalent).

【0208】図24は、VOLのシンタクスを示してい
る。
FIG. 24 shows the syntax of a VOL.

【0209】VOLは、スケーラビリティのためのクラ
スであり、video_object_layer_id(図24において、
A1で示す部分)で示される番号によって識別される。
即ち、例えば、下位レイヤのVOLについてのvideo_ob
ject_layer_idは0とされ、また、例えば、上位レイヤ
のVOLについてのvideo_object_layer_idは1とされ
る。なお、上述したように、スケーラブルのレイヤの数
は2に限られることなく、3以上の任意とすることがで
きる。
[0209] VOL is a class for scalability, and video_object_layer_id (in FIG. 24,
A1)).
That is, for example, video_ob for the VOL of the lower layer
ject_layer_id is set to 0, and for example, video_object_layer_id for the VOL of the upper layer is set to 1. Note that, as described above, the number of scalable layers is not limited to two, but may be any number of three or more.

【0210】また、各VOLについて、それが画像全体
であるのか、画像の一部であるのかは、video_object_l
ayer_shape(図24において、A2で示す部分)で識別
される。このvideo_object_layer_shapeは、VOLの形
状を示すフラグで、例えば、以下のように設定される。
[0210] For each VOL, whether it is an entire image or a part of the image is determined by video_object_l.
It is identified by ayer_shape (portion indicated by A2 in FIG. 24). The video_object_layer_shape is a flag indicating the shape of the VOL, and is set, for example, as follows.

【0211】即ち、VOLの形状が長方形状であると
き、video_object_layer_shapeは、例えば「00」とさ
れる。また、VOLが、ハードキー(0または1のうち
のいずれか一方の値をとる2値(Binary)の信号)によ
って抜き出される領域の形状をしているとき、video_ob
ject_layer_shapeは、例えば「01」とされる。さら
に、VOLが、ソフトキー(0乃至1の範囲の連続した
値(Gray-Scale)をとることが可能な信号)によって抜
き出される領域の形状をしているとき(ソフトキーを用
いて合成されるものであるとき)、video_object_layer
_shapeは、例えば「10」とされる。
That is, when the VOL has a rectangular shape, video_object_layer_shape is set to “00”, for example. When the VOL has a shape of an area extracted by a hard key (a binary (Binary) signal having one of 0 or 1), video_ob
ject_layer_shape is, for example, “01”. Further, when the VOL is in the shape of an area extracted by a soft key (a signal capable of taking a continuous value (Gray-Scale) in the range of 0 to 1) (combined using the soft key) Video_object_layer)
_shape is, for example, “10”.

【0212】ここで、video_object_layer_shapeが「0
0」とされるのは、VOLの形状が長方形状であり、か
つ、そのVOLの絶対座標形における位置および大きさ
が、時間とともに変化しない、即ち、一定の場合であ
る。なお、この場合、その大きさ(横の長さと縦の長
さ)は、video_object_layer_widthとvideo_object_lay
er_height(図24において、A7で示す部分)によっ
て示される。video_object_layer_widthおよびvideo_ob
ject_layer_heightは、いずれも10ビットの固定長の
フラグで、video_object_layer_shapeが「00」の場合
には、最初に、一度だけ伝送される(これは、video_ob
ject_layer_shapeが「00」の場合、上述したように、
VOLの絶対座標系における大きさが一定であるからで
ある)。
Here, video_object_layer_shape is set to “0”.
It is set to "0" when the VOL has a rectangular shape and the position and size of the VOL in the absolute coordinate form do not change with time, that is, are constant. In this case, the sizes (horizontal length and vertical length) are video_object_layer_width and video_object_lay
er_height (portion indicated by A7 in FIG. 24). video_object_layer_width and video_ob
The ject_layer_height is a 10-bit fixed-length flag. When video_object_layer_shape is “00”, it is transmitted only once first (this is video_ob
When ject_layer_shape is “00”, as described above,
This is because the size of the VOL in the absolute coordinate system is constant.)

【0213】また、VOLが、下位レイヤまたは上位レ
イヤのうちのいずれであるかは、1ビットのフラグであ
るscalability(図24において、A3で示す部分)に
よって示される。VOLが下位レイヤの場合、scalabil
ityは、例えば1とされ、それ以外の場合、scalability
は、例えば0とされる。
Further, whether the VOL is a lower layer or an upper layer is indicated by scalability (portion indicated by A3 in FIG. 24) which is a 1-bit flag. When VOL is a lower layer, scalabil
ity is, for example, 1; otherwise, scalability
Is set to 0, for example.

【0214】さらに、VOLが、自身以外のVOLにお
ける画像を参照画像として用いる場合、その参照画像が
属するVOLは、上述したように、ref_layer_id(図2
4において、A4で示す部分)で表される。なお、ref_
layer_idは、上位レイヤについてのみ伝送される。
Further, when the VOL uses an image in a VOL other than itself as a reference image, the VOL to which the reference image belongs is, as described above, ref_layer_id (FIG. 2).
4, the portion indicated by A4). Note that ref_
layer_id is transmitted only for the upper layer.

【0215】また、図24においてA5で示すhor_samp
ling_factor_nとhor_sampling_factor_mは、下位レイヤ
のVOPの水平方向の長さに対応する値と、上位レイヤ
のVOPの水平方向の長さに対応する値をそれぞれ示
す。従って、下位レイヤに対する上位レイヤの水平方向
の長さ(水平方向の解像度の倍率)は、式hor_sampling
_factor_n/hor_sampling_factor_mで与えられる。
Also, hor_samp indicated by A5 in FIG.
ling_factor_n and hor_sampling_factor_m indicate a value corresponding to the horizontal length of the VOP of the lower layer and a value corresponding to the horizontal length of the VOP of the upper layer, respectively. Therefore, the horizontal length (horizontal resolution magnification) of the upper layer with respect to the lower layer is expressed by the formula hor_sampling.
Given as _factor_n / hor_sampling_factor_m.

【0216】さらに、図24においてA6で示すver_sa
mpling_factor_nとver_sampling_factor_mは、下位レイ
ヤのVOPの垂直方向の長さに対応する値と、上位レイ
ヤのVOPの垂直方向の長さに対応する値をそれぞれ示
す。従って、下位レイヤに対する上位レイヤの垂直方向
の長さ(垂直方向の解像度の倍率)は、式ver_sampling
_factor_n/ver_sampling_factor_mで与えられる。
Further, ver_sa indicated by A6 in FIG.
mpling_factor_n and ver_sampling_factor_m indicate a value corresponding to the vertical length of the lower layer VOP and a value corresponding to the vertical length of the upper layer VOP, respectively. Therefore, the vertical length (magnification of the vertical resolution) of the upper layer with respect to the lower layer is calculated by the expression ver_sampling.
Given as _factor_n / ver_sampling_factor_m.

【0217】次に、図25は、VOP(Video Object P
lane Class)のシンタクスを示している。
FIG. 25 shows a VOP (Video Object P).
lane Class).

【0218】VOPの大きさ(横と縦の長さ)は、例え
ば、10ビット固定長のVOP_widthとVOP_height(図2
5において、B1で示す部分)で表される。また、VO
Pの絶対座標系における位置は、例えば、10ビット固
定長のVOP_horizontal_spatial_mc_ref(図25におい
て、B2で示す部分)とVOP_vertical_mc_ref(図25
において、B3で示す部分)で表される。なお、VOP_wi
dthまたはVOP_heightは、VOPの水平方向または垂直
方向の長さをそれぞれ表し、これらは、上述のサイズデ
ータFSZ_BやFSZ_Eに相当する。また、VOP_ho
rizontal_spatial_mc_refまたはVOP_vertical_mc_ref
は、VOPの水平方向または垂直方向の座標(xまたは
y座標)をそれぞれ表し、これらは、上述のオフセット
データFPOS_BやFPOS_Eに相当する。
The VOP size (horizontal and vertical lengths) is, for example, VOP_width and VOP_height (FIG. 2) having a fixed length of 10 bits.
5, the portion indicated by B1). Also, VO
The positions of P in the absolute coordinate system are, for example, VOP_horizontal_spatial_mc_ref (portion indicated by B2 in FIG. 25) and VOP_vertical_mc_ref (FIG. 25) having a fixed length of 10 bits.
, The portion indicated by B3). VOP_wi
dth or VOP_height represents the length of the VOP in the horizontal or vertical direction, respectively, and corresponds to the size data FSZ_B or FSZ_E described above. Also, VOP_ho
rizontal_spatial_mc_ref or VOP_vertical_mc_ref
Represents the horizontal or vertical coordinates (x or y coordinates) of the VOP, respectively, and corresponds to the above-described offset data FPOS_B and FPOS_E.

【0219】VOP_width,VOP_height,VOP_horizontal_
spatial_mc_ref、およびVOP_vertical_mc_refは、video
_object_layer_shapeが「00」以外の場合にのみ伝送
される。即ち、video_object_layer_shapeが「00」の
場合、上述したように、VOPの大きさおよび位置はい
ずれも一定であるから、VOP_width,VOP_height,VOP_h
orizontal_spatial_mc_ref、およびVOP_vertical_mc_re
fは伝送する必要がない。この場合、受信側では、VO
Pは、その左上の頂点が、例えば、絶対座標系の原点に
一致するように配置され、また、その大きさは、図24
で説明したvideo_object_layer_widthおよびvideo_obje
ct_layer_heightから認識される。
VOP_width, VOP_height, VOP_horizontal_
spatial_mc_ref and VOP_vertical_mc_ref are video
It is transmitted only when _object_layer_shape is other than “00”. That is, when the video_object_layer_shape is “00”, as described above, since the size and position of the VOP are all constant, the VOP_width, VOP_height, and VOP_h
orizontal_spatial_mc_ref, and VOP_vertical_mc_re
f need not be transmitted. In this case, on the receiving side, VO
P is arranged such that its upper left vertex coincides with, for example, the origin of the absolute coordinate system.
Video_object_layer_width and video_obje described in
Recognized from ct_layer_height.

【0220】図25においてB4で示すref_select_cod
eは、図15で説明したように、参照画像として用いる
画像を表すもので、同図に示すように、VOPのシンタ
クスにおいて規定されている。
Ref_select_cod indicated by B4 in FIG.
e represents an image used as a reference image as described in FIG. 15, and is specified in the VOP syntax as shown in FIG.

【0221】次に、図26は、VOP(Video Object P
lane Class)のシンタクスの他の例を示している。
FIG. 26 shows a VOP (Video Object P).
lane Class) is shown.

【0222】この実施の形態においても、図25におけ
る場合と同様に、VOPの大きさおよび位置に関する情
報は、video_object_layer_shapeが「00」以外の場合
に伝送される。
In this embodiment, as in the case of FIG. 25, information on the size and position of the VOP is transmitted when the video_object_layer_shape is other than “00”.

【0223】但し、この実施の形態では、video_object
_layer_shapeが「00」以外の場合、今回伝送するVO
Pの大きさが、前回伝送したVOPの大きさと等しいか
どうかを示す1ビットのフラグload_VOP_size(図26
において、C1で示す部分)が伝送される。このload_V
OP_sizeは、今回のVOPの大きさが、直前に復号化さ
れるVOPの大きさと等しい場合、または等しくない場
合、例えば、それぞれ0または1とされる。
However, in this embodiment, video_object
_layer_shape is other than "00", VO to be transmitted this time
26. A 1-bit flag load_VOP_size (FIG. 26) indicating whether the size of P is equal to the size of the previously transmitted VOP.
, The portion indicated by C1) is transmitted. This load_V
OP_size is set to 0 or 1, for example, when the size of the current VOP is equal to or not equal to the size of the VOP decoded immediately before.

【0224】そして、load_VOP_sizeが0の場合、VOP_w
idth,VOP_height(図26において、C2で示す部分)
は伝送されず、また、load_VOP_sizeが1の場合のみ、V
OP_width,VOP_heightは伝送される。ここで、VOP_widt
h,VOP_heightは、図25で説明したものと同様のもの
である。
When load_VOP_size is 0, VOP_w
idth, VOP_height (part indicated by C2 in FIG. 26)
Is not transmitted, and only when load_VOP_size is 1,
OP_width and VOP_height are transmitted. Where VOP_widt
h and VOP_height are the same as those described in FIG.

【0225】なお、図25や図26において、VOP_widt
hまたはVOP_heightとしては、今回のVOPの横の長さ
または縦の長さと、直前に復号されるVOPの横の長さ
または縦の長さとの差分値(以下、適宜、大きさ差分と
いう)それぞれを用いることが可能である。
In FIGS. 25 and 26, VOP_widt
As h or VOP_height, a difference between the horizontal or vertical length of the current VOP and the horizontal or vertical length of the VOP to be decoded immediately before (hereinafter, appropriately referred to as a size difference), respectively Can be used.

【0226】実際の画像では、VOPの大きさが変化す
る頻度はそれほど多くなく、従って、load_VOP_sizeが
1の場合のみ、VOP_width,VOP_heightを伝送するよう
にすることで、冗長なビットを削減することが可能とな
る。また、大きさ差分を用いる場合には、さらに、情報
量の低減化を図ることが可能となる。
In an actual image, the frequency at which the size of a VOP changes is not so high. Therefore, only when load_VOP_size is 1, VOP_width and VOP_height are transmitted to reduce redundant bits. It becomes possible. When the size difference is used, the amount of information can be further reduced.

【0227】なお、大きさ差分を用いる場合、その算出
は、図11および図12におけるVLC器36において
行われ、さらに、このVLC器36では、大きさ差分
が、例えば可変長符号化されて出力される。また、この
場合、図19および図20のIVLC器102では、大
きさ差分と、直前に復号されたVOPの大きさとを加算
することで、今回復号するVOPの大きさが認識され
る。
When the size difference is used, the calculation is performed in the VLC unit 36 shown in FIGS. 11 and 12, and the VLC unit 36 converts the size difference into, for example, a variable-length code and outputs the result. Is done. In this case, the IVLC unit 102 in FIGS. 19 and 20 recognizes the size of the VOP to be decoded this time by adding the size difference and the size of the VOP decoded immediately before.

【0228】一方、VOPの位置に関する情報について
は、絶対座標系における座標そのものではなく、今回の
VOPの座標と直前に復号されるVOP(前回のVO
P)の座標との差分値(以下、適宜、位置差分という)
が、diff_VOP_horizontal_ref,diff_VOP_vertical_ref
(図26において、C3で示す部分)によって伝送され
る。
On the other hand, the information regarding the position of the VOP is not the coordinates themselves in the absolute coordinate system, but the coordinates of the current VOP and the VOP decoded immediately before (the previous VOP).
A difference value from the coordinates of P) (hereinafter, referred to as a position difference as appropriate)
Is diff_VOP_horizontal_ref, diff_VOP_vertical_ref
(The portion indicated by C3 in FIG. 26).

【0229】ここで、直前に復号されるVOPの絶対座
標系におけるxまたはy座標をVOP_horizontal_mc_spat
ial_ref_prevまたはVOP_vertical_mc_spatial_ref_prev
と表すとき、diff_VOP_horizontal_refまたはdiff_VOP_
vertical_refは、図11および図12におけるVLC器
36において、図25に示したVOP_hirizontal_mc_spat
ial_refまたはVOP_vertical_mc_spatial_refを用い、次
式にしたがって、それぞれ計算される。
Here, the x or y coordinate of the immediately preceding VOP in the absolute coordinate system is represented by VOP_horizontal_mc_spat
ial_ref_prev or VOP_vertical_mc_spatial_ref_prev
Is expressed as diff_VOP_horizontal_ref or diff_VOP_
The vertical_ref is the VOP_hirizontal_mc_spat shown in FIG. 25 in the VLC unit 36 in FIGS.
ial_ref or VOP_vertical_mc_spatial_ref is calculated according to the following equation.

【0230】diff_VOP_horizontal_ref=VOP_hirizontal
_mc_spatial_ref -VOP_horizontal_mc_spatial_ref_prev diff_VOP_vertical_ref=VOP_vertical_mc_spatial_ref -VOP_vertical_mc_spatial_ref_prev
[0230] diff_VOP_horizontal_ref = VOP_hirizontal
_mc_spatial_ref -VOP_horizontal_mc_spatial_ref_prev diff_VOP_vertical_ref = VOP_vertical_mc_spatial_ref -VOP_vertical_mc_spatial_ref_prev

【0231】なお、図11および図12におけるVLC
器36では、diff_VOP_horizontal_ref,diff_VOP_vert
ical_refは、それぞれ可変長符号化されて出力される。
The VLC shown in FIGS. 11 and 12
In the device 36, diff_VOP_horizontal_ref, diff_VOP_vert
ical_ref is output after being subjected to variable-length coding.

【0232】即ち、VLC器36では、まず、diff_VOP
_horizontal_refまたはdiff_VOP_vertical_refに対応し
て、図26においてC4で示す位置に配置されるdiff_s
ize_horizontalまたはdiff_size_verticalが、図27に
示すテーブルにしたがって求められ、可変長符号(Cod
e)にそれぞれ変換される。さらに、VLC器36で
は、diff_VOP_horizontal_refまたはdiff_VOP_vertical
_refが、diff_size_horizontalまたはdiff_size_vertic
alに対応して、図28に示すテーブルにしたがって可変
長符号(Code)にそれぞれ変換される。そして、このよ
うに可変長符号に変換されたdiff_VOP_horizontal_re
f,diff_VOP_vertical_ref,diff_size_horizontal、お
よびdiff_size_verticalが、他のデータに多重化されて
伝送される。
That is, in the VLC unit 36, first, diff_VOP
diff_s arranged at the position indicated by C4 in FIG. 26 corresponding to _horizontal_ref or diff_VOP_vertical_ref
ize_horizontal or diff_size_vertical is obtained according to the table shown in FIG.
e) respectively. Further, in the VLC unit 36, diff_VOP_horizontal_ref or diff_VOP_vertical
_ref is diff_size_horizontal or diff_size_vertic
Al is converted into a variable-length code (Code) according to the table shown in FIG. Then, the diff_VOP_horizontal_re converted to the variable length code
f, diff_VOP_vertical_ref, diff_size_horizontal, and diff_size_vertical are multiplexed with other data and transmitted.

【0233】この場合、図19および図20のIVLC
器102では、diff_size_horizontalまたはdiff_size_
verticalから、diff_VOP_horizontal_refまたはdiff_VO
P_vertical_refの可変長符号の長さが認識され、その認
識結果に基づいて、それぞれ可変長復号される。
In this case, the IVLC shown in FIGS.
In the device 102, diff_size_horizontal or diff_size_
From vertical, diff_VOP_horizontal_ref or diff_VO
The length of the variable-length code of P_vertical_ref is recognized, and each variable-length code is decoded based on the recognition result.

【0234】以上のように、位置差分を伝送する場合に
おいは、図25における場合に比較して、やはり情報量
を低減することが可能となる。
As described above, in transmitting the position difference, the amount of information can be reduced as compared with the case in FIG.

【0235】なお、図26においてC5で示すref_sele
ct_codeは、図25で説明したものと同様のものであ
る。
The ref_sele shown by C5 in FIG.
ct_code is the same as that described with reference to FIG.

【0236】次に、図29は、マクロブロックのシンタ
クスを示している。
Next, FIG. 29 shows the syntax of a macroblock.

【0237】まず、図29(A)は、IまたはPピクチ
ャ(VOP)を構成するマクロブロックのシンタクスを
示しており、先頭のfirst_MMR_codeの後
に配置されるフラグCODは、そのCODより後に配置
されているデータがあるかどうかを示す。
First, FIG. 29A shows the syntax of a macroblock constituting an I or P picture (VOP). A flag COD placed after the first_MMR_code at the beginning is placed after that COD. Indicates whether there is data available.

【0238】即ち、図11の下位レイヤ符号化部25お
よび図12の上位レイヤ符号化部23を構成するVLC
器36は、IまたはPピクチャを構成するマクロブロッ
クについて得られるDCT係数(DCT係数の量子化結
果)が、すべて0であり、かつその動きベクトルが0の
とき、そのIまたはPピクチャのマクロブロックをスキ
ップマクロブロックとし、この場合、CODを1とす
る。従って、CODが1の場合には、そのマクロブロッ
クについて伝送すべきデータが存在しないため、フラグ
CODより後のデータは伝送されない。
That is, the VLCs constituting lower layer coding section 25 in FIG. 11 and upper layer coding section 23 in FIG.
When the DCT coefficients (quantization results of the DCT coefficients) obtained for the macroblocks constituting the I or P picture are all 0 and the motion vector is 0, the macroblock of the I or P picture Is a skip macro block, and in this case, COD is 1. Therefore, when COD is 1, there is no data to be transmitted for the macroblock, and data after the flag COD is not transmitted.

【0239】一方、IまたはPピクチャのDCT係数
に、0以外のAC成分が存在するとき、VLC器36で
は、フラグCODが0とされ、その後に続くデータが必
要に応じて伝送される。なお、フラグCODの後に配置
されるMCBPCは、マクロブロックのタイプを示すも
ので、このMCBPCにしたがって、それに続く必要な
データが伝送される。
On the other hand, when an AC component other than 0 exists in the DCT coefficient of the I or P picture, the VLC unit 36 sets the flag COD to 0, and the subsequent data is transmitted as necessary. The MCBPC arranged after the flag COD indicates the type of the macroblock, and necessary data following the MCBPC is transmitted according to the MCBPC.

【0240】ここで、Iピクチャがスキップマクロブロ
ックとなる場合は、基本的にはないので、Iピクチャに
ついてのCODは伝送されない(伝送しないようにする
ことができる)。
Here, there is basically no case where an I picture is a skipped macroblock, so that the COD for the I picture is not transmitted (it can be prevented from being transmitted).

【0241】次に、図29(B)は、Bピクチャ(VO
P)を構成するマクロブロックのシンタクスを示してお
り、先頭のfirst_MMR_codeの後に配置さ
れるフラグMODBは、図29(A)におけるフラグC
ODに対応し、そのMODBより後に配置されているデ
ータがあるかどうか、即ち、Bピクチャのマクロブロッ
クのタイプを表す。
Next, FIG. 29 (B) shows a B picture (VO
P) indicates the syntax of the macroblocks constituting P), and the flag MODB arranged after the first first_MMR_code is the flag CDB in FIG.
It indicates whether there is data arranged after the MODB corresponding to the OD, that is, indicates the type of macroblock of the B picture.

【0242】図11および図12のVLC器36では、
MODBは、例えば、図30に示すような可変長符号に
符号化されて伝送される。
In the VLC unit 36 shown in FIGS. 11 and 12,
The MODB is, for example, encoded into a variable length code as shown in FIG. 30 and transmitted.

【0243】即ち、本実施の形態では、MODBを可変
長符号化するためのテーブル(可変長符号化するための
テーブルは、その可変長符号を可変長復号化するために
も用いられるので、以下、適宜、その両方を含めて可変
長テーブルという)として、図30(A)および図30
(B)に示す2種類が用意されており、図30(A)の
可変長テーブル(以下、適宜、MODBテーブルAとい
う)においては、MODBについて3つの可変長符号
が、また、図30(B)の可変長テーブル(以下、適
宜、MODBテーブルBという)においては、MODB
について2つの可変長符号が割り当てられている。
That is, in the present embodiment, a table for variable-length encoding of the MODB (the table for variable-length encoding is also used for variable-length decoding of the variable-length code. 30 (A) and 30 (A) and FIG. 30 (A) and FIG.
Two types shown in (B) are prepared. In the variable length table of FIG. 30A (hereinafter referred to as MODB table A as appropriate), three variable length codes for MODB are provided. ) In the variable length table (hereinafter referred to as MODB table B as appropriate)
Are assigned two variable length codes.

【0244】図11および図12のVLC器36は、M
ODBテーブルAを用いる場合、Bピクチャを構成する
マクロブロックが、それが復号されるまでに復号され
る、他のフレームのマクロブロックについてのデータ
(量子化係数や動きベクトルなど)だけを用いて復号す
ることができるか、または、その直前に復号されるIま
たはPピクチャの、対応する位置におけるマクロブロッ
ク(いま処理をしようとしているBピクチャのマクロブ
ロックの位置と同一の位置にあるIまたはPピクチャの
マクロブロック)がスキップマクロブロックであるとき
(CODが1のとき)、そのBピクチャのマクロブロッ
クをスキップマクロブロックとし、MODBを0とす
る。そして、この場合、MBTYPEおよびCBPBを
含む、MODBより後のデータは伝送されない。
The VLC unit 36 shown in FIGS.
When the ODB table A is used, a macroblock constituting a B picture is decoded using only data (a quantization coefficient, a motion vector, and the like) of a macroblock of another frame which is decoded before the macroblock is decoded. Or the macroblock at the corresponding position of the I or P picture decoded immediately before (the I or P picture at the same position as the macroblock position of the B picture currently being processed) ) Is a skipped macroblock (when COD is 1), the macroblock of the B picture is set to a skipped macroblock, and MODB is set to 0. Then, in this case, data after the MODB, including MBTYPE and CBPB, is not transmitted.

【0245】また、マクロブロックについてのDCT係
数(量子化されたDCT係数)がすべて、例えば0など
の同一の値であるが、そのマクロブロックについての動
きベクトルが存在する場合(動きベクトルを伝送する必
要がある場合)、MODBは「10」とされ、その後に
続くMBTYPEが伝送される。
If the DCT coefficients (quantized DCT coefficients) of a macroblock all have the same value, for example, 0, etc., but a motion vector exists for the macroblock (the motion vector is transmitted). If necessary), the MODB is set to “10”, and the subsequent MBTYPE is transmitted.

【0246】さらに、マクロブロックについての少なく
とも1つのDCT係数が0でなく(DCT係数が存在
し)、そのマクロブロックについての動きベクトルが存
在する場合、MODBは「11」とされ、その後に続く
MBTYPEおよびCBPBが伝送される。
Further, if at least one DCT coefficient for a macroblock is not 0 (DCT coefficient is present) and a motion vector is present for the macroblock, MODB is set to “11”, and the following MBTYPE And CBPB are transmitted.

【0247】ここで、MBTYPEは、マクロブロック
の予測モードおよびそのマクロブロックに含まれるデー
タ(フラグ)を示すものであり、また、CBPBは、マ
クロブロック中のどのブロックにDCT係数が存在する
かを示す6ビットのフラグである。即ち、マクロブロッ
クは、図31に示すように、4個の輝度信号についての
8×8画素のブロックと、色差信号Cb,Crについて
の8×8画素のブロックとの合計で6個のブロックで構
成され、図11および図12のDCT器34では、この
ブロックごとにDCT処理が施されるが、図11および
図12のVLC器36では、6ビットのCBPBの各ビ
ットが、6個のブロックそれぞれにおけるDCT係数が
存在するかどうかで0または1とされる。
Here, MBTYPE indicates the prediction mode of the macroblock and data (flag) included in the macroblock, and CBPB indicates which block in the macroblock has the DCT coefficient. This is a 6-bit flag. That is, as shown in FIG. 31, the macro block is a total of six blocks of a block of 8 × 8 pixels for four luminance signals and a block of 8 × 8 pixels for color difference signals Cb and Cr. The DCT unit 34 of FIGS. 11 and 12 performs DCT processing for each block. In the VLC unit 36 of FIGS. 11 and 12, each bit of the 6-bit CBPB is divided into six blocks. It is set to 0 or 1 depending on whether a DCT coefficient exists in each case.

【0248】具体的には、マクロブロックを構成する6
個のブロックについて、例えば、図31に示すように、
1乃至6のブロック番号が設定されているものとする
と、VLC器36は、例えば、CBPBの第Nビット
(ここでは、例えば、最下位ビットを第1ビットとし、
最上位ビットを第6ビットとする)を、ブロック番号N
のブロックにDCT係数が存在しない場合に0とし、存
在する場合に1とする。従って、CBPBが0(「00
0000」)である場合、そのマクロブロックについて
のDCT係数は存在しないことを意味する。
Specifically, the macro block 6
For example, as shown in FIG. 31,
Assuming that block numbers 1 to 6 are set, the VLC unit 36, for example, sets the N-th bit of CBPB (here, for example, the least significant bit is the first bit,
The most significant bit is the sixth bit) and the block number N
Is set to 0 when no DCT coefficient exists in the block, and set to 1 when the DCT coefficient exists. Therefore, CBPB is 0 (“00
0000 ”), it means that there is no DCT coefficient for that macroblock.

【0249】一方、図11および図12のVLC器36
において、MODBテーブルB(図30(B))が用い
られる場合、MODBは、MODBテーブルAが用いら
れる場合に「10」または「11」とされるときに、そ
れぞれ「0」または「10」とされる。従って、MOD
BテーブルBが用いられる場合は、スキップマクロブロ
ックは生じない。
On the other hand, the VLC unit 36 shown in FIGS.
In the case where the MODB table B (FIG. 30B) is used, when the MODB table A is used, when the MODB table A is set to “10” or “11”, the MODB is “0” or “10”, respectively. Is done. Therefore, MOD
When B table B is used, no skip macroblock occurs.

【0250】次に、MBTYPEは、図11および図1
2のVLC器36において、例えば、図32に示すよう
な可変長符号に符号化されて伝送される。
Next, MBTYPE is shown in FIG. 11 and FIG.
In the second VLC unit 36, for example, it is encoded into a variable length code as shown in FIG. 32 and transmitted.

【0251】即ち、本実施の形態では、MBTYPEの
ための可変長テーブルとして、図32(A)および図3
2(B)に示す2種類が用意されており、図32(A)
の可変長テーブル(以下、適宜、MBTYPEテーブル
Aという)においては、MBTYPEについて4つの可
変長符号が、また、図32(B)の可変長テーブル(以
下、適宜、MBTYPEテーブルBという)において
は、MBTYPEについて3つの可変長符号が割り当て
られている。
That is, in the present embodiment, a variable length table for MBTYPE is used as shown in FIG.
2 (B) are prepared, and FIG. 32 (A)
In the variable length table (hereinafter, appropriately referred to as MBTYPE table A), four variable length codes for MBTYPE, and in the variable length table of FIG. 32B (hereinafter, appropriately referred to as MBTYPE table B), Three variable length codes are assigned to MBTYPE.

【0252】図11および図12のVLC器36は、M
BTYPEテーブルAを用いる場合、予測モードが双方
向予測符号化モード(Interpolate MC + Q)であるとき
には、MBTYPEを「01」に可変長符号化する。そ
して、この場合、DQUANT,MVDf,MVDbが伝
送される。ここで、DQUANTは量子化ステップを、
MVDfまたはMVDbは前方向予測または後方向予測
に用いられる動きベクトルをそれぞれ示す。なお、DQ
UANTとしては、量子化ステップそのものではなく、
今回の量子化ステップと前回の量子化ステップとの差分
を用いることが可能である。
The VLC unit 36 shown in FIGS.
When the BTYPE table A is used, when the prediction mode is the bidirectional prediction encoding mode (Interpolate MC + Q), MBTYPE is subjected to variable-length encoding to “01”. Then, in this case, DQUANT, MVDf, and MVDb are transmitted. Here, DQUANT represents the quantization step,
MVDf or MVDb indicates a motion vector used for forward prediction or backward prediction, respectively. Note that DQ
As a UANT, not the quantization step itself,
It is possible to use the difference between the current quantization step and the previous quantization step.

【0253】また、予測モードが後方予測符号化モード
(Backward MC + Q)であるときには、MBTYPEは
「001」に可変長符号化され、DQUANT,MVD
bが伝送される。
When the prediction mode is the backward prediction coding mode (Backward MC + Q), MBTYPE is variable-length coded to “001”, and DQUANT, MVD
b is transmitted.

【0254】さらに、予測モードが前方予測符号化モー
ド(Forward MC + Q)であるときには、MBTYPEは
「0001」に可変長符号化され、DQUANT,MV
Dfが伝送される。
Further, when the prediction mode is the forward prediction coding mode (Forward MC + Q), MBTYPE is variable-length coded to "0001", and DQUANT, MV
Df is transmitted.

【0255】また、予測モードがH.263に規定され
ているダイレクトモード(Direct codingモード)であ
るときには、MBTYPEは「1」とされ、MVDBが
伝送される。
If the prediction mode is H.264, In the direct mode (Direct coding mode) defined in H.263, MBTYPE is set to “1” and MVDB is transmitted.

【0256】ここで、上述の場合においては、インター
符号化モードとして、前方予測符号化モード、後方予測
符号化モード、および両方光予測モードの3種類につい
てしか説明しなかったが、MPEG4では、この3種類
に、ダイレクトモードを加えた4種類が規定されてお
り、従って、図11および図12の動きベクトル検出器
32では、Bピクチャについては、例えば、イントラ符
号化モード、前方予測符号化モード、後方予測符号化モ
ード、両方向予測モード、またはダイレクトモードのう
ちの、予測誤差を最も少なくするものが予測モードとし
て設定されるようになされている。なお、ダイレクトモ
ードについての詳細は後述する。
Here, in the above-described case, only three types of inter-coding modes, ie, forward prediction coding mode, backward prediction coding mode, and both-light prediction mode, have been described. Four types are defined by adding the direct mode to the three types. Therefore, in the motion vector detector 32 in FIGS. 11 and 12, for the B picture, for example, the intra coding mode, the forward prediction coding mode, Among the backward prediction coding mode, the bidirectional prediction mode, and the direct mode, the one that minimizes the prediction error is set as the prediction mode. The details of the direct mode will be described later.

【0257】一方、図11および図12のVLC器36
において、MBTYPEテーブルB(図32(B))が
用いられる場合、MBTYPEは、MPTYPEテーブ
ルAが用いられる場合に「01」、「001」、または
「0001」とされるときに、それぞれ「1」、「0
1」、または「001」とされる。従って、MBTYP
EテーブルBが用いられる場合は、予測モードとしてダ
イレクトモードは設定されない。
On the other hand, the VLC unit 36 shown in FIGS.
In the case where the MBTYPE table B (FIG. 32 (B)) is used, the MBTYPE is set to “1” when it is set to “01”, “001”, or “0001” when the MPTYPE table A is used. , "0
1 "or" 001 ". Therefore, MBTYP
When the E table B is used, the direct mode is not set as the prediction mode.

【0258】次に、図33を参照して、ダイレクトモー
ドについて説明する。
Next, the direct mode will be described with reference to FIG.

【0259】例えば、いま、VOP0,VOP1,VO
P2,VOP3の順で表示される4つのVOPが存在
し、VOP0およびVOP3がPピクチャ(P−VO
P)で、VOP1およびVOP2がBピクチャ(B−V
OP)であるとする。また、VOP0,VOP1,VO
P2およびVOP3は、VOP0,VOP3,VOP
1,VOP2の順で符号化/復号化されるものとする。
For example, now, VOP0, VOP1, VO
There are four VOPs displayed in the order of P2 and VOP3, and VOP0 and VOP3 are P pictures (P-VO
P), VOP1 and VOP2 are B pictures (BV
OP). VOP0, VOP1, VO
P2 and VOP3 are VOP0, VOP3, VOP
It is assumed that encoding / decoding is performed in the order of 1, VOP2.

【0260】以上のような条件下において、例えば、V
OP1のダイレクトモードでの予測符号化は、次のよう
に行われる。
Under the above conditions, for example, V
The predictive encoding in the direct mode of OP1 is performed as follows.

【0261】即ち、VOP1の直前に符号化(復号化)
されるPピクチャ、即ち、図33の実施の形態ではVO
P3において、これから符号化しようとするVOP1の
マクロブロック(符号化対象マクロブロック)と同一位
置にあるマクロブロック(対応マクロブロック)につい
ての動きベクトルをMVとするとき、ダイレクトモード
においては、この動きベクトルMVおよび所定のベクト
ルMVDBから、符号化対象マクロブロックを前方予測
符号化するための動きベクトルMVFと、後方予測符号
化するための動きベクトルMVBが、次式にしたがって
計算される。
That is, encoding (decoding) is performed immediately before VOP1.
33, that is, VO in the embodiment of FIG.
In P3, when a motion vector of a macroblock (corresponding macroblock) located at the same position as a macroblock of VOP1 to be encoded (encoding target macroblock) is MV, in the direct mode, this motion vector From the MV and the predetermined vector MVDB, a motion vector MVF for forward predictive coding of the current macroblock and a motion vector MVB for backward predictive coding are calculated according to the following equations.

【0262】 MVF=(TRB×MV)/TRD+MVDB MVB=(TRB−TRD)×MV/TRD 但し、動きベクトルMVBが上式により計算されるの
は、ベクトルMVDBが0の場合で、このベクトルMV
DBが0でない場合には、動きベクトルMVBは次式に
したがって計算される。 MVB=MVF−MV なお、TRBは、VOP1から、その直前に表示される
IまたはPピクチャ(図33の実施の形態ではVOP
0)までの距離を表し、TRDは、表示順で、VOP1
の直前と直後にあるIまたはPピクチャ(図33の実施
の形態ではVOP0とVOP3)の間隔を表す。
MVF = (TRB × MV) / TRD + MVDB MVB = (TRB−TRD) × MV / TRD However, the motion vector MVB is calculated by the above equation when the vector MVDB is 0 and the vector MV
If DB is not 0, the motion vector MVB is calculated according to the following equation. MVB = MVF-MV Note that TRB starts from VOP1 and is an I or P picture displayed immediately before (VOP1 in the embodiment of FIG. 33).
0), and TRD represents VOP1 in the display order.
Represents the interval between I or P pictures (VOP0 and VOP3 in the embodiment of FIG. 33) immediately before and immediately after.

【0263】図11および図12の動きベクトル検出器
32は、BピクチャのVOPについては、ベクトルMV
DBを種々の値に変化させ(但し、ベクトルMVDB
は、動きベクトルMVと方向が同一のベクトル)、例え
ば、上式にしたがって得られる動きベクトルMVFおよ
びMVBを用いて予測符号化を行うことにより生じる予
測誤差が、イントラ符号化モード、前方予測符号化モー
ド、後方予測符号化モード、および両方向予測モードの
うちのいずれのものよりも小さいとき、予測モードとし
てダイレクトモードを設定する。
The motion vector detector 32 shown in FIGS. 11 and 12 calculates the vector MV for the VOP of the B picture.
DB to various values (however, the vector MVDB
Is a vector having the same direction as the motion vector MV). For example, a prediction error generated by performing predictive coding using the motion vectors MVF and MVB obtained according to the above equation is different from an intra coding mode, a forward predictive coding. When it is smaller than any one of the mode, the backward prediction coding mode, and the bidirectional prediction mode, the direct mode is set as the prediction mode.

【0264】なお、図33の実施の形態においては、T
RB=1,TRD=3とされており、従って、動きベク
トルMVFは、MV/3+MVDBで与えられる。ま
た、動きベクトルMVBは、MVDBが0のときは2M
V/3で、MVDBが0でないときは−2MV/3+M
VDBで与えられる。
In the embodiment shown in FIG. 33, T
Since RB = 1 and TRD = 3, the motion vector MVF is given by MV / 3 + MVDB. The motion vector MVB is 2M when MVDB is 0.
At V / 3, when MVDB is not 0, -2MV / 3 + M
Provided in VDB.

【0265】ところで、予測モードがダイレクトモード
とされた場合においては、符号化対象マクロブロックの
符号化/復号化に、最も最近に符号化/復号化されるP
ピクチャ(図33の実施の形態ではVOP3)における
対応マクロブロックの動きベクトルMVが必要となる。
By the way, when the prediction mode is the direct mode, the most recently encoded / decoded P is used for encoding / decoding of the current macroblock.
A motion vector MV of a corresponding macroblock in a picture (VOP3 in the embodiment of FIG. 33) is required.

【0266】しかしながら、VOPは、その大きさおよ
び位置が変化する場合があり(上述したように、video_
object_layer_shapeが「10」または「01」の場
合)、この場合、対応マクロブロックが存在するとは限
らない。従って、大きさや位置が変化するVOPを対象
とした符号化/復号化を行う場合においては、無条件に
ダイレクトモードを使用したのでは、処理をすることが
できなくなる状態が生じることになる。
However, the size and position of the VOP may change (as described above,
When the object_layer_shape is “10” or “01”), in this case, the corresponding macroblock does not always exist. Therefore, in the case of performing encoding / decoding for a VOP whose size or position changes, if the direct mode is used unconditionally, a state occurs in which processing cannot be performed.

【0267】そこで、本実施の形態では、ダイレクトモ
ードは、符号化対象マクロブロックを有するVOP(B
ピクチャのVOP)が、最も最近に復号されるPピクチ
ャのVOPと、その大きさが同一である場合のみ使用可
能とする。具体的には、上述したVOP_widthおよびVOP_h
eightで表されるVOPの大きさが変化しない場合の
み、ダイレクトモードの使用を許可するようにする。
Therefore, in the present embodiment, the direct mode is a VOP (BOP) having a macroblock to be encoded.
(VOP of the picture) is the same as the VOP of the P picture to be decoded most recently. Specifically, VOP_width and VOP_h described above
Only when the size of the VOP represented by eight does not change, the use of the direct mode is permitted.

【0268】従って、ダイレクトモードに対応するMB
TYPEの可変長符号が定義されているMBTYPEテ
ーブルAは、基本的には、符号化対象マクロブロックを
有するBピクチャのVOPの大きさと、最も最近に復号
されるPピクチャのVOPの大きさとが同一である場合
にのみ用いられる。
Therefore, the MB corresponding to the direct mode
In the MBTYPE table A in which the variable-length code of TYPE is defined, the size of the VOP of the B picture having the macroblock to be coded is basically the same as the size of the VOP of the most recently decoded P picture. Used only when

【0269】なお、MODBテーブルA(図30
(A))は、MPEG4において規定されており、ま
た、このMODBテーブルAを用いる場合においては、
MODBが「0」のときであって、図15で説明したre
f_select_codeが「00」でないときは、予測モードを
ダイレクトモードとすることが規定されている。従っ
て、MODBテーブルAも、基本的には、符号化対象マ
クロブロックを有するBピクチャのVOPの大きさと、
最も最近に復号されるPピクチャのVOPの大きさとが
同一である場合にのみ用いられる。
The MODB table A (FIG. 30)
(A)) is defined in MPEG4, and when this MODB table A is used,
When the MODB is “0” and the re
When f_select_code is not “00”, it is defined that the prediction mode is the direct mode. Therefore, the MODB table A also basically has the size of the VOP of the B picture having the encoding-target macroblock,
It is used only when the size of the VOP of the most recently decoded P picture is the same.

【0270】以上から、MODBテーブルAおよびMB
TYPEテーブルAが用いられる場合、MODBが
「0」か、または、MBTYPEが「1」のとき、予測
モードはダイレクトモードとなる。
As described above, the MODB tables A and MB
When TYPE table A is used, when MODB is “0” or MBTYPE is “1”, the prediction mode is the direct mode.

【0271】なお、video_object_layer_shapeが「0
0」の場合は、VOPの大きさは変化しないため、この
場合も、MODBテーブルAおよびMBTYPEテーブ
ルAが用いられることになる。
[0271] Note that the video_object_layer_shape is set to "0".
In the case of “0”, the size of the VOP does not change, so that the MODB table A and the MBTYPE table A are used in this case as well.

【0272】一方、符号化対象マクロブロックを有する
BピクチャのVOPの大きさと、最も最近に復号される
PピクチャのVOPの大きさとが異なる場合、ダイレク
トモードを使用することができないので、MBTYPE
は、MBTYPEテーブルB(図32(B))を用いて
可変長符号化/可変長復号化される。
On the other hand, if the VOP size of the B picture having the macroblock to be coded is different from the VOP size of the most recently decoded P picture, the direct mode cannot be used.
Is subjected to variable-length encoding / variable-length decoding using the MBTYPE table B (FIG. 32B).

【0273】また、符号化対象マクロブロックを有する
BピクチャのVOPの大きさと、最も最近に復号される
PピクチャのVOPの大きさとが異なる場合、少なくと
もMPTYPEは伝送する必要があるので、即ち、MB
TYPEおよびCBPBの両方を伝送せずに済むことは
ないので、MODBは、MBTYPEおよびCBPBの
両方を転送しない場合が定義されているMODBテーブ
ルA(図30(A))ではなく、そのような場合が定義
されていないMODBテーブルB(図30(B))を用
いて可変長符号化/可変長復号化される。
If the VOP size of the B picture having the macroblock to be coded is different from the VOP size of the most recently decoded P picture, at least MPTYPE must be transmitted, that is, MB
Since it is not necessary to transmit both TYPE and CBPB, the MODB is not the MODB table A (FIG. 30 (A)) in which it is defined that both MBTYPE and CBPB are not transmitted. Is variable-length encoded / variable-length decoded using a MODB table B (FIG. 30B) in which is not defined.

【0274】以上のように、VOPの大きさの変化に対
応して、用いる可変長テーブルを選択(変更)すること
で、その符号化の結果得られるデータのデータ量を低減
することが可能となる。
As described above, by selecting (changing) the variable length table to be used in response to a change in the size of the VOP, it is possible to reduce the amount of data obtained as a result of the encoding. Become.

【0275】即ち、MODBテーブルA(図30
(A))だけを用いた場合、MODBが1ビットの可変
長符号にされる場合が1通りと、2ビットの可変長符号
にされる場合が2通りだけ存在する。一方、MODBテ
ーブルB(図30(B))を用いた場合、MODBが1
ビットの可変長符号にされる場合が1通りと、2ビット
の可変長符号にされる場合が1通りだけ存在する。従っ
て、MODBテーブルAおよびBの両方を用いる場合、
MODBテーブルAだけを用いる場合に比較して、MO
DBが2ビットの可変長符号にされる頻度が減少し、そ
の結果、データ量を低減することができる。
That is, the MODB table A (FIG. 30)
When only (A)) is used, there are only one case where the MODB is changed to a 1-bit variable length code and two cases where the MODB is changed to a 2-bit variable length code. On the other hand, when the MODB table B (FIG. 30B) is used, the MODB is 1
There is only one case where a variable length code is used for bits, and only one case where a variable length code is used for two bits. Therefore, when using both the MODB tables A and B,
Compared to the case where only the MODB table A is used, the MO
The frequency at which the DB is changed to a 2-bit variable length code is reduced, and as a result, the data amount can be reduced.

【0276】同様に、MBTYPEテーブルA(図32
(A))によれば、MBTYPEが最長で4ビットの可
変長符号にされる場合があるが、MBTYPEテーブル
B(図32(B))では、MBTYPEは、最長でも3
ビットの可変長符号にしかされない。従って、やはり、
データ量を低減することができる。
Similarly, MBTYPE table A (FIG. 32)
According to (A)), the MBTYPE may be a variable-length code of 4 bits at the longest, but in the MBTYPE table B (FIG. 32B), the MBTYPE is 3 at the longest.
It is only a variable length code of bits. Therefore,
The amount of data can be reduced.

【0277】ところで、以上のように、複数のMODB
テーブルやMBTYPEテーブルを用いる場合、下位レ
イヤと、ref_select_codeが「00」以
外となっている上位レイヤとについては問題ないが、r
ef_select_codeが「00」となっている
上位レイヤについては、次のような問題が生じる。
By the way, as described above, a plurality of MODBs
When a table or MBTYPE table is used, there is no problem with the lower layer and the upper layer whose ref_select_code is other than “00”.
The following problem occurs in the upper layer in which ef_select_code is “00”.

【0278】即ち、上位レイヤにおいて、Bピクチャの
処理対象マクロブロックについてのフラグref_se
lect_codeが「00」である場合というのは、
図34に示すように、その処理対象マクロブロックを、
同一レイヤ(ここでは上位レイヤ)におけるIまたはP
ピクチャと、そのレイヤと異なるレイヤ(ここでは下位
レイヤ)の同一時刻における画像(拡大画像)とが、必
要に応じて、参照画像として用いられる場合である(図
15)。
That is, in the upper layer, the flag ref_se for the macroblock to be processed of the B picture
When the select_code is “00”,
As shown in FIG. 34, the macro block to be processed is
I or P in the same layer (here upper layer)
In this case, a picture and an image (enlarged image) at the same time of a layer different from the layer (lower layer here) at the same time are used as reference images as necessary (FIG. 15).

【0279】一方、ダイレクトモードは、時刻の異なる
2つのIまたはPピクチャの間にあるBピクチャを、そ
の直前に復号されるPピクチャの動きベクトルを用いて
予測符号化するものである。
On the other hand, in the direct mode, a B picture located between two I or P pictures at different times is predictively coded by using a motion vector of a P picture decoded immediately before.

【0280】従って、ref_select_code
が「00」の場合、ダイレクトモードは適用し得ないの
に、MBTYPEテーブルAが用いられるときには、予
測モードとして、ダイレクトモードが設定されることが
ある。
Therefore, ref_select_code
Is "00", the direct mode cannot be applied, but when the MBTYPE table A is used, the direct mode may be set as the prediction mode.

【0281】そこで、本実施の形態においては、上位レ
イヤにおいて、Bピクチャの処理対象マクロブロックに
ついてのフラグref_select_codeが「0
0」である場合、次のような第1または第2の方法のう
ちのいずれかによって、MBTYPEが可変長符号化/
可変長復号化されるようになされている。
Therefore, in the present embodiment, the flag ref_select_code for the macroblock to be processed of the B picture is set to “0” in the upper layer.
"0", the MBTYPE is set to the variable length encoding / coding by one of the following first or second methods:
Variable-length decoding is performed.

【0282】即ち、第1の方法では、上位レイヤにおい
て、Bピクチャの処理対象マクロブロックについてのフ
ラグref_select_codeが「00」である
場合は、MBTYPEテーブルAは用いられず、MBT
YPEテーブルBが用いられる。MBTYPEテーブル
Bには、上述したように、ダイレクトモードは定義され
ていないから、図34に示したような場合に、予測モー
ドとしてダイレクトモードが設定されることはない。
That is, in the first method, when the flag ref_select_code for the macroblock to be processed of the B picture is “00” in the upper layer, the MBTYPE table A is not used and the MBT table is not used.
YPE table B is used. As described above, since the MBTYPE table B does not define the direct mode, the direct mode is not set as the prediction mode in the case shown in FIG.

【0283】また、第2の方法では、ダイレクトモード
に準ずる予測モードとして、次のような準ダイレクトモ
ードを定義し、上位レイヤにおいて、Bピクチャの処理
対象マクロブロックについてのフラグref_sele
ct_codeが「00」である場合に、MBTYPE
テーブルAが用いられるときには、MBTYPEの可変
長符号「1」に、ダイレクトモードではなく、準ダイレ
クトモードを割り当てるようにする。
In the second method, the following quasi-direct mode is defined as a prediction mode similar to the direct mode, and the flag ref_sele for the macroblock to be processed of the B picture is defined in the upper layer.
If ct_code is “00”, MBTYPE
When the table A is used, not the direct mode but the quasi-direct mode is assigned to the variable-length code “1” of MBTYPE.

【0284】ここで、準ダイレクトモードにおいては、
図34に示した場合において、前方向予測は、下位レイ
ヤ(異なるレイヤ)の画像を倍率FRにしたがって拡大
した拡大画像を参照画像(予測参照画像)として行い、
また、後方予測は、上位レイヤ(同一レイヤ)の直前に
符号化(復号)された画像を参照画像として行う。
Here, in the quasi-direct mode,
In the case shown in FIG. 34, the forward prediction is performed by using an enlarged image obtained by enlarging the image of the lower layer (different layer) in accordance with the magnification FR as a reference image (prediction reference image).
In addition, backward prediction is performed using an image encoded (decoded) immediately before an upper layer (the same layer) as a reference image.

【0285】さらに、図35に示すように、前方予測の
参照画像とされる拡大画像における対応マクロブロック
(符号化対象のマクロブロックと同一位置にあるマクロ
ブロック)についての動きベクトルをMVとするとき、
後方予測に用いる動きベクトルMVBとして、次式で与
えられるベクトルを用いる。
Further, as shown in FIG. 35, when the motion vector of the corresponding macroblock (the macroblock located at the same position as the encoding-target macroblock) in the enlarged image used as the reference image for forward prediction is MV. ,
As the motion vector MVB used for backward prediction, a vector given by the following equation is used.

【0286】MVB=MV×FR+MVDBMVB = MV × FR + MVDB

【0287】即ち、下位レイヤの対応マクロブロックに
ついての動きベクトルMVをFR倍し、これに、ベクト
ルMVDBを加算したものを、後方予測の動きベクトル
MVBとして用いる。
That is, the motion vector MV for the corresponding macroblock in the lower layer is multiplied by FR, and the result obtained by adding the vector MVDB thereto is used as the motion vector MVB for backward prediction.

【0288】なお、この場合、動きベクトルMVBは伝
送されない。これは、動きベクトルMVBは、動きベク
トルMV、倍率FR、およびMVDBから得ることがで
きるためであり、従って、受信側(デコーダ側)では、
上位レイヤにおいて、Bピクチャの処理対象マクロブロ
ックについてのフラグref_select_code
が「00」である場合に、MBTYPEテーブルAを用
いて可変長復号化が行われるとき、MBTYPEが
「1」となっているマクロブロックの動きベクトルMV
Bは、下位レイヤの対応マクロブロックについての動き
ベクトルMV、倍率FR、およびベクトルMVDBから
求められる。
In this case, the motion vector MVB is not transmitted. This is because the motion vector MVB can be obtained from the motion vector MV, the scaling factor FR, and the MVDB. Therefore, on the receiving side (decoder side),
In an upper layer, a flag ref_select_code for a macroblock to be processed of a B picture
Is “00”, and when the variable length decoding is performed using the MBTYPE table A, the motion vector MV of the macroblock whose MBTYPE is “1”
B is obtained from the motion vector MV, magnification FR, and vector MVDB for the corresponding macroblock in the lower layer.

【0289】よって、この場合、いわば冗長なデータで
ある動きベクトルMVBが伝送されないので、符号化効
率を向上させることができる。
Thus, in this case, since the motion vector MVB, which is redundant data, is not transmitted, the coding efficiency can be improved.

【0290】次に、図36および図37のフローチャー
トを参照して、図11および図12のVLC器36、並
びに図19および図20のIVLC器102において用
いられる可変長テーブルの決定方法(MODBテーブル
AまたはBのうちのいずれを用いるのかと、MBTYP
EテーブルAまたはBのうちのいずれを用いるのかを決
定する方法)について説明する。
Next, referring to the flowcharts of FIGS. 36 and 37, a method of determining a variable length table (MODB table) used in the VLC unit 36 of FIGS. 11 and 12 and the IVLC unit 102 of FIGS. 19 and 20 will be described. Whether to use A or B, and MBTYP
A method of determining which of the E tables A and B is used) will be described.

【0291】図36は、下位レイヤについて用いる可変
長テーブルの決定方法を示している。
FIG. 36 shows a method of determining the variable length table used for the lower layer.

【0292】この場合、まず最初に、ステップS31に
おいて、VOPの大きさが変化しているかどうかが、例
えば、図25で説明したvideo_object_layer_shapeや、
VOP_width,VOP_height、あるいは図26で説明したloa
d_VOP_sizeなどを参照することにより判定される。ステ
ップS31において、VOPの大きさが変化していない
と判定された場合、ステップS32に進み、MODBテ
ーブルAおよびMBTYPEテーブルAを用いることが
決定され、処理を終了する。一方、ステップS31にお
いて、VOPの大きさが変化していると判定された場
合、ステップS33に進み、MODBテーブルBおよび
MBTYPEテーブルBを用いることが決定され、処理
を終了する。
In this case, first, in step S31, whether or not the size of the VOP has changed is determined by, for example, the video_object_layer_shape described in FIG.
VOP_width, VOP_height, or loa described in FIG.
It is determined by referring to d_VOP_size and the like. If it is determined in step S31 that the magnitude of the VOP has not changed, the process proceeds to step S32, where it is determined that the MODB table A and the MBTYPE table A are used, and the process ends. On the other hand, when it is determined in step S31 that the magnitude of the VOP has changed, the process proceeds to step S33, where it is determined that the MODB table B and the MBTYPE table B are used, and the process ends.

【0293】次に、図37は、上位レイヤについて用い
る可変長テーブルの決定方法を示している。
Next, FIG. 37 shows a method of determining the variable length table used for the upper layer.

【0294】この場合、まず最初に、ステップS41に
おいて、ref_select_codeが「00」であるかどうかが
判定される。ステップS41において、ref_select_cod
eが「00」であると判定された場合、即ち、処理しよ
うとしている上位レイヤのVOPについて、下位レイヤ
の同一時刻におけるVOPが参照画像として用いられる
場合、ステップS42に進み、MODBテーブルAおよ
びMBTYPEテーブルBを用いることが決定され、処
理を終了する。
In this case, first, in step S41, it is determined whether or not ref_select_code is “00”. In step S41, ref_select_cod
If e is determined to be “00”, that is, if the VOP of the lower layer at the same time is used as a reference image for the VOP of the upper layer to be processed, the process proceeds to step S42, where the MODB table A and the MBTYPE It is determined that the table B is to be used, and the process ends.

【0295】なお、この場合、準ダイレクトモードを使
用するときには、MBTYPEテーブルBではなく、M
BTYPEテーブルAを用いるように決定がなされる。
即ち、ステップS42では、第1の方法を適用するとき
はMBTYPEテーブルBが、また、第2の方法を適用
するときはMBTYPEテーブルAが選択される。
In this case, when the quasi-direct mode is used, instead of MBTYPE table B, M
A decision is made to use BTYPE table A.
That is, in step S42, the MBTYPE table B is selected when the first method is applied, and the MBTYPE table A is selected when the second method is applied.

【0296】一方、ステップS41において、ref_sele
ct_codeが「00」でないと判定された場合、ステップ
S43に進み、以下、ステップS43乃至S45におい
て、図36のステップS31乃至S33における場合と
同様の処理が行われることにより、用いるべきMODB
テーブルおよびMBTYPEテーブルが決定される。
On the other hand, in step S41, ref_sele
If it is determined that ct_code is not “00”, the process proceeds to step S43, and thereafter, in steps S43 to S45, the same processing as in steps S31 to S33 of FIG.
The table and the MBTYPE table are determined.

【0297】次に、図38乃至図40を参照して、図1
1の下位レイヤ符号化部25および図12の上位レイヤ
符号化部23、並びに図19の下位レイヤ復号部95お
よび図20の上位レイヤ復号部93におけるスキップマ
クロブロックの処理について説明する。
Next, referring to FIGS. 38 to 40, FIG.
The processing of the skip macroblock in the lower layer encoding unit 25 of FIG. 1 and the upper layer encoding unit 23 of FIG. 12, and the lower layer decoding unit 95 of FIG. 19 and the upper layer decoding unit 93 of FIG. 20 will be described.

【0298】なお、ここでは、上述したように、Iピク
チャのマクロブロックがスキップマクロブロックとなる
ことは基本的にはないものとし、従って、PおよびBピ
クチャを対象に説明を行う。
[0298] Here, as described above, it is basically assumed that the macroblock of the I picture is not a skipped macroblock, and therefore, the description will be given of P and B pictures.

【0299】また、MODBテーブルBが用いられる場
合も、上述したようにスキップマクロブロックが生じる
ことはないので、従って、スキップマクロブロックの処
理は、MODBテーブルAが用いられる場合にのみ行わ
れる。
Also, when the MODB table B is used, the skipped macroblock does not occur as described above. Therefore, the processing of the skipped macroblock is performed only when the MODB table A is used.

【0300】まず、図38は、図11の下位レイヤ符号
化部25、および図19の下位レイヤ復号部95におけ
るスキップマクロブロックの処理を説明するフローチャ
ートである。
First, FIG. 38 is a flow chart for explaining the processing of the skipped macroblock in the lower layer coding section 25 in FIG. 11 and the lower layer decoding section 95 in FIG.

【0301】まず最初に、ステップS1においては、処
理対象のマクロブロックが、PまたはBピクチャのうち
のいずれであるかが判定される。ステップS1におい
て、処理対象のマクロブロックが、Pピクチャであると
判定された場合、ステップS2に進み、そのマクロブロ
ックについてのCODが1であるかどうかが判定され
る。ステップS2において、処理対象のマクロブロック
についてのCODが1であると判定された場合、ステッ
プS3に進み、そのマクロブロックはスキップマクロブ
ロックであると決定され、そのように取り扱われる。即
ち、この場合、処理対象のマクロブロックの量子化係数
(DCT係数)はすべて0であるとされ、また、その動
きベクトルも0であるとされる。
First, in step S1, it is determined whether the macroblock to be processed is a P or B picture. If it is determined in step S1 that the macroblock to be processed is a P-picture, the process proceeds to step S2, where it is determined whether the COD of the macroblock is 1. If it is determined in step S2 that the COD of the macroblock to be processed is 1, the process proceeds to step S3, where the macroblock is determined to be a skipped macroblock, and is treated as such. That is, in this case, the quantization coefficients (DCT coefficients) of the macroblock to be processed are all zero, and the motion vectors are also zero.

【0302】また、ステップS2において、処理対象の
マクロブロックについてのCODが1でないと判定され
た場合、ステップS4に進み、そのマクロブロックは、
通常処理される。即ち、この場合、Pピクチャのマクロ
ブロックは、0以外のDCT係数を有し、または0以外
の動きベクトルを有するものとして扱われる。
If it is determined in step S2 that the COD of the macroblock to be processed is not 1, the process proceeds to step S4, where the macroblock is
Usually processed. That is, in this case, the macroblock of the P picture is treated as having a DCT coefficient other than 0 or having a motion vector other than 0.

【0303】一方、ステップS1において、処理対象の
マクロブロックがBピクチャであると判定された場合、
ステップS5に進み、そのBピクチャのマクロブロック
が復号される直前に復号されるIまたはPピクチャにお
いて、同一位置にあるマクロブロック(対応マクロブロ
ック)のCODが1であるかどうかが判定される。ステ
ップS5において、処理対象のマクロブロックについて
の対応マクロブロックのCODが1であると判定された
場合、ステップS6に進み、その処理対象のマクロブロ
ックは、スキップマクロブロックであると決定され、そ
のように取り扱われる。
On the other hand, if it is determined in step S1 that the macroblock to be processed is a B picture,
Proceeding to step S5, it is determined whether the COD of the macroblock (corresponding macroblock) at the same position is 1 in the I or P picture decoded immediately before the macroblock of the B picture is decoded. If it is determined in step S5 that the COD of the corresponding macroblock for the macroblock to be processed is 1, the process proceeds to step S6, where the macroblock to be processed is determined to be a skip macroblock. Will be dealt with.

【0304】即ち、いま、処理すべき画像(VOP)と
して、例えば、図40(A)に示すように、I/P(I
/Pは、IまたはPピクチャを意味する),B,I/P
というシーケンスで表示されるものがあり、これらは、
同図(A)において、最も左のI/P、最も右のI/
P、左から2番目のBの順で符号化/復号化されるもの
とする。さらに、いま、左から2番目のBピクチャのマ
クロブロックが処理の対象となっているものとする。
That is, as an image (VOP) to be processed, for example, as shown in FIG.
/ P means I or P picture), B, I / P
Are displayed in the sequence
In FIG. 3A, the leftmost I / P and the rightmost I / P
It is assumed that encoding / decoding is performed in the order of P and the second B from the left. Further, it is assumed that the macroblock of the second B picture from the left is to be processed.

【0305】この場合、最も右のI/Pピクチャは、最
も左のI/Pピクチャを参照画像として用いて符号化/
復号化されることになる。従って、処理対象のBピクチ
ャのマクロブロックについての、最も右のI/Pピクチ
ャの対応マクロブロックのCODが1である場合、即
ち、その対応マクロブロックがスキップマクロブロック
である場合、最も左のI/Pピクチャから最も右のI/
Pピクチャまでの間には、画像の変化がなかったことに
なる。そこで、上述したように、処理対象のマクロブロ
ックがBピクチャであり、かつ、その対応マクロブロッ
クのCODが1のときは、その処理対象のマクロブロッ
クはスキップマクロブロックとされる。
In this case, the rightmost I / P picture is encoded / coded using the leftmost I / P picture as a reference image.
Will be decrypted. Therefore, when the COD of the corresponding macroblock of the rightmost I / P picture of the macroblock of the B picture to be processed is 1, that is, when the corresponding macroblock is a skip macroblock, the leftmost I / P picture is skipped. / P picture to rightmost I /
Until the P picture, there is no change in the image. Therefore, as described above, when the macroblock to be processed is a B picture and the COD of the corresponding macroblock is 1, the macroblock to be processed is set as a skipped macroblock.

【0306】なお、この場合、そのBピクチャの処理対
象のマクロブロックについての処理(予測符号化/復号
化)は、最も右のI/Pピクチャの対応マクロブロック
と同様に行われ、従って、その動きベクトルは0と、ま
た、DCT係数もすべて0として扱われる(エンコーダ
側では、上述したように、MODBのみ伝送され、それ
以降のCBPBやMBTYPEなどは伝送されない)。
In this case, the processing (prediction encoding / decoding) for the macroblock to be processed for the B picture is performed in the same manner as the corresponding macroblock for the rightmost I / P picture. The motion vector is treated as 0, and the DCT coefficients are all treated as 0 (as described above, only the MODB is transmitted on the encoder side, and the subsequent CBPB, MBTYPE, etc. are not transmitted).

【0307】図38に戻り、ステップS5において、対
応マクロブロックのCODが1でないと判定された場
合、ステップS7に進み、処理対象のBピクチャのマク
ロブロックのMODBが0であるかどうかが判定され
る。ステップS7において、そのMODBが0であると
判定された場合、ステップS8に進み、その処理対象の
マクロブロックは、スキップマクロブロックであると決
定され、そのように取り扱われる。
Referring back to FIG. 38, if it is determined in step S5 that the COD of the corresponding macroblock is not 1, the flow advances to step S7 to determine whether the MODB of the macroblock of the B picture to be processed is 0. You. If it is determined in step S7 that the MODB is 0, the process proceeds to step S8, where the macroblock to be processed is determined to be a skipped macroblock, and is treated as such.

【0308】即ち、いま、処理すべき画像(VOP)と
して、例えば、図40(B)に示すように、図40
(A)における場合と同様の順番で、表示および符号化
/復号化されるものがあり、やはり、同図(A)におけ
る場合と同様に、左から2番目のBピクチャのマクロブ
ロックが処理の対象となっているものとする。
That is, as an image to be processed (VOP), for example, as shown in FIG.
Some are displayed and encoded / decoded in the same order as in (A), and the macroblock of the second B picture from the left is processed in the same manner as in (A) of FIG. It is assumed that it is targeted.

【0309】いまの場合、処理対象のBピクチャのマク
ロブロックについての、最も右のI/Pピクチャの対応
マクロブロックのCODが1でないから、即ち、その対
応マクロブロックがスキップマクロブロックでないか
ら、最も左のI/Pピクチャから最も右のI/Pピクチ
ャまでの間には、画像に変化があったことになる。
In this case, since the COD of the corresponding macroblock of the rightmost I / P picture of the macroblock of the B picture to be processed is not 1, that is, since the corresponding macroblock is not a skip macroblock, The image has changed between the left I / P picture and the rightmost I / P picture.

【0310】一方、処理対象のBピクチャのマクロブロ
ックのMODBが0であるから、このマクロブロック
は、それが復号されるまでに復号される、他のフレーム
のマクロブロックについてのデータだけを用いて復号す
ることができるか、その直前に復号されるIまたはPピ
クチャにおける対応マクロブロックがスキップマクロブ
ロックである(CODが1である)ということになる
が、上述したように、CODは1でないから、処理対象
のBピクチャのマクロブロックは、それが復号されるま
でに復号される、他のフレームのマクロブロックについ
てのデータ(以下、適宜、既復号データという)を用い
て復号することができるということになる。
[0310] On the other hand, since the MODB of the macroblock of the B picture to be processed is 0, this macroblock is decoded by using only the data of the macroblock of another frame which is decoded by the time it is decoded. The corresponding macroblock in the I or P picture decoded immediately before or can be decoded is a skip macroblock (COD is 1), but as described above, since COD is not 1, , A macroblock of a B picture to be processed can be decoded by using data of a macroblock of another frame (hereinafter, appropriately referred to as decoded data) which is decoded before the macroblock is decoded. Will be.

【0311】そこで、最も左のI/Pピクチャから最も
右のI/Pピクチャまでの間に、画像に変化があり、か
つ、処理対象のBピクチャのマクロブロックが、既復号
データだけを用いて復号することができる場合を考える
と、それは、例えば、図40(B)に示すように、最も
右のI/Pピクチャにおける対応マクロブロック(実線
で示す部分)を、最も左のI/Pピクチャを参照画像と
して処理する場合の動きベクトルMV1を、例えば、1
/2倍または−1/2倍した動きベクトルMV2または
MV3によって、最も左のI/Pピクチャまたは最も右
のI/Pピクチャを動き補償してそれぞれ得られる予測
画像(同図(B)において、点線で示す部分)の平均値
が、処理対象のマクロブロックと一致する場合(予測誤
差が生じない場合)ということになる。
Therefore, there is a change in the image between the leftmost I / P picture and the rightmost I / P picture, and the macroblock of the B picture to be processed is determined using only the decoded data. Considering the case where decoding is possible, for example, as shown in FIG. 40B, the corresponding macroblock (part shown by a solid line) in the rightmost I / P picture is replaced with the leftmost I / P picture. Is processed as a reference image, the motion vector MV1 is, for example, 1
A predicted image obtained by motion-compensating the leftmost I / P picture or the rightmost I / P picture with the motion vector MV2 or MV3 multiplied by 2 or − /, respectively (in FIG. This means that the average value of the portion indicated by the dotted line) matches the macroblock to be processed (when no prediction error occurs).

【0312】以上から、図38のステップS8では、B
ピクチャの処理対象のマクロブロックについての処理
(予測符号化/復号化)は、動きベクトルとして、最も
右のI/Pピクチャにおける対応マクロブロックの動き
ベクトルMV1から求められる動きベクトルMV2(M
VF)およびMV3(MVB)が用いられ、かつ、その
画素値(画像データ)として、上述のような予測画像の
平均値が用いられて行われる。
From the above, in step S8 of FIG.
The processing (prediction encoding / decoding) of the macroblock to be processed in the picture is performed by using a motion vector MV2 (M
VF) and MV3 (MVB) are used, and the average value of the above-described predicted image is used as the pixel value (image data).

【0313】即ち、この場合、例えば、処理対象のマク
ロブロックについての予測モードは、上述したダイレク
トモードとされる。なお、H.263では、ダイレクト
モードが適用されるのはPBピクチャであり、従って、
本実施の形態におけるBピクチャとは、MPEG1,2
におけるBピクチャや、H.263におけるPBピクチ
ャなどを含む、いわば広い概念のものである。
That is, in this case, for example, the prediction mode for the macroblock to be processed is the direct mode described above. In addition, H. In H.263, it is the PB picture to which the direct mode is applied,
The B picture in the present embodiment refers to MPEG1, MPEG2,
B picture and H. This is a broad concept including the PB picture in H.263.

【0314】一方、ステップS7において、処理対象の
BピクチャのマクロブロックについてのMODBが0で
ないと判定された場合、ステップS9に進み、ステップ
S4における場合と同様に、通常の処理が行われる。
On the other hand, if it is determined in step S7 that the MODB for the macroblock of the B picture to be processed is not 0, the process proceeds to step S9, and the normal processing is performed as in step S4.

【0315】次に、図39は、図12の上位レイヤ符号
化部23、および図20の上位レイヤ復号部93におけ
るスキップマクロブロックの処理を説明するフローチャ
ートである。
Next, FIG. 39 is a flowchart for explaining the processing of a skipped macroblock in the upper layer coding section 23 in FIG. 12 and the upper layer decoding section 93 in FIG.

【0316】この場合、ステップS11乃至S14にお
いては、図38のステップS1乃至S4における場合と
それぞれ同様の処理が行われる。即ち、Pピクチャにつ
いては、下位レイヤおよび上位レイヤのいずれについて
も同一の処理が施される。
In this case, in steps S11 to S14, the same processes as those in steps S1 to S4 in FIG. 38 are performed. That is, the same processing is performed on the P picture for both the lower layer and the upper layer.

【0317】一方、ステップS11において、処理対象
のマクロブロックがBピクチャであると判定された場
合、ステップS15に進み、そのマクロブロックについ
てのフラグref_select_codeが「00」
であるかどうかが判定される。ステップS15におい
て、処理対象のBピクチャのマクロブロックについての
フラグref_select_codeが「00」でな
いと判定された場合、即ち、そのBピクチャのマクロブ
ロックが、下位レイヤの同一時刻における画像を参照画
像として用いて処理されるものではない場合、ステップ
S16乃至S20に進み、図38のステップS5乃至S
9における場合とそれぞれ同様の処理が行われる。
On the other hand, if it is determined in step S11 that the macroblock to be processed is a B picture, the flow advances to step S15 to set the flag ref_select_code for the macroblock to "00".
Is determined. In step S15, when it is determined that the flag ref_select_code for the macroblock of the B picture to be processed is not “00”, that is, the macroblock of the B picture uses a lower layer image at the same time as a reference image as a reference image. If not, the process proceeds to steps S16 to S20 and proceeds to steps S5 to S in FIG.
9, the same processing is performed.

【0318】また、ステップS15において、処理対象
のBピクチャのマクロブロックについてのフラグref
_select_codeが「00」であると判定され
た場合、即ち、そのBピクチャのマクロブロックが、下
位レイヤの同一時刻における画像を参照画像として用い
て処理されるものである場合、ステップS21に進み、
処理対象のBピクチャのマクロブロックについてのMO
DBが0であるかどうかが判定される。
In step S15, the flag ref for the macroblock of the B picture to be processed is
If it is determined that _select_code is “00”, that is, if the macroblock of the B picture is to be processed using the lower-layer image at the same time as the reference image, the process proceeds to step S21.
MO for macroblock of B picture to be processed
It is determined whether DB is 0.

【0319】ステップS21において、処理対象のBピ
クチャのマクロブロックについてのMODBが0である
と判定された場合、ステップS22に進み、その処理対
象のマクロブロックは、スキップマクロブロックである
と決定され、そのように取り扱われる。また、ステップ
S21において、処理対象のBピクチャのマクロブロッ
クについてのMODBが0でないと判定された場合、ス
テップS23に進み、図38のステップS3における場
合と同様に、通常の処理が行われる。
If it is determined in step S21 that the MODB for the macroblock of the B picture to be processed is 0, the process proceeds to step S22, where the macroblock to be processed is determined to be a skip macroblock, Treated that way. If it is determined in step S21 that the MODB of the macroblock of the B picture to be processed is not 0, the process proceeds to step S23, and normal processing is performed as in step S3 of FIG.

【0320】即ち、いま、処理すべき上位レイヤの画像
(VOP)として、例えば、図40(C)に示すよう
に、I/P,B,B,・・・というシーケンスで表示さ
れるものがあり、また、下位レイヤの画像としても、同
様のシーケンスで表示されるものがあるとする。さら
に、これらの下位レイヤの画像と上位レイヤの画像とが
交互に符号化/復号化されるものとする。なお、上位レ
イヤのBピクチャについてのref_select_c
odeが「00」である場合には、画像の符号化/復号
化の順序は、このようになる。
That is, as the upper layer image (VOP) to be processed, for example, as shown in FIG. 40 (C), an image displayed in a sequence of I / P, B, B,. It is assumed that there are some lower layer images that are displayed in the same sequence. Further, it is assumed that these lower layer images and upper layer images are alternately encoded / decoded. Note that ref_select_c for the B picture in the upper layer
When the mode is “00”, the encoding / decoding order of the image is as follows.

【0321】この場合において、ref_select
_codeの値を、ステップS15において判定しない
とすると、即ち、図38で説明した場合と同様の処理を
行うとすると、処理対象の上位レイヤのBピクチャのマ
クロブロックが、図40(C)に示したように、下位レ
イヤの同一時刻における画像(拡大画像)、または上位
レイヤにおける直前の復号画像(最も左のI/Pピクチ
ャ)を参照画像として用いて符号化/復号化され、その
Bピクチャより後のフレームは参照されないのにもかか
わらず、そのような後のフレームにおける対応マクロブ
ロックについてのCOD(またはMODB)の値によっ
て、処理対象のマクロブロックがスキップマクロブロッ
クかどうかが決定されることになる。
In this case, ref_select
If the value of _code is not determined in step S15, that is, if the same processing as described with reference to FIG. 38 is performed, the macroblock of the B picture in the upper layer to be processed is shown in FIG. As described above, encoding / decoding is performed using an image (enlarged image) of the lower layer at the same time or an immediately preceding decoded image (leftmost I / P picture) of the upper layer as a reference image. The COD (or MODB) value for the corresponding macroblock in such a subsequent frame determines whether the macroblock to be processed is a skipped macroblock, even though the subsequent frame is not referenced. Become.

【0322】しかしながら、処理対象のマクロブロック
を符号化/復号化する際に参照されないフレームに基づ
いて、そのマクロブロックがスキップマクロブロックか
どうかを判定するのは好ましくない。
However, it is not preferable to determine whether a macroblock to be processed is a skipped macroblock based on a frame that is not referred to when encoding / decoding the macroblock to be processed.

【0323】そこで、図39の実施の形態においては、
上位レイヤのBピクチャについては、ref_sele
ct_codeに基づき、それが「00」である場合、
即ち、そのBピクチャのマクロブロックが、図40
(C)に示したように、下位レイヤの同一時刻における
画像(拡大画像)、または上位レイヤにおける直前の復
号画像(最も左のI/Pピクチャ)を参照画像として用
いて処理される場合には、それ以降のフレームにおける
対応マクロブロックについてのCODまたはMODBと
は無関係に、その処理対象のBピクチャのマクロブロッ
クについてのMODBにしたがって、スキップマクロブ
ロックかどうかが決定される。
Therefore, in the embodiment shown in FIG.
For the B picture of the upper layer, ref_sel
Based on ct_code, if it is "00",
That is, the macro block of the B picture is
As shown in (C), when processing is performed using an image (enlarged image) of the lower layer at the same time or an immediately preceding decoded image (leftmost I / P picture) of the upper layer as a reference image. , Regardless of the COD or MODB of the corresponding macroblock in the subsequent frames, whether or not the macroblock is a skip macroblock is determined according to the MODB of the macroblock of the B picture to be processed.

【0324】なお、ref_select_codeが
「00」である場合において、処理対象のBピクチャの
マクロブロックについてのMODBが0となるのは、参
照画像として、下位レイヤの同一時刻における画像では
なく、上位レイヤにおける直前の復号画像(最も左のI
/Pピクチャ)を用いたときであるのが一般的であるか
ら、その処理対象のマクロブロックについての処理(予
測符号化/復号化)は、その直前の復号画像を参照画像
とし、動きベクトルは0として行われる。
[0324] When ref_select_code is "00", the MODB of the macroblock of the B picture to be processed becomes 0 as a reference image in the upper layer, not in the image at the same time of the lower layer. The immediately preceding decoded image (the leftmost I
/ P picture), the processing (prediction encoding / decoding) for the macroblock to be processed is performed using the immediately preceding decoded image as a reference image and the motion vector as Performed as 0.

【0325】以上、スキップマクロブロックの処理につ
いて説明したが、このような処理を行う場合において、
処理対象のマクロブロックが上位レイヤまたは下位レイ
ヤのうちのいずれのものであるかの判定は、図24で説
明したフラグscalabilityに基づいて行われる。
The processing of the skip macro block has been described above. In the case of performing such processing,
Whether the macroblock to be processed is one of the upper layer and the lower layer is determined based on the flag scalability described with reference to FIG.

【0326】ここで、図12の動きベクトル検出器3
2、VLC器36、および動き補償器42に下位レイヤ
のCODが供給されるのは、次のような理由による。
Here, the motion vector detector 3 shown in FIG.
The reason why the COD of the lower layer is supplied to the VLC unit 36 and the motion compensator 42 is as follows.

【0327】即ち、例えば、図14に示した時間スケー
ラビリティの場合、上述したように、上位レイヤの予測
に下位レイヤの画像が参照画像として用いられる。この
場合、例えば、下位レイヤのVOP0、上位レイヤのV
OP1、下位レイヤのVOP2は、時間的に連続する画
像であり、従って、このような3つのVOP1,VOP
2,VOP3が、図40(A)で説明した条件を満たせ
ば、上位レイヤのVOP1のマクロブロックはスキップ
マクロブロックということになる。そして、マクロブロ
ックがスキップマクロブロックであれば、そのマクロブ
ロックは特に処理せずに済む。一方、図40(A)で説
明した条件を満たすかどうかの判断は、下位レイヤのV
OP2のCODが必要であり、このため、図12の上位
レイヤ符号化部23における動きベクトル検出器32、
VLC器36、および動き補償器42には、下位レイヤ
のCODが供給されるようになされている。
That is, for example, in the case of the temporal scalability shown in FIG. 14, as described above, the image of the lower layer is used as the reference image for the prediction of the upper layer. In this case, for example, VOP0 of the lower layer, VOP of the upper layer
OP1 and the lower layer VOP2 are images that are temporally continuous, and therefore, these three VOP1 and VOP
2. If VOP3 satisfies the condition described with reference to FIG. 40A, the macroblock of VOP1 in the upper layer is a skipped macroblock. If the macroblock is a skip macroblock, the macroblock does not need to be processed. On the other hand, whether or not the condition described with reference to FIG.
Since the COD of OP2 is necessary, the motion vector detector 32 in the upper layer coding unit 23 in FIG.
The lower layer COD is supplied to the VLC unit 36 and the motion compensator 42.

【0328】次に、現在、MPEG4では、予測モード
がダイレクトである場合を除き、マクロブロックのDC
T係数すべてが、量子化により、例えば、0などの所定
の値になる場合(DCT係数が存在しない場合)であっ
ても、量子化ステップについてのDQUANTを伝送す
べきことが規定されているが、マクロブロックのDCT
係数が存在しない場合に、DQUANTを伝送するのは
冗長である。
Next, in MPEG4, except for the case where the prediction mode is direct, the DC
Although it is specified that DQUANT for the quantization step should be transmitted even when all the T coefficients have a predetermined value such as 0 due to quantization (when no DCT coefficient exists), for example. , DCT of macroblock
Transmitting DQUANT when no coefficients are present is redundant.

【0329】そこで、図11および図12のVLC器3
6、並びに図19および図20のIVLC器102で
は、量子化ステップDQUANTが、次のように扱われ
るようになされている。
Therefore, the VLC unit 3 shown in FIGS.
6, and the IVLC unit 102 in FIGS. 19 and 20, the quantization step DQUANT is handled as follows.

【0330】即ち、まず最初に、ステップS51におい
て、CBPBが0であるかどうかが判定され、CBPB
が0であると判定された場合、マクロブロックのDCT
係数は存在しないため、ステップS56に進み、量子化
ステップは無視され(エンコーダ側では量子化ステップ
DQUANTは伝送されず、デコーダ側ではビットスト
リームからの量子化ステップDQUANTの抽出は行わ
れない(行うことができない))、処理を終了する。
That is, first, in step S51, it is determined whether or not CBPB is 0.
Is determined to be 0, the DCT of the macroblock
Since there is no coefficient, the process proceeds to step S56, and the quantization step is ignored (the quantization step DQUANT is not transmitted on the encoder side, and the quantization step DQUANT is not extracted from the bit stream on the decoder side (the Is not possible)), and the processing ends.

【0331】ここで、図30で説明したように、CBP
Bは伝送されない場合があるが、この場合には、ステッ
プS51の処理はスキップされ、ステップS52の処理
が行われる。
Here, as described with reference to FIG.
B may not be transmitted, but in this case, the process of step S51 is skipped, and the process of step S52 is performed.

【0332】一方、ステップS51において、CBPB
が0でないと判定された場合、ステップS52に進み、
MODBが0であるか否が判定される。ステップS52
において、MODBが「0」であると判定された場合、
図30で説明したように、CBPBは伝送されず、従っ
て、マクロブロックのDCT係数は存在しないため、ス
テップS56に進み、量子化ステップは無視され、処理
を終了する。
On the other hand, in step S51, CBPB
If it is determined that is not 0, the process proceeds to step S52,
It is determined whether or not MODB is 0. Step S52
, When the MODB is determined to be “0”,
As described with reference to FIG. 30, since CBPB is not transmitted, and therefore, no DCT coefficient of the macroblock exists, the process proceeds to step S56, the quantization step is ignored, and the process ends.

【0333】また、ステップS52において、MODB
が「0」でないと判定された場合、ステップS53に進
み、MODBテーブルAまたはBのうちのいずれが、M
ODBの可変長符号化/可変長復号化に用いられるのか
が判定される。ステップS53において、MODBテー
ブルBが用いられると判定された場合、ステップS54
をスキップして、ステップS55に進む。また、ステッ
プS53において、MODBテーブルAが用いられると
判定された場合、ステップS54に進み、MODBが
「10」であるかどうかが判定される。
Also, in step S52, MODB
Is not “0”, the process proceeds to step S53, and either of the MODB tables A or B
It is determined whether ODB is used for variable-length encoding / variable-length decoding of ODB. If it is determined in step S53 that the MODB table B is to be used, the process proceeds to step S54.
And skips to step S55. If it is determined in step S53 that the MODB table A is to be used, the process proceeds to step S54, where it is determined whether the MODB is "10".

【0334】ステップS54において、MODBが「1
0」であると判定された場合、即ち、MODBテーブル
Aが用いられる場合であって、MODBが「10」であ
る場合、やはり図30で説明したように、CBPBは伝
送されず、従って、マクロブロックのDCT係数は存在
しないため、ステップS56に進み、量子化ステップは
無視され、処理を終了する。
In step S54, MODB is set to "1".
If it is determined to be “0”, that is, if the MODB table A is used and the MODB is “10”, CBPB is not transmitted as described with reference to FIG. Since there is no DCT coefficient of the block, the process proceeds to step S56, the quantization step is ignored, and the process ends.

【0335】一方、ステップS54において、MODB
が「10」でないと判定された場合、量子化ステップに
ついての処理が行われ(エンコーダ側では量子化ステッ
プDQUANTが伝送され、デコーダ側ではビットスト
リームからの量子化ステップDQUANTの抽出が行わ
れ)、処理を終了する。
On the other hand, in step S54,
Is determined to be not “10”, a process for the quantization step is performed (the quantization step DQUANT is transmitted on the encoder side, and the quantization step DQUANT is extracted from the bit stream on the decoder side), The process ends.

【0336】以上のように、マクロブロックのDCT係
数が存在しないとき、即ち、CBPBが0のとき、MO
DBテーブルAを用いる場合においてMODBが「0」
または「10」のとき、およびMODBテーブルBを用
いる場合においてMODBが「0」のときには、量子化
ステップを無視するようにしたので、データの冗長度を
低減することができる。
As described above, when the DCT coefficient of the macroblock does not exist, that is, when CBPB is 0, the MO
MODB is "0" when using DB table A
Alternatively, when the value is "10", and when MODB is "0" in the case where the MODB table B is used, the quantization step is ignored, so that the data redundancy can be reduced.

【0337】なお、CBPBが伝送されるが、その値が
「0」である場合というのは、MODBテーブルAまた
はBを用いてMODBが「11」または「10」とそれ
ぞれされる場合であるが、そのような場合は、MODB
が「10」または「0」をそれぞれ用いれば済むので、
基本的には生じない。従って、図41の実施の形態で
は、最初のステップS51において、CBPBの値を判
定するようにしたが、この判定処理は、処理効率の観点
からは、ステップS55の処理の直前に行うようにする
のが望ましい。
When CBPB is transmitted and the value is "0", the case where the MODB is set to "11" or "10" using the MODB table A or B, respectively. , In such a case, MODB
Use "10" or "0" respectively.
Basically not. Accordingly, in the embodiment of FIG. 41, the value of CBPB is determined in the first step S51, but this determination processing is performed immediately before the processing of step S55 from the viewpoint of processing efficiency. It is desirable.

【0338】また、図41の処理は、上述の第1および
第2の方法のいずれを用いる場合にも適用可能である。
The processing shown in FIG. 41 is applicable to any of the first and second methods.

【0339】以上のように、位置や大きさの変換するV
Oを、絶対座標系に配置して処理するようにしたので、
VOごとの予測符号化/復号化が可能となり、また、V
Oを対象としたスケーラビリティを実現することが可能
となる。
As described above, the V for which the position and size are converted
O is arranged and processed in the absolute coordinate system.
Predictive encoding / decoding for each VO becomes possible.
Scalability for O can be realized.

【0340】さらに、スキップマクロブロックの処理
を、そのスキップマクロブロックに用いられる参照画像
を示すフラグref_select_codeを考慮し
て決定するようにしたので、効率的な処理が可能とな
る。
Further, the processing of the skipped macroblock is determined in consideration of the flag ref_select_code indicating the reference image used for the skipped macroblock, so that efficient processing can be performed.

【0341】また、上位レイヤと下位レイヤの画像が同
一である場合において、上位レイヤの予測符号化のため
の参照画像として、同一時刻における下位レイヤの復号
画像を用いるときには、上位レイヤにおける動きベクト
ルは伝送せず、下位レイヤにおけるもののみを伝送する
ようにしたので、データ量を低減することが可能とな
る。
In the case where the upper layer and the lower layer have the same image, when a lower layer decoded image at the same time is used as a reference image for predictive coding of the upper layer, the motion vector in the upper layer is Since only the data in the lower layer is transmitted without being transmitted, the data amount can be reduced.

【0342】なお、本実施の形態においてマクロブロッ
ク単位で行われると説明した処理は、マクロブロック単
位以外の単位で行うようにすることも可能である。
The processing described in this embodiment as being performed in units of macroblocks can be performed in units other than units of macroblocks.

【0343】また、本実施の形態では、2種類のMOD
BテーブルAおよびBを用意し、いずれか一方を選択し
て用いるようにしたが、MODBテーブルは3種類以上
用意することも可能である。このことは、MBTYPE
テーブルについても同様である。
In this embodiment, two types of MODs are used.
Although B tables A and B are prepared and one of them is selected and used, it is also possible to prepare three or more types of MODB tables. This means that MBTYPE
The same applies to the table.

【0344】[0344]

【発明の効果】請求項1に記載の画像符号化装置および
請求項に記載の画像符号化方法、並びに請求項に記
載の画像復号化装置および請求項に記載の画像復号化
方法によれば、前方予測符号化、後方予測符号化、また
は両方向予測符号化のうちのいずれかにより、Bピクチ
ャのマクロブロックを符号化する場合、マクロブロック
が符号化される直前に符号化されたIまたはPピクチャ
を構成するマクロブロックのうちの、Bピクチャのマク
ロブロックに対応するものがスキップマクロブロックで
あるときに、Bピクチャは、スキップマクロブロックで
あると決定される。従って、マクロブロックが符号化さ
れる直前に符号化されたIまたはPピクチャを構成する
マクロブロックのうちの、Bピクチャのマクロブロック
に対応しないものをスキップマクロブロックとして、
理が行われることを防止することが可能となる。
[Effect of the Invention] The image coding method according to the image coding apparatus and claim 2 of claim 1, as well as the picture decoding method according to the image decoding apparatus and claim 4 of claim 3 According to this, when a macroblock of a B picture is coded by one of forward prediction coding, backward prediction coding, and bidirectional prediction coding, the macroblock
I or P picture encoded just before is encoded
Of the B picture of the macroblocks
The one corresponding to the local block is the skip macro block.
At one time, a B picture is a skip macroblock
It is determined that there is. Therefore, if the macroblock is encoded
Construct an I or P picture encoded just before
Macroblock of B picture among macroblocks
It is possible to prevent a process that is not performed from being performed as a skipped macroblock .

【0345】請求項5に記載の記録方法によれば、前方
予測符号化、後方予測符号化、または両方向予測符号化
のうちのいずれかにより、Bピクチャのマクロブロック
を符号化する場合、マクロブロックが符号化される直前
に符号化されたIまたはPピクチャを構成するマクロブ
ロックのうちの、Bピクチャのマクロブロックに対応す
るものがスキップマクロブロックであるときに、Bピク
チャは、スキップマクロブロックであると決定される。
従って、マクロブロックが符号化される直前に符号化さ
れたIまたはPピクチャを構成するマクロブロックのう
ちの、Bピクチャのマクロブロックに対応しないものを
スキップマクロブロックとして、処理が行われることを
防止することが可能となる。
[0345] According to the recording method according to claim 5, forward predictive coding, backward predictive coding, or by any of the bidirectional predictive coding, when encoding a macroblock of a B picture, a macro block Just before is encoded
Macro block that constitutes an I or P picture encoded in
Of the lock, corresponding to the macroblock of the B picture
When the object is a skip macro block,
Cha is determined to be a skip macroblock.
Therefore, just before the macroblock is coded,
Macroblocks that make up the I or P picture
The one that does not correspond to the macroblock of the B picture
It is possible to prevent the processing from being performed as a skipped macroblock .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したエンコーダの一実施の形態を
示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of an encoder to which the present invention is applied.

【図2】時刻によって、VOの位置、大きさが変化する
ことを説明するための図である。
FIG. 2 is a diagram for explaining that a position and a size of a VO change with time.

【図3】図1のVOP符号化部31乃至3Nの構成例を示
すブロック図である。
FIG. 3 is a block diagram illustrating a configuration example of VOP encoding units 31 to 3N in FIG. 1;

【図4】図1のVOP符号化部31乃至3Nの他の構成例
を示すブロック図である。
FIG. 4 is a block diagram illustrating another configuration example of the VOP encoding units 31 to 3N of FIG. 1;

【図5】空間スケーラビリティを説明するための図であ
る。
FIG. 5 is a diagram for explaining spatial scalability.

【図6】空間スケーラビリティを説明するための図であ
る。
FIG. 6 is a diagram for describing spatial scalability.

【図7】空間スケーラビリティを説明するための図であ
る。
FIG. 7 is a diagram for describing spatial scalability.

【図8】空間スケーラビリティを説明するための図であ
る。
FIG. 8 is a diagram for describing spatial scalability.

【図9】VOPのサイズデータおよびオフセットデータ
の決定方法を説明するための図である。
FIG. 9 is a diagram for explaining a method for determining VOP size data and offset data.

【図10】VOPのサイズデータおよびオフセットデー
タの決定方法を説明するための図である。
FIG. 10 is a diagram for explaining a method of determining VOP size data and offset data.

【図11】図4の下位レイヤ符号化部25の構成例を示
すブロック図である。
11 is a block diagram illustrating a configuration example of a lower layer encoding unit 25 in FIG.

【図12】図4の上位レイヤ符号化部23の構成例を示
すブロック図である。
12 is a block diagram illustrating a configuration example of an upper layer encoding unit 23 in FIG.

【図13】空間スケーラビリティを説明するための図で
ある。
FIG. 13 is a diagram for describing spatial scalability.

【図14】時間スケーラビリティを説明するための図で
ある。
FIG. 14 is a diagram for explaining time scalability.

【図15】リファレンシャルセレクトコード(ref_sele
ct_code)を説明するための図である。
FIG. 15 shows a reference select code (ref_sele
FIG. 3 is a diagram for explaining (ct_code).

【図16】本発明を適用したデコーダの一実施の形態の
構成を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration of an embodiment of a decoder to which the present invention has been applied.

【図17】図16のVOP復号部721乃至72Nの構成
例を示すブロック図である。
17 is a block diagram illustrating a configuration example of VOP decoding units 721 to 72N of FIG.

【図18】図16のVOP復号部721乃至72Nの他の
構成例を示すブロック図である。
18 is a block diagram illustrating another configuration example of the VOP decoding units 721 to 72N of FIG.

【図19】図18の下位レイヤ復号部95の構成例を示
すブロック図である。
19 is a block diagram illustrating a configuration example of a lower layer decoding unit 95 in FIG.

【図20】図18の上位レイヤ復号部93の構成例を示
すブロック図である。
20 is a block diagram illustrating a configuration example of an upper layer decoding unit 93 in FIG.

【図21】スケーラブル符号化によって得られるビット
ストリームのシンタクスを示す図である。
FIG. 21 is a diagram illustrating the syntax of a bit stream obtained by scalable encoding.

【図22】VSのシンタクスを示す図である。FIG. 22 is a diagram illustrating the syntax of a VS.

【図23】VOのシンタクスを示す図である。FIG. 23 is a diagram illustrating the syntax of a VO.

【図24】VOLのシンタクスを示す図である。FIG. 24 is a diagram illustrating the syntax of a VOL.

【図25】VOPのシンタクスを示す図である。FIG. 25 is a diagram illustrating VOP syntax.

【図26】VOPのシンタクスを示す図である。FIG. 26 is a diagram illustrating the syntax of a VOP.

【図27】diff_size_horizontalおよびdiff_size_vert
icalの可変長符号を示す図である。
FIG. 27: diff_size_horizontal and diff_size_vert
It is a figure showing the variable length code of ical.

【図28】diff_VOP_horizontal_refおよびdiff_VOP_ve
rtical_refの可変長符号を示す図である。
FIG. 28: diff_VOP_horizontal_ref and diff_VOP_ve
It is a figure showing the variable length code of rtical_ref.

【図29】マクロブロックのシンタクスを示す図であ
る。
FIG. 29 is a diagram illustrating the syntax of a macroblock.

【図30】MODBの可変長符号を示す図である。FIG. 30 is a diagram illustrating a variable-length code of a MODB.

【図31】マクロブロックの構成例を示す図である。FIG. 31 is a diagram illustrating a configuration example of a macroblock.

【図32】MBTYPEの可変長符号を示す図である。FIG. 32 is a diagram showing a variable length code of MBTYPE.

【図33】ダイレクトモードによる予測符号化を説明す
るための図である。
FIG. 33 is a diagram for describing predictive encoding in a direct mode.

【図34】上位レイヤのBピクチャの予測符号化を説明
するための図である。
FIG. 34 is a diagram for describing predictive encoding of a B picture in an upper layer.

【図35】準ダイレクトモードを説明するための図であ
る。
FIG. 35 is a diagram for explaining a quasi-direct mode.

【図36】下位レイヤについて用いる可変長テーブルの
決定方法を説明するためのフローチャートである。
FIG. 36 is a flowchart illustrating a method for determining a variable length table used for a lower layer.

【図37】上位レイヤについて用いる可変長テーブルの
決定方法を説明するためのフローチャートである。
FIG. 37 is a flowchart illustrating a method for determining a variable length table used for an upper layer.

【図38】下位レイヤにおけるスキップマクロブロック
についての処理を説明するためのフローチャートであ
る。
FIG. 38 is a flowchart illustrating a process for a skip macroblock in a lower layer.

【図39】上位レイヤにおけるスキップマクロブロック
についての処理を説明するためのフローチャートであ
る。
FIG. 39 is a flowchart illustrating a process for a skipped macroblock in an upper layer.

【図40】スキップマクロブロックについての処理を説
明するための図である。
FIG. 40 is a diagram for describing processing for a skipped macroblock.

【図41】量子化ステップDQUANTについての処理
を説明するためのフローチャートである。
FIG. 41 is a flowchart illustrating a process of a quantization step DQUANT.

【図42】従来のエンコーダの一例の構成を示すブロッ
ク図である。
FIG. 42 is a block diagram illustrating a configuration of an example of a conventional encoder.

【図43】従来のデコーダの一例の構成を示すブロック
図である。
FIG. 43 is a block diagram showing a configuration of an example of a conventional decoder.

【図44】従来のスケーラブル符号化を行うエンコーダ
の一例の構成を示すブロック図である。
FIG. 44 is a block diagram illustrating a configuration of an example of a conventional encoder that performs scalable encoding.

【図45】図44の下位レイヤ符号化部202の構成例
を示すブロック図である。
FIG. 45 is a block diagram illustrating a configuration example of a lower layer encoding unit 202 in FIG. 44.

【図46】図44の上位レイヤ符号化部201の構成例
を示すブロック図である。
FIG. 46 is a block diagram illustrating a configuration example of an upper layer encoding unit 201 in FIG. 44.

【図47】従来のスケーラブル復号化を行うデコーダの
一例の構成を示すブロック図である。
FIG. 47 is a block diagram illustrating a configuration of an example of a conventional decoder that performs scalable decoding.

【図48】図47の下位レイヤ復号化部232の構成例
を示すブロック図である。
FIG. 48 is a block diagram illustrating a configuration example of a lower layer decoding unit 232 in FIG. 47.

【図49】図47の上位レイヤ復号化部231の構成例
を示すブロック図である。
FIG. 49 is a block diagram illustrating a configuration example of an upper layer decoding unit 231 in FIG. 47.

【図50】従来の画像合成方法を説明するための図であ
る。
FIG. 50 is a diagram for explaining a conventional image synthesizing method.

【図51】画像の再編集および再合成を可能とする符号
化方法を説明するための図である。
FIG. 51 is a diagram for describing an encoding method that enables re-editing and re-synthesis of an image.

【図52】画像の再編集および再合成を可能とする復号
化方法を説明するための図である。
FIG. 52 is a diagram for describing a decoding method that enables re-editing and re-synthesis of an image.

【符号の説明】[Explanation of symbols]

1 VO構成部, 21乃至2N VOP構成部, 31
乃至3N VOP符号化部, 4 多重化部, 21
画像階層化部, 23 上位レイヤ符号化部,24 解
像度変換部, 25 下位レイヤ符号化部, 26 多
重化部, 31フレームメモリ, 32 動きベクトル
検出器, 33 演算器, 34 DCT器, 35
量子化器, 36 VLC器, 38 逆量子化器,
39IDCT器, 40 演算器, 41 フレームメ
モリ, 42 動き補償器,43 キー信号符号化部,
44 キー信号復号部, 51 キー信号符号化部,
52 キー信号復号部, 53 フレームメモリ,
71 逆多重化部,721乃至72N VOP復号部,
73 画像再構成部, 91 逆多重化部, 93 上
位レイヤ復号部, 94 解像度変換部, 95 下位
レイヤ復号部, IVLC器, 103 逆量子化器,
104 IDCT器, 105演算器, 106 フ
レームメモリ, 107 動き補償器, 108,11
1キー信号復号部, 112 フレームメモリ
1 VO component, 21 to 2N VOP component, 31
To 3N VOP encoding unit, 4 multiplexing unit, 21
Image layering unit, 23 upper layer encoding unit, 24 resolution conversion unit, 25 lower layer encoding unit, 26 multiplexing unit, 31 frame memory, 32 motion vector detector, 33 arithmetic unit, 34 DCT unit, 35
Quantizer, 36 VLC unit, 38 inverse quantizer,
39 IDCT unit, 40 arithmetic unit, 41 frame memory, 42 motion compensator, 43 key signal encoding unit,
44 key signal decoder, 51 key signal encoder,
52 key signal decoding unit, 53 frame memory,
71 demultiplexer, 721 to 72N VOP decoder,
73 image reconstruction unit, 91 demultiplexing unit, 93 upper layer decoding unit, 94 resolution conversion unit, 95 lower layer decoding unit, IVLC unit, 103 dequantizer,
104 IDCT unit, 105 arithmetic unit, 106 frame memory, 107 motion compensator, 108, 11
1-key signal decoder, 112 frame memory

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 2以上の階層の画像を、イントラ符号化
するIピクチャと、イントラ符号化または前方予測符号
化するPピクチャと、イントラ符号化、前方予測符号
化、後方予測符号化、または両方向予測符号化するBピ
クチャとに分類し、マクロブロック単位で符号化する画
像符号化装置であって、 前方予測符号化、後方予測符号化、または両方向予測符
号化のうちのいずれかにより、前記Bピクチャのマクロ
ブロックを符号化する場合、前記マクロブロックが符号
化される直前に符号化されたIまたはPピクチャを構成
するマクロブロックのうちの、前記Bピクチャのマクロ
ブロックに対応するものがスキップマクロブロックであ
るときに、前記Bピクチャは、スキップマクロブロック
であると決定することを特徴とする画像符号化装置。
1. An I-picture for intra-coding an image of two or more layers, a P-picture for intra-coding or forward prediction coding, and intra-coding, forward prediction coding, backward prediction coding, or both directions An image coding apparatus that classifies into a B picture to be predictively coded and performs coding in units of macroblocks, wherein said B picture is encoded by one of forward prediction coding, backward prediction coding, and bidirectional prediction coding. when encoding macroblocks in the picture, the macroblock code
Constructs an I or P picture coded immediately before being encoded
Macro of the B picture,
The one corresponding to the block is the skip macro block.
When the B picture is a skip macro block
An image encoding device characterized in that:
【請求項2】 2以上の階層の画像を、イントラ符号化
するIピクチャと、イントラ符号化または前方予測符号
化するPピクチャと、イントラ符号化、前方予測符号
化、後方予測符号化、または両方向予測符号化するBピ
クチャとに分類し、マクロブロック単位で符号化する画
像符号化方法であって、 前方予測符号化、後方予測符号化、または両方向予測符
号化のうちのいずれかにより、前記Bピクチャのマクロ
ブロックを符号化する場合、前記マクロブロックが符号
化される直前に符号化されたIまたはPピクチャを構成
するマクロブロックのうちの、前記Bピクチャのマクロ
ブロックに対応するものがスキップマクロブロックであ
るときに、前記Bピクチャは、スキップマクロブロック
であると決定することを特徴とする画像符号化方法。
2. An I-picture for intra-coding an image of two or more layers, a P-picture for intra-coding or forward predictive coding, and intra-coding, forward predictive coding, backward predictive coding, or both directions An image coding method of classifying into a B picture to be predictively coded and coding in units of macroblocks, wherein the B picture is encoded by one of forward prediction coding, backward prediction coding, and bidirectional prediction coding. when encoding macroblocks in the picture, the macroblock code
Constructs an I or P picture coded immediately before being encoded
Macro of the B picture,
The one corresponding to the block is the skip macro block.
When the B picture is a skip macro block
An image encoding method characterized by determining that
【請求項3】 2以上の階層の画像を、イントラ符号化
するIピクチャと、イントラ符号化または前方予測符号
化するPピクチャと、イントラ符号化、前方予測符号
化、後方予測符号化、または両方向予測符号化するBピ
クチャとに分類し、マクロブロック単位で符号化した符
号化データを復号化する画像復号化装置であって、 前方予測符号化、後方予測符号化、または両方向予測符
号化のうちのいずれかにより、前記Bピクチャのマクロ
ブロックを復号化する場合、前記マクロブロックが復号
化される直前に復号化されたIまたはPピクチャを構成
するマクロブロックのうちの、前記Bピクチャのマクロ
ブロックに対応するものがスキップマクロブロックであ
るときに、前記Bピクチャは、スキップマクロブロック
であると決定することを特徴とする画像復号化装置。
3. An I-picture for intra-coding an image of two or more layers, a P-picture for intra-coding or forward predictive coding, and intra-coding, forward predictive coding, backward predictive coding, or both directions An image decoding apparatus that classifies a B picture to be predictively coded and decodes coded data coded in macroblock units, comprising: forward prediction coding, backward prediction coding, or bidirectional prediction coding. When decoding the macroblock of the B picture according to any of the above, the macroblock is decoded
A decoded I or P picture immediately before being decoded
Macro of the B picture,
The one corresponding to the block is the skip macro block.
When the B picture is a skip macro block
An image decoding device, characterized in that:
【請求項4】 2以上の階層の画像を、イントラ符号化
するIピクチャと、イントラ符号化または前方予測符号
化するPピクチャと、イントラ符号化、前方予測符号
化、後方予測符号化、または両方向予測符号化するBピ
クチャとに分類し、マクロブロック単位で符号化した符
号化データを復号化する画像復号化方法であって、 前方予測符号化、後方予測符号化、または両方向予測符
号化のうちのいずれかにより、前記Bピクチャのマクロ
ブロックを復号化する場合、前記マクロブロックが復号
化される直前に復号化されたIまたはPピクチャを構成
するマクロブロックのうちの、前記Bピクチャのマクロ
ブロックに対応するものがスキップマクロブロックであ
るときに、前記Bピクチャは、スキップマクロブロック
であると決定することを特徴とする画像復号化方法。
4. An I-picture for intra-coding an image of two or more layers, a P-picture for intra-coding or forward-prediction coding, and intra-coding, forward-prediction coding, backward-prediction coding, or both directions An image decoding method for classifying into B pictures to be predictively coded and decoding coded data coded in macroblock units, comprising: forward prediction coding, backward prediction coding, or bidirectional prediction coding. When decoding the macroblock of the B picture according to any of the above, the macroblock is decoded
A decoded I or P picture immediately before being decoded
Macro of the B picture,
The one corresponding to the block is the skip macro block.
When the B picture is a skip macro block
An image decoding method, characterized in that:
【請求項5】 2以上の階層の画像を、イントラ符号化
するIピクチャと、イントラ符号化または前方予測符号
化するPピクチャと、イントラ符号化、前方予測符号
化、後方予測符号化、または両方向予測符号化するBピ
クチャとに分類し、マクロブロック単位で符号化した符
号化データを記録する記録方法であって、 前方予測符号化、後方予測符号化、または両方向予測符
号化のうちのいずれかにより、前記Bピクチャのマクロ
ブロックを符号化する場合、前記マクロブロックが符号
化される直前に符号化されたIまたはPピクチャを構成
するマクロブロックのうちの、前記Bピクチャのマクロ
ブロックに対応するものがスキップマクロブロックであ
るときに、前記Bピクチャは、スキップマクロブロック
であると決定することを特徴とする記録方法。
5. An I-picture for intra-coding an image of two or more layers, a P-picture for intra-coding or forward-prediction coding, and intra-coding, forward-prediction coding, backward-prediction coding, or both directions A recording method for recording encoded data categorized into B pictures to be predictively encoded and encoded in macroblock units, comprising one of forward prediction encoding, backward prediction encoding, and bidirectional prediction encoding Accordingly, when encoding a macroblock of the B picture, the macroblock code
Constructs an I or P picture coded immediately before being encoded
Macro of the B picture,
The one corresponding to the block is the skip macro block.
When the B picture is a skip macro block
The recording method characterized by determining that
JP2000184493A 1996-09-09 2000-06-20 Image encoding device and image encoding method, image decoding device and image decoding method, and recording method Expired - Fee Related JP3344577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000184493A JP3344577B2 (en) 1996-09-09 2000-06-20 Image encoding device and image encoding method, image decoding device and image decoding method, and recording method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-260312 1996-09-09
JP26031296 1996-09-09
JP2000184493A JP3344577B2 (en) 1996-09-09 2000-06-20 Image encoding device and image encoding method, image decoding device and image decoding method, and recording method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27151296A Division JP3263807B2 (en) 1996-09-09 1996-09-20 Image encoding apparatus and image encoding method

Publications (2)

Publication Number Publication Date
JP2001045498A JP2001045498A (en) 2001-02-16
JP3344577B2 true JP3344577B2 (en) 2002-11-11

Family

ID=26544551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000184493A Expired - Fee Related JP3344577B2 (en) 1996-09-09 2000-06-20 Image encoding device and image encoding method, image decoding device and image decoding method, and recording method

Country Status (1)

Country Link
JP (1) JP3344577B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4114859B2 (en) 2002-01-09 2008-07-09 松下電器産業株式会社 Motion vector encoding method and motion vector decoding method
JP4150742B2 (en) * 2002-01-09 2008-09-17 松下電器産業株式会社 Motion vector decoding method
JP2004088722A (en) 2002-03-04 2004-03-18 Matsushita Electric Ind Co Ltd Motion picture encoding method and motion picture decoding method
US7532808B2 (en) * 2002-03-15 2009-05-12 Nokia Corporation Method for coding motion in a video sequence
CN1976455B (en) * 2002-04-19 2011-12-07 松下电器产业株式会社 Image coding method and device
PT3525467T (en) 2002-04-19 2021-04-08 Panasonic Ip Corp America Bitstream decoding method and apparatus
TWI350695B (en) 2006-10-18 2011-10-11 Realtek Semiconductor Corp Image encoding/decoding apparatus and method thereof

Also Published As

Publication number Publication date
JP2001045498A (en) 2001-02-16

Similar Documents

Publication Publication Date Title
JP3263807B2 (en) Image encoding apparatus and image encoding method
US6031575A (en) Method and apparatus for encoding an image signal, method and apparatus for decoding an image signal, and recording medium
US6330280B1 (en) Method and apparatus for decoding enhancement and base layer image signals using a predicted image signal
JP3413720B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
JP4326743B2 (en) Transcoding method and transcoder for transcoding predictive-encoded object-based image signal to predictive-encoded block-based image signal
JP3413721B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
JPH10155148A (en) Video information coding/decoding device and its method
JP3440830B2 (en) Image encoding apparatus and method, and recording medium
Haskell et al. Mpeg video compression basics
JP4660408B2 (en) Encoding method
JP3344577B2 (en) Image encoding device and image encoding method, image decoding device and image decoding method, and recording method
JP3371191B2 (en) Image signal encoding method and decoding method, and encoding apparatus and decoding apparatus
JP3344576B2 (en) Image encoding device and image encoding method, image decoding device and image decoding method
JP3318707B2 (en) Image signal encoding device and image signal encoding method, image signal decoding device and image signal decoding method, image signal transmission method, and image signal recording medium
JP3263812B2 (en) Image encoding device and image encoding method, and image decoding device and image decoding method
AU731425B2 (en) Picture encoding and decoding
AU759435B2 (en) Picture encoding and decoding
JP3318712B2 (en) Image signal encoding device and image signal encoding method, image signal decoding device and image signal decoding method, image signal transmission method, and image signal recording medium
JPH1141558A (en) Device and method for decoding image signal, and transmission medium
Mandal et al. Digital video compression techniques
Jafari et al. An Efficient Video Transcoding Algorithm Between H. 263 and MPEG-4 for Inter-Network Communications

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080830

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090830

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100830

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110830

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110830

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120830

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120830

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130830

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees